در تاریخ 11 تا 12 ژوئیه به مدیران ارشد در سانفرانسیسکو بپیوندید تا بشنوید که چگونه رهبران سرمایهگذاریهای هوش مصنوعی را برای موفقیت ادغام و بهینه میکنند.. بیشتر بدانید
در کنفرانس GTC 2023، انویدیا برنامههای خود را برای هوش مصنوعی گفتاری با توسعه مدل زبان بزرگ (LLM) نشان داد. این غول سخت افزاری در ادامه رشد مهارت نرم افزاری خود مجموعه ای از ابزارها را برای کمک به توسعه دهندگان و سازمان هایی که به سمت پردازش پیشرفته زبان طبیعی (NLP) کار می کنند، اعلام کرده است.
در همین راستا، این شرکت از NeMo و DGX Cloud در بخش نرم افزاری و Hopper GPU در بخش سخت افزاری رونمایی کرد. NeMo، بخشی از خدمات ابری بنیاد هوش مصنوعی Nvidia، مدلهای زبان و گفتار مبتنی بر هوش مصنوعی را ایجاد میکند. DGX Cloud یک پلت فرم زیرساختی است که به طور ویژه برای ارائه خدمات برتر از طریق ابر و اجرای مدلهای AI سفارشی طراحی شده است. در سری جدید سخت افزار هوش مصنوعی انویدیا، پردازنده گرافیکی Hopper که مورد انتظار بود اکنون در دسترس است و آماده است تا استنتاج LLM را در زمان واقعی افزایش دهد.
>>پوشش مداوم Nvidia GTC بهار 2023 VentureBeat را دنبال کنید<<
شماره گیری بارهای کاری LLM در فضای ابری
DGX Cloud انویدیا یک سرویس ابر محاسباتی هوش مصنوعی است که به شرکتها امکان دسترسی فوری به زیرساختها و نرمافزارهای مورد نیاز برای آموزش مدلهای پیشرفته برای LLM، هوش مصنوعی مولد و دیگر برنامههای کاربردی را میدهد.
رویداد
تبدیل 2023
در 11 تا 12 جولای در سانفرانسیسکو به ما بپیوندید، جایی که مدیران ارشد نحوه ادغام و بهینه سازی سرمایه گذاری های هوش مصنوعی برای موفقیت و اجتناب از دام های رایج را به اشتراک می گذارند.
اکنون ثبت نام کنید
DGX Cloud خوشههای اختصاصی ابررایانههای DGX AI را همراه با نرمافزار هوش مصنوعی اختصاصی انویدیا ارائه میکند. این سرویس در واقع به هر شرکتی اجازه می دهد تا از طریق یک مرورگر وب ساده به ابررایانه هوش مصنوعی خود دسترسی داشته باشد و پیچیدگی مربوط به خرید، استقرار و مدیریت زیرساخت های داخلی را از بین ببرد.
علاوه بر این، این سرویس شامل پشتیبانی کارشناسان Nvidia در سراسر خط لوله توسعه هوش مصنوعی است. مشتریان می توانند مستقیماً با مهندسان انویدیا برای بهینه سازی مدل های خود و حل چالش های توسعه در طیف گسترده ای از موارد استفاده صنعتی کار کنند.
جنسن هوانگ، بنیانگذار و مدیر عامل انویدیا، گفت: «ما در لحظه هوش مصنوعی آیفون هستیم. استارتآپها برای ایجاد محصولات و مدلهای کسبوکار مخرب در حال رقابت هستند و شرکتهای فعلی به دنبال پاسخگویی هستند. DGX Cloud به مشتریان امکان دسترسی فوری به ابررایانههای هوش مصنوعی Nvidia در ابرهای مقیاس جهانی را میدهد.
ServiceNow از ابر DGX با ابررایانههای Nvidia DGX در محل برای ابررایانههای هوش مصنوعی ابری هیبریدی انعطافپذیر و مقیاسپذیر استفاده میکند که به تحقیقات هوش مصنوعی آن در مدلهای زبان بزرگ، تولید کد و تحلیل علی کمک میکند.
ServiceNow همچنین در پروژه BigCode، یک ابتکار علمی باز مسئول LLM، که در چارچوب Megatron-LM از Nvidia آموزش دیده است، همکاری می کند.
جرمی بارنز، معاون پلتفرم محصول، هوش مصنوعی در ServiceNow، به VentureBeat گفت: «BigCode با استفاده از توجه چند پرس و جو در کلون Nvidia Megatron-LM که روی یک واحد پردازش گرافیکی A100 اجرا میشود، پیادهسازی شد. این امر منجر به نصف شدن تأخیر استنتاج و افزایش 3.8 برابری توان عملیاتی میشود که نشاندهنده نوع بار کاری ممکن در لبه برشهای LLM و هوش مصنوعی مولد در Nvidia است.»
بارنز گفت که ServiceNow با هدف بهبود تجربه کاربر و نتایج اتوماسیون برای مشتریان است.
بارنز افزود: «فناوریها در گروههای تحقیقاتی مبتنی بر هوش مصنوعی و کاربردی ما توسعه مییابند که بر توسعه مسئولانه مدلهای پایه برای هوش مصنوعی سازمانی متمرکز هستند».
نمونه های ابری DGX از 36999 دلار برای هر نمونه در ماه شروع می شوند.
ساده سازی توسعه هوش مصنوعی گفتاری
سرویس Nvidia NeMo برای کمک به شرکتها در ترکیب LLM با دادههای اختصاصی خود برای بهبود رباتهای گفتگو، خدمات مشتری و سایر برنامهها طراحی شده است. به عنوان بخشی از خانواده سرویسهای ابری تازه راهاندازی شده Nvidia AI Foundations، سرویس Nvidia NeMo به کسبوکارها این امکان را میدهد که شکاف خود را با افزایش LLMهای خود با دادههای اختصاصی برطرف کنند. این به آنها اجازه می دهد تا مکرراً پایگاه دانش یک مدل را از طریق یادگیری تقویتی بدون شروع از ابتدا به روز کنند.
منوویر داس، معاون محاسبات سازمانی در انویدیا، طی یک جلسه مقدماتی GTC گفت: «تاکید فعلی ما بر سفارشیسازی مدلهای LLM است. با استفاده از خدمات ما، شرکتها میتوانند مدلهای زبان را از ابتدا بسازند یا از معماریهای نمونه ما استفاده کنند.»
این قابلیت جدید در سرویس NeMo به مدلهای زبان بزرگ قدرت میدهد تا اطلاعات دقیق را از منابع داده اختصاصی بازیابی کنند و پاسخهای مکالمهای و انسانمانند به پرسشهای کاربر ایجاد کنند.
هدف NeMo این است که به شرکت ها کمک کند تا با چشم انداز دائماً در حال تغییر همگام شوند، قابلیت هایی مانند چت ربات های هوش مصنوعی بسیار دقیق، موتورهای جستجوی سازمانی و ابزارهای هوشمند بازار را باز کنند. با NeMo، شرکتها میتوانند مدلهایی برای NLP، تشخیص خودکار گفتار در زمان واقعی (ASR) و برنامههای کاربردی تبدیل متن به گفتار (TTS) مانند رونویسی تماس ویدیویی، دستیارهای ویدیویی هوشمند و پشتیبانی از مرکز تماس خودکار بسازند.

NeMo میتواند به شرکتها در ساخت مدلهایی کمک کند که میتوانند از یک پایگاه دانش در حال تکامل مستقل از مجموعه دادهای که مدل در ابتدا بر روی آن آموزش دیده بود، یاد بگیرند و با آن سازگار شوند. به جای نیاز به آموزش مجدد یک LLM برای در نظر گرفتن اطلاعات جدید، NeMo می تواند برای جزئیات به روز از منابع داده سازمانی استفاده کند.
این قابلیت به شرکتها اجازه میدهد تا مدلهای زبان بزرگ را با دانش خاص دامنه بهروز شده و بهروز شده برای برنامههای خود شخصیسازی کنند. همچنین شامل توانایی ذکر منابع برای پاسخ های مدل زبان، افزایش اعتماد کاربر به خروجی است.
توسعهدهندگانی که از NeMo استفاده میکنند همچنین میتوانند حفاظهایی را برای تعریف حوزه تخصصی هوش مصنوعی تنظیم کنند و کنترل بهتری بر پاسخهای تولید شده فراهم کنند.
انویدیا گفت که Quantiphi، یک شرکت راهحلها و پلتفرمهای مهندسی دیجیتال، در حال کار با NeMo برای ساخت یک راهحل AI مولد مدولار است تا به شرکتها کمک کند تا LLMهای سفارشیسازی شده را برای بهبود بهرهوری کارگران ایجاد کنند. تیمهای آن همچنین در حال توسعه ابزارهایی هستند که کاربران را قادر میسازد تا در چند ثانیه اطلاعات بهروز را در متن، تصاویر و جداول بدون ساختار جستجو کنند.
معماری LLM در استروئیدها؟
انویدیا همچنین چهار پردازنده گرافیکی استنتاجی را معرفی کرد که برای طیف متنوعی از برنامههای کاربردی LLM و هوش مصنوعی مولد بهینهسازی شدهاند. هدف این پردازندههای گرافیکی کمک به توسعهدهندگان در ایجاد اپلیکیشنهای تخصصی مبتنی بر هوش مصنوعی است که میتوانند خدمات و بینشهای جدید را به سرعت ارائه دهند. علاوه بر این، هر پردازنده گرافیکی به گونهای طراحی شده است که برای بارهای کاری استنتاج هوش مصنوعی خاص بهینه شود و در عین حال دارای نرمافزار تخصصی نیز باشد.
از میان چهار پردازنده گرافیکی معرفی شده در GTC، Nvidia H100 NVL منحصراً برای استقرار LLM طراحی شده است، و آن را به گزینه مناسبی برای استقرار LLM های عظیم مانند ChatGPT در مقیاس تبدیل می کند. H100 NVL دارای 94 گیگابایت حافظه با شتاب موتور ترانسفورماتور است و تا 12 برابر عملکرد استنتاج سریعتری را در GPT-3 در مقایسه با نسل قبلی A100 در مقیاس مرکز داده ارائه میدهد.
علاوه بر این، لایه نرم افزاری GPU شامل مجموعه نرم افزار Nvidia AI Enterprise است. این مجموعه شامل Nvidia TensorRT، کیت توسعه نرمافزار استنتاج یادگیری عمیق با کارایی بالا، و سرور استنتاج Nvidia Triton، یک نرمافزار استنتاج منبع باز است که استقرار مدل را استاندارد میکند.
پردازنده گرافیکی H100 NVL در نیمه دوم سال جاری عرضه خواهد شد.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.