هوش مصنوعی گفتاری، ابر محاسبات در فضای ابری، و پردازنده‌های گرافیکی برای LLMها و هوش مصنوعی مولد از جمله اقدامات بزرگ بعدی انویدیا هستند.


در تاریخ 11 تا 12 ژوئیه به مدیران ارشد در سانفرانسیسکو بپیوندید تا بشنوید که چگونه رهبران سرمایه‌گذاری‌های هوش مصنوعی را برای موفقیت ادغام و بهینه می‌کنند.. بیشتر بدانید


در کنفرانس GTC 2023، انویدیا برنامه‌های خود را برای هوش مصنوعی گفتاری با توسعه مدل زبان بزرگ (LLM) نشان داد. این غول سخت افزاری در ادامه رشد مهارت نرم افزاری خود مجموعه ای از ابزارها را برای کمک به توسعه دهندگان و سازمان هایی که به سمت پردازش پیشرفته زبان طبیعی (NLP) کار می کنند، اعلام کرده است.

در همین راستا، این شرکت از NeMo و DGX Cloud در بخش نرم افزاری و Hopper GPU در بخش سخت افزاری رونمایی کرد. NeMo، بخشی از خدمات ابری بنیاد هوش مصنوعی Nvidia، مدل‌های زبان و گفتار مبتنی بر هوش مصنوعی را ایجاد می‌کند. DGX Cloud یک پلت فرم زیرساختی است که به طور ویژه برای ارائه خدمات برتر از طریق ابر و اجرای مدل‌های AI سفارشی طراحی شده است. در سری جدید سخت افزار هوش مصنوعی انویدیا، پردازنده گرافیکی Hopper که مورد انتظار بود اکنون در دسترس است و آماده است تا استنتاج LLM را در زمان واقعی افزایش دهد.

>>پوشش مداوم Nvidia GTC بهار 2023 VentureBeat را دنبال کنید<<

شماره گیری بارهای کاری LLM در فضای ابری

DGX Cloud انویدیا یک سرویس ابر محاسباتی هوش مصنوعی است که به شرکت‌ها امکان دسترسی فوری به زیرساخت‌ها و نرم‌افزارهای مورد نیاز برای آموزش مدل‌های پیشرفته برای LLM، هوش مصنوعی مولد و دیگر برنامه‌های کاربردی را می‌دهد.

رویداد

تبدیل 2023

در 11 تا 12 جولای در سانفرانسیسکو به ما بپیوندید، جایی که مدیران ارشد نحوه ادغام و بهینه سازی سرمایه گذاری های هوش مصنوعی برای موفقیت و اجتناب از دام های رایج را به اشتراک می گذارند.

اکنون ثبت نام کنید

DGX Cloud خوشه‌های اختصاصی ابررایانه‌های DGX AI را همراه با نرم‌افزار هوش مصنوعی اختصاصی انویدیا ارائه می‌کند. این سرویس در واقع به هر شرکتی اجازه می دهد تا از طریق یک مرورگر وب ساده به ابررایانه هوش مصنوعی خود دسترسی داشته باشد و پیچیدگی مربوط به خرید، استقرار و مدیریت زیرساخت های داخلی را از بین ببرد.

علاوه بر این، این سرویس شامل پشتیبانی کارشناسان Nvidia در سراسر خط لوله توسعه هوش مصنوعی است. مشتریان می توانند مستقیماً با مهندسان انویدیا برای بهینه سازی مدل های خود و حل چالش های توسعه در طیف گسترده ای از موارد استفاده صنعتی کار کنند.

جنسن هوانگ، بنیانگذار و مدیر عامل انویدیا، گفت: «ما در لحظه هوش مصنوعی آیفون هستیم. استارت‌آپ‌ها برای ایجاد محصولات و مدل‌های کسب‌وکار مخرب در حال رقابت هستند و شرکت‌های فعلی به دنبال پاسخگویی هستند. DGX Cloud به مشتریان امکان دسترسی فوری به ابررایانه‌های هوش مصنوعی Nvidia در ابرهای مقیاس جهانی را می‌دهد.

ServiceNow از ابر DGX با ابررایانه‌های Nvidia DGX در محل برای ابررایانه‌های هوش مصنوعی ابری هیبریدی انعطاف‌پذیر و مقیاس‌پذیر استفاده می‌کند که به تحقیقات هوش مصنوعی آن در مدل‌های زبان بزرگ، تولید کد و تحلیل علی کمک می‌کند.

ServiceNow همچنین در پروژه BigCode، یک ابتکار علمی باز مسئول LLM، که در چارچوب Megatron-LM از Nvidia آموزش دیده است، همکاری می کند.

جرمی بارنز، معاون پلتفرم محصول، هوش مصنوعی در ServiceNow، به VentureBeat گفت: «BigCode با استفاده از توجه چند پرس و جو در کلون Nvidia Megatron-LM که روی یک واحد پردازش گرافیکی A100 اجرا می‌شود، پیاده‌سازی شد. این امر منجر به نصف شدن تأخیر استنتاج و افزایش 3.8 برابری توان عملیاتی می‌شود که نشان‌دهنده نوع بار کاری ممکن در لبه برش‌های LLM و هوش مصنوعی مولد در Nvidia است.»

بارنز گفت که ServiceNow با هدف بهبود تجربه کاربر و نتایج اتوماسیون برای مشتریان است.

بارنز افزود: «فناوری‌ها در گروه‌های تحقیقاتی مبتنی بر هوش مصنوعی و کاربردی ما توسعه می‌یابند که بر توسعه مسئولانه مدل‌های پایه برای هوش مصنوعی سازمانی متمرکز هستند».

نمونه های ابری DGX از 36999 دلار برای هر نمونه در ماه شروع می شوند.

ساده سازی توسعه هوش مصنوعی گفتاری

سرویس Nvidia NeMo برای کمک به شرکت‌ها در ترکیب LLM با داده‌های اختصاصی خود برای بهبود ربات‌های گفتگو، خدمات مشتری و سایر برنامه‌ها طراحی شده است. به عنوان بخشی از خانواده سرویس‌های ابری تازه راه‌اندازی شده Nvidia AI Foundations، سرویس Nvidia NeMo به کسب‌وکارها این امکان را می‌دهد که شکاف خود را با افزایش LLM‌های خود با داده‌های اختصاصی برطرف کنند. این به آنها اجازه می دهد تا مکرراً پایگاه دانش یک مدل را از طریق یادگیری تقویتی بدون شروع از ابتدا به روز کنند.

منوویر داس، معاون محاسبات سازمانی در انویدیا، طی یک جلسه مقدماتی GTC گفت: «تاکید فعلی ما بر سفارشی‌سازی مدل‌های LLM است. با استفاده از خدمات ما، شرکت‌ها می‌توانند مدل‌های زبان را از ابتدا بسازند یا از معماری‌های نمونه ما استفاده کنند.»

این قابلیت جدید در سرویس NeMo به مدل‌های زبان بزرگ قدرت می‌دهد تا اطلاعات دقیق را از منابع داده اختصاصی بازیابی کنند و پاسخ‌های مکالمه‌ای و انسان‌مانند به پرسش‌های کاربر ایجاد کنند.

هدف NeMo این است که به شرکت ها کمک کند تا با چشم انداز دائماً در حال تغییر همگام شوند، قابلیت هایی مانند چت ربات های هوش مصنوعی بسیار دقیق، موتورهای جستجوی سازمانی و ابزارهای هوشمند بازار را باز کنند. با NeMo، شرکت‌ها می‌توانند مدل‌هایی برای NLP، تشخیص خودکار گفتار در زمان واقعی (ASR) و برنامه‌های کاربردی تبدیل متن به گفتار (TTS) مانند رونویسی تماس ویدیویی، دستیارهای ویدیویی هوشمند و پشتیبانی از مرکز تماس خودکار بسازند.

معماری Nvidia NeMo
معماری NeMo منبع تصویر: انویدیا

NeMo می‌تواند به شرکت‌ها در ساخت مدل‌هایی کمک کند که می‌توانند از یک پایگاه دانش در حال تکامل مستقل از مجموعه داده‌ای که مدل در ابتدا بر روی آن آموزش دیده بود، یاد بگیرند و با آن سازگار شوند. به جای نیاز به آموزش مجدد یک LLM برای در نظر گرفتن اطلاعات جدید، NeMo می تواند برای جزئیات به روز از منابع داده سازمانی استفاده کند.

این قابلیت به شرکت‌ها اجازه می‌دهد تا مدل‌های زبان بزرگ را با دانش خاص دامنه به‌روز شده و به‌روز شده برای برنامه‌های خود شخصی‌سازی کنند. همچنین شامل توانایی ذکر منابع برای پاسخ های مدل زبان، افزایش اعتماد کاربر به خروجی است.

توسعه‌دهندگانی که از NeMo استفاده می‌کنند همچنین می‌توانند حفاظ‌هایی را برای تعریف حوزه تخصصی هوش مصنوعی تنظیم کنند و کنترل بهتری بر پاسخ‌های تولید شده فراهم کنند.

انویدیا گفت که Quantiphi، یک شرکت راه‌حل‌ها و پلتفرم‌های مهندسی دیجیتال، در حال کار با NeMo برای ساخت یک راه‌حل AI مولد مدولار است تا به شرکت‌ها کمک کند تا LLM‌های سفارشی‌سازی شده را برای بهبود بهره‌وری کارگران ایجاد کنند. تیم‌های آن همچنین در حال توسعه ابزارهایی هستند که کاربران را قادر می‌سازد تا در چند ثانیه اطلاعات به‌روز را در متن، تصاویر و جداول بدون ساختار جستجو کنند.

معماری LLM در استروئیدها؟

انویدیا همچنین چهار پردازنده گرافیکی استنتاجی را معرفی کرد که برای طیف متنوعی از برنامه‌های کاربردی LLM و هوش مصنوعی مولد بهینه‌سازی شده‌اند. هدف این پردازنده‌های گرافیکی کمک به توسعه‌دهندگان در ایجاد اپلیکیشن‌های تخصصی مبتنی بر هوش مصنوعی است که می‌توانند خدمات و بینش‌های جدید را به سرعت ارائه دهند. علاوه بر این، هر پردازنده گرافیکی به گونه‌ای طراحی شده است که برای بارهای کاری استنتاج هوش مصنوعی خاص بهینه شود و در عین حال دارای نرم‌افزار تخصصی نیز باشد.

از میان چهار پردازنده گرافیکی معرفی شده در GTC، Nvidia H100 NVL منحصراً برای استقرار LLM طراحی شده است، و آن را به گزینه مناسبی برای استقرار LLM های عظیم مانند ChatGPT در مقیاس تبدیل می کند. H100 NVL دارای 94 گیگابایت حافظه با شتاب موتور ترانسفورماتور است و تا 12 برابر عملکرد استنتاج سریع‌تری را در GPT-3 در مقایسه با نسل قبلی A100 در مقیاس مرکز داده ارائه می‌دهد.

علاوه بر این، لایه نرم افزاری GPU شامل مجموعه نرم افزار Nvidia AI Enterprise است. این مجموعه شامل Nvidia TensorRT، کیت توسعه نرم‌افزار استنتاج یادگیری عمیق با کارایی بالا، و سرور استنتاج Nvidia Triton، یک نرم‌افزار استنتاج منبع باز است که استقرار مدل را استاندارد می‌کند.

پردازنده گرافیکی H100 NVL در نیمه دوم سال جاری عرضه خواهد شد.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.