از خشک شدن پروژه های هوش مصنوعی ابری عمومی خودداری کنید


جلسات درخواستی از اجلاس Low-Code/No-Code را بررسی کنید تا بیاموزید چگونه با ارتقاء مهارت و مقیاس‌بندی توسعه‌دهندگان شهروند، نوآوری موفقیت‌آمیز و دستیابی به کارایی داشته باشید. الان ببین.


سال گذشته، Andreessen Horowitz یک پست وبلاگی تحریک آمیز با عنوان “هزینه ابر، پارادوکس تریلیون دلاری” منتشر کرد. در آن، شرکت سرمایه گذاری خطرپذیر استدلال کرد که مخارج ابری خارج از کنترل باعث می شود شرکت های دولتی میلیاردها دلار سرمایه بالقوه بازار را روی میز بگذارند. این شرکت پیشنهاد می‌کند یک جایگزین، تنظیم مجدد منابع ابری به یک مدل ترکیبی است. چنین مدلی می تواند سود نهایی شرکت و سرمایه آزاد را برای تمرکز بر محصولات جدید و رشد افزایش دهد.

اینکه آیا شرکت‌ها از این دستورالعمل پیروی می‌کنند یا خیر، باید دید، اما چیزی که ما با اطمینان می‌دانیم این است که CIOها خواهان چابکی و عملکرد بیشتر از زیرساخت‌های پشتیبانی خود هستند. این امر مخصوصاً به این دلیل است که آنها به دنبال استفاده از برنامه‌های کاربردی هوش مصنوعی/یادگیری ماشینی (AI/ML) پیچیده و فشرده محاسباتی برای بهبود توانایی خود در تصمیم‌گیری در زمان واقعی و مبتنی بر داده‌ها هستند.

برای این منظور، ابر عمومی در کمک به ورود هوش مصنوعی به جریان اصلی بنیادی بوده است. اما عواملی که ابر عمومی را به یک میدان آزمایشی ایده‌آل برای هوش مصنوعی تبدیل کرده است (یعنی قیمت‌گذاری انعطاف‌پذیر، سهولت خم شدن به بالا یا پایین، در میان عوامل دیگر) در واقع مانع از تحقق کامل پتانسیل هوش مصنوعی می‌شود.

در اینجا برخی از ملاحظات برای سازمان هایی وجود دارد که به دنبال بهینه سازی مزایای هوش مصنوعی در محیط خود هستند.

رویداد

اجلاس امنیت هوشمند

نقش حیاتی AI و ML در امنیت سایبری و مطالعات موردی خاص صنعت را در 8 دسامبر بیاموزید. امروز برای پاس رایگان خود ثبت نام کنید.

اکنون ثبت نام کنید

برای هوش مصنوعی، ابر یک اندازه نیست

داده ها رگ حیات شرکت مدرن است، سوختی که بینش های هوش مصنوعی را ایجاد می کند. و از آنجایی که بسیاری از بارهای کاری هوش مصنوعی باید دائماً حجم زیادی از داده ها را دریافت کنند، ضروری است که زیرساخت بتواند از این الزامات به روشی مقرون به صرفه و با کارایی بالا پشتیبانی کند.

رهبران فناوری اطلاعات هنگام تصمیم گیری در مورد چگونگی مقابله با هوش مصنوعی در مقیاس، باید عوامل مختلفی را در نظر بگیرند. اولین مورد این است که آیا کولوکیشن، ابر عمومی یا ترکیب ترکیبی برای پاسخگویی به نیازهای منحصر به فرد برنامه‌های هوش مصنوعی مدرن مناسب‌تر است یا خیر.

در حالی که ابر عمومی در ارائه هوش مصنوعی به بازار بسیار ارزشمند بوده است، اما بدون سهم خود از چالش ها نیست. این شامل:

  • قفل فروشنده: اکثر سرویس های مبتنی بر ابر خطر قفل شدن را به همراه دارند. با این حال، برخی از سرویس‌های هوش مصنوعی مبتنی بر ابر که امروزه در دسترس هستند، بسیار مختص پلتفرم هستند و هر کدام تفاوت‌های ظریف خاص خود را دارند و ادغام‌های متمایز مرتبط با شرکای خود را دارند. در نتیجه، بسیاری از سازمان‌ها تمایل دارند حجم کاری هوش مصنوعی خود را با یک فروشنده ادغام کنند. این امر تغییر فروشنده را در آینده بدون متحمل شدن هزینه های قابل توجه برای آنها دشوار می کند.
  • قیمت گذاری الاستیک: توانایی پرداخت تنها برای آنچه استفاده می کنید، چیزی است که ابر عمومی را به گزینه ای جذاب برای مشاغل، به ویژه آنهایی که امیدوارند هزینه CapEx خود را کاهش دهند، تبدیل می کند. و مصرف یک سرویس ابری عمومی به صورت قطره ای اغلب در کوتاه مدت منطق اقتصادی خوبی دارد. اما سازمان‌هایی که دید محدودی نسبت به استفاده از ابر خود دارند، اغلب متوجه می‌شوند که در حال مصرف آن هستند. در آن مرحله این مالیات تبدیل به مالیاتی می شود که نوآوری را خفه می کند.
  • هزینه های خروج: با انتقال داده های ابری، مشتری نیازی به پرداخت هزینه داده ای که به ابر ارسال می کند ندارد. اما دریافت این داده ها از فضای ابری مستلزم پرداخت هزینه های خروج است که می تواند به سرعت جمع شود. به عنوان مثال، سیستم های بازیابی بلایا اغلب در مناطق جغرافیایی توزیع می شوند تا از انعطاف پذیری اطمینان حاصل شود. این بدان معناست که در صورت بروز اختلال، داده ها باید به طور مداوم در مناطق در دسترس یا سایر پلتفرم ها کپی شوند. در نتیجه، رهبران فناوری اطلاعات به این موضوع پی می‌برند که در یک نقطه خاص، هرچه داده‌های بیشتری به ابر عمومی منتقل شود، احتمال بیشتری وجود دارد که در گوشه‌ای مالی قرار بگیرند.
  • حاکمیت داده ها: حساسیت و محلی بودن داده ها یکی دیگر از عوامل مهم در تعیین اینکه کدام ارائه دهنده ابر مناسب ترین مناسب است است. علاوه بر این، با اجرایی شدن مجموعه‌ای از مقررات جدید حفظ حریم خصوصی داده‌ها، مهم است که اطمینان حاصل شود که تمام داده‌های مورد استفاده برای هوش مصنوعی در محیط‌های ابری عمومی با مقررات رایج حریم خصوصی داده‌ها مطابقت دارند.

سه سوال قبل از انتقال هوش مصنوعی به ابر

صرفه‌جویی در مقیاسی که ارائه‌دهندگان ابر عمومی به روی میز می‌آورند، آن را به محل اثبات طبیعی برای پروژه‌های هوش مصنوعی سازمانی امروزی تبدیل کرده است. با این حال، رهبران فناوری اطلاعات قبل از ورود به سیستم ابری عمومی باید سه سوال زیر را در نظر بگیرند تا تعیین کنند که آیا واقعاً بهترین گزینه آنهاست یا خیر.

در چه نقطه ای ابر عمومی از منطق اقتصادی دست می کشد؟

خدمات ابری عمومی مانند AWS و Azure به کاربران این امکان را می‌دهند که به سرعت و ارزان حجم کاری هوش مصنوعی خود را افزایش دهند زیرا شما فقط برای آنچه استفاده می‌کنید هزینه می‌پردازید. با این حال، این هزینه‌ها همیشه قابل پیش‌بینی نیستند، به‌ویژه از آنجایی که این نوع حجم‌های کاری با حجم زیاد داده‌ها، به دلیل اینکه به شدت داده‌های بیشتری را از منابع مختلف، مانند آموزش و اصلاح مدل‌های هوش مصنوعی دریافت می‌کنند، افزایش می‌یابند. در حالی که «پرداخت قطره‌ای» در مقیاس کوچک‌تر آسان‌تر، سریع‌تر و ارزان‌تر است، طولی نمی‌کشد که این قطره‌ها در سطل‌ها جمع می‌شوند و شما را به سطح قیمت گران‌تری سوق می‌دهد.

شما می توانید هزینه این سطل ها را با تعهد به قراردادهای بلندمدت با تخفیف های حجمی کاهش دهید، اما اقتصاد این قراردادهای چند ساله هنوز به ندرت مشخص می شود. ظهور AI Compute-as-a-a-Service در خارج از ابر عمومی، گزینه هایی را برای کسانی که خواهان راحتی و قابل پیش بینی هزینه مدل مصرف OpEx با قابلیت اطمینان زیرساخت اختصاصی هستند، فراهم می کند.

آیا باید با همه بارهای کاری هوش مصنوعی یکسان رفتار کرد؟

مهم است که به یاد داشته باشید که هوش مصنوعی یک بازی با جمع صفر نیست. اغلب فضا برای زیرساخت های ابری و اختصاصی یا چیزی در این بین (هیبرید) وجود دارد. در عوض، با نگاه کردن به ویژگی‌های برنامه‌ها و داده‌های خود شروع کنید، و از قبل برای درک الزامات فناوری خاص برای بارهای کاری فردی در محیط خود و نتایج کسب‌وکار مورد نظر برای هر کدام، وقت بگذارید. سپس به دنبال یک مدل معماری باشید که به شما امکان می دهد با مدل تحویل منابع فناوری اطلاعات مطابق با هر مرحله از سفر توسعه هوش مصنوعی شما مطابقت داشته باشید.

کدام مدل ابری شما را قادر می سازد تا هوش مصنوعی را در مقیاس به کار بگیرید؟

در سرزمین آموزش مدل‌های هوش مصنوعی، داده‌های تازه باید مرتباً به پشته محاسباتی وارد شود تا قابلیت‌های پیش‌بینی برنامه‌های هوش مصنوعی که آنها پشتیبانی می‌کنند بهبود یابد. به این ترتیب، نزدیکی مخازن محاسباتی و داده ها به طور فزاینده ای به معیارهای مهم انتخاب تبدیل شده است. البته، همه بارهای کاری به اتصال اختصاصی و مداوم با پهنای باند بالا نیاز ندارند. اما برای کسانی که این کار را انجام می دهند، تأخیر شبکه بی دلیل می تواند به شدت پتانسیل آنها را مختل کند. فراتر از مسائل مربوط به عملکرد، تعداد فزاینده ای از مقررات حفظ حریم خصوصی داده ها وجود دارد که نحوه و مکان دسترسی و پردازش داده های خاص را دیکته می کند. این مقررات همچنین باید بخشی از فرآیند تصمیم گیری مدل ابری باشد.

ابر عمومی برای وارد کردن هوش مصنوعی به جریان اصلی ضروری بوده است. اما این بدان معنا نیست که اجرای هر برنامه هوش مصنوعی در ابر عمومی منطقی است. سرمایه‌گذاری زمان و منابع در ابتدای پروژه هوش مصنوعی برای تعیین مدل ابری مناسب، تا حد زیادی به سمت محافظت در برابر شکست پروژه هوش مصنوعی کمک می‌کند.

هالند بری SVP و CTO در Cyxtera است.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

شما حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان ارائه دهید!

از DataDecisionMakers بیشتر بخوانید