جلسات درخواستی از اجلاس Low-Code/No-Code را بررسی کنید تا بیاموزید چگونه با ارتقاء مهارت و مقیاسبندی توسعهدهندگان شهروند، نوآوری موفقیتآمیز و دستیابی به کارایی داشته باشید. الان ببین.
سال گذشته، Andreessen Horowitz یک پست وبلاگی تحریک آمیز با عنوان “هزینه ابر، پارادوکس تریلیون دلاری” منتشر کرد. در آن، شرکت سرمایه گذاری خطرپذیر استدلال کرد که مخارج ابری خارج از کنترل باعث می شود شرکت های دولتی میلیاردها دلار سرمایه بالقوه بازار را روی میز بگذارند. این شرکت پیشنهاد میکند یک جایگزین، تنظیم مجدد منابع ابری به یک مدل ترکیبی است. چنین مدلی می تواند سود نهایی شرکت و سرمایه آزاد را برای تمرکز بر محصولات جدید و رشد افزایش دهد.
اینکه آیا شرکتها از این دستورالعمل پیروی میکنند یا خیر، باید دید، اما چیزی که ما با اطمینان میدانیم این است که CIOها خواهان چابکی و عملکرد بیشتر از زیرساختهای پشتیبانی خود هستند. این امر مخصوصاً به این دلیل است که آنها به دنبال استفاده از برنامههای کاربردی هوش مصنوعی/یادگیری ماشینی (AI/ML) پیچیده و فشرده محاسباتی برای بهبود توانایی خود در تصمیمگیری در زمان واقعی و مبتنی بر دادهها هستند.
برای این منظور، ابر عمومی در کمک به ورود هوش مصنوعی به جریان اصلی بنیادی بوده است. اما عواملی که ابر عمومی را به یک میدان آزمایشی ایدهآل برای هوش مصنوعی تبدیل کرده است (یعنی قیمتگذاری انعطافپذیر، سهولت خم شدن به بالا یا پایین، در میان عوامل دیگر) در واقع مانع از تحقق کامل پتانسیل هوش مصنوعی میشود.
در اینجا برخی از ملاحظات برای سازمان هایی وجود دارد که به دنبال بهینه سازی مزایای هوش مصنوعی در محیط خود هستند.
رویداد
اجلاس امنیت هوشمند
نقش حیاتی AI و ML در امنیت سایبری و مطالعات موردی خاص صنعت را در 8 دسامبر بیاموزید. امروز برای پاس رایگان خود ثبت نام کنید.
اکنون ثبت نام کنید
برای هوش مصنوعی، ابر یک اندازه نیست
داده ها رگ حیات شرکت مدرن است، سوختی که بینش های هوش مصنوعی را ایجاد می کند. و از آنجایی که بسیاری از بارهای کاری هوش مصنوعی باید دائماً حجم زیادی از داده ها را دریافت کنند، ضروری است که زیرساخت بتواند از این الزامات به روشی مقرون به صرفه و با کارایی بالا پشتیبانی کند.
رهبران فناوری اطلاعات هنگام تصمیم گیری در مورد چگونگی مقابله با هوش مصنوعی در مقیاس، باید عوامل مختلفی را در نظر بگیرند. اولین مورد این است که آیا کولوکیشن، ابر عمومی یا ترکیب ترکیبی برای پاسخگویی به نیازهای منحصر به فرد برنامههای هوش مصنوعی مدرن مناسبتر است یا خیر.
در حالی که ابر عمومی در ارائه هوش مصنوعی به بازار بسیار ارزشمند بوده است، اما بدون سهم خود از چالش ها نیست. این شامل:
- قفل فروشنده: اکثر سرویس های مبتنی بر ابر خطر قفل شدن را به همراه دارند. با این حال، برخی از سرویسهای هوش مصنوعی مبتنی بر ابر که امروزه در دسترس هستند، بسیار مختص پلتفرم هستند و هر کدام تفاوتهای ظریف خاص خود را دارند و ادغامهای متمایز مرتبط با شرکای خود را دارند. در نتیجه، بسیاری از سازمانها تمایل دارند حجم کاری هوش مصنوعی خود را با یک فروشنده ادغام کنند. این امر تغییر فروشنده را در آینده بدون متحمل شدن هزینه های قابل توجه برای آنها دشوار می کند.
- قیمت گذاری الاستیک: توانایی پرداخت تنها برای آنچه استفاده می کنید، چیزی است که ابر عمومی را به گزینه ای جذاب برای مشاغل، به ویژه آنهایی که امیدوارند هزینه CapEx خود را کاهش دهند، تبدیل می کند. و مصرف یک سرویس ابری عمومی به صورت قطره ای اغلب در کوتاه مدت منطق اقتصادی خوبی دارد. اما سازمانهایی که دید محدودی نسبت به استفاده از ابر خود دارند، اغلب متوجه میشوند که در حال مصرف آن هستند. در آن مرحله این مالیات تبدیل به مالیاتی می شود که نوآوری را خفه می کند.
- هزینه های خروج: با انتقال داده های ابری، مشتری نیازی به پرداخت هزینه داده ای که به ابر ارسال می کند ندارد. اما دریافت این داده ها از فضای ابری مستلزم پرداخت هزینه های خروج است که می تواند به سرعت جمع شود. به عنوان مثال، سیستم های بازیابی بلایا اغلب در مناطق جغرافیایی توزیع می شوند تا از انعطاف پذیری اطمینان حاصل شود. این بدان معناست که در صورت بروز اختلال، داده ها باید به طور مداوم در مناطق در دسترس یا سایر پلتفرم ها کپی شوند. در نتیجه، رهبران فناوری اطلاعات به این موضوع پی میبرند که در یک نقطه خاص، هرچه دادههای بیشتری به ابر عمومی منتقل شود، احتمال بیشتری وجود دارد که در گوشهای مالی قرار بگیرند.
- حاکمیت داده ها: حساسیت و محلی بودن داده ها یکی دیگر از عوامل مهم در تعیین اینکه کدام ارائه دهنده ابر مناسب ترین مناسب است است. علاوه بر این، با اجرایی شدن مجموعهای از مقررات جدید حفظ حریم خصوصی دادهها، مهم است که اطمینان حاصل شود که تمام دادههای مورد استفاده برای هوش مصنوعی در محیطهای ابری عمومی با مقررات رایج حریم خصوصی دادهها مطابقت دارند.
سه سوال قبل از انتقال هوش مصنوعی به ابر
صرفهجویی در مقیاسی که ارائهدهندگان ابر عمومی به روی میز میآورند، آن را به محل اثبات طبیعی برای پروژههای هوش مصنوعی سازمانی امروزی تبدیل کرده است. با این حال، رهبران فناوری اطلاعات قبل از ورود به سیستم ابری عمومی باید سه سوال زیر را در نظر بگیرند تا تعیین کنند که آیا واقعاً بهترین گزینه آنهاست یا خیر.
در چه نقطه ای ابر عمومی از منطق اقتصادی دست می کشد؟
خدمات ابری عمومی مانند AWS و Azure به کاربران این امکان را میدهند که به سرعت و ارزان حجم کاری هوش مصنوعی خود را افزایش دهند زیرا شما فقط برای آنچه استفاده میکنید هزینه میپردازید. با این حال، این هزینهها همیشه قابل پیشبینی نیستند، بهویژه از آنجایی که این نوع حجمهای کاری با حجم زیاد دادهها، به دلیل اینکه به شدت دادههای بیشتری را از منابع مختلف، مانند آموزش و اصلاح مدلهای هوش مصنوعی دریافت میکنند، افزایش مییابند. در حالی که «پرداخت قطرهای» در مقیاس کوچکتر آسانتر، سریعتر و ارزانتر است، طولی نمیکشد که این قطرهها در سطلها جمع میشوند و شما را به سطح قیمت گرانتری سوق میدهد.
شما می توانید هزینه این سطل ها را با تعهد به قراردادهای بلندمدت با تخفیف های حجمی کاهش دهید، اما اقتصاد این قراردادهای چند ساله هنوز به ندرت مشخص می شود. ظهور AI Compute-as-a-a-Service در خارج از ابر عمومی، گزینه هایی را برای کسانی که خواهان راحتی و قابل پیش بینی هزینه مدل مصرف OpEx با قابلیت اطمینان زیرساخت اختصاصی هستند، فراهم می کند.
آیا باید با همه بارهای کاری هوش مصنوعی یکسان رفتار کرد؟
مهم است که به یاد داشته باشید که هوش مصنوعی یک بازی با جمع صفر نیست. اغلب فضا برای زیرساخت های ابری و اختصاصی یا چیزی در این بین (هیبرید) وجود دارد. در عوض، با نگاه کردن به ویژگیهای برنامهها و دادههای خود شروع کنید، و از قبل برای درک الزامات فناوری خاص برای بارهای کاری فردی در محیط خود و نتایج کسبوکار مورد نظر برای هر کدام، وقت بگذارید. سپس به دنبال یک مدل معماری باشید که به شما امکان می دهد با مدل تحویل منابع فناوری اطلاعات مطابق با هر مرحله از سفر توسعه هوش مصنوعی شما مطابقت داشته باشید.
کدام مدل ابری شما را قادر می سازد تا هوش مصنوعی را در مقیاس به کار بگیرید؟
در سرزمین آموزش مدلهای هوش مصنوعی، دادههای تازه باید مرتباً به پشته محاسباتی وارد شود تا قابلیتهای پیشبینی برنامههای هوش مصنوعی که آنها پشتیبانی میکنند بهبود یابد. به این ترتیب، نزدیکی مخازن محاسباتی و داده ها به طور فزاینده ای به معیارهای مهم انتخاب تبدیل شده است. البته، همه بارهای کاری به اتصال اختصاصی و مداوم با پهنای باند بالا نیاز ندارند. اما برای کسانی که این کار را انجام می دهند، تأخیر شبکه بی دلیل می تواند به شدت پتانسیل آنها را مختل کند. فراتر از مسائل مربوط به عملکرد، تعداد فزاینده ای از مقررات حفظ حریم خصوصی داده ها وجود دارد که نحوه و مکان دسترسی و پردازش داده های خاص را دیکته می کند. این مقررات همچنین باید بخشی از فرآیند تصمیم گیری مدل ابری باشد.
ابر عمومی برای وارد کردن هوش مصنوعی به جریان اصلی ضروری بوده است. اما این بدان معنا نیست که اجرای هر برنامه هوش مصنوعی در ابر عمومی منطقی است. سرمایهگذاری زمان و منابع در ابتدای پروژه هوش مصنوعی برای تعیین مدل ابری مناسب، تا حد زیادی به سمت محافظت در برابر شکست پروژه هوش مصنوعی کمک میکند.
هالند بری SVP و CTO در Cyxtera است.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
شما حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان ارائه دهید!
از DataDecisionMakers بیشتر بخوانید