هوش مصنوعی و یادگیری فناوری (AI و ML) فناوریهای کلیدی هستند که به سازمانها کمک میکنند تا راههای جدیدی را برای افزایش فروش، کاهش هزینهها، بهبود فرآیندهای کسبوکار، و دسترسی به فناوری توسعه دهند. AWS مشتریان را قادر میسازد تا با ارائه محاسبات قدرتمند، اتصال سریع، و امکان ذخیرهسازی کارآمد گزینههای برنامه برای هر برنامه، پذیرش هوش مصنوعی / ML خود را تسریع بخشند. این امر تأثیر دسترسی به سازمان هایی را که به دنبال استفاده از ابر برای اندازه گیری برنامه های کاربردی ML خود هستند، به حداقل می رساند.
توسعه دهندگان و دانشمندان داده مرزهای فناوری را جابجا کرده و یادگیری عمیق بیشتر را افزایش داده اند، که فناوری مبتنی بر الگوریتم های شبکه عصبی است. این استانداردهای یادگیری عمیق بزرگتر و پیچیدهتر هستند، که منجر به افزایش هزینهها برای اجرای فرآیند اساسی برای آموزش و اجرای این استانداردها میشود.
برای کمک به مشتریان در تسریع تحول AI / ML خود، AWS در حال توسعه فناوری با کارایی بالا و کم هزینه است. AWS Inferentia اولین تراشه یادگیری فناوری است که از پایه توسط AWS برای استنتاج فناوری کمترین هزینه در فضای ابری توسعه یافته است. در واقع، نمونه اولیه آمازون EC2 Inf1 که توسط Inferentia استفاده میشود، 2.3 برابر عملکرد بهتر و تا 70 درصد هزینه کمتری را برای استنتاج یادگیری ماشین نسبت به نمونه اولیه EC2 مبتنی بر GPU ارائه میکند. AWS Trainium دومین وسیله آموزشی از AWS است که هدف آن ارائه استانداردهای آموزشی عمیق است و در سال 2021 در دسترس خواهد بود.
مشتریان در سراسر صنعت از برنامه های کاربردی ML خود در فرآیند تولید Inferentia استفاده کرده اند و شاهد بهبود عملکرد و کاهش هزینه ها بوده اند. به عنوان مثال، پلت فرم پشتیبانی مشتری AirBnB خدمات تخصصی، قابل اندازه گیری و منحصر به فرد را به جامعه میلیون ها مالک و مشتری خود در سراسر جهان ارائه می دهد. برای مثال از EC2 Inf1 مبتنی بر Inferentia برای استفاده از پروتکلهای پردازش زبان طبیعی (NLP) استفاده میکند که از چتباتهای آن پشتیبانی میکند. به عنوان مثال، این منجر به بهبود 2 برابری در عملکرد خارج از جعبه نسبت به مبتنی بر GPU شد.
با این نوآوریها در سیلیکون، AWS این امکان را برای مشتریان فراهم میکند که استانداردهای آموزشی عمیق خود را در تولید ساده با عملکرد بالا و تحویل با هزینههای کمتر آموزش داده و تکمیل کنند.
آموزش فناوری به سرعت در حال تغییر به زیرساخت های مبتنی بر ابر است
یادگیری ماشینی فرآیندی است که تیمها را ملزم میکند تا برنامهها را به سرعت طراحی، آموزش دهند و ارسال کنند، همچنین چندین بار آموزش، تکرار و آزمایش کنند تا از صحت طراحی اطمینان حاصل کنند. هنگامی که از مدل های آموزشی در برنامه تجاری خود استفاده می کنند، سازمان ها باید برنامه های خود را ارزیابی کنند تا به کاربران جدید در سراسر جهان کمک کنند. آنها باید بتوانند چندین درخواست را که به طور همزمان وارد می شوند با تأخیر نزدیک رسیدگی کنند تا از تجربه کاربری بهتر اطمینان حاصل کنند.
انتظار می رود استفاده از رویدادهای دنیای واقعی مانند کشف مواد، پردازش زبان طبیعی (NLP)، توزیع تصویر، هوش مصنوعی تعاملی و داده کاوی در زمان واقعی عمیق باشد. استانداردهای یادگیری عمیق از نظر اندازه و پیچیدگی گسترش یافته و تنها در چند سال از میلیون ها نفر به میلیون ها نفر می رسد.
آموزش و اجرای این استانداردها و طراحی موثر به معنای هزینه های قابل توجه توسعه است. هزینهها میتواند باعث شود که گلولههای برفی به سرعت عظیم شوند زیرا سازمانها برنامههای کاربردی خود را اندازهگیری میکنند تا تجربیات گذشته را به مشتریان و مصرفکنندگان خود نزدیکتر کنند.
این جایی است که خدمات زیرساخت یادگیری فناوری مبتنی بر ابر می تواند کمک کند. ابر نیاز به دسترسی به محاسبات، ادغام با کارایی بالا، و داده های بزرگ، همراه با خدمات ML و AI با عملکرد بالا را فراهم می کند تا سازمان ها را قادر سازد تا فوراً شروع به کار کرده و کمپین های AI / ML خود را افزایش دهند.
چگونه AWS به مشتریان کمک می کند تا تحول AI / ML خود را تسریع کنند
AWS Inferentia و AWS Trainium بر استقلال یادگیری ماشین تمرکز میکنند و آن را بدون توجه به تجربه قبلی و اندازه سازمان در دسترس توسعهدهندگان قرار میدهند. طراحی Inferentia برای عملکرد، توان عملیاتی و تاخیر کم بهینه شده است که آن را برای استقرار استنتاج ML در مقیاس ایده آل می کند.
هر تراشه AWS Inferentia دارای چهار هسته عصبی است که از یک موتور چند موتوره ماتریس آرایه سیستولیک با کارایی بالا استفاده می کند، که برای یادگیری عمیق، مانند کانولوشن و ترانسفورماتور، سرعت می بخشد. NeuronCores همچنین مجهز به یک پایه حافظه بزرگ است که به کاهش نفوذ سایر حافظه ها، کاهش تاخیر و افزایش نفوذ کمک می کند.
AWS Neuron، یک ابزار توسعه نرم افزار برای Inferentia، همیشه از پروتکل های ML مانند TensorFlow و PyTorch پشتیبانی می کند. توسعه دهندگان می توانند به استفاده از همان طراحی و ابزارهای زندگی که می شناسند و از آن لذت می برند، ادامه دهند. برای بسیاری از مدل های آموزشی خود، آنها می توانند بدون تغییر بیشتر در برنامه، آنها را با تبادل یک خط اعداد بنویسند و به Inferentia ارسال کنند.
نتیجه عملکرد بهتری نسبت به خروجی است که با کنترل هزینه ها به راحتی قابل اندازه گیری است.
Sprinklr، یک شرکت خدماتی مبتنی بر نرمافزار، یکپارچهسازی مبتنی بر هوش مصنوعی از پلتفرم مدیریت مصرفکننده را ارائه میدهد که شرکتها را قادر میسازد تا پاسخها را به کاربران جمعآوری و ترجمه کنند. محصولات بهموقع از طرق مختلف برای درک مطلب. این منجر به راه حل های بهتر، بهبود بازاریابی محصول، بهبود محتوای تجاری و خدمات بهتر به مشتریان می شود. Sprinklr از Inferentia برای ارائه NLP و برخی از مدل های کامپیوتری خود استفاده کرد و شاهد پیشرفت های قابل توجهی بود.
بسیاری از خدمات آمازون نیز از مدل یادگیری فناوری خود از Inferentia استفاده می کنند.
Amazon Prime Video از یک مدل غیر بصری ML برای شناسایی بهترین ویدیوهای رویدادهای زنده استفاده می کند تا از سازگاری اعضای Prime Video اطمینان حاصل کند. این مدل از مدل توزیع گرافیکی ML خود از نمونه EC2 Inf1 استفاده کرده است و شاهد بهبود 4 برابری در عملکرد و تا 40 درصد کاهش هزینه در مقایسه با نمونه مبتنی بر GPU بوده است.
مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون استفاده می شود که امروزه بیش از 100 میلیون دستگاه دارد. الکسا به مشتریان قول می دهد که همیشه هوشمندتر، تعاملی تر، کارآمدتر و شادتر خواهد بود. انجام این تعهد مستلزم بهبود مستمر در زمان پاسخگویی و هزینه های فناوری است. به عنوان مثال، با ارائه مدل ML متن به گفتار الکسا در Inf1، میتواند تأخیر استنتاج را تا 25 درصد و هزینه به ازای استنتاج را تا 30 درصد کاهش دهد تا خدمات دهها میلیون نفر را که هر ماه از الکسا استفاده میکنند، بهبود بخشد.
راه اندازی قابلیت های جدید یادگیری ماشینی در فضای ابری
از آنجایی که شرکتها با ارائه بهترین محصولات و خدمات دیجیتال برای اثبات آینده کسبوکار خود رقابت میکنند، هیچ سازمانی نمیتواند از استفاده از این استانداردهای آموزشی برای بهبود تجربه قبلی خود عقب بماند. طی چند سال گذشته، افزایش بیشتری در یادگیری ماشین برای کاربردهای مختلف، از پیشبینیهای شخصی و انحرافی گرفته تا زنجیرههای تقلب و پیشبینی، افزایش یافته است.
خوشبختانه، زیرساختهای یادگیری فناوری در فضای ابری قابلیتهای جدیدی را ارائه کرده است که قبلا غیرممکن بود، و آن را برای افراد غیرحرفهای بیشتر در دسترس قرار داده است. به همین دلیل است که مشتریان AWS قبلاً از Amazon EC2 Inf1 مبتنی بر Inferentia استفاده کردهاند تا به عنوان مثال، تخصص پشت صحنه در موتورهای چت و رباتهای چت خود را ارائه دهند و از مصرفکنندگان تأییدیه بگیرند.
با انتخاب زیرساختهای یادگیری ماشین مبتنی بر ابر AWS که متناسب با تمام سطوح تخصص باشد، واضح است که هر سازمانی میتواند کل چرخه زندگی یادگیری ماشین را در مقیاسی نوآوری و پشتیبانی کند. همانطور که تکنولوژی به تکامل خود ادامه می دهد، سازمان ها اکنون می توانند مزایای مصرف کنندگان – و کسب و کار آنها – را با خدمات مقرون به صرفه و با کارایی بالا به عنوان یادگیری ماشین تغییر دهند.
در اینجا درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.
این محتوا توسط AWS توسعه یافته است. این توسط تحریریه MIT Technology Review نوشته نشده است.