آمازون وب سرویس (AWS) تمرکز خود بر مدل‌های زبانی سفارشی را دو برابر کرد

آمازون وب سرویس (AWS) تمرکز خود بر مدل‌های زبانی سفارشی را دو برابر کرد

نویسنده

 

آمازون وب سرویس (AWS) سرمایه‌گذاری خود بر مدل‌های زبانی بزرگ سفارشی را دو برابر کرد

شرکت آمازون وب سرویس (AWS) در جریان کنفرانس سالانه خود موسوم به AWS re:Invent، مجموعه‌ای از قابلیت‌های تازه را معرفی کرد که هدف آن ساده‌تر کردن فرآیند ساخت و شخصی‌سازی مدل‌های زبانی بزرگ (LLM) برای توسعه‌دهندگان است.

این اقدام درست پس از معرفی سرویس Nova Forge صورت گرفت؛ سرویسی که به مشتریان سازمانی امکان می‌دهد مدل‌های هوش مصنوعی اختصاصی خود را آموزش دهند. حال AWS با افزودن قابلیت‌های جدید به Amazon Bedrock و Amazon SageMaker، مسیر توسعه مدل‌های پیشرفته را برای شرکت‌ها هموارتر کرده است.

تحلیل:
با این حرکت، AWS به‌وضوح سعی دارد شکاف میان «قابلیت‌های پیشرفته هوش مصنوعی» و «دسترسی عملی سازمان‌ها» را پُر کند — چیزی که رقبایش هنوز به‌طور کامل محقق نکرده‌اند.

انکور مهروترا (Ankur Mehrotra)، مدیرکل پلتفرم‌های هوش مصنوعی در AWS، در گفت‌وگویی توضیح داد که قابلیت تازه‌ی «شخصی‌سازی بدون سرور» در SageMaker به توسعه‌دهندگان اجازه می‌دهد بدون نگرانی از زیرساخت یا منابع محاسباتی، کار ساخت مدل را آغاز کنند. این قابلیت به دو شیوه در دسترس است:

• مسیر «راهنمای خودکار» که با کلیک و انتخاب ساده پیش می‌رود.
• تجربه «عامل‌محور» که در آن توسعه‌دهنده می‌تواند با زبان طبیعی از SageMaker بخواهد مدل را بسازد. این ویژگی فعلاً در حالت پیش‌نمایش عرضه شده است.

این تغییرات نشان می‌دهد AWS قصد دارد رقابت در حوزه‌ی مدل‌های زبانی بزرگ را جدی‌تر دنبال کند و ابزارهایی ارائه دهد که سازمان‌ها بتوانند با هزینه کمتر و سرعت بیشتر، مدل‌های اختصاصی خود را توسعه دهند.

دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
نویسنده
نویسنده

بیوگرافی در دسترس نیست.

آمازون با «AI Factories» مبتنی بر Nvidia در دیتاسنترهای داخلی، رقبا را به چالش می‌کشد.
اخبار هوش مصنوعی

آمازون با «AI Factories» مبتنی بر Nvidia در دیتاسنترهای داخلی، رقبا را به چالش می‌کشد.

نویسنده

 

آمازون با «کارخانه‌های هوش مصنوعی» آن‌پرمیزیِ انویدیا به جنگ رقبا می‌رود

آمازون روز سه‌شنبه از محصولی جدید با نام «کارخانه‌های هوش مصنوعی» (AI Factories) رونمایی کرد که به شرکت‌ها و نهادهای دولتی اجازه می‌دهد سامانه‌های هوش مصنوعی آمازون را در دیتاسنترهای اختصاصی خودشان اجرا کنند. به‌گفتهٔ آمازون وب سرویسز (AWS)، در این مدل مشتری برق و زیرساخت دیتاسنتر را تأمین می‌کند و AWS کل سامانهٔ هوش مصنوعی را در محل نصب، راه‌اندازی و مدیریت کرده و در صورت نیاز آن را به سایر سرویس‌های ابری AWS متصل می‌کند.​

تحلیل
هدف اصلی این حرکت، پاسخ به دغدغهٔ «حاکمیت داده» است؛ یعنی سازمان‌هایی که می‌خواهند کنترل کامل روی داده‌های خود داشته باشند تا این داده‌ها در اختیار رقبای تجاری یا حتی دولت‌های خارجی قرار نگیرد. استقرار «کارخانهٔ هوش مصنوعی» به‌صورت آن‌پرمیسی به این معناست که سازمان‌ها مجبور نیستند داده‌های حساس خود را برای آموزش مدل‌ها به بیرون بفرستند و حتی سخت‌افزار اصلی نیز در مالکیت و کنترل محلی باقی می‌ماند.​

نام این محصول شاید برای فعالان این حوزه آشنا باشد، چون «کارخانهٔ هوش مصنوعی» در اصل برندی است که شرکت انویدیا برای سیستم‌های سخت‌افزاری قدرتمند خود به‌کار می‌برد؛ سیستم‌هایی که از کارت‌های گرافیک (GPU) تا شبکهٔ پرسرعت را برای اجرای مدل‌های هوش مصنوعی یک‌جا عرضه می‌کنند. محصول جدید AWS درواقع حاصل همکاری مشترک آمازون و انویدیا است و هر دو شرکت در اطلاعیه‌های رسمی بر این موضوع تأکید کرده‌اند.

در معماری این «کارخانهٔ هوش مصنوعی» ترکیبی از فناوری‌های آمازون و انویدیا به‌کار گرفته شده است. سازمان‌ها می‌توانند بین جدیدترین پردازنده‌های گرافیکی سری Blackwell انویدیا یا تراشهٔ اختصاصی Trainium3 آمازون برای آموزش مدل‌های هوش مصنوعی انتخاب کنند. در لایهٔ زیرساخت هم از شبکه، ذخیره‌سازی، پایگاه‌داده‌ها و سیستم‌های امنیتی توسعه‌یافته در AWS استفاده می‌شود و این پلتفرم می‌تواند به سرویس Amazon Bedrock (برای انتخاب و مدیریت مدل‌های پایه) و همچنین ابزار AWS SageMaker برای ساخت و آموزش مدل‌ها متصل شود.​

رقابت گسترده در عصر «کارخانه‌های هوش مصنوعی»

در این میدان اما آمازون تنها بازیگر بزرگ نیست و سایر غول‌های ابری هم به‌سرعت مشغول استقرار «کارخانه‌های هوش مصنوعی» مبتنی بر انویدیا هستند. مایکروسافت در ماه اکتبر نخستین سری از «کارخانه‌های هوش مصنوعی» خود را که در دیتاسنترهای جهانی این شرکت برای اجرای بارِ کاری OpenAI راه‌اندازی شده‌اند به نمایش گذاشت، هرچند در آن زمان صحبتی از ارائهٔ این زیرساخت‌ها به‌صورت ابر خصوصی برای مشتریان نشد. مایکروسافت به‌جای آن بیشتر روی استفاده از فناوری دیتاسنترهای انویدیا برای ساخت و اتصال «ابرکارخانه‌های هوش مصنوعی» خود تمرکز کرد؛ همان دیتاسنترهای بسیار پیشرفته‌ای که این شرکت در ایالت‌های ویسکانسن و جورجیا در حال ساخت آن است 

گزارش
مایکروسافت همچنین در ماه گذشته جزئیات برنامهٔ خود برای ساخت دیتاسنترها و ارائهٔ سرویس‌های ابری در کشورهای مختلف، با هدف پاسخ‌گویی به الزامات حاکمیت داده در اروپا را تشریح کرد. طبق اطلاعیهٔ رسمی مایکروسافت، بخشی از این راهکار شامل «Azure Local» است؛ سخت‌افزارهای مدیریت‌شدهٔ خود مایکروسافت که می‌توانند در محل دیتاسنتر یا سایت مشتری نصب شوند و نقش یک ابر محلی تحت کنترل سازمان را ایفا کنند

با کنار هم گذاشتن این تحولات، یک نکتهٔ جالب توجه برای فعالان حوزهٔ زیرساخت و کلود روشن می‌شود: موج هوش مصنوعی باعث شده بزرگ‌ترین ارائه‌دهندگان رایانش ابری دوباره به سرمایه‌گذاری سنگین روی دیتاسنترهای خصوصی سازمانی و معماری‌های «ابر ترکیبی» برگردند؛ فضایی که از نظر معماری، بسیاری را به یاد اوایل دههٔ ۲۰۱۰ و بحث‌های داغ «آن‌پرمیسی در برابر ابر عمومی» می‌اندازد. برای سازمان‌های بزرگ، از جمله آن‌هایی که با محدودیت‌های حاکمیتی یا تحریمی مواجه‌اند، این روند می‌تواند مسیری واقع‌بینانه برای بهره‌گیری از توان هوش مصنوعی در کنار حفظ کنترل حداکثری بر داده‌ها و زیرساخت باشد.

دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
نویسنده
نویسنده

بیوگرافی در دسترس نیست.

{{ userMessage }}
در حال پردازش