آمازون وب سرویسز (AWS) جدیدترین چیپ هوش مصنوعی آمازون خود، Trainium3، را در رویداد AWS re:Invent 1404 معرفی کرد که عملکردی چهار برابر سریع تر و 40% کارایی انرژی بیشتر نسبت به نسل قبلی ارائه می دهد. همچنین، این شرکت از Trainium4 رونمایی کرد که در آینده با تراشه های انویدیا سازگار خواهد بود.
آمازون وب سرویسز (AWS) که سال هاست مشغول ساخت چیپ هوش مصنوعی آمازون و تراشه های مخصوص آموزش هوش مصنوعی خودش است، به تازگی نسخه جدیدی به نام Trainium3 را با مشخصات واقعا چشمگیر معرفی کرده.
این ارائه دهنده خدمات ابری که این خبر را سه شنبه در پخش زنده رویداد AWS re:Invent 1404 خود اعلام کرد، همچنین محصول بعدی در نقشه راه محصولات آموزش هوش مصنوعی خود را هم به نمایش گذاشت: Trainium4، که در حال حاضر در دست توسعه است و قادر خواهد بود با تراشه های انویدیا کار کند.
AWS از کنفرانس سالانه فناوری خود برای راه اندازی رسمی Trainium3 UltraServer استفاده کرد؛ سیستمی که از تراشه پیشرفته و 3 نانومتری Trainium3 شرکت، و همچنین فناوری شبکه بومی خود AWS نیرو می گیرد. همانطور که انتظار می رود، به گفته AWS، این چیپ هوش مصنوعی آمازون و سیستم نسل سوم، افزایش چشمگیری در عملکرد برای آموزش و استنتاج هوش مصنوعی نسبت به نسل دوم ارائه می دهند.
AWS می گوید این سیستم ها بیش از چهار برابر سریع تر هستند، با چهار برابر حافظه بیشتر، نه فقط برای آموزش، بلکه برای ارائه اپلیکیشن های هوش مصنوعی در اوج تقاضا. علاوه بر این، هزاران UltraServer می توانند به هم متصل شوند تا یک اپلیکیشن را با حداکثر 1 میلیون تراشه Trainium3 تغذیه کنند 10 برابر نسل قبلی. به گفته این شرکت، هر UltraServer می تواند 144 تراشه از چیپ هوش مصنوعی آمازون را میزبانی کند.
شاید مهمتر از آن، AWS می گوید تراشه ها و سیستم ها 40% کارایی انرژی بیشتری نسبت به نسل قبلی دارند. در حالی که دنیا در رقابت برای ساخت مراکز داده بزرگتر با مصرف نجومی گیگاوات برق است، غول مراکز داده یعنی AWS در تلاش است تا سیستم هایی بسازد که کمتر مصرف کنند، نه بیشتر؛ این رویکردی کلیدی برای توسعه هر چیپ هوش مصنوعی آمازون است.
واضح است که انجام این کار مستقیما به نفع AWS است. اما با شیوه کلاسیک و مقرون به صرفه آمازون، قول می دهد که این سیستم ها در هزینه های مشتریان ابری هوش مصنوعی آن نیز صرفه جویی کنند.
آمازون گفت که مشتریان AWS مانند Anthropic (که آمازون نیز در آن سرمایه گذار است)، LLM Karakuri ژاپن، Splashmusic و Decart از قبل از چیپ هوش مصنوعی آمازون و سیستم نسل سوم استفاده کرده اند و هزینه های استنتاج خود را به طور قابل توجهی کاهش داده اند.
معرفی چیپ هوش مصنوعی آمازون؛ Trainium4 در راه است
AWS همچنین بخشی از نقشه راه تراشه بعدی، Trainium4، را که در حال توسعه است، ارائه کرد. AWS قول داد که این تراشه گام بزرگی دیگر در عملکرد خواهد بود و از فناوری اتصال پرسرعت تراشه NVLink Fusion انویدیا پشتیبانی خواهد کرد.
این بدان معناست که سیستم های مجهز به AWS Trainium4، که یک چیپ هوش مصنوعی آمازون پیشرفته است، قادر خواهند بود با GPUهای انویدیا تعامل داشته و عملکرد خود را گسترش دهند، در حالی که همچنان از فناوری رک سرور بومی و کم هزینه آمازون استفاده می کنند.
همچنین شایان ذکر است که CUDA (Compute Unified Device Architecture) انویدیا، به استاندارد بالفعل تبدیل شده که تمام اپلیکیشن های اصلی هوش مصنوعی برای پشتیبانی از آن ساخته شده اند. سیستم های مجهز به Trainium4 از جمله چیپ هوش مصنوعی آمازون ممکن است جذب اپلیکیشن های بزرگ هوش مصنوعی که با در نظر گرفتن GPUهای انویدیا ساخته شده اند را به ابر آمازون آسان تر کند.
آمازون هیچ جدول زمانی برای Trainium4 اعلام نکرد. اگر آمازون از جدول های زمانی عرضه قبلی خود پیروی کند، احتمالا در کنفرانس سال آینده اطلاعات بیشتری درباره Trainium4 خواهیم شنید.
در این مطلب به معرفی نسل جدید تراشه های هوش مصنوعی آمازون، Trainium3 و Trainium4 پرداختیم. این تراشه ها با هدف بهبود عملکرد و کاهش مصرف انرژی در آموزش و استنتاج هوش مصنوعی طراحی شده اند و توانایی پشتیبانی از مقیاس های بزرگ و سازگاری با فناوری های دیگر مانند انویدیا را دارند، که به مشتریان در کاهش هزینه ها و افزایش کارایی کمک می کند.
Amazon releases an impressive new AI chip and teases an Nvidia-friendly roadmap