نمایشی از حافظه HBM4 جدید برای شتاب‌دهی هوش مصنوعی
نمایشی از حافظه HBM4 جدید برای شتاب‌دهی هوش مصنوعی

میکرون، سامسونگ و SK Hynix از حافظه HBM4 جدید برای شتاب‌دهی هوش مصنوعی رونمایی کردند

احتمالاً در حال حاضر برای پردازنده‌های گرافیکی مصرف‌کننده بسیار گران هستند

خلاصه: رقابت در زمینه شتاب‌دهنده‌های هوش مصنوعی، نوآوری سریعی را در فناوری‌های حافظه با پهنای باند بالا ایجاد می‌کند. در رویداد GTC امسال، غول‌های حافظه سامسونگ، SK Hynix و میکرون از نسل بعدی راهکارهای HBM4 و HBM4e خود که در دست تولید هستند، رونمایی کردند.

نمایی از ساختار HBM4
تکنولوژی HBM4e
حافظه های نسل جدید

در حالی که پردازنده‌های گرافیکی مراکز داده در حال انتقال به HBM3e هستند، نقشه‌های راه حافظه که در Nvidia GTC فاش شد، نشان می‌دهد که HBM4 گام بزرگ بعدی خواهد بود. Computerbase در این رویداد شرکت کرد و خاطرنشان کرد که این استاندارد جدید امکان بهبودهای جدی در تراکم و پهنای باند را نسبت به HBM3 فراهم می‌کند.

SK Hynix اولین پشته HBM4 خود را با ظرفیت 48 گیگابایت متشکل از 16 لایه تراشه 3 گیگابایتی که با سرعت 8 گیگابیت بر ثانیه کار می‌کنند، به نمایش گذاشت. به طور مشابه، سامسونگ و میکرون نیز نمایش‌های HBM4 با 16 لایه مشابه داشتند و سامسونگ ادعا کرد که سرعت‌ها در نهایت در این نسل به 9.2 گیگابیت بر ثانیه خواهند رسید. انتظار می‌رود پشته‌های 12 لایه 36 گیگابایتی برای محصولات HBM4 که در سال 2026 عرضه می‌شوند، رایج‌تر شوند. میکرون می‌گوید که راهکار HBM4 آن عملکرد را در مقایسه با HBM3e بیش از 50 درصد افزایش می‌دهد.

با این حال، سازندگان حافظه در حال حاضر فراتر از HBM4 به HBM4e و نقاط ظرفیت خیره کننده نگاه می‌کنند. نقشه راه سامسونگ خواستار 32 گیگابیت در هر لایه DRAM است که امکان 48 گیگابایت و حتی 64 گیگابایت در هر پشته با نرخ داده بین 9.2 تا 10 گیگابیت بر ثانیه را فراهم می‌کند. SK Hynix به پشته‌های 20 لایه یا بیشتر اشاره کرد که امکان ظرفیت‌های تا 64 گیگابایت را با استفاده از تراشه‌های 3 گیگابایتی خود در HBM4e فراهم می‌کند.

این تراکم‌های بالا برای پردازنده‌های گرافیکی Rubin آینده Nvidia که هدف آن آموزش هوش مصنوعی است، بسیار مهم است. این شرکت فاش کرد که Rubin Ultra از 16 پشته HBM4e برای 1 ترابایت حافظه عظیم در هر پردازنده گرافیکی هنگام ورود در سال 2027 استفاده خواهد کرد. Nvidia ادعا می‌کند که با چهار چیپ‌لت در هر بسته و پهنای باند 4.6 پتابایت بر ثانیه، Rubin Ultra امکان 365 ترابایت حافظه ترکیبی را در سیستم NVL576 فراهم می‌کند.

در حالی که این اعداد چشمگیر هستند، اما با قیمت بسیار بالایی عرضه می‌شوند. VideoCardz خاطرنشان می‌کند که به نظر می‌رسد کارت‌های گرافیک مصرف‌کننده به زودی از انواع HBM استفاده نکنند.

نسل HBM4 و HBM4e یک پل حیاتی برای فعال کردن مقیاس‌بندی عملکرد مداوم هوش مصنوعی است. اگر سازندگان حافظه بتوانند به نقشه‌های راه تراکم و پهنای باند تهاجمی خود در چند سال آینده عمل کنند، به طور گسترده‌ای حجم کاری هوش مصنوعی را که به داده نیاز دارد، افزایش می‌دهد. Nvidia و دیگران روی آن حساب می‌کنند.

اعتبار تصویر: ComputerBase