آیرون‌وود، پاسخ گوگل به بحران کمبود GPU

دیگر بر کسی پوشیده نیست که هوش مصنوعی تشنه GPU است—و سام آلتمن از OpenAI مدام تاکید می‌کند که چقدر فوری به GPUهای بیشتری نیاز دارند. او اخیراً در X پست کرد: «تا آنجا که می‌توانیم سریع کار می‌کنیم تا واقعاً همه چیز را به حرکت درآوریم. اگر کسی ظرفیت GPU به صورت تکه‌های 100k در اسرع وقت دارد، لطفاً تماس بگیرد.» این تقاضا حتی زمانی بیشتر شد که کاربران ChatGPT را با درخواست‌های تصویر به سبک گیبلی پر کردند و آلتمن را بر آن داشت تا از مردم بخواهد سرعت خود را کم کنند.

اینجاست که گوگل یک مزیت متمایز دارد. برخلاف OpenAI، این شرکت کاملاً به ارائه دهندگان سخت افزار شخص ثالث وابسته نیست. در Google Cloud Next 2025، این شرکت از آیرون‌وود، هفتمین نسل واحد پردازش تانسور (TPU) خود، که به‌طور خاص برای استنتاج طراحی شده است، رونمایی کرد. این یک بخش کلیدی از معماری هایپرکامپیوتر هوش مصنوعی گسترده‌تر گوگل است.

گوگل گفت: «آیرون‌وود قدرتمندترین، توانمندترین و کم‌مصرف‌ترین TPU ما تا به امروز است. و این هدفمند ساخته شده است تا مدل‌های هوش مصنوعی استنتاجی و تفکری را در مقیاس بزرگ تقویت کند.» این غول فناوری گفت که امروزه، ما در «عصر استنتاج» زندگی می‌کنیم، جایی که عوامل هوش مصنوعی به طور فعال به جستجو، تفسیر و تولید بینش می‌پردازند به جای اینکه فقط با داده‌های خام پاسخ دهند.

این شرکت در ادامه گفت که آیرون‌وود برای مدیریت محاسبات پیچیده و نیازهای ارتباطی مدل‌های تفکر، مانند مدل‌های زبانی بزرگ و سیستم‌های ترکیبی از متخصصان، ساخته شده است. این شرکت افزود که با آیرون‌وود، مشتریان دیگر مجبور نیستند بین مقیاس محاسباتی و عملکرد یکی را انتخاب کنند.

به گفته این غول فناوری، آیرون‌وود اواخر امسال در دسترس مشتریان Google Cloud قرار خواهد گرفت. این شرکت در حال حاضر از مدل‌های پیشرفته، از جمله Gemini 2.5 Pro و AlphaFold پشتیبانی می‌کند. این شرکت همچنین اخیراً اعلام کرد که ویژگی تحقیقات عمیق در برنامه Gemini اکنون توسط Gemini 2.5 Pro پشتیبانی می‌شود.

گوگل اعلام کرد که بیش از 60 درصد از استارت‌آپ‌های هوش مصنوعی مولد تامین مالی شده و نزدیک به 90 درصد از تک‌شاخ‌های هوش مصنوعی مولد (استارت‌آپ‌هایی که ارزش آنها 1 میلیارد دلار یا بیشتر است) مشتریان Google Cloud هستند. در سال 2024، اپل فاش کرد که از 8192 تراشه TPU v4 در Google Cloud برای آموزش «مدل پایه اپل» خود، یک مدل زبانی بزرگ که به ابتکارات هوش مصنوعی آن قدرت می‌دهد، استفاده کرده است. این یکی از اولین پذیرش‌های برجسته در خارج از اکوسیستم گوگل بود.

آیرون‌وود به طور خاص برای کاهش حرکت داده‌ها و تأخیر روی تراشه در طول عملیات تانسور در مقیاس بزرگ بهینه شده است. از آنجایی که مقیاس این مدل‌ها از ظرفیت یک تراشه فراتر می‌رود، TPUهای آیرون‌وود مجهز به یک شبکه اتصال داخلی (ICI) با تأخیر کم و پهنای باند بالا هستند که امکان ارتباط همزمان و هماهنگ بین کل پاد TPU را فراهم می‌کند.

این TPU از دو پیکربندی پشتیبانی می‌کند، یکی با 256 تراشه و دیگری با 9216 تراشه. نسخه کامل 42.5 اگزافلاپ محاسباتی ارائه می‌دهد که بیش از 24 برابر عملکرد ابررایانه ال کاپیتان است که 1.7 اگزافلاپ در هر پاد ارائه می‌دهد. هر تراشه آیرون‌وود 4614 TFLOPs اوج محاسباتی را ارائه می‌دهد.

به گفته گوگل، آیرون‌وود تقریباً دو برابر کم‌مصرف‌تر از Trillium و تقریباً 30 برابر کارآمدتر از اولین Cloud TPU خود است که در سال 2018 عرضه شد. خنک‌سازی مایع عملکرد مداوم را تحت بار پایدار امکان‌پذیر می‌کند و محدودیت‌های انرژی مرتبط با هوش مصنوعی در مقیاس بزرگ را برطرف می‌کند.

چرا گوگل عاشق TPUها است؟

متاسفانه گوگل TPUها را به عنوان یک محصول مستقل ارائه نمی‌دهد. اریک برنهاردسون، بنیانگذار Modal Labs گفت: «گوگل باید تیم TPU خود را به یک کسب و کار جداگانه تبدیل کند، سهام بزرگی را حفظ کند و آن را عمومی کند. یک راه آسان و آسان برای به دست آوردن یک میلیارد دلار.»

اگر گوگل شروع به فروش TPUها کند، قطعاً شاهد تقاضای قوی در بازار خواهد بود. این تراشه‌ها قادر به آموزش مدل‌ها نیز هستند. به عنوان مثال، گوگل از Trillium TPUها برای آموزش Gemini 2.0 استفاده کرد و اکنون، هم شرکت‌ها و هم استارت‌آپ‌ها می‌توانند از همان زیرساخت قدرتمند و کارآمد استفاده کنند.

جالب اینجاست که TPUها در اصل برای خدمات مبتنی بر هوش مصنوعی گوگل، از جمله جستجوی گوگل، ترجمه گوگل، عکس‌های گوگل و یوتیوب توسعه یافته‌اند.

یک گزارش اخیر می‌گوید که گوگل ممکن است با MediaTek برای ساخت TPUهای نسل بعدی خود همکاری کند. یکی از دلایل این حرکت می‌تواند روابط نزدیک MediaTek با TSMC باشد که هزینه‌های تراشه کمتری را نسبت به Broadcom به گوگل ارائه می‌دهد.

شایان ذکر است که در اوایل سال جاری، گوگل سرمایه گذاری 75 میلیارد دلاری در هزینه‌های سرمایه‌ای برای سال 2025 اعلام کرد.

در آخرین تماس تلفنی، آنات آشکنازی، مدیر ارشد مالی گوگل، اعتراف کرد که هنگام سرمایه گذاری در ساخت مراکز داده، از داشتن TPUها سود می‌برد. وی گفت: «استراتژی ما این است که بیشتر به مراکز داده خود تکیه کنیم، به این معنی که آنها بیشتر متناسب با نیازهای ما هستند. TPUهای ما برای حجم کاری و نیازهای ما سفارشی شده‌اند. بنابراین، این به ما این امکان را می‌دهد که با آن سرمایه‌گذاری و هزینه کارآمدتر و پربارتر باشیم.»

بر اساس تخمین‌های شرکت تحقیقاتی Omdia، گوگل گزارش شده است که بین 6 تا 9 میلیارد دلار برای TPUها در سال گذشته هزینه کرده است. علیرغم سرمایه گذاری خود در تراشه‌های سفارشی، گوگل همچنان یک مشتری بزرگ NVIDIA است.

بر اساس یک گزارش اخیر، این غول جستجو در مذاکرات پیشرفته برای اجاره تراشه‌های Blackwell NVIDIA از CoreWeave، یک بازیگر در حال ظهور در فضای محاسبات ابری است. این ثابت می‌کند که حتی مشتریان برتر NVIDIA مانند گوگل نیز در تامین تراشه‌های کافی برای برآوردن تقاضای رو به رشد کاربران خود با مشکل مواجه هستند.

علاوه بر این، ادغام GPUها از دیگران مانند NVIDIA نیز آسان نیست - ارائه دهندگان خدمات ابری باید زیرساخت خود را دوباره طراحی کنند. در تعامل اخیر با AIM، Karan Batta، معاون ارشد رئیس جمهور، Oracle Cloud Infrastructure (OCI)، گفت که اکثر مراکز برای خنک‌سازی مایع آماده نیستند و پیچیدگی مدیریت گرمای تولید شده توسط نسل جدید GPUهای NVIDIA Blackwell را می‌پذیرند.

وی افزود که ارائه دهندگان خدمات ابری باید بین خنک‌سازی غیرفعال یا فعال، سیستم‌های حلقه کامل یا رویکردهای سایدکار برای ادغام موثر خنک‌سازی مایع یکی را انتخاب کنند. باتا در ادامه خاطرنشان کرد که در حالی که قفسه‌های سرور از یک طراحی استاندارد پیروی می‌کنند (و می‌توانند از تنظیمات NVIDIA کپی شوند)، پیچیدگی واقعی در طراحی مرکز داده و شبکه نهفته است.

فراموش نکنیم، اوراکل تحت فشار است تا ساخت یک مرکز داده در ابیلین، تگزاس - تقریباً به اندازه 17 زمین فوتبال - را برای OpenAI به پایان برساند. در حال حاضر، این تسهیلات ناقص است و خالی نشسته است. اگر تاخیرها ادامه یابد، OpenAI می‌تواند از این معامله خارج شود و به طور بالقوه میلیاردها دلار برای اوراکل هزینه داشته باشد.

AWS نیز همین کار را انجام می‌دهد

AWS نیز مانند گوگل، در حال ساخت تراشه‌های خود است. در AWS re:Invent در لاس وگاس، این غول ابری چندین تراشه جدید، از جمله Trainium2، Graviton4 و Inferentia را معرفی کرد.

سال گذشته، AWS 4 میلیارد دلار در Anthropic سرمایه گذاری کرد و به ارائه دهنده خدمات ابری و شریک آموزشی اصلی آن تبدیل شد. این شرکت همچنین Trn2 UltraServers و تراشه آموزش هوش مصنوعی Trainium3 نسل بعدی خود را معرفی کرد.

AWS اکنون با Anthropic بر روی پروژه رینیر کار می‌کند - یک خوشه محاسباتی هوش مصنوعی بزرگ که توسط هزاران تراشه Trainium2 پشتیبانی می‌شود. این تنظیمات به Anthropic کمک می‌کند تا مدل‌های خود را توسعه دهد و محصول شاخص خود، Claude را برای اجرای کارآمد روی سخت افزار Trainium2 بهینه کند.

آیرون‌وود تنها بازیگر در فضای استنتاج نیست. تعدادی از شرکت‌ها اکنون برای سهم بازار تراشه NVIDIA رقابت می‌کنند، از جمله استارت‌آپ‌های تراشه هوش مصنوعی مانند Groq، Cerebras Systems و SambaNova Systems.

در همان زمان، OpenAI در حال پیشرفت در برنامه خود برای توسعه تراشه‌های هوش مصنوعی سفارشی برای کاهش وابستگی خود به NVIDIA است. بر اساس گزارش، این شرکت در حال آماده شدن برای نهایی کردن طراحی اولین تراشه داخلی خود در ماه‌های آینده است و قصد دارد آن را برای ساخت در TSMC ارسال کند.