دیگر بر کسی پوشیده نیست که هوش مصنوعی تشنه GPU است—و سام آلتمن از OpenAI مدام تاکید میکند که چقدر فوری به GPUهای بیشتری نیاز دارند. او اخیراً در X پست کرد: «تا آنجا که میتوانیم سریع کار میکنیم تا واقعاً همه چیز را به حرکت درآوریم. اگر کسی ظرفیت GPU به صورت تکههای 100k در اسرع وقت دارد، لطفاً تماس بگیرد.» این تقاضا حتی زمانی بیشتر شد که کاربران ChatGPT را با درخواستهای تصویر به سبک گیبلی پر کردند و آلتمن را بر آن داشت تا از مردم بخواهد سرعت خود را کم کنند.
اینجاست که گوگل یک مزیت متمایز دارد. برخلاف OpenAI، این شرکت کاملاً به ارائه دهندگان سخت افزار شخص ثالث وابسته نیست. در Google Cloud Next 2025، این شرکت از آیرونوود، هفتمین نسل واحد پردازش تانسور (TPU) خود، که بهطور خاص برای استنتاج طراحی شده است، رونمایی کرد. این یک بخش کلیدی از معماری هایپرکامپیوتر هوش مصنوعی گستردهتر گوگل است.
گوگل گفت: «آیرونوود قدرتمندترین، توانمندترین و کممصرفترین TPU ما تا به امروز است. و این هدفمند ساخته شده است تا مدلهای هوش مصنوعی استنتاجی و تفکری را در مقیاس بزرگ تقویت کند.» این غول فناوری گفت که امروزه، ما در «عصر استنتاج» زندگی میکنیم، جایی که عوامل هوش مصنوعی به طور فعال به جستجو، تفسیر و تولید بینش میپردازند به جای اینکه فقط با دادههای خام پاسخ دهند.
این شرکت در ادامه گفت که آیرونوود برای مدیریت محاسبات پیچیده و نیازهای ارتباطی مدلهای تفکر، مانند مدلهای زبانی بزرگ و سیستمهای ترکیبی از متخصصان، ساخته شده است. این شرکت افزود که با آیرونوود، مشتریان دیگر مجبور نیستند بین مقیاس محاسباتی و عملکرد یکی را انتخاب کنند.
به گفته این غول فناوری، آیرونوود اواخر امسال در دسترس مشتریان Google Cloud قرار خواهد گرفت. این شرکت در حال حاضر از مدلهای پیشرفته، از جمله Gemini 2.5 Pro و AlphaFold پشتیبانی میکند. این شرکت همچنین اخیراً اعلام کرد که ویژگی تحقیقات عمیق در برنامه Gemini اکنون توسط Gemini 2.5 Pro پشتیبانی میشود.
گوگل اعلام کرد که بیش از 60 درصد از استارتآپهای هوش مصنوعی مولد تامین مالی شده و نزدیک به 90 درصد از تکشاخهای هوش مصنوعی مولد (استارتآپهایی که ارزش آنها 1 میلیارد دلار یا بیشتر است) مشتریان Google Cloud هستند. در سال 2024، اپل فاش کرد که از 8192 تراشه TPU v4 در Google Cloud برای آموزش «مدل پایه اپل» خود، یک مدل زبانی بزرگ که به ابتکارات هوش مصنوعی آن قدرت میدهد، استفاده کرده است. این یکی از اولین پذیرشهای برجسته در خارج از اکوسیستم گوگل بود.
آیرونوود به طور خاص برای کاهش حرکت دادهها و تأخیر روی تراشه در طول عملیات تانسور در مقیاس بزرگ بهینه شده است. از آنجایی که مقیاس این مدلها از ظرفیت یک تراشه فراتر میرود، TPUهای آیرونوود مجهز به یک شبکه اتصال داخلی (ICI) با تأخیر کم و پهنای باند بالا هستند که امکان ارتباط همزمان و هماهنگ بین کل پاد TPU را فراهم میکند.
این TPU از دو پیکربندی پشتیبانی میکند، یکی با 256 تراشه و دیگری با 9216 تراشه. نسخه کامل 42.5 اگزافلاپ محاسباتی ارائه میدهد که بیش از 24 برابر عملکرد ابررایانه ال کاپیتان است که 1.7 اگزافلاپ در هر پاد ارائه میدهد. هر تراشه آیرونوود 4614 TFLOPs اوج محاسباتی را ارائه میدهد.
به گفته گوگل، آیرونوود تقریباً دو برابر کممصرفتر از Trillium و تقریباً 30 برابر کارآمدتر از اولین Cloud TPU خود است که در سال 2018 عرضه شد. خنکسازی مایع عملکرد مداوم را تحت بار پایدار امکانپذیر میکند و محدودیتهای انرژی مرتبط با هوش مصنوعی در مقیاس بزرگ را برطرف میکند.
چرا گوگل عاشق TPUها است؟
متاسفانه گوگل TPUها را به عنوان یک محصول مستقل ارائه نمیدهد. اریک برنهاردسون، بنیانگذار Modal Labs گفت: «گوگل باید تیم TPU خود را به یک کسب و کار جداگانه تبدیل کند، سهام بزرگی را حفظ کند و آن را عمومی کند. یک راه آسان و آسان برای به دست آوردن یک میلیارد دلار.»
اگر گوگل شروع به فروش TPUها کند، قطعاً شاهد تقاضای قوی در بازار خواهد بود. این تراشهها قادر به آموزش مدلها نیز هستند. به عنوان مثال، گوگل از Trillium TPUها برای آموزش Gemini 2.0 استفاده کرد و اکنون، هم شرکتها و هم استارتآپها میتوانند از همان زیرساخت قدرتمند و کارآمد استفاده کنند.
جالب اینجاست که TPUها در اصل برای خدمات مبتنی بر هوش مصنوعی گوگل، از جمله جستجوی گوگل، ترجمه گوگل، عکسهای گوگل و یوتیوب توسعه یافتهاند.
یک گزارش اخیر میگوید که گوگل ممکن است با MediaTek برای ساخت TPUهای نسل بعدی خود همکاری کند. یکی از دلایل این حرکت میتواند روابط نزدیک MediaTek با TSMC باشد که هزینههای تراشه کمتری را نسبت به Broadcom به گوگل ارائه میدهد.
شایان ذکر است که در اوایل سال جاری، گوگل سرمایه گذاری 75 میلیارد دلاری در هزینههای سرمایهای برای سال 2025 اعلام کرد.
در آخرین تماس تلفنی، آنات آشکنازی، مدیر ارشد مالی گوگل، اعتراف کرد که هنگام سرمایه گذاری در ساخت مراکز داده، از داشتن TPUها سود میبرد. وی گفت: «استراتژی ما این است که بیشتر به مراکز داده خود تکیه کنیم، به این معنی که آنها بیشتر متناسب با نیازهای ما هستند. TPUهای ما برای حجم کاری و نیازهای ما سفارشی شدهاند. بنابراین، این به ما این امکان را میدهد که با آن سرمایهگذاری و هزینه کارآمدتر و پربارتر باشیم.»
بر اساس تخمینهای شرکت تحقیقاتی Omdia، گوگل گزارش شده است که بین 6 تا 9 میلیارد دلار برای TPUها در سال گذشته هزینه کرده است. علیرغم سرمایه گذاری خود در تراشههای سفارشی، گوگل همچنان یک مشتری بزرگ NVIDIA است.
بر اساس یک گزارش اخیر، این غول جستجو در مذاکرات پیشرفته برای اجاره تراشههای Blackwell NVIDIA از CoreWeave، یک بازیگر در حال ظهور در فضای محاسبات ابری است. این ثابت میکند که حتی مشتریان برتر NVIDIA مانند گوگل نیز در تامین تراشههای کافی برای برآوردن تقاضای رو به رشد کاربران خود با مشکل مواجه هستند.
علاوه بر این، ادغام GPUها از دیگران مانند NVIDIA نیز آسان نیست - ارائه دهندگان خدمات ابری باید زیرساخت خود را دوباره طراحی کنند. در تعامل اخیر با AIM، Karan Batta، معاون ارشد رئیس جمهور، Oracle Cloud Infrastructure (OCI)، گفت که اکثر مراکز برای خنکسازی مایع آماده نیستند و پیچیدگی مدیریت گرمای تولید شده توسط نسل جدید GPUهای NVIDIA Blackwell را میپذیرند.
وی افزود که ارائه دهندگان خدمات ابری باید بین خنکسازی غیرفعال یا فعال، سیستمهای حلقه کامل یا رویکردهای سایدکار برای ادغام موثر خنکسازی مایع یکی را انتخاب کنند. باتا در ادامه خاطرنشان کرد که در حالی که قفسههای سرور از یک طراحی استاندارد پیروی میکنند (و میتوانند از تنظیمات NVIDIA کپی شوند)، پیچیدگی واقعی در طراحی مرکز داده و شبکه نهفته است.
فراموش نکنیم، اوراکل تحت فشار است تا ساخت یک مرکز داده در ابیلین، تگزاس - تقریباً به اندازه 17 زمین فوتبال - را برای OpenAI به پایان برساند. در حال حاضر، این تسهیلات ناقص است و خالی نشسته است. اگر تاخیرها ادامه یابد، OpenAI میتواند از این معامله خارج شود و به طور بالقوه میلیاردها دلار برای اوراکل هزینه داشته باشد.
AWS نیز همین کار را انجام میدهد
AWS نیز مانند گوگل، در حال ساخت تراشههای خود است. در AWS re:Invent در لاس وگاس، این غول ابری چندین تراشه جدید، از جمله Trainium2، Graviton4 و Inferentia را معرفی کرد.
سال گذشته، AWS 4 میلیارد دلار در Anthropic سرمایه گذاری کرد و به ارائه دهنده خدمات ابری و شریک آموزشی اصلی آن تبدیل شد. این شرکت همچنین Trn2 UltraServers و تراشه آموزش هوش مصنوعی Trainium3 نسل بعدی خود را معرفی کرد.
AWS اکنون با Anthropic بر روی پروژه رینیر کار میکند - یک خوشه محاسباتی هوش مصنوعی بزرگ که توسط هزاران تراشه Trainium2 پشتیبانی میشود. این تنظیمات به Anthropic کمک میکند تا مدلهای خود را توسعه دهد و محصول شاخص خود، Claude را برای اجرای کارآمد روی سخت افزار Trainium2 بهینه کند.
آیرونوود تنها بازیگر در فضای استنتاج نیست. تعدادی از شرکتها اکنون برای سهم بازار تراشه NVIDIA رقابت میکنند، از جمله استارتآپهای تراشه هوش مصنوعی مانند Groq، Cerebras Systems و SambaNova Systems.