در جریان رویداد Google Cloud Next 25 در روز چهارشنبه، این غول جستجو از جدیدترین نسخه واحد پردازش تنسور (TPU) خود رونمایی کرد، تراشهای سفارشی که برای اجرای هوش مصنوعی ساخته شده است -- با یک چرخش.
همچنین: چرا Google Code Assist ممکن است در نهایت ابزار قدرتمند برنامه نویسی مورد نیاز شما باشد
برای اولین بار، گوگل این تراشه را برای استنتاج (Inference) قرار میدهد، یعنی پیشبینی درخواستهای زنده از میلیونها یا حتی میلیاردها کاربر، برخلاف آموزش (Training)، یعنی توسعه شبکههای عصبی که توسط تیمهای متخصص هوش مصنوعی و دانشمندان داده انجام میشود.
آیرون وود TPU
آیرون وود TPU، همانطور که این تراشه جدید نامیده میشود، در یک نقطه عطف اقتصادی در هوش مصنوعی وارد میشود. به وضوح انتظار میرود که هوش مصنوعی پیشرفت کمتری در پروژههای علمی داشته باشد و بیشتر در مورد استفاده واقعی از مدلهای هوش مصنوعی توسط شرکتها باشد.
و ظهور DeepSeek AI بیش از هر زمان دیگری وال استریت را بر هزینه هنگفت ساخت هوش مصنوعی برای گوگل و رقبای آن متمرکز کرده است.
ظهور مدلهای هوش مصنوعی "استدلالی" (Reasoning AI)، مانند Gemini گوگل، که به طور چشمگیری تعداد جملات تولید شده توسط یک مدل زبانی بزرگ را افزایش میدهد، باعث افزایش ناگهانی در کل محاسباتی میشود که برای پیشبینی مورد نیاز است. همانطور که گوگل در توصیف Ironwood بیان کرد، "استدلال و استنتاج چند مرحلهای، تقاضای افزایشی برای محاسبات - و در نتیجه هزینه - را از آموزش به زمان استنتاج (مقیاسبندی در زمان آزمایش) تغییر میدهد."
همچنین: آیا فکر میکنید DeepSeek هزینههای هوش مصنوعی را کاهش داده است؟ دوباره فکر کنید
بنابراین، Ironwood بیانیهای از سوی گوگل است مبنی بر اینکه تمرکز آن بر عملکرد و کارایی در حال تغییر است تا منعکس کننده افزایش هزینه استنتاج در مقابل حوزه تحقیقاتی آموزش باشد.
تراشه استنتاج
گوگل بیش از یک دهه است که خانواده تراشههای TPU خود را از طریق شش نسل قبلی توسعه داده است. با این حال، تراشههای آموزشی عموماً بازار تراشههای کم حجمتری نسبت به استنتاج در نظر گرفته میشوند. دلیلش این است که تقاضای آموزش تنها با آغاز هر پروژه تحقیقاتی بزرگ GenAI جدید افزایش مییابد، که عموماً سالی یک بار یا بیشتر است.
در مقابل، انتظار میرود استنتاج نیازهای هزاران یا میلیونها مشتری را که پیشبینیهای روزمره از شبکه عصبی آموزش دیده را میخواهند، برآورده کند. استنتاج در دنیای تراشهها یک بازار پرحجم در نظر گرفته میشود.
گوگل قبلاً این استدلال را مطرح کرده بود که نسل ششم Trillium TPU، که سال گذشته معرفی شد، که در دسامبر به طور کلی در دسترس قرار گرفت، میتواند به عنوان یک تراشه آموزشی و استنتاجی در یک قسمت عمل کند و بر توانایی آن در سرعت بخشیدن به ارائه پیشبینیها تأکید کند.
در واقع، از نسخه دوم TPU در سال 2017، گوگل از توانایی ترکیبی برای آموزش و استنتاج صحبت کرده بود.
همچنین: گوگل از پیشرفتهای جدید Kubernetes و GKE برای نوآوری هوش مصنوعی رونمایی میکند
قرار دادن Ironwood به عنوان یک تراشه عمدتاً استنتاجی، در درجه اول، یک انحراف است.
سرمایهگذاری ضروری
این تغییر همچنین ممکن است نشان دهنده تغییری در تمایل گوگل به تکیه بر اینتل (Intel)، ادونسد میکرو دیوایسز (Advanced Micro Devices) و انویدیا (Nvidia) به عنوان اسب بارکش ناوگان محاسباتی هوش مصنوعی خود باشد. در گذشته، گوگل TPU را به عنوان یک سرمایهگذاری ضروری برای دستیابی به نتایج تحقیقاتی پیشرفته، اما نه جایگزینی برای فروشندگان خود توصیف کرده بود.
در عملیات محاسبات ابری گوگل، بر اساس تعداد "نمونهها" (Instances) اجرا شده توسط مشتریان، تراشههای اینتل، AMD و Nvidia مجموعاً 99 درصد از پردازندههای مورد استفاده را تشکیل میدهند، در مقابل کمتر از یک درصد برای TPU، طبق تحقیقات KeyBanc Capital Markets.
این اتکا به سه فروشنده غالب، پیامدهای اقتصادی برای گوگل و سایر غولها، یعنی مایکروسافت و آمازون دارد.
همچنین: 10 دلیل کلیدی برای اینکه چرا هوش مصنوعی یک شبه به جریان اصلی تبدیل شد - و چه اتفاقی میافتد
تحلیلگران سهام وال استریت که معیارهای خطوط تجاری فردی گوگل را گردآوری میکنند، هر از گاهی ارزش اقتصادی TPU را محاسبه کردهاند. به عنوان مثال، در ژانویه، گیل لوریا (Gil Luria)، تحلیلگر سهام شرکت تحقیقاتی بوتیک DA Davidson، نوشت که "اگر گوگل TPU را به عنوان سخت افزار به مشتریان NVDA [Nvidia] میفروخت، به میزان 24 میلیارد دلار درآمد در سال گذشته به دست میآورد"، به این معنی که در رقابت با Nvidia.
برعکس، در زمانی که هزینه هوش مصنوعی به پروژههای چند صد میلیارد دلاری مانند Stargate افزایش مییابد، تحلیلگران وال استریت معتقدند که TPU گوگل میتواند راهی برای صرفهجویی در هزینه زیرساخت هوش مصنوعی برای این شرکت ارائه دهد.
همچنین: مدل هوش مصنوعی متنباز جدید DeepSeek میتواند عملکردی بهتر از o1 با کسری از هزینه داشته باشد
اگرچه گوگل به شرکت سازنده تراشه Broadcom پول پرداخت کرده است تا به تجاریسازی هر TPU جدید کمک کند، اما گوگل همچنان ممکن است با استفاده از TPU بیشتر در مقابل قیمتی که باید به اینتل، AMD و Nvidia بپردازد تا ناوگان بزرگتری از تراشهها را برای استنتاج مصرف کند، در پول خود صرفهجویی کند.
آیرون وود در مقابل تریلیوم
گوگل برای اثبات مزایای آیرون وود، روز چهارشنبه بر پیشرفتهای فنی آیرون وود در مقابل تریلیوم تأکید کرد.
گوگل گفت که آیرون وود دو برابر "عملکرد در هر وات" تریلیوم را دارد، همانطور که با 29.3 تریلیون عملیات ریاضی ممیز شناور در ثانیه اندازهگیری میشود.
قطعه آیرون وود دارای 192 گیگابایت حافظه DRAM است که HBM یا حافظه با پهنای باند بالا نامیده میشود، شش برابر بیشتر از تریلیوم. پهنای باند حافظه انتقال یافته 4.5 برابر بیشتر است، 7.2 ترابیت در ثانیه.
همچنین: انویدیا در معیارهای Gen AI تسلط دارد و 2 تراشه هوش مصنوعی رقیب را نابود میکند
گوگل گفت که این پیشرفتها قرار است از حرکت بسیار بیشتر دادهها به داخل و خارج از تراشه و بین سیستمها پشتیبانی کنند.
گوگل گفت: "آیرون وود برای به حداقل رساندن حرکت داده و تأخیر روی تراشه در حین انجام دستکاریهای تانسور عظیم طراحی شده است."
مقیاسبندی زیرساخت هوش مصنوعی
پیشرفتهای حافظه و پهنای باند همگی بخشی از تأکید گوگل بر "مقیاسبندی" زیرساخت هوش مصنوعی خود است.
معنی مقیاسبندی این است که بتوان از هر تراشه به طور کامل استفاده کرد، زمانی که صدها یا هزاران تراشه را برای کار بر روی یک مسئله به صورت موازی گروهبندی میکنیم. تراشههای بیشتر اختصاص داده شده به یک مسئله مشابه باید منجر به سرعت بخشیدن همزمان در عملکرد شود.
باز هم، مقیاسبندی یک جزء اقتصادی دارد. با گروهبندی مؤثر تراشهها، TPUها میتوانند به "بهرهوری" (Utilization) بیشتری دست یابند، یعنی مقدار یک منبع معین که واقعاً استفاده میشود در مقابل مقداری که بیکار رها میشود. مقیاسبندی موفقیتآمیز به معنای بهرهوری بالاتر از تراشهها است، که خوب است زیرا به معنای اتلاف کمتر یک منبع گرانقیمت است.
همچنین: 5 دلیل برای اینکه چرا Trillium گوگل میتواند هوش مصنوعی و محاسبات ابری را متحول کند - و 2 مانع
به همین دلیل است که گوگل در گذشته بر توانایی تریلیوم در "مقیاسبندی به صدها هزار تراشه" در مجموعهای از ماشینها تأکید کرده است.
در حالی که گوگل جزئیات صریحی در مورد عملکرد مقیاسبندی آیرون وود در وظایف استنتاج ارائه نداد، اما بار دیگر روز چهارشنبه بر توانایی "صدها هزار تراشه آیرون وود که میتوانند با هم ترکیب شوند تا به سرعت مرزهای محاسبات GenAI را پیش ببرند" تأکید کرد.
اعلامیه گوگل با یک اعلامیه نرم افزاری مهم نیز همراه بود، Pathways on Cloud. نرم افزار Pathways کدی است که بخشهایی از کار محاسباتی هوش مصنوعی را بین رایانههای مختلف توزیع میکند. این نرم افزار به طور داخلی توسط گوگل استفاده شده بود و اکنون در دسترس عموم قرار میگیرد.