گوگل
گوگل

آخرین تراشه گوگل با هدف کاهش یک هزینه پنهان بزرگ در هوش مصنوعی طراحی شده است

تراشه 'Ironwood' نشان دهنده تغییر عمده در تمرکز گوگل است، زیرا عملکرد و کارایی در اولویت بعدی قرار دارند.

در جریان رویداد Google Cloud Next 25 در روز چهارشنبه، این غول جستجو از جدیدترین نسخه واحد پردازش تنسور (TPU) خود رونمایی کرد، تراشه‌ای سفارشی که برای اجرای هوش مصنوعی ساخته شده است -- با یک چرخش.

همچنین: چرا Google Code Assist ممکن است در نهایت ابزار قدرتمند برنامه نویسی مورد نیاز شما باشد

برای اولین بار، گوگل این تراشه را برای استنتاج (Inference) قرار می‌دهد، یعنی پیش‌بینی درخواست‌های زنده از میلیون‌ها یا حتی میلیاردها کاربر، برخلاف آموزش (Training)، یعنی توسعه شبکه‌های عصبی که توسط تیم‌های متخصص هوش مصنوعی و دانشمندان داده انجام می‌شود.

آیرون وود TPU

آیرون وود TPU، همانطور که این تراشه جدید نامیده می‌شود، در یک نقطه عطف اقتصادی در هوش مصنوعی وارد می‌شود. به وضوح انتظار می‌رود که هوش مصنوعی پیشرفت کمتری در پروژه‌های علمی داشته باشد و بیشتر در مورد استفاده واقعی از مدل‌های هوش مصنوعی توسط شرکت‌ها باشد.

و ظهور DeepSeek AI بیش از هر زمان دیگری وال استریت را بر هزینه هنگفت ساخت هوش مصنوعی برای گوگل و رقبای آن متمرکز کرده است.

ظهور مدل‌های هوش مصنوعی "استدلالی" (Reasoning AI)، مانند Gemini گوگل، که به طور چشمگیری تعداد جملات تولید شده توسط یک مدل زبانی بزرگ را افزایش می‌دهد، باعث افزایش ناگهانی در کل محاسباتی می‌شود که برای پیش‌بینی مورد نیاز است. همانطور که گوگل در توصیف Ironwood بیان کرد، "استدلال و استنتاج چند مرحله‌ای، تقاضای افزایشی برای محاسبات - و در نتیجه هزینه - را از آموزش به زمان استنتاج (مقیاس‌بندی در زمان آزمایش) تغییر می‌دهد."

همچنین: آیا فکر می‌کنید DeepSeek هزینه‌های هوش مصنوعی را کاهش داده است؟ دوباره فکر کنید

بنابراین، Ironwood بیانیه‌ای از سوی گوگل است مبنی بر اینکه تمرکز آن بر عملکرد و کارایی در حال تغییر است تا منعکس کننده افزایش هزینه استنتاج در مقابل حوزه تحقیقاتی آموزش باشد.

تراشه استنتاج

گوگل بیش از یک دهه است که خانواده تراشه‌های TPU خود را از طریق شش نسل قبلی توسعه داده است. با این حال، تراشه‌های آموزشی عموماً بازار تراشه‌های کم حجم‌تری نسبت به استنتاج در نظر گرفته می‌شوند. دلیلش این است که تقاضای آموزش تنها با آغاز هر پروژه تحقیقاتی بزرگ GenAI جدید افزایش می‌یابد، که عموماً سالی یک بار یا بیشتر است.

در مقابل، انتظار می‌رود استنتاج نیازهای هزاران یا میلیون‌ها مشتری را که پیش‌بینی‌های روزمره از شبکه عصبی آموزش دیده را می‌خواهند، برآورده کند. استنتاج در دنیای تراشه‌ها یک بازار پرحجم در نظر گرفته می‌شود.

گوگل قبلاً این استدلال را مطرح کرده بود که نسل ششم Trillium TPU، که سال گذشته معرفی شد، که در دسامبر به طور کلی در دسترس قرار گرفت، می‌تواند به عنوان یک تراشه آموزشی و استنتاجی در یک قسمت عمل کند و بر توانایی آن در سرعت بخشیدن به ارائه پیش‌بینی‌ها تأکید کند.

در واقع، از نسخه دوم TPU در سال 2017، گوگل از توانایی ترکیبی برای آموزش و استنتاج صحبت کرده بود.

همچنین: گوگل از پیشرفت‌های جدید Kubernetes و GKE برای نوآوری هوش مصنوعی رونمایی می‌کند

قرار دادن Ironwood به عنوان یک تراشه عمدتاً استنتاجی، در درجه اول، یک انحراف است.

سرمایه‌گذاری ضروری

این تغییر همچنین ممکن است نشان دهنده تغییری در تمایل گوگل به تکیه بر اینتل (Intel)، ادونسد میکرو دیوایسز (Advanced Micro Devices) و انویدیا (Nvidia) به عنوان اسب بارکش ناوگان محاسباتی هوش مصنوعی خود باشد. در گذشته، گوگل TPU را به عنوان یک سرمایه‌گذاری ضروری برای دستیابی به نتایج تحقیقاتی پیشرفته، اما نه جایگزینی برای فروشندگان خود توصیف کرده بود.

در عملیات محاسبات ابری گوگل، بر اساس تعداد "نمونه‌ها" (Instances) اجرا شده توسط مشتریان، تراشه‌های اینتل، AMD و Nvidia مجموعاً 99 درصد از پردازنده‌های مورد استفاده را تشکیل می‌دهند، در مقابل کمتر از یک درصد برای TPU، طبق تحقیقات KeyBanc Capital Markets.

این اتکا به سه فروشنده غالب، پیامدهای اقتصادی برای گوگل و سایر غول‌ها، یعنی مایکروسافت و آمازون دارد.

همچنین: 10 دلیل کلیدی برای اینکه چرا هوش مصنوعی یک شبه به جریان اصلی تبدیل شد - و چه اتفاقی می‌افتد

تحلیلگران سهام وال استریت که معیارهای خطوط تجاری فردی گوگل را گردآوری می‌کنند، هر از گاهی ارزش اقتصادی TPU را محاسبه کرده‌اند. به عنوان مثال، در ژانویه، گیل لوریا (Gil Luria)، تحلیلگر سهام شرکت تحقیقاتی بوتیک DA Davidson، نوشت که "اگر گوگل TPU را به عنوان سخت افزار به مشتریان NVDA [Nvidia] می‌فروخت، به میزان 24 میلیارد دلار درآمد در سال گذشته به دست می‌آورد"، به این معنی که در رقابت با Nvidia.

برعکس، در زمانی که هزینه هوش مصنوعی به پروژه‌های چند صد میلیارد دلاری مانند Stargate افزایش می‌یابد، تحلیلگران وال استریت معتقدند که TPU گوگل می‌تواند راهی برای صرفه‌جویی در هزینه زیرساخت هوش مصنوعی برای این شرکت ارائه دهد.

همچنین: مدل هوش مصنوعی متن‌باز جدید DeepSeek می‌تواند عملکردی بهتر از o1 با کسری از هزینه داشته باشد

اگرچه گوگل به شرکت سازنده تراشه Broadcom پول پرداخت کرده است تا به تجاری‌سازی هر TPU جدید کمک کند، اما گوگل همچنان ممکن است با استفاده از TPU بیشتر در مقابل قیمتی که باید به اینتل، AMD و Nvidia بپردازد تا ناوگان بزرگ‌تری از تراشه‌ها را برای استنتاج مصرف کند، در پول خود صرفه‌جویی کند.

آیرون وود در مقابل تریلیوم

گوگل برای اثبات مزایای آیرون وود، روز چهارشنبه بر پیشرفت‌های فنی آیرون وود در مقابل تریلیوم تأکید کرد.

گوگل گفت که آیرون وود دو برابر "عملکرد در هر وات" تریلیوم را دارد، همانطور که با 29.3 تریلیون عملیات ریاضی ممیز شناور در ثانیه اندازه‌گیری می‌شود.

قطعه آیرون وود دارای 192 گیگابایت حافظه DRAM است که HBM یا حافظه با پهنای باند بالا نامیده می‌شود، شش برابر بیشتر از تریلیوم. پهنای باند حافظه انتقال یافته 4.5 برابر بیشتر است، 7.2 ترابیت در ثانیه.

همچنین: انویدیا در معیارهای Gen AI تسلط دارد و 2 تراشه هوش مصنوعی رقیب را نابود می‌کند

گوگل گفت که این پیشرفت‌ها قرار است از حرکت بسیار بیشتر داده‌ها به داخل و خارج از تراشه و بین سیستم‌ها پشتیبانی کنند.

گوگل گفت: "آیرون وود برای به حداقل رساندن حرکت داده و تأخیر روی تراشه در حین انجام دستکاری‌های تانسور عظیم طراحی شده است."

مقیاس‌بندی زیرساخت هوش مصنوعی

پیشرفت‌های حافظه و پهنای باند همگی بخشی از تأکید گوگل بر "مقیاس‌بندی" زیرساخت هوش مصنوعی خود است.

معنی مقیاس‌بندی این است که بتوان از هر تراشه به طور کامل استفاده کرد، زمانی که صدها یا هزاران تراشه را برای کار بر روی یک مسئله به صورت موازی گروه‌بندی می‌کنیم. تراشه‌های بیشتر اختصاص داده شده به یک مسئله مشابه باید منجر به سرعت بخشیدن همزمان در عملکرد شود.

باز هم، مقیاس‌بندی یک جزء اقتصادی دارد. با گروه‌بندی مؤثر تراشه‌ها، TPUها می‌توانند به "بهره‌وری" (Utilization) بیشتری دست یابند، یعنی مقدار یک منبع معین که واقعاً استفاده می‌شود در مقابل مقداری که بیکار رها می‌شود. مقیاس‌بندی موفقیت‌آمیز به معنای بهره‌وری بالاتر از تراشه‌ها است، که خوب است زیرا به معنای اتلاف کمتر یک منبع گران‌قیمت است.

همچنین: 5 دلیل برای اینکه چرا Trillium گوگل می‌تواند هوش مصنوعی و محاسبات ابری را متحول کند - و 2 مانع

به همین دلیل است که گوگل در گذشته بر توانایی تریلیوم در "مقیاس‌بندی به صدها هزار تراشه" در مجموعه‌ای از ماشین‌ها تأکید کرده است.

در حالی که گوگل جزئیات صریحی در مورد عملکرد مقیاس‌بندی آیرون وود در وظایف استنتاج ارائه نداد، اما بار دیگر روز چهارشنبه بر توانایی "صدها هزار تراشه آیرون وود که می‌توانند با هم ترکیب شوند تا به سرعت مرزهای محاسبات GenAI را پیش ببرند" تأکید کرد.

همچنین: مدیر عامل جدید اینتل متعهد می‌شود که شرکت سازنده تراشه را "از روز اول به عنوان یک استارتاپ" اداره کند

اعلامیه گوگل با یک اعلامیه نرم افزاری مهم نیز همراه بود، Pathways on Cloud. نرم افزار Pathways کدی است که بخش‌هایی از کار محاسباتی هوش مصنوعی را بین رایانه‌های مختلف توزیع می‌کند. این نرم افزار به طور داخلی توسط گوگل استفاده شده بود و اکنون در دسترس عموم قرار می‌گیرد.