تنها یک سال پیش، روایت پیرامون گوگل و هوش مصنوعی سازمانی ناامیدکننده به نظر میرسید. با وجود اختراع فناوریهای اصلی مانند ترانسفورمر (Transformer)، به نظر میرسید که این غول فناوری همواره در موضع دفاعی قرار دارد و تحتالشعاع موفقیت چشمگیر OpenAI، توانایی برنامهنویسی Anthropic و تلاش تهاجمی سازمانی مایکروسافت قرار گرفته بود.
اما شاهد صحنه در Google Cloud Next 2025 در لاس وگاس در هفته گذشته باشید: گوگل با اعتماد به نفس، مسلح به مدلهایی با عملکرد برتر، زیرساخت قوی و یک استراتژی سازمانی منسجم، تغییر چشمگیری را اعلام کرد. در یک جلسه غیرعلنی با تحلیلگران ارشد گوگل، یکی از تحلیلگران آن را خلاصه کرد. او گفت: "این لحظه به نظر میرسد که گوگل از 'عقب ماندن' به 'به ما برسید' تغییر یافته است."
این احساس که گوگل نه تنها به OpenAI و مایکروسافت در رقابت هوش مصنوعی سازمانی رسیده، بلکه حتی از آنها پیشی گرفته است، در سراسر این رویداد حاکم بود. و این چیزی فراتر از تبلیغات گوگل است. شواهد نشان میدهد که گوگل از سال گذشته برای اجرای متمرکز و فشرده استفاده کرده و داراییهای فناوری خود را به یک پلتفرم یکپارچه و با عملکرد بالا تبدیل کرده است که به سرعت در حال جلب نظر تصمیمگیرندگان سازمانی است. از داشتن قدرتمندترین مدلهای هوش مصنوعی جهان که بر روی سیلیکون سفارشی فوقالعاده کارآمد اجرا میشوند، تا یک اکوسیستم رو به رشد از عوامل هوش مصنوعی که برای حل مشکلات تجاری دنیای واقعی طراحی شدهاند، گوگل استدلالی قانعکننده ارائه میدهد که هرگز واقعاً گم نشده بود - بلکه لغزشهای آن دورهای از توسعه عمیق و اساسی را پنهان کرده بود.
اکنون، با عملکرد یکپارچه تمام بخشها، به نظر میرسد گوگل در موقعیتی قرار دارد که رهبری مرحله بعدی انقلاب هوش مصنوعی سازمانی را بر عهده بگیرد. و در مصاحبههای من با چندین مدیر اجرایی گوگل در Next، آنها گفتند که گوگل در زیرساخت و یکپارچهسازی مدلها نسبت به رقبایی مانند OpenAI، مایکروسافت یا AWS مزیتهایی دارد که آنها برای تکرار آن تلاش خواهند کرد.
سایه تردید: اعتراف به گذشته اخیر
بدون اعتراف به گذشته اخیر، نمیتوان از حرکت کنونی قدردانی کرد. گوگل زادگاه معماری ترانسفورمر بود که انقلاب مدرن در مدلهای زبانی بزرگ (LLM) را برانگیخت. گوگل همچنین از یک دهه پیش شروع به سرمایهگذاری در سختافزار تخصصی هوش مصنوعی (TPU) کرد که اکنون باعث افزایش بهرهوری در صنعت میشود. و با این حال، دو سال و نیم پیش، به طرز غیرقابل توضیحی خود را در حال بازی دفاعی یافت.
ChatGPT از OpenAI، تخیل عمومی و علاقه سازمانی را با سرعت خیرهکنندهای تسخیر کرد و به سریعترین برنامه در حال رشد در تاریخ تبدیل شد. رقبایی مانند Anthropic جایگاههایی را در زمینههایی مانند برنامهنویسی برای خود ایجاد کردند.
اقدامات عمومی خود گوگل گاهی اوقات محتاطانه یا ناقص به نظر میرسید. اشتباهات نمایشی برد در سال ۲۰۲۳ و جنجال بعدی بر سر تولید تصاویر از نظر تاریخی نادرست در مولد تصویر آن، روایتی را ایجاد کرد که شرکتی احتمالاً توسط بوروکراسی داخلی یا اصلاح بیش از حد در همسویی فلج شده است. به نظر میرسید گوگل گم شده است: به نظر میرسید لغزشهای هوش مصنوعی با الگویی مطابقت دارد که ابتدا با کندی اولیه گوگل در رقابت ابری نشان داده شد، جایی که همچنان در رتبه سوم بازار پس از آمازون و مایکروسافت قرار داشت. ویل گرانیس، مدیر ارشد فناوری گوگل کلود، به سؤالات اولیه درباره اینکه آیا گوگل کلود در درازمدت از آن حمایت میکند، اذعان کرد. او به یاد آورد که مردم از او میپرسیدند: "آیا این حتی یک چیز واقعی است؟" این سوال باقی ماند: آیا گوگل میتواند درخشش تحقیقاتی و مقیاس زیرساختی انکارناپذیر خود را به سلطه هوش مصنوعی سازمانی تبدیل کند؟
چرخش: تصمیمی آگاهانه برای رهبری
با این حال، در پشت صحنه، تغییری در حال انجام بود که با تصمیمی آگاهانه در بالاترین سطوح برای بازپسگیری رهبری کاتالیز شد. مت ولوسو، معاون محصول پلتفرم توسعهدهنده هوش مصنوعی Google DeepMind، پس از ترک مایکروسافت، از احساس یک لحظه محوری پس از پیوستن به گوگل در فوریه ۲۰۲۴ صحبت کرد. ولوسو در مصاحبهای با VentureBeat در طول Next در هفته گذشته به اشتراک گذاشت: "وقتی به گوگل آمدم، با سوندار [پیچای] صحبت کردم، با چندین رهبر در اینجا صحبت کردم و احساس کردم که این لحظهای است که آنها تصمیم میگیرند، باشه، این [هوش مصنوعی مولد] چیزی است که صنعت به وضوح به آن اهمیت میدهد. بیایید آن را محقق کنیم."
این فشار تجدید شده با ترس از "فرار مغزها" که برخی از افراد خارجی احساس میکردند در حال تخلیه گوگل است، مانع نشد. در واقع، این شرکت بیسروصدا در اوایل سال ۲۰۲۴ بر اجرای آن تأکید کرد - سالی که با استخدام تهاجمی، اتحاد داخلی و کشش مشتری مشخص شد. در حالی که رقبا استخدامهای پر زرق و برقی انجام دادند، گوگل رهبری اصلی هوش مصنوعی خود، از جمله مدیر عامل DeepMind، دیمیس هاسابیس و مدیر عامل Google Cloud، توماس کوریان را حفظ کرد و ثبات و تخصص عمیقی را فراهم کرد.
علاوه بر این، استعدادها شروع به جریان به سمت مأموریت متمرکز گوگل کردند. به عنوان مثال، لوگان کیلپاتریک، از OpenAI به گوگل بازگشت، که فرصت ساخت هوش مصنوعی اساسی در داخل شرکت را به خود جلب کرد. او به ولوسو پیوست در آنچه که او به عنوان یک "تجربه صفر به یک" توصیف کرد، با هدف ایجاد کشش توسعهدهنده برای جمینی از ابتدا. کیلپاتریک از نقطه شروع به یاد آورد: "این تیم مثل من در روز اول بود... ما در واقع هیچ کاربری در این پلتفرم نداریم، هیچ درآمدی نداریم. در این لحظه هیچکس علاقهای به جمینی ندارد." افراد آشنا با پویاییهای داخلی همچنین از رهبرانی مانند جاش وودوارد، که به شروع AI Studio کمک کرد و اکنون رهبری برنامه و آزمایشگاههای جمینی را بر عهده دارد، قدردانی میکنند. اخیراً، نوام شازیر، یکی از نویسندگان اصلی مقاله اصلی "توجه تمام چیزی است که شما نیاز دارید" در دوران تصدی اول خود در گوگل، در اواخر سال ۲۰۲۴ به عنوان یکی از رهبران فنی پروژه حیاتی جمینی به این شرکت بازگشت.
این تلاش هماهنگ، با ترکیب این استخدامها، پیشرفتهای تحقیقاتی، اصلاحات در فناوری پایگاه داده و تمرکز کلی بر سازمانی، شروع به نتیجه دادن کرد. این پیشرفتهای تجمعی، همراه با آنچه که CTO ویل گرانیس "صدها عنصر پلتفرم با دانه ریز" نامید، زمینه را برای اعلامیهها در Next '25 فراهم کرد و روایت بازگشت گوگل را تثبیت کرد.
ستون ۱: جمینی ۲.۵ و عصر مدلهای متفکر
درست است که یک شعار اصلی سازمانی این شده است که "این فقط در مورد مدل نیست." از این گذشته، شکاف عملکرد بین مدلهای پیشرو به طور چشمگیری کاهش یافته است و افراد داخلی فناوری اذعان میکنند که هوش واقعی از فناوری بستهبندی شده در اطراف مدل ناشی میشود، نه فقط خود مدل - برای مثال، فناوریهای عاملی که به یک مدل اجازه میدهند از ابزارها استفاده کند و وب را در اطراف خود کشف کند.
با وجود این، داشتن بهترین LLM با عملکرد قابل اثبات، یک شاهکار مهم است - و یک اعتباردهنده قدرتمند، نشانهای از اینکه شرکت صاحب مدل چیزهایی مانند تحقیقات برتر و کارآمدترین معماری فناوری زیربنایی را دارد. با انتشار جمینی ۲.۵ پرو تنها چند هفته قبل از Next '25، گوگل به طور قطعی این مسئولیت را بر عهده گرفت. به سرعت از تابلوی امتیازات Chatbot Arena مستقل پیشی گرفت، حتی از آخرین نوع GPT-4o OpenAI نیز به طور قابل توجهی بهتر عمل کرد، و معیارهای استدلال بدنام دشوار مانند آخرین امتحان بشر را با موفقیت پشت سر گذاشت. همانطور که پیچای در سخنرانی اصلی گفت، "این هوشمندترین مدل هوش مصنوعی ما تا کنون است. و این بهترین مدل در جهان است." او به طور جداگانه در توییتی نوشت که این مدل در عرض یک ماه باعث افزایش ۸۰ درصدی استفاده از جمینی شده است.
برای اولین بار، تقاضا برای جمینی گوگل در حال افزایش بود. همانطور که قبلاً توضیح دادم، جدا از هوش خام جمینی ۲.۵ پرو، چیزی که من را تحت تأثیر قرار داد، استدلال قابل اثبات آن است. گوگل یک قابلیت "تفکر" را مهندسی کرده است که به مدل اجازه میدهد قبل از نهایی کردن پاسخ، استدلال چند مرحلهای، برنامهریزی و حتی خوداندیشی را انجام دهد. زنجیره اندیشه (CoT) ساختاریافته و منسجم - با استفاده از مراحل شمارهگذاری شده و زیرشاخهها - از ماهیت پرحرفی یا مبهم خروجیهای مدلهای دیگر از DeepSeek یا OpenAI جلوگیری میکند. برای تیمهای فنی که خروجیها را برای وظایف حیاتی ارزیابی میکنند، این شفافیت امکان اعتبارسنجی، تصحیح و تغییر مسیر را با اطمینان بیسابقهای فراهم میکند.
اما مهمتر از آن برای کاربران سازمانی، جمینی ۲.۵ پرو نیز شکاف در برنامهنویسی را به طور چشمگیری کاهش داد، که یکی از بزرگترین زمینههای کاربردی برای هوش مصنوعی مولد است. فیونا تان، مدیر ارشد فناوری خردهفروش پیشرو Wayfair، در مصاحبهای با VentureBeat گفت که پس از آزمایشهای اولیه، این شرکت دریافت که "تا حد زیادی پیشرفت کرده است" و اکنون "تا حد زیادی قابل مقایسه" با Claude 3.7 Sonnet از Anthropic است، که قبلاً انتخاب ترجیحی برای بسیاری از توسعهدهندگان بود.
گوگل همچنین یک پنجره زمینه ۱ میلیون توکنی عظیم به مدل اضافه کرد که امکان استدلال در سراسر پایگاههای کد یا مستندات طولانی را فراهم میکند و از قابلیتهای مدلهای OpenAI یا Anthropic فراتر میرود. (OpenAI این هفته با مدلهایی که دارای پنجرههای زمینه به طور مشابه بزرگ هستند، پاسخ داد، اگرچه معیارها نشان میدهند که جمینی ۲.۵ پرو در استدلال کلی برتری خود را حفظ میکند). این مزیت امکان انجام وظایف پیچیده مهندسی نرمافزار چند فایلی را فراهم میکند.
جمینی ۲.۵ فلش که در Next '25 معرفی شد و دیروز منتشر شد، مکمل پرو است. فلش نیز یک مدل "متفکر" است که برای تأخیر کم و مقرون به صرفه بودن بهینه شده است. شما میتوانید میزان استدلال مدل را کنترل کنید و عملکرد را با بودجه خود متعادل کنید. این رویکرد طبقهبندی شده بیشتر منعکسکننده استراتژی "هوش به ازای هر دلار" است که توسط مدیران گوگل حمایت میشود.
ولوسو نموداری را نشان داد که نشان میداد در سراسر طیف هوش، مدلهای گوگل بهترین ارزش را ارائه میدهند. ولوسو با تأکید بر تغییر سریع، اعتراف کرد: "اگر یک سال پیش این مکالمه را داشتیم... من چیزی برای نشان دادن نداشتم." "و اکنون، مانند، در سراسر جهان، ما هستیم، اگر به دنبال هر مدل، هر اندازهای هستید، مانند، اگر گوگل نیستید، در حال از دست دادن پول هستید." این نمودارها برای در نظر گرفتن آخرین نسخههای مدل OpenAI در این هفته بهروزرسانی شدهاند. به زیر مراجعه کنید:
تان از Wayfair گفت که او همچنین بهبودهای امیدوارکنندهای در تأخیر با ۲.۵ پرو مشاهده کرده است: او گفت: "جمینی ۲.۵ سریعتر بازگشت" و آن را برای "قابلیتهای بیشتر رو به مشتری" مناسب میکند، چیزی که او گفت قبلاً با مدلهای دیگر اینطور نبوده است. او گفت که جمینی میتواند اولین مدلی باشد که Wayfair برای این تعاملات مشتری استفاده میکند.
قابلیتهای خانواده جمینی به چندوجهی بودن گسترش مییابد و به طور یکپارچه با سایر مدلهای پیشرو گوگل مانند Imagen 3 (تولید تصویر)، Veo 2 (تولید ویدیو)، Chirp 3 (صوتی) و Lyria تازه معرفی شده (متن به موسیقی) ادغام میشود، که همگی از طریق پلتفرم گوگل برای کاربران سازمانی، Vertex، قابل دسترسی هستند. گوگل تنها شرکتی است که مدلهای رسانهای مولد خود را در تمام حالتها در پلتفرم خود ارائه میدهد. مایکروسافت، AWS و OpenAI باید با شرکتهای دیگر برای انجام این کار همکاری کنند.
ستون ۲: قدرت زیرساخت - موتور زیر کاپوت
توانایی تکرار سریع و ارائه کارآمد این مدلهای قدرتمند ناشی از زیرساخت بینظیر گوگل است که در طول دههها اجرای خدمات در مقیاس سیارهای تقویت شده است. واحد پردازش تنسور (TPU) در مرکز این موضوع قرار دارد.
گوگل در Next '25، آیرونوود، نسل هفتم TPU خود را رونمایی کرد که به طور واضح برای خواستههای استنتاج و "مدلهای متفکر" طراحی شده است. مقیاس آن بسیار زیاد است و برای بارهای کاری هوش مصنوعی طراحی شده است: غلافهای آیرونوود بیش از ۹۰۰۰ تراشه خنکشونده با مایع را بستهبندی میکنند و ادعا میشود که ۴۲.۵ اگزافلاپس قدرت محاسباتی ارائه میدهند. امین وحدت، معاون سیستمهای ML گوگل، روی صحنه Next گفت که این "بیش از ۲۴ برابر" قدرت محاسباتی ابررایانه شماره ۱ فعلی جهان است.
گوگل اعلام کرد که آیرونوود نسبت به Trillium، نسل قبلی TPU، ۲ برابر عملکرد/وات ارائه میدهد. این مهم است زیرا مشتریان سازمانی به طور فزایندهای میگویند که هزینهها و در دسترس بودن انرژی استقرار هوش مصنوعی در مقیاس بزرگ را محدود میکند.
ویل گرانیس، مدیر ارشد فناوری گوگل کلود، بر تداوم این پیشرفت تأکید کرد. او در مصاحبهای به VentureBeat گفت که گوگل سال به سال ۱۰ برابر، ۸ برابر، ۹ برابر، ۱۰ برابر در پردازندههای خود پیشرفت میکند و آنچه او "قانون هایپر مور" برای شتابدهندههای هوش مصنوعی نامید را ایجاد میکند. او گفت که مشتریان در حال خرید نقشه راه گوگل هستند، نه فقط فناوری آن.
موقعیت گوگل به این سرمایهگذاری پایدار TPU دامن زده است. برای تامین انرژی کارآمد خدمات گستردهای مانند جستجو، یوتیوب و جیمیل برای بیش از ۲ میلیارد کاربر، لازم است. این امر مستلزم توسعه سختافزار سفارشی و بهینهسازیشده مدتها قبل از رونق فعلی هوش مصنوعی مولد بود. در حالی که متا در مقیاس مصرفکننده مشابهی فعالیت میکند، سایر رقبا این محرک داخلی خاص را برای توسعه سختافزار هوش مصنوعی یکپارچه عمودی دههای ندارند.
اکنون این سرمایهگذاریهای TPU به ثمر میرسند زیرا نه تنها کارایی برنامههای خود را افزایش میدهند، بلکه به گوگل اجازه میدهند جمینی را با هوش بهتر به ازای هر دلار به سایر کاربران ارائه دهد، همه چیز برابر است.
شاید بپرسید چرا رقبای گوگل نمیتوانند پردازندههای کارآمد را از Nvidia بخرند؟ درست است که پردازندههای GPU Nvidia بر فرآیند پیشآموزش LLMها تسلط دارند. اما تقاضای بازار قیمت این GPUها را افزایش داده است و Nvidia سهم خوبی را به عنوان سود برای خود برمیدارد. این هزینههای قابل توجهی را به کاربران تراشههای خود منتقل میکند. و همچنین، در حالی که پیشآموزش تاکنون بر استفاده از تراشههای هوش مصنوعی تسلط داشته است، این در حال تغییر است زیرا شرکتها در واقع این برنامهها را مستقر میکنند. اینجاست که "استنتاج" وارد عمل میشود و در اینجا TPUها برای بارهای کاری در مقیاس کارآمدتر از GPUها در نظر گرفته میشوند.
وقتی از مدیران گوگل میپرسید که مزیت اصلی فناوری آنها در هوش مصنوعی از کجا ناشی میشود، معمولاً به TPU به عنوان مهمترین چیز برمیگردند. مارک لومایر، معاون رئیس که زیرساخت محاسباتی گوگل را اداره میکند، قاطع بود: TPUها "مطمئناً بخش بسیار متفاوتی از کاری هستند که ما انجام میدهیم... OpenAI، آنها این قابلیتها را ندارند."
به طور قابل توجهی، گوگل TPUها را نه به صورت مجزا، بلکه به عنوان بخشی از معماری هوش مصنوعی سازمانی گستردهتر و پیچیدهتر ارائه میدهد. برای افراد داخلی فنی، این درک وجود دارد که عملکرد سطح بالا به ادغام پیشرفتهای فناوری تخصصی فزاینده بستگی دارد. بسیاری از بهروزرسانیها در Next شرح داده شد. وحدت این را یک "سیستم ابررایانه" توصیف کرد که سختافزار (TPUها، جدیدترین GPUهای Nvidia مانند Blackwell و Vera Rubin آینده، فضای ذخیرهسازی پیشرفته مانند Hyperdisk Exapools، Anywhere Cache و Rapid Storage) را با یک پشته نرمافزاری یکپارچه ادغام میکند. این نرمافزار شامل Cluster Director برای مدیریت شتابدهندهها، Pathways (زمان اجرای توزیع شده جمینی، اکنون در دسترس مشتریان است) و بهینهسازیهایی مانند vLLM را به TPUها میآورد و امکان مهاجرت آسانتر بار کاری را برای کسانی که قبلاً در پشتههای Nvidia/PyTorch بودند، فراهم میکند. وحدت استدلال کرد که این سیستم یکپارچه دلیل دستیابی جمینی ۲.۰ فلش به ۲۴ برابر هوش بیشتر به ازای هر دلار در مقایسه با GPT-4o است.
گوگل همچنین در حال گسترش دسترسی زیرساخت فیزیکی خود است. Cloud WAN شبکه فیبر اختصاصی ۲ میلیون مایلی با تأخیر کم گوگل را در دسترس شرکتها قرار میدهد و نوید عملکرد ۴۰ درصد سریعتر و ۴۰ درصد هزینه کل مالکیت (TCO) کمتر در مقایسه با شبکههای مدیریتشده توسط مشتری را میدهد.
علاوه بر این، Google Distributed Cloud (GDC) به جمینی و سختافزار Nvidia (از طریق مشارکت با Dell) اجازه میدهد تا در محیطهای مستقل، محلی یا حتی جدا از هوا اجرا شوند - قابلیتی که جنسن هوانگ، مدیر عامل Nvidia، آن را برای آوردن هوش مصنوعی پیشرفته به صنایع و کشورهای تنظیمشده "کاملاً غول پیکر" نامید. هوانگ در Next، زیرساخت گوگل را بهترین در جهان خواند: او گفت: "هیچ شرکتی در هر لایه از محاسبات بهتر از گوگل و Google Cloud نیست."
ستون ۳: پشته کامل یکپارچه - اتصال نقاط
مزیت استراتژیک گوگل با در نظر گرفتن اینکه چگونه این مدلها و اجزای زیرساختی در یک پلتفرم منسجم بافته شدهاند، رشد میکند. بر خلاف رقبا، که اغلب برای پر کردن شکافها به مشارکت متکی هستند، گوگل تقریباً هر لایه را کنترل میکند و امکان ادغام محکمتر و چرخههای نوآوری سریعتر را فراهم میکند.
پس اگر رقیبی مانند مایکروسافت بتواند به سادگی با OpenAI برای مطابقت با وسعت زیرساخت با قدرت مدل LLM همکاری کند، چرا این ادغام مهم است؟ گوگلرهایی که با آنها صحبت کردم گفتند که تفاوت زیادی ایجاد میکند و آنها حکایاتی را برای پشتیبانی از آن ارائه کردند.
به عنوان مثال، بهبود قابل توجه پایگاه داده سازمانی گوگل، BigQuery را در نظر بگیرید. این پایگاه داده اکنون یک نمودار دانش ارائه میدهد که به LLMها اجازه میدهد دادهها را بسیار کارآمدتر جستجو کنند و اکنون بیش از پنج برابر مشتریان رقبایی مانند Snowflake و Databricks را دارد، VentureBeat دیروز گزارش داد. یاسمین احمد، رئیس محصول تجزیه و تحلیل داده در Google Cloud، گفت که این پیشرفتهای عظیم تنها به این دلیل امکانپذیر بود که تیمهای داده گوگل از نزدیک با تیم DeepMind همکاری میکردند. او گفت که آنها از طریق موارد استفادهای کار کردند که حل آنها دشوار بود و این منجر به ارائه ۵۰ درصد دقت بیشتر توسط پایگاه داده بر اساس سؤالات متداول شد، حداقل طبق آزمایشهای داخلی گوگل، در رسیدن به دادههای مناسب نسبت به نزدیکترین رقبا، احمد در مصاحبهای به VentureBeat گفت. احمد گفت که این نوع ادغام عمیق در سراسر پشته این است که چگونه گوگل از صنعت "پیشی گرفته است".
این انسجام داخلی به شدت با پویایی "دشمنان" در مایکروسافت در تضاد است. در حالی که مایکروسافت با OpenAI برای توزیع مدلهای خود در ابر Azure همکاری میکند، مایکروسافت نیز در حال ساخت مدلهای خود است. مت ولوسو، مدیر اجرایی گوگل که اکنون رهبری برنامه توسعهدهنده هوش مصنوعی را بر عهده دارد، پس از ناامید شدن از تلاش برای همسویی برنامههای Windows Copilot با پیشنهادات مدل OpenAI، مایکروسافت را ترک کرد. او به یاد آورد: "چگونه برنامههای محصول خود را با شرکت دیگری که در واقع با شما رقابت میکند، به اشتراک میگذارید... کل این موضوع یک تناقض است." "در اینجا من در کنار افرادی مینشینم که در حال ساخت مدلها هستند."
این ادغام به آنچه رهبران گوگل به عنوان مزیت اصلی خود میبینند، اشاره دارد: توانایی بینظیر آن در ارتباط دادن تخصص عمیق در سراسر طیف کامل، از تحقیقات اساسی و ساخت مدل گرفته تا استقرار برنامه "در مقیاس سیارهای" و طراحی زیرساخت.
Vertex AI به عنوان سیستم عصبی مرکزی برای تلاشهای هوش مصنوعی سازمانی گوگل عمل میکند. و این ادغام فراتر از پیشنهادات خود گوگل است. Model Garden Vertex بیش از ۲۰۰ مدل انتخابشده، از جمله Google، Llama 4 از Meta و گزینههای منبع باز متعدد را ارائه میدهد. Vertex ابزارهایی را برای تنظیم، ارزیابی (از جمله Evals مبتنی بر هوش مصنوعی، که گرانیس آن را به عنوان یک شتابدهنده کلیدی برجسته کرد)، استقرار و نظارت ارائه میدهد. قابلیتهای زمینسازی آن از پایگاههای داده آماده هوش مصنوعی داخلی در کنار سازگاری با پایگاههای داده برداری خارجی استفاده میکنند. به این موارد پیشنهادات جدید گوگل برای زمینگیری مدلها با جستجوی گوگل، بهترین موتور جستجو در جهان را اضافه کنید.
ادغام به Google Workspace گسترش مییابد. ویژگیهای جدید معرفی شده در Next '25، مانند "به من کمک کن تجزیه و تحلیل کنم" در Sheets (بله، Sheets اکنون فرمول "=AI" دارد)، نمای کلی صوتی در Docs و Workspace Flows، قابلیتهای Gemini را بیشتر در گردش کار روزانه جاسازی میکنند و یک حلقه بازخورد قدرتمند برای گوگل ایجاد میکنند تا از آن برای بهبود تجربه استفاده کند.
در حالی که گوگل پشته یکپارچه خود را هدایت میکند، در جایی که به اکوسیستم خدمت میکند، از باز بودن نیز حمایت میکند. با هدایت پذیرش Kubernetes، اکنون از JAX برای چارچوبهای هوش مصنوعی و اکنون پروتکلهای باز برای ارتباط عامل (A2A) در کنار پشتیبانی از استانداردهای موجود (MCP) حمایت میکند. گوگل همچنین صدها اتصالدهنده به پلتفرمهای خارجی را از داخل Agentspace، که رابط یکپارچه جدید گوگل برای کارمندان برای یافتن و استفاده از عاملها است، ارائه میدهد. این مفهوم هاب قانعکننده است. نمایش کلیدی Agentspace (از ۵۱:۴۰ شروع میشود) این را نشان میدهد. گوگل به کاربران عاملهای از پیش ساخته شده ارائه میدهد، یا کارمندان یا توسعهدهندگان میتوانند با استفاده از قابلیتهای هوش مصنوعی بدون کد، عاملهای خود را بسازند. یا میتوانند از طریق اتصالدهندههای A2A، عاملهایی را از خارج وارد کنند. این در مرورگر Chrome برای دسترسی یکپارچه ادغام میشود.
ستون ۴: تمرکز بر ارزش سازمانی و اکوسیستم عامل
شاید مهمترین تغییر، تمرکز واضح گوگل بر حل مشکلات ملموس سازمانی، به ویژه از طریق لنز عاملهای هوش مصنوعی باشد. توماس کوریان، مدیر عامل Google Cloud، سه دلیلی را که مشتریان گوگل را انتخاب میکنند، شرح داد: پ