رویداد Cloud Next گوگل
رویداد Cloud Next گوگل

در Cloud Next، گوگل روی هوش مصنوعی در همه جا شرط می بندد

از TPU Ironwood تا Agent2Agent: گوگل بر روی هوش مصنوعی هیبریدی سرمایه گذاری می کند

اخیراً بحث های زیادی در مورد چگونگی تکامل برنامه های هوش مصنوعی (AI) انجام شده است، اما بر اساس بسیاری از اعلامیه هایی که گوگل در رویداد Cloud Next در لاس وگاس انجام داد، به نظر می رسد که رویکرد هیبریدی جایی است که بسیاری از این پیشرفت ها به آن سمت و سو می روند.

برای روشن شدن موضوع، گوگل در Cloud Next طیف گسترده و چشمگیری از اعلامیه ها را ارائه کرد و حتی یک بیانیه مطبوعاتی به طور خاص به هوش مصنوعی هیبریدی اشاره نکرد.

با این حال، وقتی یک قدم به عقب بردارید و تحلیل کنید که چگونه چندین قطعه در کنار هم قرار می گیرند و به روندهایی که شرکت در حال هدایت آن ها به نظر می رسد، نگاهی بیندازید، مفهوم برنامه های کاربردی (و عامل ها) مبتنی بر GenAI که از ترکیبی از ابر عمومی، ابرهای خصوصی سازمانی و حتی دستگاه های هوشمند استفاده می کنند - یعنی هوش مصنوعی هیبریدی - اجتناب ناپذیر به نظر می رسد.

ابتدا چند نکته برجسته را بررسی می کنیم. در بخش زیرساخت ابری، گوگل چندین محصول بزرگ را در Cloud Next معرفی کرد که بیشتر آن ها بر افزایش دامنه گزینه های معماری کامپیوتر برای مشتریان GCP تمرکز دارند.

به طور خاص، این شرکت از پردازنده TPU نسل هفتم خود با اسم رمز Ironwood، جایگزین طراحی شده داخلی خود برای GPU ها و اولین پردازنده ای که به طور خاص برای حجم های کاری استنتاج طراحی شده است، رونمایی کرد. علاوه بر بهبود 10 برابری در عملکرد خام در مقایسه با نسل های قبلی، نکته قابل توجه در مورد آخرین نسخه ها، میزان گزینه های اتصال تراشه به تراشه با سرعت بالا است که گوگل بین آن ها ارائه می دهد.

با الگوبرداری از کتاب Nvidia NVLink، جدیدترین معماری AI Hypercomputer گوگل به حداکثر 9216 عدد از این TPU های نسل 7 اجازه می دهد تا به یک پاد محاسباتی واحد متصل شوند و پهنای باند زیادی را حتی برای بزرگترین مدل های استدلال مبتنی بر زنجیره تفکر جدید که در حال در دسترس قرار گرفتن هستند، فراهم کنند. در واقع، گوگل ادعا کرد که به حداکثر رساندن یک سیستم می تواند تا 42.5 اگزافلاپس (exaflops) ارائه دهد، که بیش از 24 برابر قدرت محاسباتی سریع ترین ابررایانه امروزی است.

چارچوب ADK که نشان می دهد چگونه می توانید سیستم های چندعاملی ایجاد کنید

یکی دیگر از موضوعات بزرگ سخنرانی اصلی Cloud Next حول محور عامل ها، از جمله ابزارهایی برای ساخت آن ها، اتصال آن ها به یکدیگر و ادغام آسان تر آن ها با انواع LLM ها بود.

گوگل با تکیه بر اعلامیه قبلی Agentspace - که به کارمندان شرکت ها اجازه می دهد تا از قابلیت های جستجوی چندوجهی گوگل در داده های سازمانی استفاده کنند و عامل های خود را به روشی کم کد/بدون کد ایجاد کنند - یک کیت توسعه عامل جدید را نیز به عنوان بخشی از پلتفرم Vertex AI خود معرفی کرد.

مهمتر از آن، این شرکت پروتکل Agent2Agent (A2A) خود را معرفی کرد که تلاشی برای استانداردسازی روش هایی است که عامل های مختلف می توانند با یکدیگر "صحبت" کنند و اطلاعات را به اشتراک بگذارند. A2A بر اساس پروتکل مدل Anthropic (MCP) ساخته شده است و با آن سازگار است که سال گذشته معرفی شد و به سرعت در دنیای هوش مصنوعی مورد توجه قرار گرفت.

در واقع، پشتیبانی قوی گوگل از MCP در طیف وسیعی از محصولات که در اینجا در Cloud Next معرفی کرد، واقعاً منجر به نتیجه گیری های هوش مصنوعی هیبریدی شد که قبلاً به آن اشاره کردم. MCP یک راه استاندارد برای مدل ها ارائه می دهد تا به انواع منابع داده مختلف متصل شوند - به جای اینکه مجبور باشند با API های اختصاصی سروکار داشته باشند - و یک روش استاندارد ارائه می دهد که مدل ها می توانند عملکردهای مختلفی را که قادر به انجام آن ها روی این مجموعه داده ها هستند، در معرض دید قرار دهند.

در این فرآیند، این بدان معناست که MCP هم برخی از چالش های بزرگ در ایجاد برنامه های کاربردی مبتنی بر هوش مصنوعی را که می توانند از منابع داده محلی استفاده کنند، حل می کند و هم دنیایی از امکانات جالب را برای ایجاد برنامه های کاربردی هوش مصنوعی توزیع شده باز می کند که می توانند از منابع داده، مدل های دیگر و زیرساخت محاسباتی دیگر در مکان های فیزیکی مختلف استفاده کنند. این قابلیت باعث می شود MCP بسیار جذاب باشد - و احتمالاً دلیل بزرگی است که پشتیبانی از این استاندارد نوپا به سرعت در حال رشد است.

گوگل با اعلام اینکه اکنون به سازمان ها اجازه می دهد تا مدل های Gemini، Agentspace و سایر ابزارهای هوش مصنوعی را از طریق Google Distributed Cloud در سه ماهه سوم امسال به ابر خصوصی/محیط های مرکز داده داخلی خود بیاورند، تأثیر بالقوه MCP را بسیار ملموس تر کرد. این یک پیشرفت بسیار مهم است زیرا به این معنی است که شرکت هایی که برنامه هایی را با ابزارهای مبتنی بر Google Cloud می سازند، می توانند از آن ها در بسیاری از محیط های مختلف استفاده کنند.

به عنوان مثال، برای یک سازمان این امکان وجود دارد که از منابع اساساً نامحدود زیرساخت ابری عمومی گوگل برای اجرای عملکردهای خاص با مدل ها و مجموعه داده های خاص ذخیره شده در آنجا استفاده کند، در حالی که عملکردهای دیگر را روی مدل های مختلفی اجرا کند که به داده های پشت فایروال در داخل ابر خصوصی یا محیط های مرکز داده خود دسترسی دارند.

این مشکل گرانش داده را حل می کند که بسیاری از سازمان ها با آن دست و پنجه نرم می کنند، زیرا آن ها شروع به فکر کردن در مورد بهره برداری از قابلیت های قدرتمند پیشرفته ترین LLM های امروزی می کنند، زیرا اساساً به آن ها اجازه می دهد تا بهترین های هر دو جهان را داشته باشند. این به آن ها محاسبات مبتنی بر ابر گسترده با داده های ذخیره شده در ابر عمومی و محاسبات محلی با مجموعه داده های اختصاصی بزرگ و اغلب ارزشمند را می دهد که بسیاری از سازمان ها هنوز در محیط های خود نگه می دارند (یا ممکن است بخواهند به کشور خود بازگردانند).

به علاوه، حتی می توان ماهیت توزیع شده محیط محاسباتی را به رایانه های شخصی و تلفن های هوشمند گسترش داد، به ویژه با افزایش دسترسی به دستگاه هایی با قابلیت های شتاب دهنده هوش مصنوعی قدرتمندتر. در حالی که این مرحله آخر احتمالاً یک شبه اتفاق نخواهد افتاد، اما با نگاهی به آینده، با کاهش تقاضای برق و هزینه های برنامه های هوش مصنوعی خود، به یک قابلیت حیاتی تبدیل می شود.

گوگل همچنین در مورد قابلیت های روی دستگاه، چندین پیشرفت را در Workspace خود در Cloud Next امسال اعلام کرد. ویژگی های جدید مبتنی بر هوش مصنوعی شامل گردش کارهای متمرکز بر اتوماسیون، ویژگی های صوتی در Docs و موارد دیگر است. این ها بر اساس بسیاری از عملکردهای قبلی مبتنی بر هوش مصنوعی است که گوگل در اوایل سال جاری به Workspace آورده بود، از جمله دسترسی رایگان به پیشرفته ترین نسخه مدل Gemini، عملکردهای تجزیه و تحلیل داده های جدید در Sheets، تجزیه و تحلیل اسناد و خلاصه سازی در همه برنامه های Workspace و موارد دیگر.

مانند رویدادهای قبلی Cloud Next، اعلامیه های بسیار بیشتری وجود داشت که گوگل در زمینه هایی مانند پایگاه های داده، ابزارهای ایجاد کد، استودیوی ایجاد عامل Firebase، دسترسی به شبکه خصوصی Cloud WAN، بهبودهای امنیتی و موارد دیگر مورد بحث قرار داد.

صادقانه بگویم، درک همه این ها کمی دشوار است، اما این فقط نشان می دهد که چقدر سریع پیشنهادات مبتنی بر ابر به گسترش خود ادامه می دهند، به ویژه با ادغام تحولات مدل پایه هوش مصنوعی که حتی سریع تر حرکت می کنند.

در نهایت، واضح است که گوگل از تاریخچه طولانی توسعه هوش مصنوعی خود و همچنین پیشرفت های اخیر خود با مدل های Gemini و سایر ابزارهای هوش مصنوعی به عنوان یک متمایز کننده واضح برای Google Cloud استفاده می کند. در این فرآیند، آن ها همچنان به موقعیت یابی خود به روشی منحصر به فرد نه تنها برای برنامه های کاربردی فعلی، بلکه برای برنامه های کاربردی هوش مصنوعی هیبریدی در آینده ادامه می دهند.

باب اودانل بنیانگذار و تحلیلگر ارشد TECHnalysis Research, LLC، یک شرکت مشاوره فناوری است که خدمات مشاوره استراتژیک و تحقیقات بازار را به صنعت فناوری و جامعه مالی حرفه ای ارائه می دهد. می توانید او را در X دنبال کنید.