ویشال شارما، معاون هوش مصنوعی عمومی آمازون، روز دوشنبه در کنگره جهانی موبایل در بارسلونا گفت: "به ندرت بخشی از شرکت وجود دارد که تحت تأثیر هوش مصنوعی قرار نگیرد." وی این ایده را که مدلهای متنباز ممکن است نیازهای محاسباتی را کاهش دهند رد کرد و هنگامی که از او پرسیده شد که آیا شرکتهای اروپایی استراتژیهای هوش مصنوعی مولد خود را با توجه به تنشهای ژئوپلیتیکی با ایالات متحده تغییر خواهند داد، طفره رفت.
شارما در کنفرانس استارتاپی گفت که آمازون اکنون هوش مصنوعی را از طریق مدلهای بنیادی خود در سراسر Amazon Web Services - بخش رایانش ابری آمازون - رباتیک در انبارهای خود و محصول مصرفی الکسا، در میان سایر برنامهها، مستقر میکند.
ما چیزی حدود سه چهارم میلیون ربات داریم و آنها همه کارها را از چیدن وسایل گرفته تا اجرای خود در انبار انجام میدهند. محصول الکسا احتمالاً گستردهترین محصول هوش مصنوعی خانگی در جهان است... هیچ بخشی از آمازون وجود ندارد که تحت تأثیر هوش مصنوعی مولد قرار نگرفته باشد.»
در دسامبر، AWS مجموعهای جدید از چهار مدل تولید متن، خانوادهای از مدلهای هوش مصنوعی مولد چندوجهی را با نام نوا معرفی کرد.
شارما گفت که این مدلها در برابر معیارهای عمومی آزمایش میشوند: «به وضوح مشخص شد که تنوع بسیار زیادی در موارد استفاده وجود دارد. یک اندازه برای همه مناسب نیست. مکانهایی وجود دارند که به تولید ویدیو نیاز دارید... و مکانهای دیگری مانند الکسا، جایی که از آن میخواهید کارهای خاصی انجام دهد و پاسخ باید بسیار، بسیار سریع باشد و باید بسیار قابل پیشبینی باشد. شما نمی توانید «قفل درب پشتی را باز کنید» توهم بزنید.»
با این حال، او گفت که کاهش نیازهای محاسباتی با مدلهای متنباز کوچکتر بعید است: "همانطور که شروع به پیاده سازی آن در سناریوهای مختلف می کنید، فقط به هوش بیشتر و بیشتر و بیشتری نیاز دارید."
آمازون همچنین "Bedrock" را راه اندازی کرده است، سرویسی در AWS که هدف آن شرکت ها و استارت آپ هایی است که می خواهند مدل های بنیادی مختلف - از جمله DeepSeek چین - را با هم ترکیب کنند. وی گفت که این به کاربران امکان می دهد تا به طور یکپارچه بین مدل ها جابجا شوند.
آمازون همچنین در حال ساخت یک خوشه محاسباتی هوش مصنوعی بزرگ بر روی تراشههای Trainium 2 خود با مشارکت Anthropic است که 8 میلیارد دلار در آن سرمایهگذاری کرده است. در همین حال، xAI ایلان ماسک اخیراً جدیدترین مدل هوش مصنوعی شاخص خود، Grok 3 را با استفاده از یک مرکز داده عظیم در ممفیس که حدود 200000 GPU را در خود جای داده است، منتشر کرد.
شارما در پاسخ به سوالی درباره این سطح از منابع محاسباتی گفت: "نظر شخصی من این است که محاسبات برای مدت بسیار طولانی بخشی از گفتگو خواهد بود."
او فکر نمیکرد که آمازون تحت فشار ناشی از هجوم مدلهای متنباز که اخیراً از چین ظهور کردهاند، قرار دارد: «من اینطور توصیف نمیکنم.» او گفت که برعکس، آمازون از استقرار DeepSeek و سایر مدلها در AWS راحت است. شارما گفت: "ما شرکتی هستیم که به انتخاب اعتقاد داریم... ما آماده پذیرش هر روند و فناوری هستیم که از دیدگاه مشتری خوب باشد."
وقتی Open AI در اواخر سال 2022 ChatGPT را معرفی کرد، آیا فکر می کرد آمازون غافلگیر شده است؟
او گفت: "نه، فکر می کنم با این طرز فکر مخالف باشم." آمازون حدود 25 سال است که روی هوش مصنوعی کار می کند. اگر به چیزی مانند الکسا نگاه کنید، چیزی حدود 20 مدل مختلف هوش مصنوعی وجود دارد که در الکسا اجرا می شوند... ما میلیاردها پارامتر داشتیم که قبلاً برای زبان وجود داشت. ما مدتی است که به این موضوع نگاه می کنیم.»
در مورد جنجال اخیر پیرامون ترامپ و زلنسکی، و فشار متعاقب آن بر روابط ایالات متحده با بسیاری از کشورهای اروپایی، آیا او فکر می کرد که شرکت های اروپایی ممکن است در آینده به دنبال منابع GenAI دیگری باشند؟
شارما اعتراف کرد که این موضوع "خارج از" "حوزه تخصص" او است و عواقب آن "برای من بسیار سخت است که پیش بینی کنم..." اما او تا حدودی به طور دیپلماتیک اشاره کرد که برخی از شرکت ها ممکن است استراتژی خود را تنظیم کنند. او گفت: "آنچه که من می گویم این است که نوآوری فنی به مشوق ها پاسخ می دهد."