بهاویش آگاروال، رئیس Ola، روز سهشنبه اعلام کرد که Krutrim Cloud قادر خواهد بود مدلهای Llama 4 متا را به طور کامل بر روی یک زیرساخت ابری میزبانی شده در هند اجرا کند. این اقدام به توسعهدهندگان در سراسر کشور اجازه میدهد تا به قابلیتهای پیشرفته هوش مصنوعی دسترسی داشته باشند و در عین حال حاکمیت کامل داده را حفظ کنند.
او در پستی در X گفت: "خوشحالم که به اشتراک بگذارم که Krutrim از اولین شرکتهایی در جهان است که مدلهای Llama 4 متا را به طور کامل بر روی ابر میزبانی شده خود در هند میزبانی میکند. ما به توسعهدهندگان خود با هوش مصنوعی در سطح جهانی و با قیمتهای disruptive در صنعت با حاکمیت کامل داده قدرت میدهیم."
او در یک پست جداگانه در لینکدین گفت که این شرکت هر دو مدل Llama 4 Scout و Llama 4 Maverick را با قیمتهای حتی disruptiveتر - فقط 7 تا 17 روپیه به ازای هر میلیون توکن - مستقر میکند. او گفت: "این فقط در مورد صرفهجویی در هزینه نیست - بلکه در مورد دموکراتیک کردن دسترسی به هوش مصنوعی پیشرفته برای هر توسعهدهنده و استارتاپ هندی است."
مدلهای Llama 4، از جمله Scout و Maverick، اکنون به صورت زنده در پلتفرم آن در دسترس هستند و به توسعهدهندگان اجازه میدهند برنامههای هوش مصنوعی را با قیمتهای رقابتی ایجاد و مستقر کنند. این مدلها در داخل مرزهای هند میزبانی میشوند و با خواستههای رو به رشد برای کنترل و حریم خصوصی دادههای محلی مطابقت دارند.
Krutrim Cloud که سال گذشته راهاندازی شد، مجموعه جامعی از خدمات هوش مصنوعی، از جمله Model-as-a-Service (MaaS) و GPU-as-a-Service را ارائه میدهد. این شرکت اخیراً پشتیبانی از مدلهای DeepSeek را نیز اضافه کرده است.
متا اخیراً دو مدل چندوجهی با وزن باز راهاندازی کرد - Llama 4 Scout و Llama 4 Maverick. هر دو مدل بر اساس یک تنظیم mixture-of-experts (MoE) ساخته شدهاند.
Llama 4 Scout دارای 17 میلیارد پارامتر فعال و 16 متخصص است و به گونهای طراحی شده است که در یک GPU H100 قرار گیرد. متا ادعا میکند که از یک پنجره زمینه 10 میلیون توکنی پیشرو در صنعت پشتیبانی میکند و وظایف پیچیدهای مانند خلاصهسازی چند سندی و استدلال در مورد پایگاههای کد بزرگ را فعال میکند.
Llama 4 Maverick یک مدل 17 میلیارد پارامتری فعال با 128 متخصص است. این مدل شامل 400 میلیارد پارامتر کلی است و به طور رقابتی با مدلهای بزرگتر مانند DeepSeek V3 در وظایف استدلال و کدنویسی عمل میکند. متا گفت که Maverick از GPT-4o و Gemini 2.0 Flash در چندین معیار فراتر میرود. این مدل در تنظیمات چت آزمایشی امتیاز ELO 1417 را در LMArena کسب کرد.
این مدلها از Llama 4 Behemoth استخراج شدهاند. این مدل معلم منتشر نشده نیز یک مدل mixture-of-experts چندوجهی با 288 میلیارد پارامتر فعال، 16 متخصص و نزدیک به دو تریلیون پارامتر کلی است.
همچنین سوالاتی در مورد دادههای آموزش و آزمایش این مدل وجود داشت که بعداً توسط احمد الدحله، رهبر GenAI در متا، روشن شد. "این به سادگی درست نیست و ما هرگز این کار را انجام نمیدهیم. بهترین درک ما این است که کیفیت متغیر که مردم میبینند به دلیل نیاز به تثبیت پیادهسازیها است."