مدل‌های Llama 4 متا اکنون در Krutrim Cloud در دسترس هستند

بهاویش آگاروال، رئیس Ola، روز سه‌شنبه اعلام کرد که Krutrim Cloud قادر خواهد بود مدل‌های Llama 4 متا را به طور کامل بر روی یک زیرساخت ابری میزبانی شده در هند اجرا کند. این اقدام به توسعه‌دهندگان در سراسر کشور اجازه می‌دهد تا به قابلیت‌های پیشرفته هوش مصنوعی دسترسی داشته باشند و در عین حال حاکمیت کامل داده را حفظ کنند.

او در پستی در X گفت: "خوشحالم که به اشتراک بگذارم که Krutrim از اولین شرکت‌هایی در جهان است که مدل‌های Llama 4 متا را به طور کامل بر روی ابر میزبانی شده خود در هند میزبانی می‌کند. ما به توسعه‌دهندگان خود با هوش مصنوعی در سطح جهانی و با قیمت‌های disruptive در صنعت با حاکمیت کامل داده قدرت می‌دهیم."

او در یک پست جداگانه در لینکدین گفت که این شرکت هر دو مدل Llama 4 Scout و Llama 4 Maverick را با قیمت‌های حتی disruptive‌تر - فقط 7 تا 17 روپیه به ازای هر میلیون توکن - مستقر می‌کند. او گفت: "این فقط در مورد صرفه‌جویی در هزینه نیست - بلکه در مورد دموکراتیک کردن دسترسی به هوش مصنوعی پیشرفته برای هر توسعه‌دهنده و استارتاپ هندی است."

مدل‌های Llama 4، از جمله Scout و Maverick، اکنون به صورت زنده در پلتفرم آن در دسترس هستند و به توسعه‌دهندگان اجازه می‌دهند برنامه‌های هوش مصنوعی را با قیمت‌های رقابتی ایجاد و مستقر کنند. این مدل‌ها در داخل مرزهای هند میزبانی می‌شوند و با خواسته‌های رو به رشد برای کنترل و حریم خصوصی داده‌های محلی مطابقت دارند.

Krutrim Cloud که سال گذشته راه‌اندازی شد، مجموعه جامعی از خدمات هوش مصنوعی، از جمله Model-as-a-Service (MaaS) و GPU-as-a-Service را ارائه می‌دهد. این شرکت اخیراً پشتیبانی از مدل‌های DeepSeek را نیز اضافه کرده است.

متا اخیراً دو مدل چندوجهی با وزن باز راه‌اندازی کرد - Llama 4 Scout و Llama 4 Maverick. هر دو مدل بر اساس یک تنظیم mixture-of-experts (MoE) ساخته شده‌اند.

Llama 4 Scout دارای 17 میلیارد پارامتر فعال و 16 متخصص است و به گونه‌ای طراحی شده است که در یک GPU H100 قرار گیرد. متا ادعا می‌کند که از یک پنجره زمینه 10 میلیون توکنی پیشرو در صنعت پشتیبانی می‌کند و وظایف پیچیده‌ای مانند خلاصه‌سازی چند سندی و استدلال در مورد پایگاه‌های کد بزرگ را فعال می‌کند.

Llama 4 Maverick یک مدل 17 میلیارد پارامتری فعال با 128 متخصص است. این مدل شامل 400 میلیارد پارامتر کلی است و به طور رقابتی با مدل‌های بزرگتر مانند DeepSeek V3 در وظایف استدلال و کدنویسی عمل می‌کند. متا گفت که Maverick از GPT-4o و Gemini 2.0 Flash در چندین معیار فراتر می‌رود. این مدل در تنظیمات چت آزمایشی امتیاز ELO 1417 را در LMArena کسب کرد.

این مدل‌ها از Llama 4 Behemoth استخراج شده‌اند. این مدل معلم منتشر نشده نیز یک مدل mixture-of-experts چندوجهی با 288 میلیارد پارامتر فعال، 16 متخصص و نزدیک به دو تریلیون پارامتر کلی است.

همچنین سوالاتی در مورد داده‌های آموزش و آزمایش این مدل وجود داشت که بعداً توسط احمد الدحله، رهبر GenAI در متا، روشن شد. "این به سادگی درست نیست و ما هرگز این کار را انجام نمی‌دهیم. بهترین درک ما این است که کیفیت متغیر که مردم می‌بینند به دلیل نیاز به تثبیت پیاده‌سازی‌ها است."