متا در اولین کنفرانس توسعهدهندگان هوش مصنوعی لاما خود، LlamaCon، که روز سهشنبه برگزار شد، از یک API برای سری مدلهای هوش مصنوعی لاما خود با نام Llama API خبر داد.
به گفته متا، Llama API که در پیشنمایش محدود در دسترس است، به توسعهدهندگان امکان میدهد تا محصولات مبتنی بر مدلهای مختلف لاما را بررسی و آزمایش کنند. این API همراه با SDKهای متا، به توسعهدهندگان اجازه میدهد تا خدمات، ابزارها و برنامههای کاربردی مبتنی بر لاما بسازند. متا بلافاصله قیمت API را با TechCrunch به اشتراک نگذاشت.
عرضه این API در حالی صورت میگیرد که متا به دنبال حفظ برتری خود در فضای به شدت رقابتی مدلهای باز است. در حالی که مدلهای لاما تا به امروز به بیش از یک میلیارد دانلود رسیدهاند، به گفته متا، رقبایی مانند DeepSeek و Qwen علیبابا تهدیدی برای برهم زدن تلاشهای متا برای ایجاد اکوسیستمی گسترده با لاما محسوب میشوند.
Llama API ابزارهایی را برای تنظیم دقیق (fine-tuning) و ارزیابی عملکرد مدلهای لاما، با شروع از Llama 3.3 8B، ارائه میدهد. مشتریان میتوانند دادهها را تولید کرده، بر روی آنها مدل را آموزش دهند و سپس از مجموعه ابزارهای ارزیابی متا در Llama API برای تست کیفیت مدل سفارشی خود استفاده کنند.
متا اعلام کرد که از دادههای مشتریان Llama API برای آموزش مدلهای خود شرکت استفاده نخواهد کرد و مدلهایی که با استفاده از Llama API ساخته میشوند، قابل انتقال به میزبان دیگری هستند.
برای توسعهدهندگانی که بر روی مدلهای Llama 4 که اخیراً منتشر شدهاند کار میکنند، Llama API گزینههای سرویسدهی مدل را از طریق همکاری با شرکتهای Cerebras و Groq ارائه میدهد. متا گفت که این گزینههای "تجربی اولیه" "درخواستی" در دسترس هستند تا به توسعهدهندگان در نمونهسازی برنامههای هوش مصنوعی خود کمک کنند.
متا در پستی که به TechCrunch ارائه داد نوشت: "با انتخاب ساده نام مدلهای Cerebras یا Groq در API، توسعهدهندگان میتوانند […] از تجربهای ساده با ردیابی تمام مصرف در یک مکان لذت ببرند." "[م]ا مشتاقانه منتظر گسترش همکاری با ارائهدهندگان بیشتر هستیم تا گزینههای بیشتری برای ساخت بر روی لاما فراهم کنیم."
متا اعلام کرد که دسترسی به Llama API را "در هفتهها و ماههای آینده" گسترش خواهد داد.