کنفرانس متا کانکت 2024
کنفرانس متا کانکت 2024

متا پیش‌نمایشی از API مدل‌های هوش مصنوعی لاما خود ارائه می‌دهد

متا در اولین کنفرانس توسعه‌دهندگان هوش مصنوعی لاما خود، LlamaCon، که روز سه‌شنبه برگزار شد، از یک API برای سری مدل‌های هوش مصنوعی لاما خود با نام Llama API خبر داد.

به گفته متا، Llama API که در پیش‌نمایش محدود در دسترس است، به توسعه‌دهندگان امکان می‌دهد تا محصولات مبتنی بر مدل‌های مختلف لاما را بررسی و آزمایش کنند. این API همراه با SDK‌های متا، به توسعه‌دهندگان اجازه می‌دهد تا خدمات، ابزارها و برنامه‌های کاربردی مبتنی بر لاما بسازند. متا بلافاصله قیمت API را با TechCrunch به اشتراک نگذاشت.

عرضه این API در حالی صورت می‌گیرد که متا به دنبال حفظ برتری خود در فضای به شدت رقابتی مدل‌های باز است. در حالی که مدل‌های لاما تا به امروز به بیش از یک میلیارد دانلود رسیده‌اند، به گفته متا، رقبایی مانند DeepSeek و Qwen علی‌بابا تهدیدی برای برهم زدن تلاش‌های متا برای ایجاد اکوسیستمی گسترده با لاما محسوب می‌شوند.

Llama API ابزارهایی را برای تنظیم دقیق (fine-tuning) و ارزیابی عملکرد مدل‌های لاما، با شروع از Llama 3.3 8B، ارائه می‌دهد. مشتریان می‌توانند داده‌ها را تولید کرده، بر روی آن‌ها مدل را آموزش دهند و سپس از مجموعه ابزارهای ارزیابی متا در Llama API برای تست کیفیت مدل سفارشی خود استفاده کنند.

API متا لاما
اعتبار تصویر: متا
متا

متا اعلام کرد که از داده‌های مشتریان Llama API برای آموزش مدل‌های خود شرکت استفاده نخواهد کرد و مدل‌هایی که با استفاده از Llama API ساخته می‌شوند، قابل انتقال به میزبان دیگری هستند.

برای توسعه‌دهندگانی که بر روی مدل‌های Llama 4 که اخیراً منتشر شده‌اند کار می‌کنند، Llama API گزینه‌های سرویس‌دهی مدل را از طریق همکاری با شرکت‌های Cerebras و Groq ارائه می‌دهد. متا گفت که این گزینه‌های "تجربی اولیه" "درخواستی" در دسترس هستند تا به توسعه‌دهندگان در نمونه‌سازی برنامه‌های هوش مصنوعی خود کمک کنند.

متا در پستی که به TechCrunch ارائه داد نوشت: "با انتخاب ساده نام مدل‌های Cerebras یا Groq در API، توسعه‌دهندگان می‌توانند […] از تجربه‌ای ساده با ردیابی تمام مصرف در یک مکان لذت ببرند." "[م]ا مشتاقانه منتظر گسترش همکاری با ارائه‌دهندگان بیشتر هستیم تا گزینه‌های بیشتری برای ساخت بر روی لاما فراهم کنیم."

متا اعلام کرد که دسترسی به Llama API را "در هفته‌ها و ماه‌های آینده" گسترش خواهد داد.