معیارهای عملکرد Mercury
معیارهای عملکرد Mercury

رونمایی Inception از Mercury: اولین مدل زبانی بزرگ انتشار تجاری در مقیاس

چشم انداز هوش مصنوعی مولد و LLMها با عرضه Mercury توسط استارت‌آپ پیشرو Inception Labs شاهد جهشی چشمگیر بوده است. Inception Labs با معرفی اولین مدل‌های زبانی بزرگ انتشار (dLLM) در مقیاس تجاری، نویدبخش تغییر پارادایم در سرعت، کارایی هزینه و هوشمندی برای وظایف تولید متن و کد است.

Mercury: تعیین معیارهای جدید در سرعت و کارایی هوش مصنوعی

سری Mercury از مدل‌های زبانی بزرگ انتشار Inception، عملکرد بی‌سابقه‌ای را ارائه می‌دهد و با سرعتی کار می‌کند که پیش از این با معماری‌های LLM سنتی غیرقابل دستیابی بود. Mercury به توان عملیاتی قابل توجهی دست می‌یابد - بیش از 1000 توکن در ثانیه در GPUهای معمولی NVIDIA H100 - عملکردی که قبلاً منحصر به سخت‌افزارهای طراحی‌شده سفارشی مانند Groq، Cerebras و SambaNova بود. این به معنای افزایش سرعت 5 تا 10 برابری نسبت به مدل‌های خودرگرسیو پیشرو فعلی است.

مدل‌های انتشار: آینده تولید متن

LLMهای خودرگرسیو سنتی، متن را به صورت متوالی، توکن به توکن، تولید می‌کنند که باعث تأخیر قابل توجه و هزینه‌های محاسباتی، به ویژه در وظایف استدلال گسترده و تصحیح خطا می‌شود. با این حال، مدل‌های انتشار از یک فرآیند تولید "درشت به ریز" منحصر به فرد استفاده می‌کنند. برخلاف مدل‌های خودرگرسیو که توسط تولید متوالی محدود شده‌اند، مدل‌های انتشار به‌طور مکرر خروجی‌ها را از تقریب‌های پر سر و صدا اصلاح می‌کنند و به‌روزرسانی‌های موازی توکن را امکان‌پذیر می‌سازند. این روش به طور قابل توجهی استدلال، تصحیح خطا و انسجام کلی محتوای تولید شده را بهبود می‌بخشد.

درحالی‌که رویکردهای انتشار در تولید تصویر، صدا و ویدیو انقلابی بوده‌اند - و برنامه‌هایی مانند Midjourney و Sora را تقویت می‌کنند - کاربرد آن‌ها در حوزه‌های داده‌های گسسته مانند متن و کد تا قبل از پیشرفت Inception تا حد زیادی ناشناخته بود.

Mercury Coder: تولید کد با سرعت بالا و کیفیت بالا

محصول شاخص Inception، Mercury Coder، به طور خاص برای کاربردهای کدنویسی بهینه شده است. توسعه‌دهندگان اکنون به یک مدل با کیفیت بالا و پاسخ سریع دسترسی دارند که قادر به تولید کد با بیش از 1000 توکن در ثانیه است، که یک پیشرفت چشمگیر نسبت به مدل‌های متمرکز بر سرعت موجود است.

در معیارهای استاندارد کدنویسی، Mercury Coder نه تنها با عملکرد سایر مدل‌های با کارایی بالا مانند GPT-4o Mini و Claude 3.5 Haiku مطابقت دارد، بلکه اغلب از آن‌ها پیشی می‌گیرد. علاوه بر این، Mercury Coder Mini در Copilot Arena رتبه بالایی کسب کرد، و در جایگاه دوم قرار گرفت و از مدل‌های معتبری مانند GPT-4o Mini و Gemini-1.5-Flash بهتر عمل کرد. حتی چشمگیرتر اینکه، Mercury این کار را در حالی انجام می‌دهد که سرعت آن تقریباً 4 برابر سریع‌تر از GPT-4o Mini است.

معیارهای عملکرد مرکوری کُدِر

تطبیق‌پذیری و یکپارچه‌سازی

dLLMهای Mercury به طور یکپارچه به عنوان جایگزینی برای LLMهای خودرگرسیو سنتی عمل می‌کنند. آن‌ها بدون زحمت از موارد استفاده از جمله تولید تقویـت‌شده با بازیابی (RAG)، یکپارچه‌سازی ابزار و گردش‌های کاری مبتنی بر عامل پشتیبانی می‌کنند. اصلاح موازی مدل انتشار اجازه می‌دهد تا چندین توکن به طور همزمان به‌روز شوند و تولید سریع و دقیق مناسب برای محیط‌های سازمانی، یکپارچه‌سازی API و استقرار در محل را تضمین می‌کند.

ساخته شده توسط نوآوران هوش مصنوعی

فناوری Inception توسط تحقیقات بنیادی در استنفورد، UCLA و کرنل از بنیانگذاران پیشگام آن پشتیبانی می‌شود که به دلیل مشارکت‌های مهم خود در تکامل هوش مصنوعی مولد شناخته شده‌اند. تخصص ترکیبی آن‌ها شامل توسعه اصلی مدل‌های انتشار مبتنی بر تصویر و نوآوری‌هایی مانند بهینه‌سازی ترجیح مستقیم، توجه فلش و Decision Transformers است - تکنیک‌هایی که به طور گسترده به دلیل تأثیر تحول‌آفرین آن‌ها بر هوش مصنوعی مدرن شناخته شده‌اند.

معرفی Mercury توسط Inception یک لحظه محوری برای هوش مصنوعی سازمانی است و سطوح عملکرد، دقت و کارایی هزینه‌ای را که قبلاً غیرممکن بود، باز می‌کند.


Playground و جزئیات فنی را بررسی کنید. تمام اعتبار این تحقیق به محققان این پروژه تعلق دارد. همچنین، می‌توانید ما را در توییتر دنبال کنید و فراموش نکنید که به ساب‌ردیت 80 هزار نفری ML ما بپیوندید.