چشم انداز هوش مصنوعی مولد و LLMها با عرضه Mercury توسط استارتآپ پیشرو Inception Labs شاهد جهشی چشمگیر بوده است. Inception Labs با معرفی اولین مدلهای زبانی بزرگ انتشار (dLLM) در مقیاس تجاری، نویدبخش تغییر پارادایم در سرعت، کارایی هزینه و هوشمندی برای وظایف تولید متن و کد است.
Mercury: تعیین معیارهای جدید در سرعت و کارایی هوش مصنوعی
سری Mercury از مدلهای زبانی بزرگ انتشار Inception، عملکرد بیسابقهای را ارائه میدهد و با سرعتی کار میکند که پیش از این با معماریهای LLM سنتی غیرقابل دستیابی بود. Mercury به توان عملیاتی قابل توجهی دست مییابد - بیش از 1000 توکن در ثانیه در GPUهای معمولی NVIDIA H100 - عملکردی که قبلاً منحصر به سختافزارهای طراحیشده سفارشی مانند Groq، Cerebras و SambaNova بود. این به معنای افزایش سرعت 5 تا 10 برابری نسبت به مدلهای خودرگرسیو پیشرو فعلی است.
مدلهای انتشار: آینده تولید متن
LLMهای خودرگرسیو سنتی، متن را به صورت متوالی، توکن به توکن، تولید میکنند که باعث تأخیر قابل توجه و هزینههای محاسباتی، به ویژه در وظایف استدلال گسترده و تصحیح خطا میشود. با این حال، مدلهای انتشار از یک فرآیند تولید "درشت به ریز" منحصر به فرد استفاده میکنند. برخلاف مدلهای خودرگرسیو که توسط تولید متوالی محدود شدهاند، مدلهای انتشار بهطور مکرر خروجیها را از تقریبهای پر سر و صدا اصلاح میکنند و بهروزرسانیهای موازی توکن را امکانپذیر میسازند. این روش به طور قابل توجهی استدلال، تصحیح خطا و انسجام کلی محتوای تولید شده را بهبود میبخشد.
درحالیکه رویکردهای انتشار در تولید تصویر، صدا و ویدیو انقلابی بودهاند - و برنامههایی مانند Midjourney و Sora را تقویت میکنند - کاربرد آنها در حوزههای دادههای گسسته مانند متن و کد تا قبل از پیشرفت Inception تا حد زیادی ناشناخته بود.
Mercury Coder: تولید کد با سرعت بالا و کیفیت بالا
محصول شاخص Inception، Mercury Coder، به طور خاص برای کاربردهای کدنویسی بهینه شده است. توسعهدهندگان اکنون به یک مدل با کیفیت بالا و پاسخ سریع دسترسی دارند که قادر به تولید کد با بیش از 1000 توکن در ثانیه است، که یک پیشرفت چشمگیر نسبت به مدلهای متمرکز بر سرعت موجود است.
در معیارهای استاندارد کدنویسی، Mercury Coder نه تنها با عملکرد سایر مدلهای با کارایی بالا مانند GPT-4o Mini و Claude 3.5 Haiku مطابقت دارد، بلکه اغلب از آنها پیشی میگیرد. علاوه بر این، Mercury Coder Mini در Copilot Arena رتبه بالایی کسب کرد، و در جایگاه دوم قرار گرفت و از مدلهای معتبری مانند GPT-4o Mini و Gemini-1.5-Flash بهتر عمل کرد. حتی چشمگیرتر اینکه، Mercury این کار را در حالی انجام میدهد که سرعت آن تقریباً 4 برابر سریعتر از GPT-4o Mini است.

تطبیقپذیری و یکپارچهسازی
dLLMهای Mercury به طور یکپارچه به عنوان جایگزینی برای LLMهای خودرگرسیو سنتی عمل میکنند. آنها بدون زحمت از موارد استفاده از جمله تولید تقویـتشده با بازیابی (RAG)، یکپارچهسازی ابزار و گردشهای کاری مبتنی بر عامل پشتیبانی میکنند. اصلاح موازی مدل انتشار اجازه میدهد تا چندین توکن به طور همزمان بهروز شوند و تولید سریع و دقیق مناسب برای محیطهای سازمانی، یکپارچهسازی API و استقرار در محل را تضمین میکند.
ساخته شده توسط نوآوران هوش مصنوعی
فناوری Inception توسط تحقیقات بنیادی در استنفورد، UCLA و کرنل از بنیانگذاران پیشگام آن پشتیبانی میشود که به دلیل مشارکتهای مهم خود در تکامل هوش مصنوعی مولد شناخته شدهاند. تخصص ترکیبی آنها شامل توسعه اصلی مدلهای انتشار مبتنی بر تصویر و نوآوریهایی مانند بهینهسازی ترجیح مستقیم، توجه فلش و Decision Transformers است - تکنیکهایی که به طور گسترده به دلیل تأثیر تحولآفرین آنها بر هوش مصنوعی مدرن شناخته شدهاند.
معرفی Mercury توسط Inception یک لحظه محوری برای هوش مصنوعی سازمانی است و سطوح عملکرد، دقت و کارایی هزینهای را که قبلاً غیرممکن بود، باز میکند.
Playground و جزئیات فنی را بررسی کنید. تمام اعتبار این تحقیق به محققان این پروژه تعلق دارد. همچنین، میتوانید ما را در توییتر دنبال کنید و فراموش نکنید که به سابردیت 80 هزار نفری ML ما بپیوندید.