آیندهی اجرای مدلهای زبانی بزرگ (LLM) ممکن است دیگر به زیرساختهای گرانقیمت یا پردازندههای گرافیکی (GPU) وابسته نباشد. در حالی که هند در حال توسعهی مدل بنیادی خود تحت ماموریت IndiaAI است، یک استارتاپ رویکرد متفاوتی را در پیش گرفته و در حال بررسی چگونگی اجرای کارآمد مدلهای زبانی بزرگ بر روی پردازندههای مرکزی (CPU) است.
زایروح لبز (Ziroh Labs)، که بر اساس اصل دسترسیپذیر کردن هوش مصنوعی برای همه تأسیس شده است، پلتفرمی به نام هوش مصنوعی Kompact را توسعه داده است که امکان اجرای مدلهای زبانی بزرگ پیچیده را بر روی پردازندههای مرکزی رایج فراهم میکند و نیاز به پردازندههای گرافیکی پرهزینه و اغلب کمیاب را برای استنتاج (و بهزودی، برای تنظیم دقیق مدلها با حداکثر 50 میلیارد پارامتر) از بین میبرد.
هریشیکش Dewan، یکی از بنیانگذاران زایروح لبز (Ziroh Labs)، در مصاحبه اختصاصی با AIM گفت: «با یک مدل ۵۰ میلیارد پارامتری، دیگر در طول تنظیم دقیق یا استنتاج، نیازی به پردازنده گرافیکی نخواهد بود.» وی در ادامه افزود که کار بر روی قابلیتهای تنظیم دقیق در حال انجام است و در سه ماه آینده منتشر خواهد شد و ادعا کرد که دیگر هیچکس برای آموزش مدلهای خود به پردازنده گرافیکی نیاز نخواهد داشت.
زایروح لبز همچنین با موسسه فناوری هند مدرس (IIT Madras) و بنیاد فناوری IITM Pravartak همکاری کرده است تا مرکز تحقیقات هوش مصنوعی (CoAIR) را برای حل چالشهای دسترسی محاسباتی هند با استفاده از مدلهای هوش مصنوعی بهینهسازیشده برای پردازندههای مرکزی و دستگاههای لبهای، راهاندازی کند.
زایروح لبز در کالیفرنیا، ایالات متحده، و بنگلور، هند، مستقر است. Dewan اظهار داشت که هوش مصنوعی Kompact به طور کامل در دفتر بنگلور توسعه یافته است—از علم و مهندسی هسته تا هر جنبه از طراحی و اجرای آن.
این شرکت تاکنون 17 مدل هوش مصنوعی، از جمله DeepSeek، Qwen و Llama را برای اجرای کارآمد بر روی پردازندههای مرکزی بهینه کرده است. این مدلها با همکاری IIT Madras مورد محکزنی قرار گرفتهاند و هم عملکرد کمی و هم دقت کیفی آنها ارزیابی شده است.
فناوری هوش مصنوعی Kompact
Dewan توضیح داد که مدلهای زبانی بزرگ (LLM) چیزی نیستند جز معادلات ریاضی که میتوانند هم بر روی پردازندههای گرافیکی (GPU) و هم پردازندههای مرکزی (CPU) اجرا شوند. وی گفت که آنها از تکنیک تقطیر و کمیسازی، که امروزه بسیار رایج است، استفاده نمیکنند. در عوض، زایروح لبز (Ziroh Labs) مبانی ریاضی (جبر خطی و معادلات احتمال) مدلهای زبانی بزرگ را تجزیه و تحلیل میکند و آنها را در سطح نظری بدون تغییر ساختار مدل یا کاهش اندازه پارامتر آن، بهینه میکند.
پس از بهینهسازی نظری، مدل به طور خاص برای پردازندهای که روی آن اجرا میشود، تنظیم میشود و CPU، مادربرد، معماری حافظه (مانند حافظههای پنهان L1/L2/L3) و اتصالات داخلی را در نظر میگیرد.
Dewan استدلال کرد که اجرای یک مدل زبانی بزرگ (LLM) بر روی یک پردازنده مرکزی (CPU) چیز جدیدی نیست—چالش واقعی حفظ کیفیت و دستیابی به سرعت قابل استفاده (توان عملیاتی) است. وی توضیح داد که هر چیزی که قابل محاسبه باشد، میتواند بر روی هر رایانهای اجرا شود، اما عملی بودن آن در این است که چقدر سریع و چقدر دقیق اجرا میشود. آنها توانستهاند هر دوی این جنبهها را بدون فشردهسازی مدلها حل کنند.
Dewan گفت: «بنابراین، آنچه ضروری است و باید حل شود، دو جنبه دارد. یکی این است که سطح مطلوب خروجی، یعنی کیفیت، تولید شود. و دوم این است که چقدر سریع خروجی را تولید میکند. بنابراین این دو مسئلهای هستند که باید حل شوند. اگر بتوانید این دو را با هم حل کنید، سیستم قابل استفاده میشود.»
همکاری با موسسه فناوری هند مدرس (IIT Madras)
Dewan اظهار داشت که همکاری با IIT Madras از طریق پروفسور S Sadagopan، مدیر سابق IIIT-Bangalore، که او را به پروفسور V Kamakoti، مدیر فعلی IIT Madras، معرفی کرد، به وجود آمد.
در مراسم افتتاحیه، Sadagopan گفت: «هند نیز در حال توسعه پردازندههای گرافیکی است، اما زمان میبرد. زایروح لبز (Ziroh Labs) نشان میدهد که راهحلهای هوش مصنوعی را میتوان با استفاده از پردازندههای مرکزی (CPU) که به وفور در دسترس هستند، بدون نیاز اجباری به پردازنده گرافیکی (GPU)، با کسری از هزینه، توسعه داد.»
Dewan افزود که همکاری آنها با IIT Madras دو هدف دارد—اعتبارسنجی مداوم مدل و توسعه موارد استفاده دنیای واقعی. وی گفت: «ایده این است که این مدلهای زبانی بزرگ (LLM) را در دسترس استارتاپها قرار دهیم تا یک اکوسیستم ایجاد شود.»
Kamakoti گفت که این ابتکار منعکسکننده رویکرد الهامگرفته از طبیعت است. «طبیعت به ما آموخته است که میتوان به طور مؤثر دانش را کسب کرد و متعاقباً فقط در یک مجموعه محدود از حوزهها استنتاج کرد. تلاش برای کسب همه چیز در جهان پایدار نیست و محکوم به شکست است.»
وی افزود: «این تلاش قطعاً گامی مهم در جهت جلوگیری از تقسیم احتمالی هوش مصنوعی بین کسی که میتواند سیستمهای مدرن هایپراسکالر را تامین کند و کسی که نمیتواند، است.»
Dewan در مورد طیف متنوعی از موارد استفاده که از زمان راهاندازی هوش مصنوعی Kompact پدید آمده است، بحث کرد. وی گفت: «ما بیش از 200 درخواست در بخشهای مختلف، از جمله مراقبتهای بهداشتی، تلهمتری از راه دور، و حتی راهحلهایی برای فروشگاههای kirana (خواربارفروشی) دریافت کردهایم.»
Dewan افزود: «مردم همچنین در حال کار بر روی ایجاد ابزارهای نرمافزاری آموزشی و سیستمهای اتوماسیون هستند. موارد استفاده نوآورانه متعددی از صنایع مختلف در حال ظهور است.»
نگاهی به سرمایهگذاریهای بزرگ در هوش مصنوعی
مایکروسافت اعلام کرده است که قصد دارد 80 میلیارد دلار برای ساخت مراکز داده هوش مصنوعی هزینه کند، در حالی که متا و گوگل 65 میلیارد دلار و 75 میلیارد دلار متعهد شدهاند. Dewan در پاسخ به این سوال که آیا چنین سرمایهگذاریهای عظیمی موجه است، به مقیاس مدلهایی که این شرکتها در حال توسعه هستند، اشاره کرد.
وی گفت: «آنها در حال طراحی مدلهای عظیمی هستند... فرضیه آنها این است که مدلهای بزرگ کارهای زیادی انجام میدهند.» Dewan با اشاره به Grok، که بیش از یک تریلیون پارامتر دارد، به عنوان مثال، خاطرنشان کرد که در حالی که 50 میلیارد دلار ممکن است مبلغ هنگفتی به نظر برسد، اما در دنیای مدلهای زبانی بزرگ، نسبتاً متوسط است. وی افزود: «آنها پول دارند، بنابراین این کار را انجام میدهند. و ما فناوری را داریم و میتوانیم مشکلات خود را حل کنیم. بنابراین همه در کنار هم زندگی خواهند کرد.»
زایروح لبز (Ziroh Labs) در حال حاضر تیمی متشکل از یازده نفر دارد و از طریق بودجه شخصی (bootstrapped) اداره میشود. این شرکت در سال 2016 برای رسیدگی به مشکل حیاتی حریم خصوصی و امنیت دادهها، به ویژه با تمرکز بر توسعه سیستمهای رمزنگاری حفظ حریم خصوصی که میتوانند در مقیاس بزرگ مورد استفاده قرار گیرند، تأسیس شد. Dewan گفت که آنها هنوز روی این موضوع کار میکنند. «ما در سال 2026 حریم خصوصی را به هوش مصنوعی خواهیم آورد، زیرا در نهایت، هوش مصنوعی باید حریم خصوصی داشته باشد.»
[توجه: عنوان برای وضوح بیشتر بهروزرسانی شده است.]