این استارتاپ هوش مصنوعی هندی ثابت می‌کند که مدل‌های زبانی بزرگ دیگر نیازی به پردازنده‌های گرافیکی گران‌قیمت ندارند

آینده‌ی اجرای مدل‌های زبانی بزرگ (LLM) ممکن است دیگر به زیرساخت‌های گران‌قیمت یا پردازنده‌های گرافیکی (GPU) وابسته نباشد. در حالی که هند در حال توسعه‌ی مدل بنیادی خود تحت ماموریت IndiaAI است، یک استارتاپ رویکرد متفاوتی را در پیش گرفته و در حال بررسی چگونگی اجرای کارآمد مدل‌های زبانی بزرگ بر روی پردازنده‌های مرکزی (CPU) است.

زایروح لبز (Ziroh Labs)، که بر اساس اصل دسترسی‌پذیر کردن هوش مصنوعی برای همه تأسیس شده است، پلتفرمی به نام هوش مصنوعی Kompact را توسعه داده است که امکان اجرای مدل‌های زبانی بزرگ پیچیده را بر روی پردازنده‌های مرکزی رایج فراهم می‌کند و نیاز به پردازنده‌های گرافیکی پرهزینه و اغلب کمیاب را برای استنتاج (و به‌زودی، برای تنظیم دقیق مدل‌ها با حداکثر 50 میلیارد پارامتر) از بین می‌برد.

هریشیکش Dewan، یکی از بنیان‌گذاران زایروح لبز (Ziroh Labs)، در مصاحبه اختصاصی با AIM گفت: «با یک مدل ۵۰ میلیارد پارامتری، دیگر در طول تنظیم دقیق یا استنتاج، نیازی به پردازنده گرافیکی نخواهد بود.» وی در ادامه افزود که کار بر روی قابلیت‌های تنظیم دقیق در حال انجام است و در سه ماه آینده منتشر خواهد شد و ادعا کرد که دیگر هیچ‌کس برای آموزش مدل‌های خود به پردازنده گرافیکی نیاز نخواهد داشت.

زایروح لبز همچنین با موسسه فناوری هند مدرس (IIT Madras) و بنیاد فناوری IITM Pravartak همکاری کرده است تا مرکز تحقیقات هوش مصنوعی (CoAIR) را برای حل چالش‌های دسترسی محاسباتی هند با استفاده از مدل‌های هوش مصنوعی بهینه‌سازی‌شده برای پردازنده‌های مرکزی و دستگاه‌های لبه‌ای، راه‌اندازی کند.

زایروح لبز در کالیفرنیا، ایالات متحده، و بنگلور، هند، مستقر است. Dewan اظهار داشت که هوش مصنوعی Kompact به طور کامل در دفتر بنگلور توسعه یافته است—از علم و مهندسی هسته تا هر جنبه از طراحی و اجرای آن.

این شرکت تاکنون 17 مدل هوش مصنوعی، از جمله DeepSeek، Qwen و Llama را برای اجرای کارآمد بر روی پردازنده‌های مرکزی بهینه کرده است. این مدل‌ها با همکاری IIT Madras مورد محک‌زنی قرار گرفته‌اند و هم عملکرد کمی و هم دقت کیفی آن‌ها ارزیابی شده است.

فناوری هوش مصنوعی Kompact

Dewan توضیح داد که مدل‌های زبانی بزرگ (LLM) چیزی نیستند جز معادلات ریاضی که می‌توانند هم بر روی پردازنده‌های گرافیکی (GPU) و هم پردازنده‌های مرکزی (CPU) اجرا شوند. وی گفت که آن‌ها از تکنیک تقطیر و کمی‌سازی، که امروزه بسیار رایج است، استفاده نمی‌کنند. در عوض، زایروح لبز (Ziroh Labs) مبانی ریاضی (جبر خطی و معادلات احتمال) مدل‌های زبانی بزرگ را تجزیه و تحلیل می‌کند و آن‌ها را در سطح نظری بدون تغییر ساختار مدل یا کاهش اندازه پارامتر آن، بهینه می‌کند.

پس از بهینه‌سازی نظری، مدل به طور خاص برای پردازنده‌ای که روی آن اجرا می‌شود، تنظیم می‌شود و CPU، مادربرد، معماری حافظه (مانند حافظه‌های پنهان L1/L2/L3) و اتصالات داخلی را در نظر می‌گیرد.

Dewan استدلال کرد که اجرای یک مدل زبانی بزرگ (LLM) بر روی یک پردازنده مرکزی (CPU) چیز جدیدی نیست—چالش واقعی حفظ کیفیت و دستیابی به سرعت قابل استفاده (توان عملیاتی) است. وی توضیح داد که هر چیزی که قابل محاسبه باشد، می‌تواند بر روی هر رایانه‌ای اجرا شود، اما عملی بودن آن در این است که چقدر سریع و چقدر دقیق اجرا می‌شود. آن‌ها توانسته‌اند هر دوی این جنبه‌ها را بدون فشرده‌سازی مدل‌ها حل کنند.

Dewan گفت: «بنابراین، آنچه ضروری است و باید حل شود، دو جنبه دارد. یکی این است که سطح مطلوب خروجی، یعنی کیفیت، تولید شود. و دوم این است که چقدر سریع خروجی را تولید می‌کند. بنابراین این دو مسئله‌ای هستند که باید حل شوند. اگر بتوانید این دو را با هم حل کنید، سیستم قابل استفاده می‌شود.»

همکاری با موسسه فناوری هند مدرس (IIT Madras)

Dewan اظهار داشت که همکاری با IIT Madras از طریق پروفسور S Sadagopan، مدیر سابق IIIT-Bangalore، که او را به پروفسور V Kamakoti، مدیر فعلی IIT Madras، معرفی کرد، به وجود آمد.

در مراسم افتتاحیه، Sadagopan گفت: «هند نیز در حال توسعه پردازنده‌های گرافیکی است، اما زمان می‌برد. زایروح لبز (Ziroh Labs) نشان می‌دهد که راه‌حل‌های هوش مصنوعی را می‌توان با استفاده از پردازنده‌های مرکزی (CPU) که به وفور در دسترس هستند، بدون نیاز اجباری به پردازنده گرافیکی (GPU)، با کسری از هزینه، توسعه داد.»

Dewan افزود که همکاری آن‌ها با IIT Madras دو هدف دارد—اعتبارسنجی مداوم مدل و توسعه موارد استفاده دنیای واقعی. وی گفت: «ایده این است که این مدل‌های زبانی بزرگ (LLM) را در دسترس استارتاپ‌ها قرار دهیم تا یک اکوسیستم ایجاد شود.»

Kamakoti گفت که این ابتکار منعکس‌کننده رویکرد الهام‌گرفته از طبیعت است. «طبیعت به ما آموخته است که می‌توان به طور مؤثر دانش را کسب کرد و متعاقباً فقط در یک مجموعه محدود از حوزه‌ها استنتاج کرد. تلاش برای کسب همه چیز در جهان پایدار نیست و محکوم به شکست است.»

وی افزود: «این تلاش قطعاً گامی مهم در جهت جلوگیری از تقسیم احتمالی هوش مصنوعی بین کسی که می‌تواند سیستم‌های مدرن هایپراسکالر را تامین کند و کسی که نمی‌تواند، است.»

Dewan در مورد طیف متنوعی از موارد استفاده که از زمان راه‌اندازی هوش مصنوعی Kompact پدید آمده است، بحث کرد. وی گفت: «ما بیش از 200 درخواست در بخش‌های مختلف، از جمله مراقبت‌های بهداشتی، تله‌متری از راه دور، و حتی راه‌حل‌هایی برای فروشگاه‌های kirana (خواربارفروشی) دریافت کرده‌ایم.»

Dewan افزود: «مردم همچنین در حال کار بر روی ایجاد ابزارهای نرم‌افزاری آموزشی و سیستم‌های اتوماسیون هستند. موارد استفاده نوآورانه متعددی از صنایع مختلف در حال ظهور است.»

نگاهی به سرمایه‌گذاری‌های بزرگ در هوش مصنوعی

مایکروسافت اعلام کرده است که قصد دارد 80 میلیارد دلار برای ساخت مراکز داده هوش مصنوعی هزینه کند، در حالی که متا و گوگل 65 میلیارد دلار و 75 میلیارد دلار متعهد شده‌اند. Dewan در پاسخ به این سوال که آیا چنین سرمایه‌گذاری‌های عظیمی موجه است، به مقیاس مدل‌هایی که این شرکت‌ها در حال توسعه هستند، اشاره کرد.

وی گفت: «آن‌ها در حال طراحی مدل‌های عظیمی هستند... فرضیه آن‌ها این است که مدل‌های بزرگ کارهای زیادی انجام می‌دهند.» Dewan با اشاره به Grok، که بیش از یک تریلیون پارامتر دارد، به عنوان مثال، خاطرنشان کرد که در حالی که 50 میلیارد دلار ممکن است مبلغ هنگفتی به نظر برسد، اما در دنیای مدل‌های زبانی بزرگ، نسبتاً متوسط است. وی افزود: «آن‌ها پول دارند، بنابراین این کار را انجام می‌دهند. و ما فناوری را داریم و می‌توانیم مشکلات خود را حل کنیم. بنابراین همه در کنار هم زندگی خواهند کرد.»

زایروح لبز (Ziroh Labs) در حال حاضر تیمی متشکل از یازده نفر دارد و از طریق بودجه شخصی (bootstrapped) اداره می‌شود. این شرکت در سال 2016 برای رسیدگی به مشکل حیاتی حریم خصوصی و امنیت داده‌ها، به ویژه با تمرکز بر توسعه سیستم‌های رمزنگاری حفظ حریم خصوصی که می‌توانند در مقیاس بزرگ مورد استفاده قرار گیرند، تأسیس شد. Dewan گفت که آن‌ها هنوز روی این موضوع کار می‌کنند. «ما در سال 2026 حریم خصوصی را به هوش مصنوعی خواهیم آورد، زیرا در نهایت، هوش مصنوعی باید حریم خصوصی داشته باشد.»

[توجه: عنوان برای وضوح بیشتر به‌روزرسانی شده است.]