استارتاپ هوش مصنوعی هندی ثابت کرد که LLMها دیگر نیازی به GPUهای گران قیمت ندارند

آینده اجرای مدل‌های زبانی بزرگ (LLM) ممکن است دیگر به زیرساخت‌های گران‌قیمت یا واحدهای پردازش گرافیکی (GPU) متکی نباشد. در حالی که هند در حال توسعه مدل بنیادی خود تحت ماموریت IndiaAI است، یک استارتاپ رویکرد متفاوتی را در پیش گرفته است و در حال بررسی چگونگی اجرای کارآمد LLMها بر روی واحدهای پردازش مرکزی (CPU) است.

شرکت Ziroh Labs، که بر اساس اصل دسترسی همگانی به هوش مصنوعی تاسیس شده است، پلتفرمی به نام Kompact AI را توسعه داده است که امکان اجرای LLMهای پیچیده را بر روی CPUهای در دسترس فراهم می‌کند و نیاز به GPUهای گران‌قیمت و اغلب کمیاب را برای استنتاج و به‌زودی، برای تنظیم دقیق مدل‌ها با حداکثر 50 میلیارد پارامتر، از بین می‌برد.

هریشیکش Dewan، یکی از بنیانگذاران Ziroh Labs، در مصاحبه اختصاصی با AIM گفت: «با یک مدل 50 میلیارد پارامتری، هیچ GPU در طول تنظیم دقیق یا استنتاج ضروری نخواهد بود.» وی افزود که کار بر روی قابلیت‌های تنظیم دقیق در حال انجام است و در سه ماه آینده منتشر خواهد شد و ادعا کرد که دیگر کسی برای آموزش مدل‌های خود به GPU نیاز نخواهد داشت.

Ziroh Labs همچنین با موسسه فناوری هند مدرس (IIT Madras) و بنیاد فناوری IITM Pravartak برای راه‌اندازی مرکز تحقیقات هوش مصنوعی (CoAIR) همکاری کرده است تا چالش‌های دسترسی به محاسبات هند را با استفاده از مدل‌های هوش مصنوعی بهینه شده برای CPUها و دستگاه‌های لبه حل کند.

Ziroh Labs در کالیفرنیا، ایالات متحده و بنگلور، هند مستقر است. Dewan اظهار داشت که Kompact AI به طور کامل در دفتر بنگلور توسعه یافته است - از علم و مهندسی اصلی گرفته تا هر جنبه از طراحی و اجرای آن.

این شرکت در حال حاضر 17 مدل هوش مصنوعی، از جمله DeepSeek، Qwen و Llama را بهینه کرده است تا به طور کارآمد بر روی CPUها اجرا شوند. این مدل‌ها با IIT Madras محک زده شده‌اند و عملکرد کمی و دقت کیفی آن‌ها ارزیابی شده است.

فناوری Kompact AI

Dewan توضیح داد که LLMها چیزی نیستند جز معادلات ریاضی که می‌توانند بر روی GPUها و CPUها اجرا شوند. وی گفت که آن‌ها از تکنیک تقطیر و کوانتیزاسیون، که امروزه بسیار رایج است، استفاده نمی‌کنند. در عوض، Ziroh Labs مبانی ریاضی (جبر خطی و معادلات احتمال) LLMها را تجزیه و تحلیل می‌کند و این‌ها را در سطح نظری بدون تغییر ساختار مدل یا کاهش اندازه پارامتر آن بهینه می‌کند.

پس از بهینه‌سازی نظری، مدل به‌طور خاص برای پردازنده‌ای که روی آن اجرا می‌شود، با در نظر گرفتن CPU، مادربرد، معماری حافظه (مانند کش‌های L1/L2/L3) و اتصالات داخلی تنظیم می‌شود.

Dewan استدلال کرد که اجرای یک LLM بر روی CPU چیز جدیدی نیست - چالش واقعی حفظ کیفیت و دستیابی به سرعت قابل استفاده (توان عملیاتی) است. وی توضیح داد که هر چیزی که قابل محاسبه باشد، می‌تواند بر روی هر کامپیوتری اجرا شود، اما عملی بودن آن در این است که چقدر سریع و چقدر دقیق اجرا می‌شود. آن‌ها توانسته‌اند هر دوی این جنبه‌ها را بدون فشرده‌سازی مدل‌ها حل کنند.

Dewan گفت: «بنابراین، آنچه ضروری است و باید حل شود، دو چیز است. یکی این است که سطح مطلوب خروجی، یعنی کیفیت را تولید کنیم. و دوم این است که خروجی با چه سرعتی تولید خواهد شد. بنابراین این‌ها دو مشکلی هستند که باید حل شوند. اگر بتوانید این‌ها را با هم حل کنید، سیستم قابل استفاده می‌شود.»

همکاری با IIT Madras

Dewan اظهار داشت که همکاری با IIT Madras از طریق پروفسور S Sadagopan، مدیر سابق IIIT-Bangalore، که او را به پروفسور V Kamakoti، مدیر فعلی IIT Madras معرفی کرد، صورت گرفت.

در مراسم افتتاحیه، Sadagopan گفت: «هند نیز در حال توسعه GPU است، اما زمان می‌برد. Ziroh Labs نشان می‌دهد که می‌توان راه‌حل‌های هوش مصنوعی را با استفاده از CPUهایی که به وفور در دسترس هستند، بدون نیاز اجباری به GPU، با کسری از هزینه توسعه داد.»

Dewan افزود که همکاری آن‌ها با IIT Madras هدف دوگانه‌ای دارد - اعتبارسنجی مداوم مدل و توسعه موارد استفاده واقعی. وی گفت: «ایده این است که این LLMها را در اختیار استارتاپ‌ها قرار دهیم تا اکوسیستمی ایجاد شود.»

Kamakoti گفت که این ابتکار نشان‌دهنده رویکردی الهام گرفته از طبیعت است. «طبیعت به ما آموخته است که می‌توان به طور موثر دانش کسب کرد و متعاقباً فقط در یک مجموعه محدود از حوزه‌ها استنباط کرد. تلاش برای کسب همه چیز در جهان پایدار نیست و محکوم به شکست است.»

وی افزود: «این تلاش قطعاً گام مهمی در جلوگیری از شکاف احتمالی هوش مصنوعی بین کسی است که می‌تواند از سیستم‌های مدرن هایپراسکیلر استفاده کند و کسی که نمی‌تواند.»

Dewan در مورد طیف متنوعی از موارد استفاده که از زمان راه‌اندازی Kompact AI ظهور کرده‌اند، صحبت کرد. وی گفت: «ما بیش از 200 درخواست در بخش‌های مختلف، از جمله مراقبت‌های بهداشتی، تله‌متری از راه دور و حتی راه‌حل‌هایی برای فروشگاه‌های kirana دریافت کرده‌ایم.»

Dewan افزود: «مردم همچنین در حال کار بر روی ایجاد ابزارهای نرم‌افزاری آموزشی و سیستم‌های اتوماسیون هستند. موارد استفاده نوآورانه متعددی از صنایع مختلف در حال ظهور است.»

نگاهی به سرمایه‌گذاری‌های بزرگ در هوش مصنوعی

مایکروسافت برنامه‌هایی را برای صرف 80 میلیارد دلار برای ساخت مراکز داده هوش مصنوعی اعلام کرده است، در حالی که متا و گوگل متعهد به 65 میلیارد دلار و 75 میلیارد دلار شده‌اند. Dewan در پاسخ به این سوال که آیا چنین سرمایه‌گذاری‌های عظیمی موجه است، به مقیاس مدل‌هایی که این شرکت‌ها در حال توسعه آن هستند، اشاره کرد.

وی گفت: «آن‌ها در حال طراحی مدل‌های عظیمی هستند... فرضیه آن‌ها این است که مدل‌های بزرگ کارهای زیادی انجام خواهند داد.» Dewan خاطرنشان کرد که در حالی که 50 میلیارد دلار ممکن است مبلغ زیادی به نظر برسد، در دنیای مدل‌های زبانی بزرگ، نسبتاً متوسط است، و به Grok، که بیش از یک تریلیون پارامتر دارد، به عنوان نمونه اشاره کرد. وی افزود: «آن‌ها پول دارند، بنابراین این کار را انجام می‌دهند. و ما فناوری را داریم و می‌توانیم مشکلات خود را حل کنیم. بنابراین همه با هم همزیستی خواهند داشت.»

Ziroh Labs در حال حاضر تیمی متشکل از یازده نفر دارد و به‌صورت خودگردان اداره می‌شود. این شرکت در سال 2016 برای رسیدگی به مشکل حیاتی حریم خصوصی و امنیت داده‌ها، به‌طور خاص با تمرکز بر توسعه سیستم‌های رمزنگاری حفظ حریم خصوصی که می‌توانند در مقیاس بزرگ مورد استفاده قرار گیرند، تأسیس شد. Dewan گفت که آن‌ها هنوز روی این موضوع کار می‌کنند. «ما در سال 2026 حریم خصوصی را به هوش مصنوعی خواهیم آورد، زیرا در نهایت، هوش مصنوعی باید حریم خصوصی داشته باشد.»