آپاچی ری در موتور Kubernetes گوگل جایگاهی پیدا می‌کند

Google Cloud و Anyscale قصد دارند Apache Ray پایتونیک را به موتور محاسباتی بالفعل برای هوش مصنوعی و یادگیری ماشین تبدیل کنند.

در تلاش‌های مداوم خود برای تبدیل Kubernetes به پلتفرم بالفعل برای حجم‌های کاری بزرگ هوش مصنوعی/یادگیری ماشین (ML)، گوگل با Anyscale همکاری کرده است تا نسخه میزبانی شده یکی از سریع‌ترین پلتفرم‌های هوش مصنوعی در حال رشد، یعنی Apache Ray را ارائه دهد.

Apache Ray پلتفرمی است که راهی برای مقیاس‌بندی برنامه‌های پایتون برای اجرا در محیط‌های توزیع‌شده فراهم می‌کند. این پلتفرم به دلیل توانایی‌اش در اجرای کارهای استنتاج هوش مصنوعی در مقیاس بزرگ، به‌ویژه برای توانایی پشتیبانی از پردازنده‌های گرافیکی (GPU)، مورد توجه طراحان سیستم‌های هوش مصنوعی و دانشمندان داده قرار گرفته است.

یک نسخه بهینه‌سازی‌شده از Ray به نام RayTurbo در Google Kubernetes Engine (GKE) در دسترس خواهد بود. این مشارکت در کنفرانس GoogleNext که این هفته در لاس وگاس برگزار می‌شود، رونمایی شد.

شرکا انتظار دارند که RayTurbo در GKE داده‌ها را 4.5 برابر سریع‌تر پردازش کند و در مقایسه با Ray منبع باز، به 50 درصد گره‌های کمتری نیاز داشته باشد.

به گفته Gabe Monroy، معاون رئیس و مدیر کل بخش cloud runtimes در گوگل، در مصاحبه با TNS، ادغام عمیق‌تر بین این دو سرویس، مزایای دیگری نیز برای جامعه هوش مصنوعی به همراه خواهد داشت. او گفت که کاربران Ray از زمان راه‌اندازی سریع‌تر، ذخیره‌سازی با کارایی بالا برای وزن‌های مدل، دسترسی به TPUها و مقیاس‌پذیری قوی برخوردار خواهند شد.

Monroy گفت که این مشارکت همچنین باید تهیه سخت‌افزار لازم برای اجرای حجم‌های کاری خود را برای کاربران فعلی Ray آسان‌تر کند.

Robert Nishihara، یکی از بنیانگذاران Anyscale و یکی از سازندگان Apache Ray، در مصاحبه با TNS گفت: «آنچه در چند سال گذشته تغییر کرده است این است که پردازش داده‌ها بیشتر به سمت استنتاج سنگین‌تر می‌شود. اینجاست که Ray واقعاً می‌درخشد.»

Ray به عنوان سیستم عامل توزیع شده برای هوش مصنوعی

در واقع، این مشارکت می‌خواهد ترکیب Ray و Kubernetes را به عنوان سیستم عامل توزیع شده بالفعل برای حجم‌های کاری هوش مصنوعی تثبیت کند.

مهندسان در هر دو شرکت در تلاش بوده‌اند تا Ray را برای Kubernetes بهینه کنند، و نحوه مقیاس‌بندی Kubernetes در سطح خوشه را با نحوه مقیاس‌بندی Ray در سطح وظیفه، در یک پروژه منبع باز به نام KubeRay، ترکیب کنند.

این نرم‌افزار می‌تواند از بیشتر حجم‌های کاری هوش مصنوعی و ML پشتیبانی کند - از جمله آموزش و ارائه مدل، استنتاج دسته‌ای، یادگیری مدل، هوش مصنوعی مولد و استنتاج LLM، و تنظیم دقیق.

Ray که در سال 2017 ایجاد شده است، می‌تواند پایتون را به صورت موازی اجرا کند و بیشتر انواع داده‌ها و معماری‌های مدل را درک می‌کند. همچنین می‌تواند روی پردازنده‌های گرافیکی (GPU) و بیشتر شتاب‌دهنده‌های سخت‌افزاری دیگر خارج از جعبه اجرا شود، که یک مزیت متمایز در فضای هوش مصنوعی است.

Keerti Melkote، مدیرعامل Anyscale گفت: این نرم‌افزار «ساخت مدل‌های هوش مصنوعی، آموزش آن‌ها و ارائه آن‌ها را به عنوان چارچوب یکپارچه بسیار آسان می‌کند.»

Anyscale در سه ماه گذشته شاهد افزایش 300 درصدی در ساعات محاسباتی مشتریانی بوده است که از RayTurbo استفاده می‌کنند.

یکی از تغییر کاربری‌های اخیر Ray، آمازون بوده است که این پلتفرم را به جای Apache Spark، یک چارچوب پردازش داده با کاربرد عمومی‌تر، برای کارهای فشرده‌سازی جدول در مقیاس بزرگ انتخاب کرد، و Ray 82 درصد کارآمدتر از Spark بود. این غول آنلاین همچنین رابط پایتونیک Ray را برای دانشمندان داده خود نسبت به SQL Spark آسان‌تر یافت.

به همین ترتیب، OpenAI از Ray برای زیرساخت و قابلیت‌های اساسی برای مقیاس محاسباتی و پردازش داده‌های عظیم مورد نیاز برای آموزش و اجرای ChatGPT استفاده می‌کند.

از دیگر کاربران بزرگ Ray می‌توان به ByteDance، Uber و Pinterest اشاره کرد.

RayTurbo در GKE اواخر امسال در Google Cloud Marketplace در دسترس خواهد بود. اطلاعات بیشتر را می‌توانید اینجا پیدا کنید.