آکامای میزبانی Kernel.org را بر عهده می‌گیرد

آکامای اعلام کرد که میزبانی kernel.org، سیستم اصلی توزیع برای توسعه هسته لینوکس، را بر عهده می‌گیرد.

نمودار سرویس استنتاج ابری آکامای (Akamai Cloud Inference).
نمودار سرویس استنتاج ابری آکامای.

شرکت آکامای امروز مجموعه‌ای از اطلاعیه‌ها را پیش از کنفرانس KubeCon EU هفته آینده در لندن منتشر می‌کند. از جمله اخبار دیگر، آکامای امروز یک سرویس استنتاج (inferencing service) برای برنامه‌های هوش مصنوعی با پشتیبانی اضافی برای بارهای کاری WebAssembly (WASM) راه‌اندازی کرد و اعلام نمود که اکنون شریک زیرساختی kernel.org، سیستم اصلی توزیع کد منبع هسته لینوکس، است و میزبانی آن را بر عهده گرفته و پشتیبانی رایانش ابری و شبکه تحویل محتوا (CDN) را ارائه خواهد داد.

آکامای می‌گوید قراردادی چند ساله با سازمان هسته لینوکس (Linux Kernel Organization) که خود توسط بنیاد لینوکس (Linux Foundation) مدیریت می‌شود، امضا کرده است تا "خدمات زیرساختی را به این پروژه و گروه جهانی توسعه‌دهندگان آن ارائه دهد."

جان الکساندر، معاون ارشد محصول آکامای، به من گفت: "ما به شدت به متن‌باز متعهد هستیم. ما بر پایه فناوری‌های متن‌باز مانند لینوکس ساخته شده‌ایم. ما کاربران سنگین هسته [لینوکس] هستیم. ما همیشه در نهادهای استانداردسازی مختلف بسیار فعال بوده‌ایم." او افزود: "متن‌باز برای آکامای به عنوان یک شرکت بسیار مهم است و ما می‌خواهیم به جامعه بازگردانیم، و حمایت از هسته لینوکس یکی از راه‌هایی است که می‌توانیم این کار را انجام دهیم."

کریس آنیشچیک، مدیر ارشد فناوری بنیاد رایانش ابری بومی (CNCF)، این موضوع را تأیید کرد. او گفت: "آکامای ریشه‌های عمیقی در جامعه متن‌باز دارد." وی ادامه داد: "به عنوان عضوی مهم از CNCF، آنها فعالانه در پروژه‌های کلیدی، از جمله OpenTelemetry، Argo و Prometheus مشارکت داشته‌اند و یک میلیون دلار اعتبار زیرساختی برای پروژه‌های زیرساخت رایانشی اهدا کرده‌اند. حمایتی که آنها به هسته لینوکس ارائه می‌دهند، بیش از پیش نشان‌دهنده تعهد و مباشرت دیرینه این شرکت به افراد و نرم‌افزارهایی است که پروژه‌های متن‌باز را به آنچه امروز هستند تبدیل می‌کنند."

در مورد سرویس استنتاج برای بارهای کاری هوش مصنوعی، با نام Akamai Cloud Inference، این شرکت رویکرد جالبی را با تکیه بر پردازنده‌های گرافیکی استاندارد سری RTX 40 اتخاذ کرده است که به گفته آکامای به آن امکان می‌دهد تراکم بهتری را در مراکز داده خود فراهم کند.

الکساندر گفت: "[این تراشه‌ها] حدود ۱۸ تا ۲۴ ماه است که عرضه شده‌اند، بنابراین نسبت به نسل‌های GPU نسبتاً قدیمی هستند. اما برای ما، واقعاً در نقطه مطلوب هزینه و عملکرد، مصرف انرژی و سپس تراکمی که می‌توانیم در شاسی سرورها به دست آوریم، قرار دارند. این برای ما بسیار خوب کار می‌کند." او اضافه کرد: "ما نسل‌های جدید را شاید اواخر امسال یا اوایل سال آینده عرضه خواهیم کرد. ما در حال حاضر نسل بعدی کارت‌ها را آزمایش می‌کنیم، اما واقعاً به دنبال تراکمی هستیم که بتوانیم بارهای کاری را بسته‌بندی و موازی‌سازی کنیم."

آکامای در اینجا با Fermyon همکاری می‌کند تا پلتفرم بدون سرور WebAssembly آن شرکت را نیز به پلتفرم Cloud Inference خود بیاورد.

آکامای می‌گوید این امر به توسعه‌دهندگان امکان می‌دهد تا مستقیماً از برنامه‌های کاربردی مبتنی بر Wasm و بدون سرور خود که بر روی شبکه لبه (edge network) آن اجرا می‌شوند، از مدل‌های زبان بزرگ (LLM) پرس‌وجو کنند. اما شاید مهم‌تر از آن، همانطور که الکساندر اشاره کرد، این است که فناوری Fermyon همچنین به چندین مستأجر (tenant) اجازه می‌دهد تا به روشی ایمن از نظر حافظه به یک GPU مشترک دسترسی داشته باشند.

هنوز روزهای اولیه استفاده از Wasm در سازمان‌ها است، اما آکامای امیدوار است در خط مقدم یک روند در حال توسعه قرار گیرد.

آکامای همچنین اخیراً با VAST Data همکاری کرده است تا دسترسی بهتری به داده‌های آنی (real-time) برای این برنامه‌های کاربردی هوش مصنوعی فراهم کند، و برای پلتفرم کانتینری که در هسته کل این سرویس قرار دارد، آکامای از Linode Kubernetes Engine (LKE) و Akamai App Engine، پلتفرم برنامه کاربردی که اخیراً توسط این شرکت معرفی شده است، استفاده می‌کند.

همه این‌ها در پس‌زمینه تمرکز فعلی آکامای بر فراتر رفتن از شبکه تحویل محتوای خود و ورود به فضای رایانش ابری در حال رخ دادن است. تلاش‌های این شرکت در این زمینه شامل خدمات تخصصی برای برخی از مشتریان اصلی خود (از جمله شتاب‌دهنده‌های جدید رمزگذاری و رمزگشایی ویدیو که امروز نیز راه‌اندازی می‌کند) و همچنین گسترش دامنه فعالیت با این خدمات جدید هوش مصنوعی و البته، ابر Linode است که در سال ۲۰۲۲ آن را خریداری کرد.