شرکت آکامای امروز مجموعهای از اطلاعیهها را پیش از کنفرانس KubeCon EU هفته آینده در لندن منتشر میکند. از جمله اخبار دیگر، آکامای امروز یک سرویس استنتاج (inferencing service) برای برنامههای هوش مصنوعی با پشتیبانی اضافی برای بارهای کاری WebAssembly (WASM) راهاندازی کرد و اعلام نمود که اکنون شریک زیرساختی kernel.org، سیستم اصلی توزیع کد منبع هسته لینوکس، است و میزبانی آن را بر عهده گرفته و پشتیبانی رایانش ابری و شبکه تحویل محتوا (CDN) را ارائه خواهد داد.
آکامای میگوید قراردادی چند ساله با سازمان هسته لینوکس (Linux Kernel Organization) که خود توسط بنیاد لینوکس (Linux Foundation) مدیریت میشود، امضا کرده است تا "خدمات زیرساختی را به این پروژه و گروه جهانی توسعهدهندگان آن ارائه دهد."
جان الکساندر، معاون ارشد محصول آکامای، به من گفت: "ما به شدت به متنباز متعهد هستیم. ما بر پایه فناوریهای متنباز مانند لینوکس ساخته شدهایم. ما کاربران سنگین هسته [لینوکس] هستیم. ما همیشه در نهادهای استانداردسازی مختلف بسیار فعال بودهایم." او افزود: "متنباز برای آکامای به عنوان یک شرکت بسیار مهم است و ما میخواهیم به جامعه بازگردانیم، و حمایت از هسته لینوکس یکی از راههایی است که میتوانیم این کار را انجام دهیم."
کریس آنیشچیک، مدیر ارشد فناوری بنیاد رایانش ابری بومی (CNCF)، این موضوع را تأیید کرد. او گفت: "آکامای ریشههای عمیقی در جامعه متنباز دارد." وی ادامه داد: "به عنوان عضوی مهم از CNCF، آنها فعالانه در پروژههای کلیدی، از جمله OpenTelemetry، Argo و Prometheus مشارکت داشتهاند و یک میلیون دلار اعتبار زیرساختی برای پروژههای زیرساخت رایانشی اهدا کردهاند. حمایتی که آنها به هسته لینوکس ارائه میدهند، بیش از پیش نشاندهنده تعهد و مباشرت دیرینه این شرکت به افراد و نرمافزارهایی است که پروژههای متنباز را به آنچه امروز هستند تبدیل میکنند."
در مورد سرویس استنتاج برای بارهای کاری هوش مصنوعی، با نام Akamai Cloud Inference، این شرکت رویکرد جالبی را با تکیه بر پردازندههای گرافیکی استاندارد سری RTX 40 اتخاذ کرده است که به گفته آکامای به آن امکان میدهد تراکم بهتری را در مراکز داده خود فراهم کند.
الکساندر گفت: "[این تراشهها] حدود ۱۸ تا ۲۴ ماه است که عرضه شدهاند، بنابراین نسبت به نسلهای GPU نسبتاً قدیمی هستند. اما برای ما، واقعاً در نقطه مطلوب هزینه و عملکرد، مصرف انرژی و سپس تراکمی که میتوانیم در شاسی سرورها به دست آوریم، قرار دارند. این برای ما بسیار خوب کار میکند." او اضافه کرد: "ما نسلهای جدید را شاید اواخر امسال یا اوایل سال آینده عرضه خواهیم کرد. ما در حال حاضر نسل بعدی کارتها را آزمایش میکنیم، اما واقعاً به دنبال تراکمی هستیم که بتوانیم بارهای کاری را بستهبندی و موازیسازی کنیم."
آکامای در اینجا با Fermyon همکاری میکند تا پلتفرم بدون سرور WebAssembly آن شرکت را نیز به پلتفرم Cloud Inference خود بیاورد.
آکامای میگوید این امر به توسعهدهندگان امکان میدهد تا مستقیماً از برنامههای کاربردی مبتنی بر Wasm و بدون سرور خود که بر روی شبکه لبه (edge network) آن اجرا میشوند، از مدلهای زبان بزرگ (LLM) پرسوجو کنند. اما شاید مهمتر از آن، همانطور که الکساندر اشاره کرد، این است که فناوری Fermyon همچنین به چندین مستأجر (tenant) اجازه میدهد تا به روشی ایمن از نظر حافظه به یک GPU مشترک دسترسی داشته باشند.
هنوز روزهای اولیه استفاده از Wasm در سازمانها است، اما آکامای امیدوار است در خط مقدم یک روند در حال توسعه قرار گیرد.
آکامای همچنین اخیراً با VAST Data همکاری کرده است تا دسترسی بهتری به دادههای آنی (real-time) برای این برنامههای کاربردی هوش مصنوعی فراهم کند، و برای پلتفرم کانتینری که در هسته کل این سرویس قرار دارد، آکامای از Linode Kubernetes Engine (LKE) و Akamai App Engine، پلتفرم برنامه کاربردی که اخیراً توسط این شرکت معرفی شده است، استفاده میکند.
همه اینها در پسزمینه تمرکز فعلی آکامای بر فراتر رفتن از شبکه تحویل محتوای خود و ورود به فضای رایانش ابری در حال رخ دادن است. تلاشهای این شرکت در این زمینه شامل خدمات تخصصی برای برخی از مشتریان اصلی خود (از جمله شتابدهندههای جدید رمزگذاری و رمزگشایی ویدیو که امروز نیز راهاندازی میکند) و همچنین گسترش دامنه فعالیت با این خدمات جدید هوش مصنوعی و البته، ابر Linode است که در سال ۲۰۲۲ آن را خریداری کرد.