OpenMetal، پیشگام در زیرساخت ابری خصوصی درخواستی، امروز در دسترس بودن عمومی
OpenMetal که بهطور خاص برای سازندگان هوش مصنوعی مدرن طراحی شده است، دارای پردازندههای گرافیکی NVIDIA کاملاً اختصاصی، از جمله مدلهای A100 و H100 است. زیرساخت GPU OpenMetal به مشتریان دسترسی کامل ریشه به عملکرد bare metal (بدون سیستمعامل) را میدهد که توسط شبکهسازی درجه سازمانی و گزینههای ذخیرهسازی فوقسریع پشتیبانی میشود. مشتریان میتوانند سرورهای GPU را به عنوان گرههای مستقل یا به عنوان بخشی از خوشههای بزرگتر، یکپارچه با OpenStack مستقر کنند.
رافائل راموس، مدیر مهندسی نرمافزار در OpenMetal، گفت: «دسترسی به GPU ابری عمومی مملو از محدودیتها است - قیمتگذاری ویژه، عملکرد محدود و زیرساختی که واقعاً آن را کنترل نمیکنید. ما سرورها و خوشههای GPU خود را برای ارائه یک تجربه متفاوت ساختیم: کنترل کامل، قیمتگذاری شفاف و عدم مصالحه در مورد عملکرد یا حریم خصوصی.»
ساخته شده برای سازندگان و نوآوران
زیرساخت OpenMetal، چه آموزش مدلهای زبانی بزرگ، استقرار خوشههای استنتاج هوش مصنوعی چند گرهای یا اجرای آزمایشهای هوش مصنوعی مولد پیشرفته، برای پشتیبانی از سختترین حجمهای کاری طراحی شده است. این پلتفرم میتواند از چارچوبهای محبوب هوش مصنوعی مانند PyTorch، TensorFlow، JAX و Hugging Face Transformers پشتیبانی کند.
ویژگیهای کلیدی زیرساخت GPU OpenMetal:
- پردازندههای گرافیکی NVIDIA: مدلهای A100، H100 و بیشتر برای نیازهای مختلف عملکرد و بودجه
- Bare Metal اختصاصی: بدون لایه مجازیسازی؛ مشتریان کنترل کامل سختافزار را دارند
- شفافیت قیمتگذاری: صورتحساب ماهانه با هزینههای استفاده پنهان یا هزینههای خروجی کنترل نشده در دسترس است
موارد استفاده انعطافپذیر در صنایع مختلف
از استارتآپهایی که مدلهای اختصاصی را آموزش میدهند تا شرکتهایی که استنتاج را در مقیاس اجرا میکنند، پیشنهادات GPU OpenMetal برای تطبیق طیف گستردهای از موارد استفاده ساخته شدهاند. بخشهای مراقبتهای بهداشتی، مالی و تحقیقاتی - جایی که محلیت داده، انطباق و کنترل زیرساخت حیاتی است - برخی از صنایعی هستند که از محیط خصوصی و با کارایی بالای OpenMetal سود میبرند.
مشتریان میتوانند خوشهها را برای مطابقت با نیازهای خود، از جمله تعداد GPU، جفتسازیهای CPU/GPU، پیکربندیهای RAM و حجمهای ذخیرهسازی، سفارشی کنند. این زیرساخت به گونهای طراحی شده است که API محور باشد و ادغام در خطوط لوله DevOps و پلتفرمهای MLOps موجود را امکانپذیر میکند.
در دسترس بودن
سرورهای GPU و خوشههای GPU اکنون در مناطق شرقی و غربی ایالات متحده در دسترس هستند و برنامهریزی شده است که در اواخر سال جاری به مناطق اضافی در اروپا و آسیا گسترش یابد.