Cerebras شش مرکز داده جدید هوش مصنوعی را معرفی کرد که 40 میلیون توکن در ثانیه پردازش می‌کنند - و این می‌تواند خبر بدی برای Nvidia باشد

Cerebras Systems، یک استارت‌آپ سخت‌افزار هوش مصنوعی که به طور پیوسته سلطه Nvidia را در بازار هوش مصنوعی به چالش کشیده است، روز سه‌شنبه از گسترش قابل توجه ردپای مراکز داده خود و دو مشارکت بزرگ تجاری خبر داد که این شرکت را در موقعیتی قرار می‌دهد که به ارائه‌دهنده پیشرو خدمات استنتاج هوش مصنوعی با سرعت بالا تبدیل شود.

این شرکت شش مرکز داده جدید هوش مصنوعی در سراسر آمریکای شمالی و اروپا اضافه خواهد کرد و ظرفیت استنتاج خود را بیست برابر به بیش از 40 میلیون توکن در ثانیه افزایش می‌دهد. این توسعه شامل تأسیساتی در دالاس، مینیاپولیس، اوکلاهما سیتی، مونترال، نیویورک و فرانسه است که 85 درصد از کل ظرفیت در ایالات متحده واقع شده است.

جیمز وانگ، مدیر بازاریابی محصول در Cerebras، در مصاحبه با VentureBeat گفت: "هدف ما در سال جاری این است که به طور واقعی تمام تقاضا و تمام تقاضای جدیدی را که انتظار داریم در نتیجه مدل‌های جدیدی مانند Llama 4 و مدل‌های جدید DeepSeek به صورت آنلاین عرضه شوند، برآورده کنیم." "این ابتکار رشد بزرگ ما در سال جاری برای برآورده کردن تقاضای تقریباً نامحدودی است که در سراسر جهان برای توکن‌های استنتاج شاهد هستیم."

توسعه مراکز داده نشان‌دهنده شرط‌بندی جاه‌طلبانه این شرکت است که بازار استنتاج هوش مصنوعی با سرعت بالا - فرآیندی که در آن مدل‌های هوش مصنوعی آموزش‌دیده خروجی‌هایی را برای برنامه‌های کاربردی واقعی تولید می‌کنند - با تلاش شرکت‌ها برای یافتن جایگزین‌های سریع‌تر برای راهکارهای مبتنی بر GPU از Nvidia، به طور چشمگیری رشد خواهد کرد.

Cerebras قصد دارد تا سه ماهه چهارم سال 2025، ظرفیت خود را از 2 میلیون به بیش از 40 میلیون توکن در ثانیه در هشت مرکز داده در آمریکای شمالی و اروپا افزایش دهد. (اعتبار: Cerebras)

مشارکت‌های استراتژیک که هوش مصنوعی با سرعت بالا را برای توسعه‌دهندگان و تحلیلگران مالی به ارمغان می‌آورد

همراه با توسعه زیرساخت، Cerebras مشارکت‌هایی را با Hugging Face، پلتفرم محبوب توسعه‌دهنده هوش مصنوعی، و AlphaSense، یک پلتفرم اطلاعات بازار که به طور گسترده در صنعت خدمات مالی استفاده می‌شود، اعلام کرد.

ادغام با Hugging Face به پنج میلیون توسعه‌دهنده آن اجازه می‌دهد تا با یک کلیک به Cerebras Inference دسترسی پیدا کنند، بدون اینکه مجبور به ثبت‌نام جداگانه در Cerebras باشند. این نشان‌دهنده یک کانال توزیع اصلی برای Cerebras است، به ویژه برای توسعه‌دهندگانی که با مدل‌های متن‌باز مانند Llama 3.3 70B کار می‌کنند.

وانگ توضیح داد: "Hugging Face نوعی GitHub هوش مصنوعی و مرکز تمام توسعه هوش مصنوعی متن‌باز است." "این ادغام بسیار عالی و بومی است. شما فقط در لیست ارائه‌دهندگان استنتاج آنها ظاهر می‌شوید. شما فقط کادر را علامت می‌زنید و سپس می‌توانید بلافاصله از Cerebras استفاده کنید."

مشارکت AlphaSense نشان‌دهنده یک برد بزرگ برای مشتریان سازمانی است، زیرا این پلتفرم اطلاعات مالی از آنچه وانگ آن را "فروشنده مدل هوش مصنوعی بسته منبع سه رتبه برتر جهانی" توصیف کرد، به Cerebras تغییر می‌کند. این شرکت که به حدود 85 درصد از شرکت‌های Fortune 100 خدمات ارائه می‌دهد، از Cerebras برای تسریع قابلیت‌های جستجوی مبتنی بر هوش مصنوعی خود برای اطلاعات بازار استفاده می‌کند.

وانگ گفت: "این یک برد بزرگ برای مشتری و یک قرارداد بسیار بزرگ برای ما است." "ما سرعت آنها را 10 برابر افزایش می‌دهیم، بنابراین آنچه قبلاً پنج ثانیه یا بیشتر طول می‌کشید، اساساً در Cerebras فوری می‌شود."

Le Chat شرکت Mistral که توسط Cerebras پشتیبانی می‌شود، 1100 توکن در ثانیه پردازش می‌کند - که به طور قابل توجهی از رقبایی مانند Gemini گوگل، ChatGPT و Claude پیشی می‌گیرد. (اعتبار: Cerebras)

چگونه Cerebras در مسابقه سرعت استنتاج هوش مصنوعی با کند شدن مدل‌های استدلالی برنده می‌شود

Cerebras خود را به عنوان متخصص در استنتاج با سرعت بالا معرفی کرده است و ادعا می‌کند که پردازنده Wafer-Scale Engine (WSE-3) آن می‌تواند مدل‌های هوش مصنوعی را 10 تا 70 برابر سریع‌تر از راهکارهای مبتنی بر GPU اجرا کند. این مزیت سرعت با تکامل مدل‌های هوش مصنوعی به سمت قابلیت‌های استدلالی پیچیده‌تر، به طور فزاینده‌ای ارزشمند شده است.

وانگ با اشاره به جنسن هوانگ، مدیرعامل Nvidia، گفت: "اگر به اظهارات جنسن گوش دهید، استدلال چیز بزرگ بعدی است، حتی به گفته Nvidia." "اما چیزی که او به شما نمی‌گوید این است که استدلال باعث می‌شود کل فرآیند 10 برابر کندتر شود، زیرا مدل باید قبل از ارائه پاسخ نهایی به شما، فکر کند و مجموعه‌ای از تک‌گویی‌های درونی ایجاد کند."

این کند شدن فرصتی را برای Cerebras ایجاد می‌کند، که سخت‌افزار تخصصی آن برای تسریع این حجم‌های کاری پیچیده‌تر هوش مصنوعی طراحی شده است. این شرکت قبلاً مشتریان برجسته‌ای از جمله Perplexity AI و Mistral AI را به دست آورده است که از Cerebras برای پشتیبانی از محصولات جستجو و دستیار هوش مصنوعی خود استفاده می‌کنند.

وانگ گفت: "ما به Perplexity کمک می‌کنیم تا به سریع‌ترین موتور جستجوی هوش مصنوعی جهان تبدیل شود. این در غیر این صورت امکان‌پذیر نیست." "ما به Mistral کمک می‌کنیم تا به همان موفقیت دست یابد. اکنون آنها دلیلی برای اشتراک افراد در Le Chat Pro دارند، در حالی که قبلاً، مدل شما احتمالاً در همان سطح پیشرفته GPT-4 نبود."

Cerebras ادعا می‌کند که استنتاج آن به Mistral AI اجازه می‌دهد تا 1100 توکن در ثانیه پردازش کند، در حالی که استنتاج سنتی در سطح 300 توکن در ثانیه کار می‌کند. (اعتبار: Cerebras)

Nvidia همچنان به دنبال برتری در بازار هوش مصنوعی است

در حالی که Cerebras به طور قطع موجی در بازار هوش مصنوعی ایجاد کرده است، Nvidia همچنان یک نیروی غالب است و دارای سهم بازار بسیار بالایی در پردازنده‌های هوش مصنوعی است. غول تراشه به طور مداوم فناوری خود را پیش می‌برد و راهکارهای جدید و قدرتمندی را ارائه می‌دهد که برای بارهای کاری هوش مصنوعی طراحی شده‌اند.

این شرکت در حال حاضر از طریق نسل دوم پلتفرم Metropolis خود، به طور فزاینده‌ای بر قابلیت‌های استنتاج در لبه متمرکز شده است. این تلاش‌ها موقعیت Nvidia را به عنوان یک بازیگر کلیدی در بازار استنتاج هوش مصنوعی تقویت می‌کند، اگرچه Cerebras برای ارائه جایگزین سریع‌تر، متخصص‌تر و مقرون به صرفه‌تر رقابت می‌کند.

آینده بازار استنتاج هوش مصنوعی بسیار روشن است و شرکت‌ها به طور فزاینده‌ای به دنبال راهکارهایی هستند تا قابلیت‌های هوش مصنوعی خود را تسریع بخشند. با گسترش ردپای مراکز داده و مشارکت‌های استراتژیک، Cerebras در موقعیت خوبی قرار دارد تا سهم قابل توجهی از این بازار در حال رشد را به دست آورد. با این حال، Nvidia یک رقیب قدرتمند است و برای حفظ سلطه خود در بازار هوش مصنوعی به سختی تلاش خواهد کرد. جنگ استنتاج هوش مصنوعی تازه آغاز شده است و تماشای چگونگی توسعه آن هیجان‌انگیز خواهد بود.