اعتبار: تصویر تولید شده توسط VentureBeat با Stable Diffusion 3.5 Large
اعتبار: تصویر تولید شده توسط VentureBeat با Stable Diffusion 3.5 Large

شرط بندی 305 میلیون دلاری Together AI: مدل‌های استدلالی مانند DeepSeek-R1 تقاضا برای GPU را افزایش می‌دهند، نه کاهش

وقتی DeepSeek-R1 برای اولین بار ظاهر شد، ترس غالبی که صنعت را لرزاند این بود که استدلال پیشرفته را می‌توان با زیرساخت کمتری به دست آورد.

همانطور که معلوم است، لزوماً اینطور نیست. حداقل، به گفته Together AI، ظهور DeepSeek و استدلال منبع باز تأثیر کاملاً معکوس داشته است: به جای کاهش نیاز به زیرساخت، آن را افزایش می‌دهد.

این افزایش تقاضا به رشد پلتفرم و تجارت Together AI کمک کرده است. امروز این شرکت از دور دوم تأمین مالی 305 میلیون دلاری خبر داد که توسط General Catalyst رهبری می‌شود و Prosperity7 به طور مشترک آن را رهبری می‌کند. Together AI برای اولین بار در سال 2023 با هدف ساده‌سازی استفاده سازمانی از مدل‌های زبانی بزرگ منبع باز (LLM) ظاهر شد. این شرکت در سال 2024 با پلتفرم سازمانی Together گسترش یافت که امکان استقرار هوش مصنوعی در ابر خصوصی مجازی (VPC) و محیط‌های محلی را فراهم می‌کند. در سال 2025، Together AI بار دیگر پلتفرم خود را با خوشه‌های استدلالی و قابلیت‌های هوش مصنوعی عامل‌محور گسترش می‌دهد. 

این شرکت ادعا می‌کند که پلتفرم استقرار هوش مصنوعی آن بیش از 450000 توسعه‌دهنده ثبت‌نام کرده دارد و تجارت آن به طور کلی 6 برابر نسبت به سال قبل رشد داشته است. مشتریان این شرکت شامل شرکت‌ها و همچنین استارت‌آپ‌های هوش مصنوعی مانند Krea AI، Captions و Pika Labs هستند.

ویپول پراکاش، مدیرعامل Together AI، به VentureBeat گفت: "ما اکنون به مدل‌هایی در تمام روش‌ها خدمات ارائه می‌دهیم: زبان و استدلال و تصاویر و صدا و ویدیو."

تأثیر بزرگ DeepSeek-R1 بر تقاضای زیرساخت هوش مصنوعی

DeepSeek-R1 هنگام اولین حضور خود بسیار مخرب بود، به دلایل مختلف - یکی از آنها این بود که یک مدل استدلالی منبع باز پیشرو را می‌توان با زیرساخت کمتری نسبت به یک مدل اختصاصی ساخت و مستقر کرد.

با این حال، پراکاش توضیح داد، Together AI زیرساخت خود را تا حدی برای کمک به پشتیبانی از افزایش تقاضای بارهای کاری مرتبط با DeepSeek-R1 افزایش داده است.

او گفت: "اجرای استنتاج در آن یک مدل نسبتاً گران است." "این مدل 671 میلیارد پارامتر دارد و شما باید آن را روی چندین سرور توزیع کنید. و از آنجایی که کیفیت بالاتر است، به طور کلی تقاضای بیشتری در بالاترین سطح وجود دارد، به این معنی که شما به ظرفیت بیشتری نیاز دارید."

علاوه بر این، او خاطرنشان کرد که DeepSeek-R1 به طور کلی درخواست‌های طولانی‌تری دارد که می‌تواند دو تا سه دقیقه طول بکشد. تقاضای زیاد کاربر برای DeepSeek-R1 بیشتر نیاز به زیرساخت بیشتر را افزایش می‌دهد.

برای پاسخگویی به این تقاضا، Together AI سرویسی را راه‌اندازی کرده است که آن را "خوشه‌های استدلالی" می‌نامد که ظرفیت اختصاصی، از 128 تا 2000 تراشه را برای اجرای مدل‌ها با بهترین عملکرد ممکن فراهم می‌کند.

چگونه Together AI به سازمان‌ها در استفاده از هوش مصنوعی استدلالی کمک می‌کند

Together AI در حال مشاهده استفاده از مدل‌های استدلالی در زمینه‌های خاص متعددی است. این موارد عبارتند از:

  • عوامل کدنویسی: مدل‌های استدلالی به تجزیه مسائل بزرگتر به مراحل کمک می‌کنند.
  • کاهش توهمات: فرآیند استدلال به تأیید خروجی‌های مدل‌ها کمک می‌کند، بنابراین توهمات را کاهش می‌دهد، که برای برنامه‌هایی که دقت بسیار مهم است، مهم است.
  • بهبود مدل‌های غیر استدلالی: مشتریان در حال تقطیر و بهبود کیفیت مدل‌های غیر استدلالی هستند.
  • توانمندسازی خودبهبودی: استفاده از یادگیری تقویتی با مدل‌های استدلالی به مدل‌ها اجازه می‌دهد تا به طور بازگشتی خود را بهبود بخشند بدون اینکه به مقادیر زیادی داده برچسب‌گذاری شده توسط انسان متکی باشند.

هوش مصنوعی عامل‌محور نیز تقاضای فزاینده‌ای برای زیرساخت هوش مصنوعی ایجاد می‌کند 

Together AI همچنین با پذیرش هوش مصنوعی عامل‌محور توسط کاربران خود، شاهد افزایش تقاضا برای زیرساخت‌ها است.

پراکاش توضیح داد که گردش‌های کاری عامل‌محور، که در آن یک درخواست کاربر منجر به هزاران تماس API برای تکمیل یک کار می‌شود، تقاضای محاسباتی بیشتری را بر زیرساخت Together AI وارد می‌کند.

برای کمک به پشتیبانی از بارهای کاری هوش مصنوعی عامل‌محور، Together AI اخیراً CodeSandbox را به دست آورده است، که فناوری آن ماشین‌های مجازی (VM) سبک و با بوت سریع را برای اجرای کد произвольный و امن در داخل ابر Together AI، جایی که مدل‌های زبانی نیز در آن قرار دارند، فراهم می‌کند. این به Together AI اجازه می‌دهد تا تأخیر بین کد عامل‌محور و مدل‌هایی که باید فراخوانی شوند را کاهش دهد و عملکرد گردش‌های کاری عامل‌محور را بهبود بخشد.

Nvidia Blackwell در حال حاضر تأثیرگذار است

همه پلتفرم‌های هوش مصنوعی با افزایش تقاضا روبرو هستند. 

این یکی از دلایلی است که Nvidia به عرضه سیلیکون جدیدی ادامه می‌دهد که عملکرد بیشتری را ارائه می‌دهد. جدیدترین تراشه محصول Nvidia، GPU Blackwell است که اکنون در Together AI مستقر شده است.

پراکاش گفت که تراشه‌های Nvidia Blackwell حدود 25 درصد گران‌تر از نسل قبلی هستند، اما 2 برابر عملکرد را ارائه می‌دهند. پلتفرم GB 200 با تراشه‌های Blackwell به ویژه برای آموزش و استنتاج مدل‌های مخلوط تخصص (MoE) که در چندین سرور متصل به InfiniBand آموزش داده می‌شوند، مناسب است. او خاطرنشان کرد که انتظار می‌رود تراشه‌های Blackwell همچنین در مقایسه با مدل‌های کوچکتر، افزایش عملکرد بیشتری را برای استنتاج مدل‌های بزرگتر ارائه دهند.

چشم انداز رقابتی هوش مصنوعی عامل‌محور

بازار پلتفرم‌های زیرساخت هوش مصنوعی به شدت رقابتی است. 

Together AI با رقابت از سوی ارائه‌دهندگان ابر تثبیت‌شده و استارت‌آپ‌های زیرساخت هوش مصنوعی روبرو است. همه هایپرسکیلرها، از جمله مایکروسافت، AWS و گوگل، پلتفرم‌های هوش مصنوعی دارند. همچنین یک دسته نوظهور از بازیکنان متمرکز بر هوش مصنوعی مانند Groq و Samba Nova وجود دارد که همگی هدفشان به دست آوردن سهمی از این بازار پرسود است.

Together AI یک پیشنهاد کامل پشته دارد، از جمله زیرساخت GPU با لایه‌های پلتفرم نرم افزاری در بالا. این به مشتریان اجازه می‌دهد تا به راحتی با مدل‌های منبع باز بسازند یا مدل‌های خود را بر روی پلتفرم Together AI توسعه دهند. این شرکت همچنین بر روی تحقیق و توسعه بهینه‌سازی‌ها و زمان‌های اجرای تسریع‌شده برای استنتاج و آموزش تمرکز دارد.

پراکاش گفت: "به عنوان مثال، ما مدل DeepSeek-R1 را با 85 توکن در ثانیه ارائه می‌دهیم و Azure آن را با 7 توکن در ثانیه ارائه می‌دهد." "یک شکاف نسبتاً در حال گسترش در عملکرد و هزینه‌ای وجود دارد که می‌توانیم به مشتریان خود ارائه دهیم."