وقتی DeepSeek-R1 برای اولین بار ظاهر شد، ترس غالبی که صنعت را لرزاند این بود که استدلال پیشرفته را میتوان با زیرساخت کمتری به دست آورد.
همانطور که معلوم است، لزوماً اینطور نیست. حداقل، به گفته Together AI، ظهور DeepSeek و استدلال منبع باز تأثیر کاملاً معکوس داشته است: به جای کاهش نیاز به زیرساخت، آن را افزایش میدهد.
این افزایش تقاضا به رشد پلتفرم و تجارت Together AI کمک کرده است. امروز این شرکت از دور دوم تأمین مالی 305 میلیون دلاری خبر داد که توسط General Catalyst رهبری میشود و Prosperity7 به طور مشترک آن را رهبری میکند. Together AI برای اولین بار در سال 2023 با هدف سادهسازی استفاده سازمانی از مدلهای زبانی بزرگ منبع باز (LLM) ظاهر شد. این شرکت در سال 2024 با پلتفرم سازمانی Together گسترش یافت که امکان استقرار هوش مصنوعی در ابر خصوصی مجازی (VPC) و محیطهای محلی را فراهم میکند. در سال 2025، Together AI بار دیگر پلتفرم خود را با خوشههای استدلالی و قابلیتهای هوش مصنوعی عاملمحور گسترش میدهد.
این شرکت ادعا میکند که پلتفرم استقرار هوش مصنوعی آن بیش از 450000 توسعهدهنده ثبتنام کرده دارد و تجارت آن به طور کلی 6 برابر نسبت به سال قبل رشد داشته است. مشتریان این شرکت شامل شرکتها و همچنین استارتآپهای هوش مصنوعی مانند Krea AI، Captions و Pika Labs هستند.
ویپول پراکاش، مدیرعامل Together AI، به VentureBeat گفت: "ما اکنون به مدلهایی در تمام روشها خدمات ارائه میدهیم: زبان و استدلال و تصاویر و صدا و ویدیو."
تأثیر بزرگ DeepSeek-R1 بر تقاضای زیرساخت هوش مصنوعی
DeepSeek-R1 هنگام اولین حضور خود بسیار مخرب بود، به دلایل مختلف - یکی از آنها این بود که یک مدل استدلالی منبع باز پیشرو را میتوان با زیرساخت کمتری نسبت به یک مدل اختصاصی ساخت و مستقر کرد.
با این حال، پراکاش توضیح داد، Together AI زیرساخت خود را تا حدی برای کمک به پشتیبانی از افزایش تقاضای بارهای کاری مرتبط با DeepSeek-R1 افزایش داده است.
او گفت: "اجرای استنتاج در آن یک مدل نسبتاً گران است." "این مدل 671 میلیارد پارامتر دارد و شما باید آن را روی چندین سرور توزیع کنید. و از آنجایی که کیفیت بالاتر است، به طور کلی تقاضای بیشتری در بالاترین سطح وجود دارد، به این معنی که شما به ظرفیت بیشتری نیاز دارید."
علاوه بر این، او خاطرنشان کرد که DeepSeek-R1 به طور کلی درخواستهای طولانیتری دارد که میتواند دو تا سه دقیقه طول بکشد. تقاضای زیاد کاربر برای DeepSeek-R1 بیشتر نیاز به زیرساخت بیشتر را افزایش میدهد.
برای پاسخگویی به این تقاضا، Together AI سرویسی را راهاندازی کرده است که آن را "خوشههای استدلالی" مینامد که ظرفیت اختصاصی، از 128 تا 2000 تراشه را برای اجرای مدلها با بهترین عملکرد ممکن فراهم میکند.
چگونه Together AI به سازمانها در استفاده از هوش مصنوعی استدلالی کمک میکند
Together AI در حال مشاهده استفاده از مدلهای استدلالی در زمینههای خاص متعددی است. این موارد عبارتند از:
- عوامل کدنویسی: مدلهای استدلالی به تجزیه مسائل بزرگتر به مراحل کمک میکنند.
- کاهش توهمات: فرآیند استدلال به تأیید خروجیهای مدلها کمک میکند، بنابراین توهمات را کاهش میدهد، که برای برنامههایی که دقت بسیار مهم است، مهم است.
- بهبود مدلهای غیر استدلالی: مشتریان در حال تقطیر و بهبود کیفیت مدلهای غیر استدلالی هستند.
- توانمندسازی خودبهبودی: استفاده از یادگیری تقویتی با مدلهای استدلالی به مدلها اجازه میدهد تا به طور بازگشتی خود را بهبود بخشند بدون اینکه به مقادیر زیادی داده برچسبگذاری شده توسط انسان متکی باشند.
هوش مصنوعی عاملمحور نیز تقاضای فزایندهای برای زیرساخت هوش مصنوعی ایجاد میکند
Together AI همچنین با پذیرش هوش مصنوعی عاملمحور توسط کاربران خود، شاهد افزایش تقاضا برای زیرساختها است.
پراکاش توضیح داد که گردشهای کاری عاملمحور، که در آن یک درخواست کاربر منجر به هزاران تماس API برای تکمیل یک کار میشود، تقاضای محاسباتی بیشتری را بر زیرساخت Together AI وارد میکند.
برای کمک به پشتیبانی از بارهای کاری هوش مصنوعی عاملمحور، Together AI اخیراً CodeSandbox را به دست آورده است، که فناوری آن ماشینهای مجازی (VM) سبک و با بوت سریع را برای اجرای کد произвольный و امن در داخل ابر Together AI، جایی که مدلهای زبانی نیز در آن قرار دارند، فراهم میکند. این به Together AI اجازه میدهد تا تأخیر بین کد عاملمحور و مدلهایی که باید فراخوانی شوند را کاهش دهد و عملکرد گردشهای کاری عاملمحور را بهبود بخشد.
Nvidia Blackwell در حال حاضر تأثیرگذار است
همه پلتفرمهای هوش مصنوعی با افزایش تقاضا روبرو هستند.
این یکی از دلایلی است که Nvidia به عرضه سیلیکون جدیدی ادامه میدهد که عملکرد بیشتری را ارائه میدهد. جدیدترین تراشه محصول Nvidia، GPU Blackwell است که اکنون در Together AI مستقر شده است.
پراکاش گفت که تراشههای Nvidia Blackwell حدود 25 درصد گرانتر از نسل قبلی هستند، اما 2 برابر عملکرد را ارائه میدهند. پلتفرم GB 200 با تراشههای Blackwell به ویژه برای آموزش و استنتاج مدلهای مخلوط تخصص (MoE) که در چندین سرور متصل به InfiniBand آموزش داده میشوند، مناسب است. او خاطرنشان کرد که انتظار میرود تراشههای Blackwell همچنین در مقایسه با مدلهای کوچکتر، افزایش عملکرد بیشتری را برای استنتاج مدلهای بزرگتر ارائه دهند.
چشم انداز رقابتی هوش مصنوعی عاملمحور
بازار پلتفرمهای زیرساخت هوش مصنوعی به شدت رقابتی است.
Together AI با رقابت از سوی ارائهدهندگان ابر تثبیتشده و استارتآپهای زیرساخت هوش مصنوعی روبرو است. همه هایپرسکیلرها، از جمله مایکروسافت، AWS و گوگل، پلتفرمهای هوش مصنوعی دارند. همچنین یک دسته نوظهور از بازیکنان متمرکز بر هوش مصنوعی مانند Groq و Samba Nova وجود دارد که همگی هدفشان به دست آوردن سهمی از این بازار پرسود است.
Together AI یک پیشنهاد کامل پشته دارد، از جمله زیرساخت GPU با لایههای پلتفرم نرم افزاری در بالا. این به مشتریان اجازه میدهد تا به راحتی با مدلهای منبع باز بسازند یا مدلهای خود را بر روی پلتفرم Together AI توسعه دهند. این شرکت همچنین بر روی تحقیق و توسعه بهینهسازیها و زمانهای اجرای تسریعشده برای استنتاج و آموزش تمرکز دارد.
پراکاش گفت: "به عنوان مثال، ما مدل DeepSeek-R1 را با 85 توکن در ثانیه ارائه میدهیم و Azure آن را با 7 توکن در ثانیه ارائه میدهد." "یک شکاف نسبتاً در حال گسترش در عملکرد و هزینهای وجود دارد که میتوانیم به مشتریان خود ارائه دهیم."