تیم SplxAI
تیم SplxAI

SplxAI برای مقابله با تهدیدات امنیتی فزاینده در سیستم‌های هوش مصنوعی عامل‌گرا، 7 میلیون دلار سرمایه اولیه جذب کرد

در گامی بزرگ به سوی حفاظت از آینده هوش مصنوعی، SplxAI، پیشگام در امنیت تهاجمی برای هوش مصنوعی عامل‌گرا (Agentic AI)، موفق به جذب 7 میلیون دلار سرمایه اولیه (seed funding) شده است. این دور سرمایه‌گذاری توسط LAUNCHub Ventures رهبری شد و با مشارکت استراتژیک Rain Capital، Inovo، Runtime Ventures، DNV Ventures و South Central Ventures همراه بود. این سرمایه جدید، توسعه پلتفرم SplxAI را که برای محافظت از سازمان‌هایی که عامل‌ها و برنامه‌های کاربردی پیشرفته هوش مصنوعی را به کار می‌گیرند طراحی شده است، تسریع خواهد کرد.

با افزایش ادغام هوش مصنوعی در عملیات روزمره شرکت‌ها، چشم‌انداز تهدیدات به سرعت در حال تحول است. پیش‌بینی می‌شود تا سال 2028، 33 درصد از برنامه‌های کاربردی سازمانی از هوش مصنوعی عامل‌گرا استفاده کنند — سیستم‌های هوش مصنوعی که قادر به تصمیم‌گیری مستقل و اجرای وظایف پیچیده هستند. اما این تغییر با خود سطح حمله بسیار گسترده‌تری را به همراه دارد که ابزارهای امنیت سایبری سنتی برای مقابله با آن آمادگی لازم را ندارند.

کریستین کامبر، مدیرعامل و هم‌بنیان‌گذار SplxAI گفت: «استقرار عامل‌های هوش مصنوعی در مقیاس بزرگ، پیچیدگی قابل توجهی را ایجاد می‌کند. آزمایش دستی در این محیط امکان‌پذیر نیست. پلتفرم ما تنها راه‌حل مقیاس‌پذیر برای ایمن‌سازی هوش مصنوعی عامل‌گرا است.»

هوش مصنوعی عامل‌گرا چیست و چرا یک خطر امنیتی محسوب می‌شود؟

برخلاف دستیاران هوش مصنوعی مرسوم که به پرامپت‌های مستقیم پاسخ می‌دهند، هوش مصنوعی عامل‌گرا (agentic AI) به سیستم‌هایی اشاره دارد که قادر به انجام وظایف چند مرحله‌ای به صورت مستقل هستند. عامل‌های هوش مصنوعی را تصور کنید که می‌توانند جلسات را برنامه‌ریزی کنند، سفر رزرو کنند یا گردش کار را مدیریت کنند — همه اینها بدون نیاز به ورودی مداوم انسانی. این استقلال، هرچند قدرتمند، خطرات جدی از جمله تزریق پرامپت (prompt injections)، پاسخ‌های خارج از موضوع، نشت زمینه (context leakage) و توهمات هوش مصنوعی (خروجی‌های نادرست یا گمراه‌کننده) را به همراه دارد.

علاوه بر این، بیشتر محافظت‌های موجود — مانند حفاظ‌های هوش مصنوعی (AI guardrails) — واکنشی هستند و اغلب به درستی آموزش ندیده‌اند، که منجر به رفتارهای بیش از حد محدودکننده یا سهل‌انگارانه خطرناک می‌شود. اینجاست که SplxAI وارد عمل می‌شود.

پلتفرم SplxAI: تیم قرمز (Red Teaming) برای هوش مصنوعی در مقیاس بزرگ

پلتفرم SplxAI تیم قرمز کاملاً خودکار را برای سیستم‌های هوش مصنوعی مولد (GenAI) ارائه می‌دهد و به شرکت‌ها امکان می‌دهد تا آزمایش نفوذ (penetration testing) مداوم و در زمان واقعی را در سراسر گردش‌های کاری مبتنی بر هوش مصنوعی انجام دهند. این پلتفرم حملات پیچیده مهاجمان — از نوعی که مهاجمان واقعی و بسیار ماهر را تقلید می‌کنند — را در چندین حالت مختلف، از جمله متن، تصویر، صدا و حتی اسناد، شبیه‌سازی می‌کند.

برخی از قابلیت‌های برجسته عبارتند از:

  • تحلیل ریسک پویا: به طور مداوم برنامه‌های هوش مصنوعی را برای شناسایی آسیب‌پذیری‌ها و ارائه بینش‌های عملی بررسی می‌کند.

  • آزمایش نفوذ ویژه دامنه: آزمایش را متناسب با موارد استفاده منحصر به فرد هر سازمان — از امور مالی گرفته تا خدمات مشتری — تنظیم می‌کند.

  • ادغام با خط لوله CI/CD: امنیت را مستقیماً در فرآیند توسعه تعبیه می‌کند تا آسیب‌پذیری‌ها قبل از تولید شناسایی شوند.

  • نگاشت انطباق: به طور خودکار همسویی با چارچوب‌هایی مانند NIST AI، OWASP LLM Top 10، قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) و ISO 42001 را ارزیابی می‌کند.

این رویکرد پیشگیرانه در حال حاضر در حال جلب توجه است. مشتریان شامل KPMG، Infobip، Brand Engagement Network و Glean هستند. از زمان راه‌اندازی در آگوست 2024، این شرکت رشد 127 درصدی سه‌ماهه به سه‌ماهه را گزارش کرده است.

سرمایه‌گذاران از چشم‌انداز امنیت هوش مصنوعی حمایت می‌کنند

استان سیراکوف، شریک عمومی LAUNCHub Ventures که اکنون به هیئت مدیره SplxAI می‌پیوندد، بر نیاز به راه‌حل‌های امنیتی مقیاس‌پذیر هوش مصنوعی تأکید کرد: «همانطور که هوش مصنوعی عامل‌گرا به یک هنجار تبدیل می‌شود، پتانسیل سوء استفاده از آن نیز افزایش می‌یابد. SplxAI تنها فروشنده‌ای است که برنامه‌ای برای مدیریت این ریسک در مقیاس بزرگ دارد.»

دکتر چنشی وانگ از Rain Capital نیز این احساس را تکرار کرد و بر اهمیت تیم قرمز خودکار برای سیستم‌های هوش مصنوعی در مراحل اولیه تأکید کرد: «تخصص و فناوری SplxAI آن را در موقعیتی قرار می‌دهد که بازیگر اصلی در ایمن‌سازی هوش مصنوعی مولد (GenAI) باشد. آزمایش دستی دیگر کافی نیست.»

اعضای جدید تیم را تقویت می‌کنند

در کنار تأمین مالی، SplxAI دو استخدام استراتژیک را اعلام کرد:

  • استان سیراکوف (LAUNCHub Ventures) به هیئت مدیره می‌پیوندد.

  • سندی دان، مدیر ارشد امنیت اطلاعات (CISO) سابق Brand Engagement Network، به عنوان مدیر ارشد امنیت اطلاعات برای رهبری ابتکار راهبری، ریسک و انطباق (GRC) شرکت منصوب می‌شود.

ابزارهای پیشرفته: Agentic Radar و اصلاح بلادرنگ

علاوه بر پلتفرم اصلی، SplxAI اخیراً Agentic Radar را راه‌اندازی کرده است — یک ابزار منبع باز که وابستگی‌ها را در گردش‌های کاری عامل‌گرا ترسیم می‌کند، پیوندهای ضعیف را شناسایی می‌کند و شکاف‌های امنیتی را از طریق تجزیه و تحلیل کد ایستا آشکار می‌سازد.

در همین حال، موتور اصلاح (remediation engine) آنها راهی خودکار برای تولید پرامپت‌های سیستمی تقویت‌شده ارائه می‌دهد که سطوح حمله را تا 80 درصد کاهش می‌دهد، پیشگیری از نشت پرامپت را تا 97 درصد بهبود می‌بخشد و تلاش مهندسی را تا 95 درصد به حداقل می‌رساند. این پرامپت‌های سیستمی در شکل‌دهی رفتار هوش مصنوعی حیاتی هستند و در صورت افشا یا طراحی ضعیف، می‌توانند به مسئولیت‌های امنیتی عمده تبدیل شوند.

شبیه‌سازی تهدیدات دنیای واقعی به بیش از 20 زبان

SplxAI همچنین از آزمایش امنیتی چند زبانه پشتیبانی می‌کند و آن را به یک راه‌حل جهانی برای امنیت هوش مصنوعی سازمانی تبدیل می‌کند. این پلتفرم پرامپت‌های مخرب را از هر دو نوع کاربر مهاجم و خوش‌خیم شبیه‌سازی می‌کند و به سازمان‌ها کمک می‌کند تا تهدیداتی مانند موارد زیر را کشف کنند:

  • نشت زمینه (افشای تصادفی داده‌های حساس)

  • حملات مهندسی اجتماعی

  • تکنیک‌های تزریق پرامپت و جیل‌بریک (شکستن محدودیت‌ها)

  • خروجی‌های سمی یا جانبدارانه

همه اینها با حداقل موارد مثبت کاذب (false positives) ارائه می‌شود، به لطف هوش منحصر به فرد تیم قرمز هوش مصنوعی SplxAI.

نگاه به آینده: آینده هوش مصنوعی امن

همانطور که کسب‌وکارها برای ادغام هوش مصنوعی در همه چیز، از خدمات مشتری گرفته تا توسعه محصول، رقابت می‌کنند، نیاز به امنیت هوش مصنوعی قوی و بلادرنگ هرگز بیشتر از این نبوده است. SplxAI پیشگام تضمین این است که سیستم‌های هوش مصنوعی نه تنها قدرتمند باشند، بلکه قابل اعتماد، امن و منطبق با مقررات نیز باشند.

کامبر افزود: «ما مأموریت داریم برنامه‌های کاربردی مبتنی بر هوش مصنوعی مولد را ایمن و محافظت کنیم. پلتفرم ما به سازمان‌ها قدرت می‌دهد تا سریع حرکت کنند بدون اینکه چیزی را خراب کنند — یا اعتماد را به خطر بیندازند.»

با سرمایه تازه و شتاب فعلی، SplxAI آماده است تا در سال‌های آینده به یک لایه بنیادی در پشته امنیتی هوش مصنوعی تبدیل شود.