در گامی بزرگ به سوی حفاظت از آینده هوش مصنوعی، SplxAI، پیشگام در امنیت تهاجمی برای هوش مصنوعی عاملگرا (Agentic AI)، موفق به جذب 7 میلیون دلار سرمایه اولیه (seed funding) شده است. این دور سرمایهگذاری توسط LAUNCHub Ventures رهبری شد و با مشارکت استراتژیک Rain Capital، Inovo، Runtime Ventures، DNV Ventures و South Central Ventures همراه بود. این سرمایه جدید، توسعه پلتفرم SplxAI را که برای محافظت از سازمانهایی که عاملها و برنامههای کاربردی پیشرفته هوش مصنوعی را به کار میگیرند طراحی شده است، تسریع خواهد کرد.
با افزایش ادغام هوش مصنوعی در عملیات روزمره شرکتها، چشمانداز تهدیدات به سرعت در حال تحول است. پیشبینی میشود تا سال 2028، 33 درصد از برنامههای کاربردی سازمانی از هوش مصنوعی عاملگرا استفاده کنند — سیستمهای هوش مصنوعی که قادر به تصمیمگیری مستقل و اجرای وظایف پیچیده هستند. اما این تغییر با خود سطح حمله بسیار گستردهتری را به همراه دارد که ابزارهای امنیت سایبری سنتی برای مقابله با آن آمادگی لازم را ندارند.
کریستین کامبر، مدیرعامل و همبنیانگذار SplxAI گفت: «استقرار عاملهای هوش مصنوعی در مقیاس بزرگ، پیچیدگی قابل توجهی را ایجاد میکند. آزمایش دستی در این محیط امکانپذیر نیست. پلتفرم ما تنها راهحل مقیاسپذیر برای ایمنسازی هوش مصنوعی عاملگرا است.»
هوش مصنوعی عاملگرا چیست و چرا یک خطر امنیتی محسوب میشود؟
برخلاف دستیاران هوش مصنوعی مرسوم که به پرامپتهای مستقیم پاسخ میدهند، هوش مصنوعی عاملگرا (agentic AI) به سیستمهایی اشاره دارد که قادر به انجام وظایف چند مرحلهای به صورت مستقل هستند. عاملهای هوش مصنوعی را تصور کنید که میتوانند جلسات را برنامهریزی کنند، سفر رزرو کنند یا گردش کار را مدیریت کنند — همه اینها بدون نیاز به ورودی مداوم انسانی. این استقلال، هرچند قدرتمند، خطرات جدی از جمله تزریق پرامپت (prompt injections)، پاسخهای خارج از موضوع، نشت زمینه (context leakage) و توهمات هوش مصنوعی (خروجیهای نادرست یا گمراهکننده) را به همراه دارد.
علاوه بر این، بیشتر محافظتهای موجود — مانند حفاظهای هوش مصنوعی (AI guardrails) — واکنشی هستند و اغلب به درستی آموزش ندیدهاند، که منجر به رفتارهای بیش از حد محدودکننده یا سهلانگارانه خطرناک میشود. اینجاست که SplxAI وارد عمل میشود.
پلتفرم SplxAI: تیم قرمز (Red Teaming) برای هوش مصنوعی در مقیاس بزرگ
پلتفرم SplxAI تیم قرمز کاملاً خودکار را برای سیستمهای هوش مصنوعی مولد (GenAI) ارائه میدهد و به شرکتها امکان میدهد تا آزمایش نفوذ (penetration testing) مداوم و در زمان واقعی را در سراسر گردشهای کاری مبتنی بر هوش مصنوعی انجام دهند. این پلتفرم حملات پیچیده مهاجمان — از نوعی که مهاجمان واقعی و بسیار ماهر را تقلید میکنند — را در چندین حالت مختلف، از جمله متن، تصویر، صدا و حتی اسناد، شبیهسازی میکند.
برخی از قابلیتهای برجسته عبارتند از:
-
تحلیل ریسک پویا: به طور مداوم برنامههای هوش مصنوعی را برای شناسایی آسیبپذیریها و ارائه بینشهای عملی بررسی میکند.
-
آزمایش نفوذ ویژه دامنه: آزمایش را متناسب با موارد استفاده منحصر به فرد هر سازمان — از امور مالی گرفته تا خدمات مشتری — تنظیم میکند.
-
ادغام با خط لوله CI/CD: امنیت را مستقیماً در فرآیند توسعه تعبیه میکند تا آسیبپذیریها قبل از تولید شناسایی شوند.
-
نگاشت انطباق: به طور خودکار همسویی با چارچوبهایی مانند NIST AI، OWASP LLM Top 10، قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) و ISO 42001 را ارزیابی میکند.
این رویکرد پیشگیرانه در حال حاضر در حال جلب توجه است. مشتریان شامل KPMG، Infobip، Brand Engagement Network و Glean هستند. از زمان راهاندازی در آگوست 2024، این شرکت رشد 127 درصدی سهماهه به سهماهه را گزارش کرده است.
سرمایهگذاران از چشمانداز امنیت هوش مصنوعی حمایت میکنند
استان سیراکوف، شریک عمومی LAUNCHub Ventures که اکنون به هیئت مدیره SplxAI میپیوندد، بر نیاز به راهحلهای امنیتی مقیاسپذیر هوش مصنوعی تأکید کرد: «همانطور که هوش مصنوعی عاملگرا به یک هنجار تبدیل میشود، پتانسیل سوء استفاده از آن نیز افزایش مییابد. SplxAI تنها فروشندهای است که برنامهای برای مدیریت این ریسک در مقیاس بزرگ دارد.»
دکتر چنشی وانگ از Rain Capital نیز این احساس را تکرار کرد و بر اهمیت تیم قرمز خودکار برای سیستمهای هوش مصنوعی در مراحل اولیه تأکید کرد: «تخصص و فناوری SplxAI آن را در موقعیتی قرار میدهد که بازیگر اصلی در ایمنسازی هوش مصنوعی مولد (GenAI) باشد. آزمایش دستی دیگر کافی نیست.»
اعضای جدید تیم را تقویت میکنند
در کنار تأمین مالی، SplxAI دو استخدام استراتژیک را اعلام کرد:
-
استان سیراکوف (LAUNCHub Ventures) به هیئت مدیره میپیوندد.
-
سندی دان، مدیر ارشد امنیت اطلاعات (CISO) سابق Brand Engagement Network، به عنوان مدیر ارشد امنیت اطلاعات برای رهبری ابتکار راهبری، ریسک و انطباق (GRC) شرکت منصوب میشود.
ابزارهای پیشرفته: Agentic Radar و اصلاح بلادرنگ
علاوه بر پلتفرم اصلی، SplxAI اخیراً Agentic Radar را راهاندازی کرده است — یک ابزار منبع باز که وابستگیها را در گردشهای کاری عاملگرا ترسیم میکند، پیوندهای ضعیف را شناسایی میکند و شکافهای امنیتی را از طریق تجزیه و تحلیل کد ایستا آشکار میسازد.
در همین حال، موتور اصلاح (remediation engine) آنها راهی خودکار برای تولید پرامپتهای سیستمی تقویتشده ارائه میدهد که سطوح حمله را تا 80 درصد کاهش میدهد، پیشگیری از نشت پرامپت را تا 97 درصد بهبود میبخشد و تلاش مهندسی را تا 95 درصد به حداقل میرساند. این پرامپتهای سیستمی در شکلدهی رفتار هوش مصنوعی حیاتی هستند و در صورت افشا یا طراحی ضعیف، میتوانند به مسئولیتهای امنیتی عمده تبدیل شوند.
شبیهسازی تهدیدات دنیای واقعی به بیش از 20 زبان
SplxAI همچنین از آزمایش امنیتی چند زبانه پشتیبانی میکند و آن را به یک راهحل جهانی برای امنیت هوش مصنوعی سازمانی تبدیل میکند. این پلتفرم پرامپتهای مخرب را از هر دو نوع کاربر مهاجم و خوشخیم شبیهسازی میکند و به سازمانها کمک میکند تا تهدیداتی مانند موارد زیر را کشف کنند:
-
نشت زمینه (افشای تصادفی دادههای حساس)
-
حملات مهندسی اجتماعی
-
تکنیکهای تزریق پرامپت و جیلبریک (شکستن محدودیتها)
-
خروجیهای سمی یا جانبدارانه
همه اینها با حداقل موارد مثبت کاذب (false positives) ارائه میشود، به لطف هوش منحصر به فرد تیم قرمز هوش مصنوعی SplxAI.
نگاه به آینده: آینده هوش مصنوعی امن
همانطور که کسبوکارها برای ادغام هوش مصنوعی در همه چیز، از خدمات مشتری گرفته تا توسعه محصول، رقابت میکنند، نیاز به امنیت هوش مصنوعی قوی و بلادرنگ هرگز بیشتر از این نبوده است. SplxAI پیشگام تضمین این است که سیستمهای هوش مصنوعی نه تنها قدرتمند باشند، بلکه قابل اعتماد، امن و منطبق با مقررات نیز باشند.
کامبر افزود: «ما مأموریت داریم برنامههای کاربردی مبتنی بر هوش مصنوعی مولد را ایمن و محافظت کنیم. پلتفرم ما به سازمانها قدرت میدهد تا سریع حرکت کنند بدون اینکه چیزی را خراب کنند — یا اعتماد را به خطر بیندازند.»
با سرمایه تازه و شتاب فعلی، SplxAI آماده است تا در سالهای آینده به یک لایه بنیادی در پشته امنیتی هوش مصنوعی تبدیل شود.