عاملهای هوش مصنوعی (AI agents) بحث داغ صنعت هوش مصنوعی هستند—آنها قادر به برنامهریزی، استدلال و اجرای وظایف پیچیدهای مانند برنامهریزی جلسات، سفارش خواربار یا حتی در اختیار گرفتن رایانه شما برای تغییر تنظیمات از طرف شما هستند. اما همین تواناییهای پیچیدهای که عاملها را به دستیاران مفیدی تبدیل میکنند، میتوانند آنها را به ابزارهای قدرتمندی برای انجام حملات سایبری نیز بدل کنند. آنها به راحتی میتوانند برای شناسایی اهداف آسیبپذیر، ربودن سیستمهایشان و سرقت دادههای ارزشمند از قربانیان بیخبر مورد استفاده قرار گیرند.
در حال حاضر، مجرمان سایبری از عاملهای هوش مصنوعی برای هک کردن در مقیاس بزرگ استفاده نمیکنند. اما محققان نشان دادهاند که عاملها قادر به اجرای حملات پیچیده هستند (برای مثال، Anthropic مشاهده کرد که مدل زبان بزرگ (LLM) Claude با موفقیت حملهای را که برای سرقت اطلاعات حساس طراحی شده بود، تکرار کرد)، و کارشناسان امنیت سایبری هشدار میدهند که باید انتظار داشته باشیم این نوع حملات به دنیای واقعی نیز سرایت کنند.
مارک استاکلی، کارشناس امنیت در شرکت امنیت سایبری Malwarebytes میگوید: «فکر میکنم در نهایت در دنیایی زندگی خواهیم کرد که اکثر حملات سایبری توسط عاملها انجام میشوند. مسئله واقعاً فقط این است که چقدر سریع به آنجا میرسیم.»
در حالی که درک خوبی از انواع تهدیداتی که عاملهای هوش مصنوعی میتوانند برای امنیت سایبری ایجاد کنند داریم، آنچه کمتر مشخص است نحوه شناسایی آنها در دنیای واقعی است. سازمان تحقیقاتی هوش مصنوعی Palisade Research سیستمی به نام LLM Agent Honeypot (تله عسل عامل مدل زبان بزرگ) را به امید انجام دقیقاً همین کار ایجاد کرده است. این سازمان سرورهای آسیبپذیری را راهاندازی کرده که خود را به عنوان سایتهایی برای اطلاعات ارزشمند دولتی و نظامی جا میزنند تا عاملهای هوش مصنوعی را که قصد هک کردن دارند، جذب کرده و به دام بیندازند.
تیم پشتیبان این پروژه امیدوار است که با ردیابی این تلاشها در دنیای واقعی، این پروژه به عنوان یک سیستم هشدار اولیه عمل کند و به کارشناسان کمک کند تا پیش از آنکه عاملهای تهدیدگر هوش مصنوعی به یک مسئله جدی تبدیل شوند، دفاع مؤثری در برابر آنها توسعه دهند.
دمیتری ولکوف، سرپرست تحقیقات در Palisade میگوید: «قصد ما این بود که نگرانیهای نظری مردم را به واقعیت نزدیک کنیم. ما به دنبال افزایش شدید [این حملات] هستیم و وقتی این اتفاق بیفتد، خواهیم دانست که چشمانداز امنیتی تغییر کرده است. انتظار دارم در چند سال آینده شاهد این باشیم که به عاملهای هکر خودکار گفته شود: "این هدف توست. برو و آن را هک کن."»
عاملهای هوش مصنوعی گزینه جذابی برای مجرمان سایبری هستند. آنها بسیار ارزانتر از استخدام هکرهای حرفهای هستند و میتوانند حملات را سریعتر و در مقیاسی بسیار بزرگتر از انسانها سازماندهی کنند. استاکلی میگوید در حالی که کارشناسان امنیت سایبری معتقدند حملات باجافزاری — پرسودترین نوع حملات — نسبتاً نادر هستند زیرا به تخصص انسانی قابل توجهی نیاز دارند، این حملات ممکن است در آینده به عاملها برونسپاری شوند. او میگوید: «اگر بتوانید کار انتخاب هدف را به یک عامل واگذار کنید، ناگهان میتوانید باجافزار را به روشی مقیاسپذیر کنید که در حال حاضر ممکن نیست. اگر بتوانم آن را یک بار تکرار کنم، پس تکرار آن ۱۰۰ بار فقط مسئله پول است.»
عاملها همچنین به طور قابل توجهی هوشمندتر از انواع رباتهایی هستند که معمولاً برای هک کردن سیستمها استفاده میشوند. رباتها برنامههای خودکار سادهای هستند که اسکریپتها را اجرا میکنند، بنابراین در سازگاری با سناریوهای غیرمنتظره مشکل دارند. ولکوف میگوید، از سوی دیگر، عاملها نه تنها قادر به تطبیق نحوه تعامل خود با هدف هک هستند، بلکه میتوانند از شناسایی شدن نیز اجتناب کنند — هر دوی این موارد فراتر از قابلیتهای برنامههای محدود و اسکریپتمحور است. او میگوید: «آنها میتوانند به یک هدف نگاه کنند و بهترین راهها برای نفوذ به آن را حدس بزنند. این نوع کارها از دسترس رباتهای ساده و اسکریپتی خارج است.»
از زمانی که LLM Agent Honeypot در اکتبر سال گذشته فعال شد، بیش از ۱۱ میلیون تلاش برای دسترسی به آن را ثبت کرده است — که اکثریت قریب به اتفاق آنها از سوی انسانهای کنجکاو و رباتها بوده است. اما در میان اینها، محققان هشت عامل هوش مصنوعی بالقوه را شناسایی کردهاند که تأیید کردهاند دو مورد از آنها عاملهایی هستند که به نظر میرسد به ترتیب از هنگ کنگ و سنگاپور نشأت گرفتهاند.
ولکوف میگوید: «حدس ما این است که این عاملهای تأیید شده، آزمایشهایی بودهاند که مستقیماً توسط انسانها با دستوری مانند "به اینترنت برو و سعی کن چیز جالبی برای من هک کنی" راهاندازی شدهاند.» این تیم قصد دارد تله عسل خود را به پلتفرمهای رسانههای اجتماعی، وبسایتها و پایگاههای داده گسترش دهد تا طیف وسیعتری از مهاجمان، از جمله رباتهای اسپم و عاملهای فیشینگ را جذب و ضبط کند تا تهدیدات آینده را تجزیه و تحلیل کند.
برای تعیین اینکه کدام بازدیدکنندگان سرورهای آسیبپذیر، عاملهای مبتنی بر مدل زبان بزرگ (LLM) بودند، محققان تکنیکهای تزریق پرامپت (prompt-injection) را در تله عسل تعبیه کردند. این حملات برای تغییر رفتار عاملهای هوش مصنوعی با صدور دستورالعملهای جدید و پرسیدن سؤالاتی که نیاز به هوش شبهانسانی دارند، طراحی شدهاند. این رویکرد روی رباتهای استاندارد کار نمیکند.
به عنوان مثال، یکی از پرامپتهای تزریق شده از بازدیدکننده خواست تا برای دسترسی، دستور «cat8193» را برگرداند. اگر بازدیدکننده به درستی از دستورالعمل پیروی میکرد، محققان بررسی میکردند که چقدر طول کشیده تا این کار را انجام دهد، با این فرض که مدلهای زبان بزرگ قادر به پاسخگویی در زمان بسیار کمتری نسبت به زمانی هستند که یک انسان برای خواندن درخواست و تایپ پاسخ نیاز دارد — معمولاً کمتر از ۱.۵ ثانیه. در حالی که دو عامل هوش مصنوعی تأیید شده هر دو آزمون را پشت سر گذاشتند، شش عامل دیگر فقط دستور را وارد کردند اما زمان پاسخگویی لازم برای شناسایی آنها به عنوان عامل هوش مصنوعی را برآورده نکردند.
کارشناسان هنوز مطمئن نیستند که حملات سازماندهی شده توسط عاملها چه زمانی گستردهتر خواهند شد. استاکلی، که شرکتش Malwarebytes هوش مصنوعی عاملی (agentic AI) را به عنوان یک تهدید امنیت سایبری جدید قابل توجه در گزارش وضعیت بدافزار سال ۲۰۲۵ خود نام برد، فکر میکند که ممکن است به زودی در همین سال در دنیایی با مهاجمان عاملی زندگی کنیم.
و اگرچه هوش مصنوعی عاملی معمولی هنوز در مراحل اولیه خود قرار دارد — و استفاده مجرمانه یا مخرب از هوش مصنوعی عاملی حتی در مراحل ابتداییتری است — وینچنزو چیانکاگلینی، محقق ارشد تهدیدات در شرکت امنیتی Trend Micro میگوید، این حوزه حتی از حوزه مدلهای زبان بزرگ (LLM) در دو سال پیش هم بیقانونتر است.
او میگوید: «رویکرد Palisade Research درخشان است: اساساً هک کردن عاملهای هوش مصنوعی که سعی میکنند اول شما را هک کنند. در حالی که در این مورد شاهد تلاش عاملهای هوش مصنوعی برای انجام شناسایی هستیم، مطمئن نیستیم چه زمانی عاملها قادر خواهند بود به طور مستقل یک زنجیره حمله کامل را انجام دهند. این چیزی است که ما سعی میکنیم زیر نظر داشته باشیم.»
او میگوید و در حالی که ممکن است عاملهای مخرب قبل از ارتقا به حملات ساده و در نهایت حملات پیچیده، با پیچیدهتر و قابل اعتمادتر شدن خود سیستمهای عاملی، برای جمعآوری اطلاعات استفاده شوند، به همان اندازه ممکن است که یک انفجار غیرمنتظره و یک شبه در استفاده مجرمانه رخ دهد: «این ویژگی عجیب توسعه هوش مصنوعی در حال حاضر است.»
کریس بتز، مدیر ارشد امنیت اطلاعات در خدمات وب آمازون (Amazon Web Services)، میگوید کسانی که سعی در دفاع در برابر حملات سایبری عاملی دارند باید به خاطر داشته باشند که هوش مصنوعی در حال حاضر بیشتر یک شتابدهنده برای تکنیکهای حمله موجود است تا چیزی که اساساً ماهیت حملات را تغییر دهد. او میگوید: «انجام برخی حملات ممکن است سادهتر و در نتیجه پرتعدادتر باشد؛ با این حال، اساس نحوه شناسایی و پاسخ به این رویدادها یکسان باقی میماند.»
ادواردو دِبِنِدِتی، دانشجوی دکترا در ETH زوریخ در سوئیس، میگوید عاملها همچنین میتوانند برای شناسایی آسیبپذیریها و محافظت در برابر نفوذگران به کار گرفته شوند، و اشاره میکند که اگر یک عامل دوست نتواند هیچ آسیبپذیری در یک سیستم پیدا کند، بعید است که یک عامل با قابلیت مشابه که توسط یک طرف مخرب استفاده میشود، بتواند چیزی پیدا کند.
در حالی که میدانیم پتانسیل هوش مصنوعی برای انجام حملات سایبری به طور مستقل یک خطر رو به رشد است و عاملهای هوش مصنوعی از هم اکنون در حال اسکن اینترنت هستند، یک گام بعدی مفید، ارزیابی میزان مهارت عاملها در یافتن و بهرهبرداری از این آسیبپذیریهای دنیای واقعی است. دانیل کانگ، استادیار در دانشگاه ایلینوی اربانا-شمپین، و تیمش یک معیار (benchmark) برای ارزیابی این موضوع ایجاد کردهاند؛ آنها دریافتهاند که عاملهای هوش مصنوعی فعلی تا ۱۳٪ از آسیبپذیریهایی را که هیچ دانش قبلی در مورد آنها نداشتند، با موفقیت مورد بهرهبرداری قرار دادهاند. ارائه توضیحی مختصر از آسیبپذیری به عاملها، میزان موفقیت را تا ۲۵٪ افزایش داد، که نشان میدهد چگونه سیستمهای هوش مصنوعی قادر به شناسایی و بهرهبرداری از نقاط ضعف حتی بدون آموزش هستند. رباتهای پایه احتمالاً عملکرد بسیار بدتری خواهند داشت.
این معیار روشی استاندارد برای ارزیابی این خطرات فراهم میکند و کانگ امیدوار است که بتواند توسعه سیستمهای هوش مصنوعی ایمنتر را هدایت کند. او میگوید: «امیدوارم مردم قبل از اینکه [این خطر] مانند لحظه ChatGPT به آنها ضربه بزند، شروع به پیشفعالی بیشتر در مورد خطرات بالقوه هوش مصنوعی و امنیت سایبری کنند. میترسم مردم تا زمانی که این مسئله به صورتشان سیلی نزند، متوجه آن نشوند.»