استفانی آرنت/ام‌آی‌تی تکنولوژی ریویو | ادوبی استاک
استفانی آرنت/ام‌آی‌تی تکنولوژی ریویو | ادوبی استاک

حملات سایبری با استفاده از عامل‌های هوش مصنوعی در راه است

عامل‌ها می‌توانند هک کردن سیستم‌ها در مقیاس بزرگ را برای مجرمان آسان‌تر و ارزان‌تر کنند. ما باید آماده باشیم.

عامل‌های هوش مصنوعی (AI agents) بحث داغ صنعت هوش مصنوعی هستند—آن‌ها قادر به برنامه‌ریزی، استدلال و اجرای وظایف پیچیده‌ای مانند برنامه‌ریزی جلسات، سفارش خواربار یا حتی در اختیار گرفتن رایانه شما برای تغییر تنظیمات از طرف شما هستند. اما همین توانایی‌های پیچیده‌ای که عامل‌ها را به دستیاران مفیدی تبدیل می‌کنند، می‌توانند آن‌ها را به ابزارهای قدرتمندی برای انجام حملات سایبری نیز بدل کنند. آن‌ها به راحتی می‌توانند برای شناسایی اهداف آسیب‌پذیر، ربودن سیستم‌هایشان و سرقت داده‌های ارزشمند از قربانیان بی‌خبر مورد استفاده قرار گیرند.

در حال حاضر، مجرمان سایبری از عامل‌های هوش مصنوعی برای هک کردن در مقیاس بزرگ استفاده نمی‌کنند. اما محققان نشان داده‌اند که عامل‌ها قادر به اجرای حملات پیچیده هستند (برای مثال، Anthropic مشاهده کرد که مدل زبان بزرگ (LLM) Claude با موفقیت حمله‌ای را که برای سرقت اطلاعات حساس طراحی شده بود، تکرار کرد)، و کارشناسان امنیت سایبری هشدار می‌دهند که باید انتظار داشته باشیم این نوع حملات به دنیای واقعی نیز سرایت کنند.

مارک استاکلی، کارشناس امنیت در شرکت امنیت سایبری Malwarebytes می‌گوید: «فکر می‌کنم در نهایت در دنیایی زندگی خواهیم کرد که اکثر حملات سایبری توسط عامل‌ها انجام می‌شوند. مسئله واقعاً فقط این است که چقدر سریع به آنجا می‌رسیم.»

در حالی که درک خوبی از انواع تهدیداتی که عامل‌های هوش مصنوعی می‌توانند برای امنیت سایبری ایجاد کنند داریم، آنچه کمتر مشخص است نحوه شناسایی آن‌ها در دنیای واقعی است. سازمان تحقیقاتی هوش مصنوعی Palisade Research سیستمی به نام LLM Agent Honeypot (تله عسل عامل مدل زبان بزرگ) را به امید انجام دقیقاً همین کار ایجاد کرده است. این سازمان سرورهای آسیب‌پذیری را راه‌اندازی کرده که خود را به عنوان سایت‌هایی برای اطلاعات ارزشمند دولتی و نظامی جا می‌زنند تا عامل‌های هوش مصنوعی را که قصد هک کردن دارند، جذب کرده و به دام بیندازند.

تیم پشتیبان این پروژه امیدوار است که با ردیابی این تلاش‌ها در دنیای واقعی، این پروژه به عنوان یک سیستم هشدار اولیه عمل کند و به کارشناسان کمک کند تا پیش از آنکه عامل‌های تهدیدگر هوش مصنوعی به یک مسئله جدی تبدیل شوند، دفاع مؤثری در برابر آن‌ها توسعه دهند.

دمیتری ولکوف، سرپرست تحقیقات در Palisade می‌گوید: «قصد ما این بود که نگرانی‌های نظری مردم را به واقعیت نزدیک کنیم. ما به دنبال افزایش شدید [این حملات] هستیم و وقتی این اتفاق بیفتد، خواهیم دانست که چشم‌انداز امنیتی تغییر کرده است. انتظار دارم در چند سال آینده شاهد این باشیم که به عامل‌های هکر خودکار گفته شود: "این هدف توست. برو و آن را هک کن."»

عامل‌های هوش مصنوعی گزینه جذابی برای مجرمان سایبری هستند. آن‌ها بسیار ارزان‌تر از استخدام هکرهای حرفه‌ای هستند و می‌توانند حملات را سریع‌تر و در مقیاسی بسیار بزرگ‌تر از انسان‌ها سازماندهی کنند. استاکلی می‌گوید در حالی که کارشناسان امنیت سایبری معتقدند حملات باج‌افزاری — پرسودترین نوع حملات — نسبتاً نادر هستند زیرا به تخصص انسانی قابل توجهی نیاز دارند، این حملات ممکن است در آینده به عامل‌ها برون‌سپاری شوند. او می‌گوید: «اگر بتوانید کار انتخاب هدف را به یک عامل واگذار کنید، ناگهان می‌توانید باج‌افزار را به روشی مقیاس‌پذیر کنید که در حال حاضر ممکن نیست. اگر بتوانم آن را یک بار تکرار کنم، پس تکرار آن ۱۰۰ بار فقط مسئله پول است.»

عامل‌ها همچنین به طور قابل توجهی هوشمندتر از انواع ربات‌هایی هستند که معمولاً برای هک کردن سیستم‌ها استفاده می‌شوند. ربات‌ها برنامه‌های خودکار ساده‌ای هستند که اسکریپت‌ها را اجرا می‌کنند، بنابراین در سازگاری با سناریوهای غیرمنتظره مشکل دارند. ولکوف می‌گوید، از سوی دیگر، عامل‌ها نه تنها قادر به تطبیق نحوه تعامل خود با هدف هک هستند، بلکه می‌توانند از شناسایی شدن نیز اجتناب کنند — هر دوی این موارد فراتر از قابلیت‌های برنامه‌های محدود و اسکریپت‌محور است. او می‌گوید: «آن‌ها می‌توانند به یک هدف نگاه کنند و بهترین راه‌ها برای نفوذ به آن را حدس بزنند. این نوع کارها از دسترس ربات‌های ساده و اسکریپتی خارج است.»

از زمانی که LLM Agent Honeypot در اکتبر سال گذشته فعال شد، بیش از ۱۱ میلیون تلاش برای دسترسی به آن را ثبت کرده است — که اکثریت قریب به اتفاق آن‌ها از سوی انسان‌های کنجکاو و ربات‌ها بوده است. اما در میان این‌ها، محققان هشت عامل هوش مصنوعی بالقوه را شناسایی کرده‌اند که تأیید کرده‌اند دو مورد از آن‌ها عامل‌هایی هستند که به نظر می‌رسد به ترتیب از هنگ کنگ و سنگاپور نشأت گرفته‌اند.

ولکوف می‌گوید: «حدس ما این است که این عامل‌های تأیید شده، آزمایش‌هایی بوده‌اند که مستقیماً توسط انسان‌ها با دستوری مانند "به اینترنت برو و سعی کن چیز جالبی برای من هک کنی" راه‌اندازی شده‌اند.» این تیم قصد دارد تله عسل خود را به پلتفرم‌های رسانه‌های اجتماعی، وب‌سایت‌ها و پایگاه‌های داده گسترش دهد تا طیف وسیع‌تری از مهاجمان، از جمله ربات‌های اسپم و عامل‌های فیشینگ را جذب و ضبط کند تا تهدیدات آینده را تجزیه و تحلیل کند.

برای تعیین اینکه کدام بازدیدکنندگان سرورهای آسیب‌پذیر، عامل‌های مبتنی بر مدل زبان بزرگ (LLM) بودند، محققان تکنیک‌های تزریق پرامپت (prompt-injection) را در تله عسل تعبیه کردند. این حملات برای تغییر رفتار عامل‌های هوش مصنوعی با صدور دستورالعمل‌های جدید و پرسیدن سؤالاتی که نیاز به هوش شبه‌انسانی دارند، طراحی شده‌اند. این رویکرد روی ربات‌های استاندارد کار نمی‌کند.

به عنوان مثال، یکی از پرامپت‌های تزریق شده از بازدیدکننده خواست تا برای دسترسی، دستور «cat8193» را برگرداند. اگر بازدیدکننده به درستی از دستورالعمل پیروی می‌کرد، محققان بررسی می‌کردند که چقدر طول کشیده تا این کار را انجام دهد، با این فرض که مدل‌های زبان بزرگ قادر به پاسخگویی در زمان بسیار کمتری نسبت به زمانی هستند که یک انسان برای خواندن درخواست و تایپ پاسخ نیاز دارد — معمولاً کمتر از ۱.۵ ثانیه. در حالی که دو عامل هوش مصنوعی تأیید شده هر دو آزمون را پشت سر گذاشتند، شش عامل دیگر فقط دستور را وارد کردند اما زمان پاسخگویی لازم برای شناسایی آن‌ها به عنوان عامل هوش مصنوعی را برآورده نکردند.

کارشناسان هنوز مطمئن نیستند که حملات سازماندهی شده توسط عامل‌ها چه زمانی گسترده‌تر خواهند شد. استاکلی، که شرکتش Malwarebytes هوش مصنوعی عاملی (agentic AI) را به عنوان یک تهدید امنیت سایبری جدید قابل توجه در گزارش وضعیت بدافزار سال ۲۰۲۵ خود نام برد، فکر می‌کند که ممکن است به زودی در همین سال در دنیایی با مهاجمان عاملی زندگی کنیم.

و اگرچه هوش مصنوعی عاملی معمولی هنوز در مراحل اولیه خود قرار دارد — و استفاده مجرمانه یا مخرب از هوش مصنوعی عاملی حتی در مراحل ابتدایی‌تری است — وینچنزو چیانکاگلینی، محقق ارشد تهدیدات در شرکت امنیتی Trend Micro می‌گوید، این حوزه حتی از حوزه مدل‌های زبان بزرگ (LLM) در دو سال پیش هم بی‌قانون‌تر است.

او می‌گوید: «رویکرد Palisade Research درخشان است: اساساً هک کردن عامل‌های هوش مصنوعی که سعی می‌کنند اول شما را هک کنند. در حالی که در این مورد شاهد تلاش عامل‌های هوش مصنوعی برای انجام شناسایی هستیم، مطمئن نیستیم چه زمانی عامل‌ها قادر خواهند بود به طور مستقل یک زنجیره حمله کامل را انجام دهند. این چیزی است که ما سعی می‌کنیم زیر نظر داشته باشیم.»

او می‌گوید و در حالی که ممکن است عامل‌های مخرب قبل از ارتقا به حملات ساده و در نهایت حملات پیچیده، با پیچیده‌تر و قابل اعتمادتر شدن خود سیستم‌های عاملی، برای جمع‌آوری اطلاعات استفاده شوند، به همان اندازه ممکن است که یک انفجار غیرمنتظره و یک شبه در استفاده مجرمانه رخ دهد: «این ویژگی عجیب توسعه هوش مصنوعی در حال حاضر است.»

کریس بتز، مدیر ارشد امنیت اطلاعات در خدمات وب آمازون (Amazon Web Services)، می‌گوید کسانی که سعی در دفاع در برابر حملات سایبری عاملی دارند باید به خاطر داشته باشند که هوش مصنوعی در حال حاضر بیشتر یک شتاب‌دهنده برای تکنیک‌های حمله موجود است تا چیزی که اساساً ماهیت حملات را تغییر دهد. او می‌گوید: «انجام برخی حملات ممکن است ساده‌تر و در نتیجه پرتعدادتر باشد؛ با این حال، اساس نحوه شناسایی و پاسخ به این رویدادها یکسان باقی می‌ماند.»

ادواردو دِبِنِدِتی، دانشجوی دکترا در ETH زوریخ در سوئیس، می‌گوید عامل‌ها همچنین می‌توانند برای شناسایی آسیب‌پذیری‌ها و محافظت در برابر نفوذگران به کار گرفته شوند، و اشاره می‌کند که اگر یک عامل دوست نتواند هیچ آسیب‌پذیری در یک سیستم پیدا کند، بعید است که یک عامل با قابلیت مشابه که توسط یک طرف مخرب استفاده می‌شود، بتواند چیزی پیدا کند.

در حالی که می‌دانیم پتانسیل هوش مصنوعی برای انجام حملات سایبری به طور مستقل یک خطر رو به رشد است و عامل‌های هوش مصنوعی از هم اکنون در حال اسکن اینترنت هستند، یک گام بعدی مفید، ارزیابی میزان مهارت عامل‌ها در یافتن و بهره‌برداری از این آسیب‌پذیری‌های دنیای واقعی است. دانیل کانگ، استادیار در دانشگاه ایلینوی اربانا-شمپین، و تیمش یک معیار (benchmark) برای ارزیابی این موضوع ایجاد کرده‌اند؛ آن‌ها دریافته‌اند که عامل‌های هوش مصنوعی فعلی تا ۱۳٪ از آسیب‌پذیری‌هایی را که هیچ دانش قبلی در مورد آن‌ها نداشتند، با موفقیت مورد بهره‌برداری قرار داده‌اند. ارائه توضیحی مختصر از آسیب‌پذیری به عامل‌ها، میزان موفقیت را تا ۲۵٪ افزایش داد، که نشان می‌دهد چگونه سیستم‌های هوش مصنوعی قادر به شناسایی و بهره‌برداری از نقاط ضعف حتی بدون آموزش هستند. ربات‌های پایه احتمالاً عملکرد بسیار بدتری خواهند داشت.

این معیار روشی استاندارد برای ارزیابی این خطرات فراهم می‌کند و کانگ امیدوار است که بتواند توسعه سیستم‌های هوش مصنوعی ایمن‌تر را هدایت کند. او می‌گوید: «امیدوارم مردم قبل از اینکه [این خطر] مانند لحظه ChatGPT به آن‌ها ضربه بزند، شروع به پیش‌فعالی بیشتر در مورد خطرات بالقوه هوش مصنوعی و امنیت سایبری کنند. می‌ترسم مردم تا زمانی که این مسئله به صورتشان سیلی نزند، متوجه آن نشوند.»