جنگ آمریکا و اسرائیل با ایران، نگرانیهای دیرینهای را در مورد بهکارگیری هدفگیری مبتنی بر هوش مصنوعی در جنگ تشدید کرده است.
این نگرانیها پس از حمله ۲۸ فوریه به مدرسه دخترانه شجره طیبه در میناب، جنوب ایران، که به گفته ایران حداقل ۱۶۸ نفر، که اکثرشان دانشآموز بودند، کشته شدند، برجسته شد.
دولت ترامپ در ابتدا ایران را مسئول این حمله دانست، اگرچه هیچ مدرکی ارائه نکرد. آمریکا میگوید در حال حاضر در حال تحقیق در مورد این بمباران است. واشنگتن پست گزارش داده است که این مدرسه در لیست اهداف آمریکا قرار داشته است.
سناتورهای دموکرات آمریکا نامهای به وزیر جنگ، پیت هگسث، نوشتهاند و اطلاعاتی در مورد این حمله، از جمله شفافسازی در مورد هرگونه استفاده از هوش مصنوعی در انتخاب اهداف، درخواست کردهاند. تاکنون هیچ تأییدی مبنی بر استفاده از هوش مصنوعی در برنامهریزی یا اجرای حمله به مدرسه وجود ندارد.
دریاسالار برد کوپر، فرمانده آمریکایی جنگ در ایران، استفاده از «انواع ابزارهای پیشرفته هوش مصنوعی» را برای غربالگری حجم عظیمی از دادهها در این درگیری تأیید کرده است، بدون اینکه ابزارهای خاصی را نام ببرد. او گفت که این ابزارها به رهبران اجازه میدهند «تصمیمات هوشمندانهتری را سریعتر از واکنش دشمن» بگیرند و فرآیندهایی که ساعتها یا روزها طول میکشیدند را به ثانیه کاهش دهند. دریاسالار کوپر همچنین اظهار داشت: «انسانها همیشه تصمیمات نهایی را در مورد اینکه چه چیزی را شلیک کنند و چه چیزی را شلیک نکنند، و چه زمانی شلیک کنند، خواهند گرفت.»
ایران اولین جنگی نیست که از سیستمهای هوش مصنوعی استفاده میکند، اما این نشان میدهد که هدفگیری با حمایت هوش مصنوعی به یک هنجار در جنگ تبدیل شده است. در حالی که ارتشها ممکن است از پتانسیل افزایش کارایی استقبال کنند، خطرات قابل توجهی باقی میماند.
افزایش پذیرش نظامی
هوش مصنوعی امکان پردازش و تحلیل سریع اطلاعات از منابع مختلف و دسترسی به دادههای قابل تنظیم را فراهم میکند. بهکارگیری آن در حوزه نظامی پتانسیل افزایش آگاهی موقعیتی، تسهیل اشتراکگذاری اطلاعات در زمان واقعی و امکان تصمیمگیری آگاهانهتر در عملیاتهای نظامی را دارد.
انتشار بیانیهای از سوی وزارت جنگ آمریکا در سال ۲۰۲۴ تشریح کرد که چگونه سیستم هوشمند ماون (Maven Smart System) که با هوش مصنوعی کار میکند، به سربازان خط مقدم در شناسایی و حمله به اهداف نظامی کمک میکند و در تأیید حملات توسط زنجیره فرماندهی یاریرسان است. ناتو نیز در سال ۲۰۲۵ نسخهای از سیستم هوشمند ماون را از شرکت پالانتیر (Palantir) خریداری کرد. ارتش آمریکا اکنون گزارش شده است که از نسخه خود از ماون برای کمک به ارائه اطلاعات هدفگیری در عملیاتهای نظامی خود در ایران استفاده میکند. اما هنوز مشخص نیست که ماون و سایر ابزارهای هوش مصنوعی دقیقاً چگونه و تا چه حدی در ایران استفاده میشوند.
در جنگ اوکراین، هر دو طرف از هوش مصنوعی برای پردازش دادهها و انتخاب اهداف استفاده میکنند. معاون وزیر دفاع اوکراین سال گذشته گفت که هوش مصنوعی ماهانه بیش از ۵۰ هزار جریان ویدئویی از خط مقدم را تجزیه و تحلیل میکند، که به «پردازش سریع این حجم عظیم دادهها، شناسایی اهداف و قرار دادن آنها روی نقشه» کمک میکند.
نیویورک تایمز گزارش داده است که اسرائیل از هوش مصنوعی به عنوان بخشی از فرآیند شناسایی اهداف احتمالی برای حملات هوایی علیه حماس در غزه استفاده کرده است. ارتش اسرائیل گفته است که «سیستمهای اطلاعاتی تنها ابزارهایی برای تحلیلگران در فرآیند شناسایی هدف هستند.»
کاربردهای اضافی فناوری هوش مصنوعی در حوزه نظامی شامل آموزش پرسنل نظامی از طریق شبیهسازیهای مجازی، زمانبندی خودکار تدارکات لجستیکی یا شناسایی نیازهای نگهداری تجهیزات از طریق سیستمهای تشخیص تصویر است. اینها تنها برخی از کاربردهای بالقوه هستند.
خطرات
بسیاری از کشورها مایلند در ابزارهایی سرمایهگذاری کنند که به آنها مزیتی نسبت به دشمنانشان بدهد، همسو با جستجوی عدم تقارن که در طول تاریخ جنگها ثابت بوده است. اما استفاده از هوش مصنوعی در محیطهای پیچیده و پرخطر مانند درگیریهای مسلحانه نیز با خطرات جدی همراه است.
بخشی از نگرانی مربوط به توسعه خود فناوری هوش مصنوعی و چگونگی تأثیر آن بر عملکرد سیستم است. به عنوان مثال، یک مدل هوش مصنوعی ممکن است با دادههای ناقص یا با مطالبی آموزش دیده باشد که با آنچه در دنیای واقعی با آن مواجه میشود متفاوت است. این میتواند منجر به تولید اطلاعات نادرست یا اختلال در عملکرد آن خارج از محیط آموزشی شود.
مدلهای زبان بزرگ هوش مصنوعی با پیشبینی دنبالهای از کلمات، بر اساس احتمال آماری کار میکنند – آنها احتمالاً اکثر اوقات درست پیشبینی میکنند، اما همیشه درست پیشبینی نخواهند کرد.
در عمل، این بدان معناست که اتخاذ تصمیمات بر اساس اطلاعات تولید شده توسط هوش مصنوعی حاوی عنصری از خطر و عدم دقت است.
تصمیمات هدفگیری با حمایت هوش مصنوعی یک نمونه بارز از موارد پرخطر است. اگر ابزارهای هوش مصنوعی به طور گسترده برای تولید اهداف با حداقل نظارت انسانی به کار گرفته شوند، تصور اینکه چگونه ممکن است خطاها رخ دهند دشوار نیست.
یکی از مسائل اصلی که استفاده از هوش مصنوعی در جنگ برجسته میکند این است که بین آنچه سیستمهای مجهز به هوش مصنوعی میتوانند انجام دهند و رویهها یا قوانین مربوط به نحوه استفاده انسانها از آن سیستمها تفاوت وجود دارد.
چه کارهایی میتوان بهتر انجام داد؟
جنگ ایران نشان میدهد که ابزارهای هوش مصنوعی به طور فزایندهای در درگیریهای مسلحانه استفاده خواهند شد. در حالی که قوانین جنگ برای همه درگیریها اعمال میشود، بحث فزایندهای وجود دارد که آیا هوش مصنوعی ابعاد جدیدی را معرفی میکند که به قوانین اضافی نیاز دارد. به عنوان مثال، نگرانیهایی در مورد کاهش فضای قضاوت انسانی لازم برای تعیین انطباق با حقوق بینالملل بشردوستانه توسط هوش مصنوعی مطرح شده است.
ایجاد یک چارچوب بینالمللی الزامآور در کوتاهمدت بعید است. با این حال، ارتشها به نفع خودشان است که قوانینی برای استفاده از هوش مصنوعی تدوین کنند. این امر به آنها کمک میکند تا خطر اتکای بیش از حد به هدفگیری با حمایت هوش مصنوعی را کاهش دهند، که میتواند خطاهایی را که منجر به هدف قرار گرفتن اشتباه و تلفات غیرنظامی میشود، کم کند.
تدوین این قوانین میتواند شامل ایجاد یک درک مشترک بین دولتها، ارتشها، شرکتهای فناوری، دانشگاهها و جامعه مدنی در مورد چگونگی تقویت همکاری انسان و ماشین – یا اینکه چگونه انسانها و سیستمهای هوش مصنوعی میتوانند با یکدیگر تعامل کنند تا هر یک آنچه را که در آن بهتر هستند ارائه دهند – باشد. همچنین باید به چگونگی نظارت بر نقصهای مبتنی بر هوش مصنوعی و تقویت بهبود سیستم در محیطهای پیچیده توجه شود.
مصوبه سازمان ملل متحد در دسامبر ۲۰۲۵، قطعنامه «هوش مصنوعی در حوزه نظامی و پیامدهای آن برای صلح و امنیت بینالمللی»، گامی در مسیر صحیح است. این قطعنامه بحثهای چندجانبه و چند ذینفعی را تشویق میکند؛ یک نشست سه روزه چند ذینفعی که برای ژوئن ۲۰۲۶ برنامهریزی شده است، فرصتی برای تبادل غیررسمی و مشاوره در مورد استفاده از هوش مصنوعی در درگیریهای مسلحانه فراهم خواهد کرد.
این بحثها مسیرهایی برای اعتمادسازی فراهم میکنند و میتوانند راه را برای بهترین شیوههای مشترک هموار کنند. بدون این، خطرات بالقوه استفاده از هوش مصنوعی در درگیریها جدی خواهد بود.