تصویر — یک تصویر ماهواره‌ای وانتور (Vantor) نمای کلی ساختمان مدرسه ابتدایی شجره طیبه و پایگاه مجاور سپاه پاسداران انقلاب اسلامی در میناب، ایران را نشان می‌دهد. تصویر ماهواره‌ای (حق چاپ) ۲۰۲۶ وانتور از طریق گتی‌ایمیجز.
تصویر — یک تصویر ماهواره‌ای وانتور (Vantor) نمای کلی ساختمان مدرسه ابتدایی شجره طیبه و پایگاه مجاور سپاه پاسداران انقلاب اسلامی در میناب، ایران را نشان می‌دهد. تصویر ماهواره‌ای (حق چاپ) ۲۰۲۶ وانتور از طریق گتی‌ایمیجز.

جنگ ایران کاربرد فزاینده هوش مصنوعی در جنگ را برجسته می‌کند

جنگ آمریکا و اسرائیل با ایران، نگرانی‌های دیرینه‌ای را در مورد به‌کارگیری هدف‌گیری مبتنی بر هوش مصنوعی در جنگ تشدید کرده است.

این نگرانی‌ها پس از حمله ۲۸ فوریه به مدرسه دخترانه شجره طیبه در میناب، جنوب ایران، که به گفته ایران حداقل ۱۶۸ نفر، که اکثرشان دانش‌آموز بودند، کشته شدند، برجسته شد.

دولت ترامپ در ابتدا ایران را مسئول این حمله دانست، اگرچه هیچ مدرکی ارائه نکرد. آمریکا می‌گوید در حال حاضر در حال تحقیق در مورد این بمباران است. واشنگتن پست گزارش داده است که این مدرسه در لیست اهداف آمریکا قرار داشته است.

سناتورهای دموکرات آمریکا نامه‌ای به وزیر جنگ، پیت هگسث، نوشته‌اند و اطلاعاتی در مورد این حمله، از جمله شفاف‌سازی در مورد هرگونه استفاده از هوش مصنوعی در انتخاب اهداف، درخواست کرده‌اند. تاکنون هیچ تأییدی مبنی بر استفاده از هوش مصنوعی در برنامه‌ریزی یا اجرای حمله به مدرسه وجود ندارد.

دریاسالار برد کوپر، فرمانده آمریکایی جنگ در ایران، استفاده از «انواع ابزارهای پیشرفته هوش مصنوعی» را برای غربالگری حجم عظیمی از داده‌ها در این درگیری تأیید کرده است، بدون اینکه ابزارهای خاصی را نام ببرد. او گفت که این ابزارها به رهبران اجازه می‌دهند «تصمیمات هوشمندانه‌تری را سریع‌تر از واکنش دشمن» بگیرند و فرآیندهایی که ساعت‌ها یا روزها طول می‌کشیدند را به ثانیه کاهش دهند. دریاسالار کوپر همچنین اظهار داشت: «انسان‌ها همیشه تصمیمات نهایی را در مورد اینکه چه چیزی را شلیک کنند و چه چیزی را شلیک نکنند، و چه زمانی شلیک کنند، خواهند گرفت.»

ایران اولین جنگی نیست که از سیستم‌های هوش مصنوعی استفاده می‌کند، اما این نشان می‌دهد که هدف‌گیری با حمایت هوش مصنوعی به یک هنجار در جنگ تبدیل شده است. در حالی که ارتش‌ها ممکن است از پتانسیل افزایش کارایی استقبال کنند، خطرات قابل توجهی باقی می‌ماند.

تصویری از هوش مصنوعی آنتروپیک در مقابل پنتاگون.
کار مرتبط: <a href="https://www.chathamhouse.org/2026/03/anthropics-feud-pentagon-reveals-limits-ai-governance">نزاع آنتروپیک با پنتاگون، محدودیت‌های حکمرانی هوش مصنوعی را آشکار می‌کند</a>

افزایش پذیرش نظامی

هوش مصنوعی امکان پردازش و تحلیل سریع اطلاعات از منابع مختلف و دسترسی به داده‌های قابل تنظیم را فراهم می‌کند. به‌کارگیری آن در حوزه نظامی پتانسیل افزایش آگاهی موقعیتی، تسهیل اشتراک‌گذاری اطلاعات در زمان واقعی و امکان تصمیم‌گیری آگاهانه‌تر در عملیات‌های نظامی را دارد.

انتشار بیانیه‌ای از سوی وزارت جنگ آمریکا در سال ۲۰۲۴ تشریح کرد که چگونه سیستم هوشمند ماون (Maven Smart System) که با هوش مصنوعی کار می‌کند، به سربازان خط مقدم در شناسایی و حمله به اهداف نظامی کمک می‌کند و در تأیید حملات توسط زنجیره فرماندهی یاری‌رسان است. ناتو نیز در سال ۲۰۲۵ نسخه‌ای از سیستم هوشمند ماون را از شرکت پالانتیر (Palantir) خریداری کرد. ارتش آمریکا اکنون گزارش شده است که از نسخه خود از ماون برای کمک به ارائه اطلاعات هدف‌گیری در عملیات‌های نظامی خود در ایران استفاده می‌کند. اما هنوز مشخص نیست که ماون و سایر ابزارهای هوش مصنوعی دقیقاً چگونه و تا چه حدی در ایران استفاده می‌شوند.

در جنگ اوکراین، هر دو طرف از هوش مصنوعی برای پردازش داده‌ها و انتخاب اهداف استفاده می‌کنند. معاون وزیر دفاع اوکراین سال گذشته گفت که هوش مصنوعی ماهانه بیش از ۵۰ هزار جریان ویدئویی از خط مقدم را تجزیه و تحلیل می‌کند، که به «پردازش سریع این حجم عظیم داده‌ها، شناسایی اهداف و قرار دادن آن‌ها روی نقشه» کمک می‌کند.

نیویورک تایمز گزارش داده است که اسرائیل از هوش مصنوعی به عنوان بخشی از فرآیند شناسایی اهداف احتمالی برای حملات هوایی علیه حماس در غزه استفاده کرده است. ارتش اسرائیل گفته است که «سیستم‌های اطلاعاتی تنها ابزارهایی برای تحلیلگران در فرآیند شناسایی هدف هستند.»

کاربردهای اضافی فناوری هوش مصنوعی در حوزه نظامی شامل آموزش پرسنل نظامی از طریق شبیه‌سازی‌های مجازی، زمان‌بندی خودکار تدارکات لجستیکی یا شناسایی نیازهای نگهداری تجهیزات از طریق سیستم‌های تشخیص تصویر است. اینها تنها برخی از کاربردهای بالقوه هستند.

نمای از بالای ساختمان پنتاگون آمریکا.
کار مرتبط: <a href="https://www.chathamhouse.org/2026/03/ai-wars-anthropic-battles-pentagon-china-plans-ahead-independent-thinking-podcast">جنگ‌های هوش مصنوعی: آنتروپیک با پنتاگون می‌جنگد در حالی که چین برنامه‌ریزی می‌کند. پادکست تفکر مستقل</a>

خطرات

بسیاری از کشورها مایلند در ابزارهایی سرمایه‌گذاری کنند که به آنها مزیتی نسبت به دشمنانشان بدهد، همسو با جستجوی عدم تقارن که در طول تاریخ جنگ‌ها ثابت بوده است. اما استفاده از هوش مصنوعی در محیط‌های پیچیده و پرخطر مانند درگیری‌های مسلحانه نیز با خطرات جدی همراه است.

بخشی از نگرانی مربوط به توسعه خود فناوری هوش مصنوعی و چگونگی تأثیر آن بر عملکرد سیستم است. به عنوان مثال، یک مدل هوش مصنوعی ممکن است با داده‌های ناقص یا با مطالبی آموزش دیده باشد که با آنچه در دنیای واقعی با آن مواجه می‌شود متفاوت است. این می‌تواند منجر به تولید اطلاعات نادرست یا اختلال در عملکرد آن خارج از محیط آموزشی شود.

مدل‌های زبان بزرگ هوش مصنوعی با پیش‌بینی دنباله‌ای از کلمات، بر اساس احتمال آماری کار می‌کنند – آنها احتمالاً اکثر اوقات درست پیش‌بینی می‌کنند، اما همیشه درست پیش‌بینی نخواهند کرد.

در عمل، این بدان معناست که اتخاذ تصمیمات بر اساس اطلاعات تولید شده توسط هوش مصنوعی حاوی عنصری از خطر و عدم دقت است.

تصمیمات هدف‌گیری با حمایت هوش مصنوعی یک نمونه بارز از موارد پرخطر است. اگر ابزارهای هوش مصنوعی به طور گسترده برای تولید اهداف با حداقل نظارت انسانی به کار گرفته شوند، تصور اینکه چگونه ممکن است خطاها رخ دهند دشوار نیست.

یکی از مسائل اصلی که استفاده از هوش مصنوعی در جنگ برجسته می‌کند این است که بین آنچه سیستم‌های مجهز به هوش مصنوعی می‌توانند انجام دهند و رویه‌ها یا قوانین مربوط به نحوه استفاده انسان‌ها از آن سیستم‌ها تفاوت وجود دارد.

چه کارهایی می‌توان بهتر انجام داد؟

جنگ ایران نشان می‌دهد که ابزارهای هوش مصنوعی به طور فزاینده‌ای در درگیری‌های مسلحانه استفاده خواهند شد. در حالی که قوانین جنگ برای همه درگیری‌ها اعمال می‌شود، بحث فزاینده‌ای وجود دارد که آیا هوش مصنوعی ابعاد جدیدی را معرفی می‌کند که به قوانین اضافی نیاز دارد. به عنوان مثال، نگرانی‌هایی در مورد کاهش فضای قضاوت انسانی لازم برای تعیین انطباق با حقوق بین‌الملل بشردوستانه توسط هوش مصنوعی مطرح شده است.

ایجاد یک چارچوب بین‌المللی الزام‌آور در کوتاه‌مدت بعید است. با این حال، ارتش‌ها به نفع خودشان است که قوانینی برای استفاده از هوش مصنوعی تدوین کنند. این امر به آنها کمک می‌کند تا خطر اتکای بیش از حد به هدف‌گیری با حمایت هوش مصنوعی را کاهش دهند، که می‌تواند خطاهایی را که منجر به هدف قرار گرفتن اشتباه و تلفات غیرنظامی می‌شود، کم کند.

تدوین این قوانین می‌تواند شامل ایجاد یک درک مشترک بین دولت‌ها، ارتش‌ها، شرکت‌های فناوری، دانشگاه‌ها و جامعه مدنی در مورد چگونگی تقویت همکاری انسان و ماشین – یا اینکه چگونه انسان‌ها و سیستم‌های هوش مصنوعی می‌توانند با یکدیگر تعامل کنند تا هر یک آنچه را که در آن بهتر هستند ارائه دهند – باشد. همچنین باید به چگونگی نظارت بر نقص‌های مبتنی بر هوش مصنوعی و تقویت بهبود سیستم در محیط‌های پیچیده توجه شود.

مصوبه سازمان ملل متحد در دسامبر ۲۰۲۵، قطعنامه «هوش مصنوعی در حوزه نظامی و پیامدهای آن برای صلح و امنیت بین‌المللی»، گامی در مسیر صحیح است. این قطعنامه بحث‌های چندجانبه و چند ذی‌نفعی را تشویق می‌کند؛ یک نشست سه روزه چند ذی‌نفعی که برای ژوئن ۲۰۲۶ برنامه‌ریزی شده است، فرصتی برای تبادل غیررسمی و مشاوره در مورد استفاده از هوش مصنوعی در درگیری‌های مسلحانه فراهم خواهد کرد.

این بحث‌ها مسیرهایی برای اعتمادسازی فراهم می‌کنند و می‌توانند راه را برای بهترین شیوه‌های مشترک هموار کنند. بدون این، خطرات بالقوه استفاده از هوش مصنوعی در درگیری‌ها جدی خواهد بود.