تصویر بنر مربوط به فناوری نظامی مجهز به هوش مصنوعی در خاورمیانه
تصویر بنر مربوط به فناوری نظامی مجهز به هوش مصنوعی در خاورمیانه

گسترش فناوری نظامی مجهز به هوش مصنوعی در خاورمیانه

سرمایه‌گذاری ارتش‌ها در فناوری نظامی مبتنی بر هوش مصنوعی، نیاز به مقررات‌گذاری بیشتر برای حفظ قدرت حقوق بین‌الملل بشردوستانه و حمایت از غیرنظامیان و همچنین ناتوانی چارچوب‌های حاکمیتی موجود در مدیریت ارائه‌دهندگان تجاری را برجسته می‌کند.

جنگ اسرائیل و حماس در ماه مه ۲۰۲۱ در مطبوعات اسرائیل به عنوان «اولین جنگ هوش مصنوعی جهان» توصیف شد که تعدادی از سامانه‌های جدید هوش مصنوعی (AI) را در فناوری‌های نظامی، از فرآیندهای جدید شناسایی هدف تا تسلیحات پیشرفته، ادغام کرده بود. از آن زمان، ادغام هوش مصنوعی در فناوری‌های نظامی با جهش‌های بزرگی پیشرفت کرده است و کشورهای منطقه به دنبال این هستند که هوش مصنوعی را بخشی از معماری نظامی خود قرار دهند. بخش زیادی از این امر شامل همکاری با نهادهای تجاری، از استارت‌آپ‌های اسرائیلی گرفته تا شرکت‌های بزرگ فناوری مانند آمازون (Amazon)، گوگل (Google) و مایکروسافت (Microsoft) بوده است. از آنجایی که این نهادها تمایل به دور زدن تعهدات خودخوانده حقوق بشری و وظایف بررسی دقیق خود را نشان داده‌اند، برای حفاظت از جان و زیرساخت‌های غیرنظامیان در طول درگیری‌های مسلحانه، به مقررات‌گذاری بیشتری نیاز خواهد بود.

نمودار نشان‌دهنده پذیرش هوش مصنوعی در ارتش‌های منطقه‌ای.
نمودار نشان‌دهنده پذیرش هوش مصنوعی در ارتش‌های منطقه‌ای.

گسترش استفاده نظامی از هوش مصنوعی

اسرائیل به عنوان بازیگری با بیشترین دسترسی به این فناوری، پیشرو در استقرار فناوری‌های نظامی مجهز به هوش مصنوعی در منطقه است که اغلب با پیامدهای ویرانگر همراه بوده است. این کشور اولین بار در مقیاس قابل توجهی در جنگ مه ۲۰۲۱ این کار را انجام داد، اما استفاده از این فناوری‌ها از ۷ اکتبر ۲۰۲۳ به طور تصاعدی افزایش یافته است. در چند هفته اول جنگ غزه، گزارش شده است که «لَوَندِر» (Lavender)، یک سیستم پشتیبانی تصمیم‌گیری (DSS) مبتنی بر هوش مصنوعی، برای تولید لیستی از ۳۷۰۰۰ هدف فردی استفاده شده است.

اسرائیل سرمایه‌گذاری سنگینی در ادغام هوش مصنوعی در سراسر ارتش خود انجام داده است، از تأسیس اداره هوش مصنوعی و خودمختاری در اداره پژوهش و توسعه دفاعی وزارت دفاع گرفته تا توانمندسازی واحد نخبه اطلاعات سیگنالی ۸۲۰۰ برای توسعه برخی از ابزارهای هوش مصنوعی نیروهای دفاعی اسرائیل (IDF). در حالی که هوش مصنوعی برای بهبود ردیابی هدف و نرخ کشتار در سامانه‌های تسلیحاتی ادغام شده است، مانند مورد سایت اپتیک SMASH شرکت Smart Shooter، مهمترین نوآوری‌های اسرائیل در توسعه DSS های مبتنی بر هوش مصنوعی بوده است. نمونه‌هایی از DSS های هوش مصنوعی اسرائیل شامل «لَوَندِر» (Lavender) است که افراد را برای اهداف هدف‌گیری بر اساس وابستگی مشکوک به گروه‌های مسلح ارزیابی می‌کند؛ «انجیل» (The Gospel یا Habsora) که لیست‌های هدف را تولید می‌کند؛ و «بابا کجاست؟» (Where’s Daddy?) که مکان افراد را پیش از حملات احتمالی ردیابی می‌کند. اگرچه ادغام هوش مصنوعی در DSS به ارتش‌ها امکان می‌دهد داده‌ها را سریعتر تجزیه و تحلیل کرده و چرخه‌های تصمیم‌گیری را تسریع بخشند، اما خطر خطاها را به دلیل تولید اهداف با سرعتی بیش از حد بالا برای تأیید مؤثر انسانی، و به دلیل خطر بالای سوگیری سازمانی به سمت ارزیابی‌های هوش مصنوعی به جای ارزیابی‌های انسانی، افزایش می‌دهد.

ایالات متحده نیز این فناوری‌ها را در سراسر منطقه مستقر می‌کند. به ویژه، وزارت جنگ ایالات متحده از DSS های هوش مصنوعی برای شناسایی اهداف در سراسر ایران، عراق، سوریه و یمن استفاده کرده است. اخیراً، «عملیات خشم حماسی» (Operation Epic Fury) در عرض ۲۴ ساعت ۱۰۰۰ هدف را در ایران مورد اصابت قرار داد. عامل کلیدی در مقیاس و انتخاب سریع اهداف، استفاده ارتش ایالات متحده از «سامانه هوشمند مِیون» (Maven Smart System) شرکت پالانتیر (Palantir) بوده است که «کلود» (Claude) هوش مصنوعی شرکت Anthropic را نیز برای تجزیه و تحلیل داده‌های نظارتی، ایجاد لیست‌های هدف‌گیری و امکان اولویت‌بندی اهداف ادغام می‌کند. بسیاری از اهداف مورد اصابت در ایران غیرنظامی بوده‌اند، از جمله یک مدرسه و تأسیسات درمانی و مسکونی، که خطرات تولید سریع هدف را نشان می‌دهد. ایران نیز به نوبه خود، مراکز داده AWS را در امارات متحده عربی و بحرین هدف قرار داده است تا «نقش این مراکز را در حمایت از فعالیت‌های نظامی و اطلاعاتی دشمن» شناسایی کند، که احتمالاً اشاره‌ای به میزبانی پلتفرم هوش مصنوعی پالانتیر، که هوش مصنوعی «کلود» (Claude) شرکت Anthropic را نیز ادغام می‌کند، بر روی سرورهای AWS است.

نرم‌افزار تشخیص چهره یکی دیگر از موارد استفاده عمده است. به عنوان مثال، اسرائیل برنامه‌های گسترده تشخیص چهره را هم در غزه و هم در کرانه باختری به اجرا درآورده است. در کرانه باختری، ارتش اسرائیل از مجموعه‌ای از سیستم‌ها استفاده می‌کند که به پایگاه داده‌ای به نام «گروه گرگ» (Wolf Pack) دسترسی دارند و اطلاعاتی درباره فلسطینیان را ذخیره می‌کنند. «گرگ سرخ» (Red Wolf)، که در ایست‌های بازرسی نصب شده است، و «گرگ آبی» (Blue Wolf)، که روی تلفن‌های هوشمند سربازان اسرائیلی نصب شده است، به طور خودکار داده‌های بیومتریک فلسطینیان را در Wolf Pack ثبت می‌کنند که پروفایل‌های اطلاعاتی از فلسطینیان ایجاد کرده و آنها را با آژانس امنیت داخلی اسرائیل، شین بت (Shin Bet)، به اشتراک می‌گذارد. چنین برنامه‌های گسترده و غیرداوطلبانه تشخیص چهره، از حمایت‌های حقوق بین‌الملل بشر (IHRL)، از جمله حق حفظ حریم خصوصی (ماده ۱۷، میثاق بین‌المللی حقوق مدنی و سیاسی)، تخلف می‌کند.

بازیگران منطقه‌ای دیگر در تلاش برای جبران عقب‌ماندگی هستند. سید علی خامنه‌ای، رهبر سابق ایران، از این کشور خواسته بود تا «بر هوش مصنوعی مسلط شود»، اگرچه جزئیات پیشرفت ایران به طور مستقل قابل تأیید نیست. در حالی که امارات متحده عربی هنوز سیستم‌های هوش مصنوعی قابل توجهی ندارد، شرکت دفاعی دولتی EDGE در حال خرید ۳۰ درصد از سهام شرکت اسرائیلی Thirdeye Systems (تشخیص پهپاد با هوش مصنوعی) است و در حال راه‌اندازی یک سرمایه‌گذاری مشترک با تولیدکننده تسلیحات آمریکایی Anduril برای تولید مشترک پهپادهایی با قابلیت‌های پیشرفته هوش مصنوعی است. تولیدکنندگان تسلیحات ترکیه، STM و Baykar Defense، در زمینه پهپادهای مجهز به نرم‌افزار پردازش تصویر هوش مصنوعی پیشگام بوده‌اند؛ گزارش شده است که پهپاد «کارگو» (Kargu) از شرکت STM در سال ۲۰۲۰ با نیروهای ژنرال خلیفه حفتر در لیبی درگیر شده است.

نمودار نشان‌دهنده فنوسفر (technosphere) هوش مصنوعی و ارائه‌دهندگان تجاری.
نمودار نشان‌دهنده فنوسفر (technosphere) هوش مصنوعی و ارائه‌دهندگان تجاری.

توانمندسازان تجاری

زیربنای این فناوری‌ها یک شبکه وسیع و پیچیده از ارائه‌دهندگان تجاری است. برخی از این شرکت‌ها دارای هدف صریح امنیت ملی هستند، مانند پالانتیر (Palantir) در ایالات متحده و Corsight AI در اسرائیل. اسرائیل و پالانتیر در سال ۲۰۲۴ یک همکاری استراتژیک امضا کردند تا «از فناوری پیشرفته پالانتیر در حمایت از مأموریت‌های مرتبط با جنگ بهره‌برداری کنند».

با این حال، بسیاری دیگر از ارائه‌دهندگان تجاری، قابلیت‌های هوش مصنوعی خود را برای عملکرد امنیتی یا نظامی خاص آموزش نداده‌اند. شرکت‌های بزرگ فناوری مانند آمازون (Amazon)، Anthropic، گوگل (Google)، مایکروسافت (Microsoft) و OpenAI محصولات هوش مصنوعی را به وزارتخانه‌های دفاع مختلف، از جمله ایالات متحده و اسرائیل، ارائه کرده‌اند. یک پیش‌نویس قرارداد مربوط به سال ۲۰۲۴ بین گوگل و وزارت دفاع اسرائیل، بر منطقه فرود (landing zone) انحصاری قبلی وزارتخانه برای دسترسی به زیرساخت‌های ابری، و برنامه‌های جدید برای ایجاد مناطق فرود خاص برای واحدهای نظامی، تأکید کرد.

بر اساس شرایط پروژه «نیمبوس» (Project Nimbus)، صنایع هوافضای اسرائیل (Israel Aerospace Industries) و صنایع دفاعی رافائل (Rafael Defence Industries) که هر دو دولتی هستند، ملزم به استفاده از خدمات ابری ارائه شده توسط آمازون و گوگل برای نیازهای محاسبات ابری خود هستند. از آنجایی که اسرائیل متهم به ارتکاب جنایات جنگی، جنایات علیه بشریت و نسل‌کشی در هر دو دادگاه کیفری بین‌المللی (International Criminal Court) و دیوان بین‌المللی دادگستری (International Court of Justice) است، همکاری عمیق‌تر آن با ارائه‌دهندگان تجاری می‌تواند بالقوه آنها را در معرض مسئولیت‌پذیری تحت هر دو چارچوب قوانین داخلی و بین‌المللی قرار دهد.

نمودار نشان‌دهنده چالش‌های حاکمیت شرکتی در توسعه هوش مصنوعی.
نمودار نشان‌دهنده چالش‌های حاکمیت شرکتی در توسعه هوش مصنوعی.

یک چارچوب نظارتی ناقص

حقوق بین‌الملل استفاده‌های مجاز و ممنوع از زور – از جمله مواردی که شامل استفاده از فناوری نظامی مجهز به هوش مصنوعی است – را از طریق حقوق بین‌الملل بشردوستانه (IHL) و حمایت‌های مرتبط با حقوق بین‌الملل بشر (IHRL) تنظیم می‌کند. اصول کلیدی شامل تمایز غیرنظامی-نظامی است که بین غیرنظامیان و مبارزان تمایز قائل می‌شود و هدف‌گیری مستقیم غیرنظامیان و اهداف غیرنظامی را ممنوع می‌کند (مواد ۴۸ و ۵۲، پروتکل اول الحاقی؛ حقوق بین‌الملل عرفی که در نظر مشورتی تسلیحات هسته‌ای تأیید شده است)؛ تناسب، که ارتکاب خسارت بیش از حد به غیرنظامیان را ممنوع می‌کند؛ ضرورت نظامی، که نیروی نظامی را محدود می‌کند؛ و حق حریم خصوصی.

در حالی که چارچوب‌های حکمرانی حقوق بین‌الملل بشردوستانه خطاب به بازیگران در سطح دولتی هستند و آنها را ملزم می‌کنند، دولت‌ها می‌توانند با اجرای این مقررات در چارچوب‌های قانونی داخلی خود و تکیه بر اصل صلاحیت جهانی برای جنایات بین‌المللی، تعهداتی را برای نهادهای تجاری ایجاد و اجرا کنند. سوئد یکی از حوزه‌های قضایی است که به این شیوه مسئولیت کیفری شرکتی را ممکن می‌سازد، و در حال حاضر محاکمه دو مدیر اجرایی سابق انرژی به اتهام کمک و معاونت در جنایات جنگی در سودان در جریان است.

با این حال، هیچ مقررات بین‌المللی الزام‌آوری برای پوشش خطرات و کاربردهای خاص فناوری‌های نظامی مجهز به هوش مصنوعی وجود ندارد. در عوض، مجموعه‌ای از اعلامیه‌ها و قطعنامه‌ها به برخی از جنبه‌های پیوند هوش مصنوعی و نظامی می‌پردازند. قطعنامه ۷۹/۲۳۹ مجمع عمومی سازمان ملل متحد در مورد فناوری نظامی هوش مصنوعی تأیید کرد که سیستم‌های نظامی مجهز به هوش مصنوعی تحت حاکمیت حقوق بین‌الملل بشردوستانه و حقوق بین‌الملل بشر هستند. «اعلامیه بلچلی» (Bletchley Declaration)، که در نوامبر ۲۰۲۳ توسط ۲۸ کشور امضا شد، خواستار نوآوری مسئولانه بر اساس همکاری بین‌المللی شد. «اعلامیه سیاسی ایالات متحده در مورد استفاده مسئولانه نظامی از هوش مصنوعی و خودمختاری»، که توسط ۵۸ کشور تأیید شد، خواستار انطباق استفاده‌های نظامی از هوش مصنوعی با قوانین بین‌المللی، نظارت انسانی بر استفاده از هوش مصنوعی و اقدامات دولت‌ها برای به حداقل رساندن سوگیری‌های ناخواسته شد. با این حال، ماهیت غیرالزام‌آور این اسناد، اثربخشی آنها را در اعمال محدودیت‌های قانونی و اخلاقی بر استفاده از فناوری‌های نظامی مجهز به هوش مصنوعی محدود می‌کند.

بسیاری از ارائه‌دهندگان تجاری هوش مصنوعی صراحتاً به اصول راهنمای سازمان ملل متحد در مورد کسب و کار و حقوق بشر در سیاست‌های حقوق بشری خود اشاره می‌کنند. این اصول بیان می‌کنند که بنگاه‌های تجاری باید «خطر ایجاد یا مشارکت در نقض فاحش حقوق بشر را به عنوان یک مسئله انطباق قانونی تلقی کنند» (اصل ۲۳(ج))، با اشاره به مسئولیت مدنی و کیفری بالقوه در صورت عدم رعایت آن. در حالی که این اصول الزام‌آور قانونی نیستند، ادغام آنها در سیاست‌های حقوق بشری شرکت‌ها، تعهدات داخلی را ایجاد می‌کند که از ارائه‌دهندگان تجاری انتظار می‌رود آنها را رعایت کنند.

وظایف بررسی دقیق زنجیره تأمین در حوزه‌های قضایی داخلی، یکی از راه‌هایی است که از طریق آن نهادهای تجاری ممکن است تحت پیگرد قضایی قرار گیرند. شورای ایرلند برای آزادی‌های مدنی، یک سازمان غیردولتی حقوق بشر، درخواست کرده است که کمیسیون حفاظت از داده‌های ایرلند شکایت آن را در مورد پردازش داده‌های نظارت گسترده فلسطینیان توسط مایکروسافت به نمایندگی از اسرائیل بررسی کند. دعوا می‌تواند در آینده به ارائه‌دهندگان تجاری هوش مصنوعی گسترش یابد. به همین منظور، مجموعه‌ای از گروه‌های مدافع حقوقی اخیراً به مایکروسافت اطلاع دادند که «اساس معتبری» وجود دارد که نشان می‌دهد این شرکت – از طریق ارائه خدمات خود به اسرائیل – «نقش مستقیمی در ارتکاب جنایات فاحش اسرائیل علیه جمعیت فلسطینی غزه ایفا کرده است»، و مایکروسافت را در معرض مسئولیت مدنی و کیفری در سطح بین‌المللی و داخلی قرار می‌دهد.

به دنبال گزارش‌های تحقیقی در مورد استفاده اسرائیل از سرورهای مایکروسافت آژور (Microsoft Azure) برای میزبانی داده‌های نظارت گسترده بر فلسطینیان، یک تحقیق خارجی نشان داد که واحد ۸۲۰۰ با ذخیره داده‌های نظارت گسترده، از جمله تماس‌های رهگیری شده، برخلاف حقوق بین‌الملل بشر، شرایط خدمات مایکروسافت را نقض کرده است. در حالی که مایکروسافت دسترسی واحد ۸۲۰۰ را قطع کرده است، بسیاری از نهادهای اسرائیلی دیگر دسترسی خود را به خدمات مایکروسافت حفظ می‌کنند. گروهی از سهامداران مایکروسافت نیز پیشنهادی ارائه کردند تا قدرت رویه‌های بررسی دقیق حقوق بشری مایکروسافت در رابطه با استفاده اسرائیل از فناوری‌های مایکروسافت را بررسی کنند، هرچند که موفق به تصویب نشد.

شرکت‌های فناوری از روش‌های مختلفی برای دور زدن مکانیسم‌های حاکمیت شرکتی استفاده می‌کنند. برای مثال، OpenAI و گوگل بی‌سر و صدا شرایط استفاده خود را تغییر داده‌اند تا معافیت‌های «امنیت ملی» را اضافه کرده و تعهداتی که مشتریانشان را از استفاده هوش مصنوعی برای تسلیحات و اهداف نظارتی منع می‌کرد، حذف کنند. در همین حال، گزارشگران تحقیقی که شرایط قرارداد ۱.۲ میلیارد دلاری پروژه «نیمبوس» (Project Nimbus) گوگل و آمازون با اسرائیل را بررسی کردند، نشان دادند که این قرارداد شامل شرایطی است که توانایی گوگل و آمازون را برای محدود کردن استفاده مقامات دولتی اسرائیل از فناوری‌هایشان محدود می‌کند، و طبق گزارش‌ها این توافق شامل بندی است که آمازون و گوگل را از تعلیق دسترسی اسرائیل در صورت نقض شرایط خدماتشان توسط اسرائیل، منع می‌کند. گزارش شده است که پروژه نیمبوس همچنین شامل مقرراتی برای ایجاد یک «مکانیزم چشمک‌زن» مخفی است که در آن آمازون و گوگل متعهد می‌شوند که به طور پنهانی به اسرائیل اطلاع دهند که کشور سومی به هر یک از این دو شرکت دستور داده است تا داده‌های اسرائیلی را تحویل دهند. آمازون و گوگل هر دو این ادعاها را تکذیب کرده‌اند.

چشم‌انداز

انتظار می‌رود فناوری‌های نظامی مجهز به هوش مصنوعی در میدان‌های نبرد خاورمیانه به گسترش خود ادامه دهند و میزان خسارات وارد شده به غیرنظامیان و اهداف غیرنظامی را افزایش داده و بحران‌های بشردوستانه را تشدید کنند. بسیاری از این فناوری‌ها همچنین خارج از مناطق درگیری برای اهداف پلیس‌گری پیش‌بینانه (predictive policing) و نظارت عمومی گسترده به کار گرفته می‌شوند و نقض‌های احتمالی حقوق بین‌الملل بشر را جهانی می‌کنند. در غیاب پاسخگویی کافی، خاورمیانه به صحنه آزمایشی برای فناوری نظامی مجهز به هوش مصنوعی تبدیل شده است که سپس به صورت «آزمایش‌شده در نبرد» به صورت بین‌المللی به بازار عرضه می‌شود.