اعتبار: Pavel Danilyuk از Pexels
اعتبار: Pavel Danilyuk از Pexels

باور به هوش مصنوعی به عنوان یک 'ماشین بزرگ' می‌تواند واکنش‌ها به بحران امنیت ملی را تضعیف کند، یافته‌های تحقیق جدید

هوش مصنوعی (Artificial Intelligence) که برای تأثیرگذاری بر تصمیمات ما طراحی شده، همه‌جا وجود دارد—در جستجوهای گوگل (Google)، در پیشنهادهای خرید آنلاین و در توصیه‌های پخش فیلم. اما چگونه بر تصمیم‌گیری در لحظات بحرانی تأثیر می‌گذارد؟

کریستوفر وایت (Christopher Whyte)، محقق دانشگاه ویرجینیا کامنولث، بررسی کرد که چگونه متخصصان مدیریت اضطراری و امنیت ملی در طول حملات شبیه‌سازی‌شده هوش مصنوعی واکنش نشان دادند.

نتایج، که در مجله امنیت داخلی و مدیریت اضطراری منتشر شده‌اند، نشان می‌دهد که متخصصان در مواجهه با تهدیدهای کاملاً ناشی از هوش مصنوعی، نسبت به زمانی که با تهدیدهای هکرهای انسانی یا هکرهایی که فقط توسط هوش مصنوی کمک می‌شدند، مرددتر و نسبت به توانایی‌های خود دچار تردید بودند.

او گفت: «این نتایج نشان می‌دهد که هوش مصنوعی نقش مهمی در سوق دادن شرکت‌کنندگان به سمت مرددتر و محتاط‌تر شدن دارد، مگر در شرایط نسبتاً محدود.»

این شرایط محدود برای وایت، دانشیار دانشکده دولت و امور عمومی ال. داگلاس وایلدر (L. Douglas Wilder) دانشگاه ویرجینیا کامنولث، بیشترین نگرانی را دارد.

سازمان‌های امنیت ملی برنامه‌های آموزشی خود را به گونه‌ای طراحی می‌کنند که در لحظات عدم اطمینان از تردید کاسته شود. در حالی که اکثر قریب به اتفاق ۷۰۰ متخصص آمریکایی و اروپایی در این مطالعه فکر می‌کردند که هوش مصنوعی می‌تواند توانایی‌های انسانی را افزایش دهد، گروه کوچکی معتقد بودند که هوش مصنوعی می‌تواند در نهایت به طور کامل جایگزین حرفه آنها و تخصص انسانی به طور کلی شود. آن گروه با بی‌احتیاطی به تهدید مبتنی بر هوش مصنوعی واکنش نشان دادند، ریسک‌ها را پذیرفتند و با عجله به جلو رفتند.

وایت گفت: «اینها افرادی هستند که معتقدند تمامیت کاری که انجام می‌دهند—ماموریت حرفه‌ای آنها و ماموریت سازمانی که از آن حمایت می‌کنند—می‌تواند توسط هوش مصنوعی تصرف شود.»

هوش مصنوعی: 'ماشین بزرگ' بعدی

وایت نظریه‌ای برای چرایی این موضوع دارد.

نظریه بی‌اعتبار "مرد بزرگ" پیشنهاد می‌کند که مسیر تاریخ عمدتاً توسط چهره‌های سیاسی قوی شکل گرفته است، در حالی که مورخان مدرن اعتبار بیشتری به جنبش‌های مردمی می‌دهند. اکنون، وایت پیشنهاد می‌کند که تاریخ همچنین توسط اختراعات فناورانه دگرگون‌کننده، مانند تلگراف یا ، و ایمان نابجا به قدرت آنها شکل گرفته است—چیزی که او آن را نظریه "ماشین بزرگ" نامیده است.

اما برخلاف نظریه "مرد بزرگ"، وایت گفت، "ماشین‌های بزرگ" یک نیروی مشترک و اجتماعی هستند که می‌توانند برای منفعت جامعه—یا برای ضرر آن—به کار گرفته شوند.

وایت گفت: «به عنوان مثال، در اواسط دهه ۱۹۳۰، ما می‌دانستیم که امواج رادیویی پتانسیل زیادی برای بسیاری از چیزها دارند. اما یکی از ایده‌های اولیه برای پرتوهای مرگ بود—می‌توانستید مغز خود را سرخ کنید و غیره.»

پرتوهای مرگ مورد توجه قرار گرفتند و الهام‌بخش داستان‌های علمی تخیلی و تلاش‌های واقعی برای ساخت آنها در طول جنگ جهانی اول و دوره بین دو جنگ شدند. تا چند سال قبل از جنگ جهانی دوم بود که دانشمندان شروع به ساختن چیزی کاربردی با امواج رادیویی کردند: رادار.

وایت گفت، جامعه در حال حاضر با همان مشکل در مورد هوش مصنوعی (AI) روبرو است، که او آن را یک فناوری "عمومی‌منظوره" می‌نامد که می‌تواند به جامعه کمک کند یا به آن آسیب برساند. این فناوری قبلاً به طور چشمگیری نحوه تفکر برخی از مردم در مورد جهان و جایگاه خود در آن را تغییر داده است.

او گفت: «این کار بسیاری از کارهای مختلف را انجام می‌دهد که شما واقعاً این حوزه نوظهور ذهنیت‌های جایگزینی را دارید. به این معنا که دنیای فردا کاملاً متفاوت به نظر خواهد رسید و جایگاه من در آن به سادگی وجود نخواهد داشت زیرا [هوش مصنوعی] اساساً همه چیز را تغییر خواهد داد.»

این طرز فکر می‌تواند برای متخصصان امنیت ملی مشکلاتی ایجاد کند، زیرا این فناوری جدید نحوه تفکر آنها در مورد توانایی‌های خود را برهم می‌زند و نحوه واکنش آنها به شرایط اضطراری را تغییر می‌دهد.

وایت گفت: «این نوعی وضعیت روانی است که متأسفانه در نهایت مجبور می‌شویم دفترچه راهنما را در مورد آنچه می‌دانیم برای مبارزه با تعصب یا عدم اطمینان استفاده می‌شود، دور بیندازیم.»

مبارزه با تهدیدهای سطح 'اسکای‌نت'

برای بررسی چگونگی تأثیر هوش مصنوعی بر توانایی‌های تصمیم‌گیری متخصصان، وایت نزدیک به ۷۰۰ متخصص و امنیت داخلی از ایالات متحده، آلمان، انگلستان و اسلوونی را برای شرکت در یک بازی شبیه‌سازی استخدام کرد.

در طول این آزمایش، متخصصان با یک تهدید معمولی امنیت ملی روبرو شدند: یک دولت خارجی در انتخابات کشورشان دخالت می‌کند. سپس آنها به یکی از سه سناریو اختصاص داده شدند: یک سناریوی کنترل، جایی که تهدید فقط شامل هکرهای انسانی می‌شد. سناریویی با دخالت سبک و "تاکتیکی" هوش مصنوعی، جایی که هکرها توسط هوش مصنوعی کمک می‌شدند. و سناریویی با سطوح سنگین دخالت هوش مصنوعی، جایی که به شرکت‌کنندگان گفته شد که این تهدید توسط یک برنامه هوش مصنوعی "استراتژیک" سازماندهی شده است.

هنگامی که متخصصان با یک تهدید مبتنی بر هوش مصنوعی استراتژیک روبرو شدند—چیزی که وایت آن را یک تهدید در سطح "اسکای‌نت" می‌نامد و به مجموعه فیلم‌های "ترمیناتور" اشاره دارد—تمایل داشتند به آموزش‌های خود شک کنند و در عمل مردد بودند. آنها همچنین بیشتر از همکاران خود در دو گروه دیگر، که عموماً طبق آموزش‌های خود به این وضعیت واکنش نشان می‌دادند، درخواست اطلاعات اطلاعاتی اضافی می‌کردند.

در مقابل، شرکت‌کنندگانی که به هوش مصنوعی به عنوان یک "ماشین بزرگ" فکر می‌کردند که می‌تواند به طور کامل جایگزین آنها شود، بدون هیچ محدودیتی عمل کردند و تصمیماتی گرفتند که با آموزش‌های آنها مغایرت داشت.

و در حالی که تجربه و تحصیلات به تعدیل نحوه واکنش متخصصان به حملات با کمک هوش مصنوعی کمک کرد، اما بر نحوه واکنش متخصصان به تهدید سطح "اسکای‌نت" تأثیری نگذاشت. وایت گفت، این می‌تواند با رایج‌تر شدن حملات هوش مصنوعی ایجاد کند.

وایت گفت: «مردم دیدگاه‌های متفاوتی در مورد این دارند که آیا هوش مصنوعی در مورد تقویت است یا اینکه واقعاً چیزی است که قرار است جایگزین آنها شود. و این به طور معناداری نحوه واکنش مردم در یک بحران را تغییر می‌دهد.»

اطلاعات بیشتر: کریستوفر وایت، هوش مصنوعی و مشکل "ماشین بزرگ": اجتناب از ساده‌سازی بیش از حد فناوری در امنیت داخلی و مدیریت اضطراری، مجله امنیت داخلی و مدیریت اضطراری (2025). DOI: 10.1515/jhsem-2024-0030

تهیه شده توسط دانشگاه ویرجینیا کامنولث

ارجاع: باور به هوش مصنوعی به عنوان یک 'ماشین بزرگ' می‌تواند واکنش‌ها به بحران امنیت ملی را تضعیف کند، یافته‌های تحقیق جدید (2025، 19 مارس) بازیابی شده در 20 مارس 2025 از https://techxplore.com/news/2025-03-belief-ai-great-machine-weaken.html