هوش مصنوعی (Artificial Intelligence) که برای تأثیرگذاری بر تصمیمات ما طراحی شده، همهجا وجود دارد—در جستجوهای گوگل (Google)، در پیشنهادهای خرید آنلاین و در توصیههای پخش فیلم. اما چگونه بر تصمیمگیری در لحظات بحرانی تأثیر میگذارد؟
کریستوفر وایت (Christopher Whyte)، محقق دانشگاه ویرجینیا کامنولث، بررسی کرد که چگونه متخصصان مدیریت اضطراری و امنیت ملی در طول حملات شبیهسازیشده هوش مصنوعی واکنش نشان دادند.
نتایج، که در مجله امنیت داخلی و مدیریت اضطراری منتشر شدهاند، نشان میدهد که متخصصان در مواجهه با تهدیدهای کاملاً ناشی از هوش مصنوعی، نسبت به زمانی که با تهدیدهای هکرهای انسانی یا هکرهایی که فقط توسط هوش مصنوی کمک میشدند، مرددتر و نسبت به تواناییهای خود دچار تردید بودند.
او گفت: «این نتایج نشان میدهد که هوش مصنوعی نقش مهمی در سوق دادن شرکتکنندگان به سمت مرددتر و محتاطتر شدن دارد، مگر در شرایط نسبتاً محدود.»
این شرایط محدود برای وایت، دانشیار دانشکده دولت و امور عمومی ال. داگلاس وایلدر (L. Douglas Wilder) دانشگاه ویرجینیا کامنولث، بیشترین نگرانی را دارد.
سازمانهای امنیت ملی برنامههای آموزشی خود را به گونهای طراحی میکنند که در لحظات عدم اطمینان از تردید کاسته شود. در حالی که اکثر قریب به اتفاق ۷۰۰ متخصص آمریکایی و اروپایی در این مطالعه فکر میکردند که هوش مصنوعی میتواند تواناییهای انسانی را افزایش دهد، گروه کوچکی معتقد بودند که هوش مصنوعی میتواند در نهایت به طور کامل جایگزین حرفه آنها و تخصص انسانی به طور کلی شود. آن گروه با بیاحتیاطی به تهدید مبتنی بر هوش مصنوعی واکنش نشان دادند، ریسکها را پذیرفتند و با عجله به جلو رفتند.
وایت گفت: «اینها افرادی هستند که معتقدند تمامیت کاری که انجام میدهند—ماموریت حرفهای آنها و ماموریت سازمانی که از آن حمایت میکنند—میتواند توسط هوش مصنوعی تصرف شود.»
هوش مصنوعی: 'ماشین بزرگ' بعدی
وایت نظریهای برای چرایی این موضوع دارد.
نظریه بیاعتبار "مرد بزرگ" پیشنهاد میکند که مسیر تاریخ عمدتاً توسط چهرههای سیاسی قوی شکل گرفته است، در حالی که مورخان مدرن اعتبار بیشتری به جنبشهای مردمی میدهند. اکنون، وایت پیشنهاد میکند که تاریخ همچنین توسط اختراعات فناورانه دگرگونکننده، مانند تلگراف یا امواج رادیویی، و ایمان نابجا به قدرت آنها شکل گرفته است—چیزی که او آن را نظریه "ماشین بزرگ" نامیده است.
اما برخلاف نظریه "مرد بزرگ"، وایت گفت، "ماشینهای بزرگ" یک نیروی مشترک و اجتماعی هستند که میتوانند برای منفعت جامعه—یا برای ضرر آن—به کار گرفته شوند.
وایت گفت: «به عنوان مثال، در اواسط دهه ۱۹۳۰، ما میدانستیم که امواج رادیویی پتانسیل زیادی برای بسیاری از چیزها دارند. اما یکی از ایدههای اولیه برای پرتوهای مرگ بود—میتوانستید مغز خود را سرخ کنید و غیره.»
پرتوهای مرگ مورد توجه قرار گرفتند و الهامبخش داستانهای علمی تخیلی و تلاشهای واقعی برای ساخت آنها در طول جنگ جهانی اول و دوره بین دو جنگ شدند. تا چند سال قبل از جنگ جهانی دوم بود که دانشمندان شروع به ساختن چیزی کاربردی با امواج رادیویی کردند: رادار.
وایت گفت، جامعه در حال حاضر با همان مشکل در مورد هوش مصنوعی (AI) روبرو است، که او آن را یک فناوری "عمومیمنظوره" مینامد که میتواند به جامعه کمک کند یا به آن آسیب برساند. این فناوری قبلاً به طور چشمگیری نحوه تفکر برخی از مردم در مورد جهان و جایگاه خود در آن را تغییر داده است.
او گفت: «این کار بسیاری از کارهای مختلف را انجام میدهد که شما واقعاً این حوزه نوظهور ذهنیتهای جایگزینی را دارید. به این معنا که دنیای فردا کاملاً متفاوت به نظر خواهد رسید و جایگاه من در آن به سادگی وجود نخواهد داشت زیرا [هوش مصنوعی] اساساً همه چیز را تغییر خواهد داد.»
این طرز فکر میتواند برای متخصصان امنیت ملی مشکلاتی ایجاد کند، زیرا این فناوری جدید نحوه تفکر آنها در مورد تواناییهای خود را برهم میزند و نحوه واکنش آنها به شرایط اضطراری را تغییر میدهد.
وایت گفت: «این نوعی وضعیت روانی است که متأسفانه در نهایت مجبور میشویم دفترچه راهنما را در مورد آنچه میدانیم برای مبارزه با تعصب یا عدم اطمینان استفاده میشود، دور بیندازیم.»
مبارزه با تهدیدهای سطح 'اسکاینت'
برای بررسی چگونگی تأثیر هوش مصنوعی بر تواناییهای تصمیمگیری متخصصان، وایت نزدیک به ۷۰۰ متخصص مدیریت اضطراری و امنیت داخلی از ایالات متحده، آلمان، انگلستان و اسلوونی را برای شرکت در یک بازی شبیهسازی استخدام کرد.
در طول این آزمایش، متخصصان با یک تهدید معمولی امنیت ملی روبرو شدند: یک دولت خارجی در انتخابات کشورشان دخالت میکند. سپس آنها به یکی از سه سناریو اختصاص داده شدند: یک سناریوی کنترل، جایی که تهدید فقط شامل هکرهای انسانی میشد. سناریویی با دخالت سبک و "تاکتیکی" هوش مصنوعی، جایی که هکرها توسط هوش مصنوعی کمک میشدند. و سناریویی با سطوح سنگین دخالت هوش مصنوعی، جایی که به شرکتکنندگان گفته شد که این تهدید توسط یک برنامه هوش مصنوعی "استراتژیک" سازماندهی شده است.
هنگامی که متخصصان با یک تهدید مبتنی بر هوش مصنوعی استراتژیک روبرو شدند—چیزی که وایت آن را یک تهدید در سطح "اسکاینت" مینامد و به مجموعه فیلمهای "ترمیناتور" اشاره دارد—تمایل داشتند به آموزشهای خود شک کنند و در عمل مردد بودند. آنها همچنین بیشتر از همکاران خود در دو گروه دیگر، که عموماً طبق آموزشهای خود به این وضعیت واکنش نشان میدادند، درخواست اطلاعات اطلاعاتی اضافی میکردند.
در مقابل، شرکتکنندگانی که به هوش مصنوعی به عنوان یک "ماشین بزرگ" فکر میکردند که میتواند به طور کامل جایگزین آنها شود، بدون هیچ محدودیتی عمل کردند و تصمیماتی گرفتند که با آموزشهای آنها مغایرت داشت.
و در حالی که تجربه و تحصیلات به تعدیل نحوه واکنش متخصصان به حملات با کمک هوش مصنوعی کمک کرد، اما بر نحوه واکنش متخصصان به تهدید سطح "اسکاینت" تأثیری نگذاشت. وایت گفت، این میتواند با رایجتر شدن حملات هوش مصنوعی تهدیدی ایجاد کند.
وایت گفت: «مردم دیدگاههای متفاوتی در مورد این دارند که آیا هوش مصنوعی در مورد تقویت است یا اینکه واقعاً چیزی است که قرار است جایگزین آنها شود. و این به طور معناداری نحوه واکنش مردم در یک بحران را تغییر میدهد.»
اطلاعات بیشتر: کریستوفر وایت، هوش مصنوعی و مشکل "ماشین بزرگ": اجتناب از سادهسازی بیش از حد فناوری در امنیت داخلی و مدیریت اضطراری، مجله امنیت داخلی و مدیریت اضطراری (2025). DOI: 10.1515/jhsem-2024-0030
تهیه شده توسط دانشگاه ویرجینیا کامنولث
ارجاع: باور به هوش مصنوعی به عنوان یک 'ماشین بزرگ' میتواند واکنشها به بحران امنیت ملی را تضعیف کند، یافتههای تحقیق جدید (2025، 19 مارس) بازیابی شده در 20 مارس 2025 از https://techxplore.com/news/2025-03-belief-ai-great-machine-weaken.html