به گفتهی مایک راجرز، رئیس سابق NSA، مهندسان هوش مصنوعی باید از روزهای اول امنیت سایبری درس بگیرند و ایمنی و امنیت را در مدلهای خود در طول توسعه تعبیه کنند، نه اینکه بعداً آن را به آن اضافه کنند.
راجرز، دریابان بازنشستهی نیروی دریایی ایالات متحده که بین سالهای 2014 و 2018 ریاست آژانس امنیت ملی و فرماندهی سایبری ایالات متحده را بر عهده داشت، گفت: «بنابراین وقتی این دنیای فوقالعاده متصل و بسیار شبکهای را ایجاد کردیم، که همهی ما در آن زندگی میکنیم، که دادهها بسیار حیاتی هستند، ما قابلیت دفاع، افزونگی و انعطافپذیری را به عنوان ویژگیهای اصلی طراحی در نظر نگرفتیم.»
راجرز در یک پنل دربارهی هوش مصنوعی و امنیت ملی در اجلاس وندربیلت در مورد مناقشات مدرن و تهدیدهای نوظهور صحبت میکرد.
«پنجاه سال بعد، ما خود را در یک محیط بسیار متفاوت مییابیم که در آن چیزی را ایجاد کردیم که نگرانیهای بعدی به سطح بسیار بالاتری رسیده است، و با این حال تا حدودی با این واقعیت که ما آن را در سیستم نساختیم، مانع شدهایم.»
ما قبلاً نمونههای زیادی از آنچه ممکن است با مدلهای ناامن اشتباه پیش برود دیدهایم. پتانسیل آسیب از نشت دادههای حساس تا توهمزایی متغیر است — که به اندازهی کافی بد است اگر مدلها برای تولید کد استفاده شوند، اما میتواند پیامدهای تهدیدکنندهی زندگی در برخی بخشها، مانند مراقبتهای بهداشتی داشته باشد.
مدلهای زبان بزرگ (LLM) همچنین به طور منظم سوگیریهایی را بر اساس رنگ پوست و جنسیت نشان میدهند، و ما دیدهایم که این موارد در استخدام و تصمیمگیریهای مسکن بازی میکنند — فقط فکر کنید که آنها برای چیزی مانند "ابزار پیشبینی قتل" به اصطلاح وزارت دادگستری بریتانیا چه معنایی میتوانند داشته باشند.
نکته راجرز: بهتر است برای این نقصها اکنون برنامهریزی و آنها را کاهش دهیم تا اینکه بعداً سعی کنیم آنها را اصلاح کنیم.
برنامهریزی برای بدترین حالت یک استعارهی کهنه از صنعت امنیت است، هم از آنجایی که توسعهدهندگان ادعا میکنند که امنیت یک جنبهی اساسی از فرآیند توسعهی نرمافزار آنها است — و بعداً وقتی مدافعان از حفرههای این محصولات، هزینهها و دست و پا گیر بودن کلی تلاش برای افزودن امنیت به عنوان یک فکر بعدی، مرثیه میخوانند.
ساخته شده در مقابل پیچ و مهره شده
جن ایسترلی در دوران تصدی خود به عنوان مدیر امنیت سایبری و زیرساخت ایالات متحده در دولت بایدن، از این موضوع حمایت کرد و بیش از 150 فروشندهی فناوری را به امضای تعهدنامهی «امن از طریق طراحی» CISA با دستورالعملهای داوطلبانهی خود برای تشویق شیوههای توسعهی امن ترغیب کرد.
او همچنین به طور مکرر در رویدادهای صنعتی دربارهی تامینکنندگان نرمافزاری که کد باگدار و ناامن را عرضه میکنند، صحبت کرد و در یک مورد این فروشندگان را متهم کرد که «درها را برای شرورها برای حمله به قربانیان خود باز میکنند.»
در حالی که دولت بایدن و برخی از قانونگذاران مسئولیتپذیر کردن شرکتهای فناوری را در قبال نقصهای محصولاتشان مطرح کردهاند، دولت ترامپ به طور کلی از مقرراتزدایی در بخش فناوری حمایت کرده است. این امر برای مقررات هوش مصنوعی نیز دوچندان صادق است: ترامپ در اولین روز بازگشت خود به دفتر بیضی، دستور اجرایی بایدن در مورد ایمنی هوش مصنوعی را لغو کرد — به طور رسمی EO 14110 را لغو کرد، که خواستار حفاظتهایی در اطراف توسعه و استقرار هوش مصنوعی شده بود.
به احتمال زیاد، این مسئولیت بر عهدهی توسعهدهندگان خواهد بود. و در حالی که ممکن است برای امنیت سایبری خیلی دیر شده باشد، راجرز میگوید برای هوش مصنوعی خیلی دیر نیست.
همانطور که به هوش مصنوعی نگاه میکنیم: ویژگیهای اصلی که میخواهیم از همان ابتدا به آنها توجه داشته باشیم چیست؟
راجرز گفت: «همانطور که به هوش مصنوعی نگاه میکنیم: ویژگیهای اصلی که میخواهیم از همان ابتدا به آنها توجه داشته باشیم چیست؟ زیرا یکی از برداشتها از پیامدهای کاری که ما در فضای مجازی انجام دادیم — بازگشت به عقب و تلاش برای پیچ و مهره کردن چیزها از منظر دفاعی، هزینهی زیادی داشت.» «اگر ما آن را از همان ابتدا در مدل ساخته بودیم، در جایگاه بسیار متفاوتی قرار میگرفتیم.»
وی افزود: این امر به ویژه در کاربرد هوش مصنوعی برای امنیت ملی مشهود است، و خاطرنشان کرد که اغلب یک گسست ذاتی بین این که توسعهدهندگان معتقدند محصولاتشان چگونه باید استفاده شوند و این که مشتری — در این مورد، پنتاگون — قصد دارد از این فناوری استفاده کند، وجود دارد.
راجرز گفت: «نحوهی تعریف ما از امنیت ملی در حال حاضر بسیار محدود است. جهانهای فناوری، امنیت اقتصادی و امنیت ملی اکنون همگی در هم تنیدهاند. شما فقط این را در سیاست دولت میبینید. شما این را در نحوهی واکنش جهان میبینید. و جالب است که ببینیم این فرهنگهای مختلف چگونه با هم کار خواهند کرد.»
پروژه ماون را به خاطر دارید؟
راجرز برای برجسته کردن خطرات برنامهریزی ناکافی پیرامون هوش مصنوعی و امنیت ملی، به پروژه ماون، یک برنامهی پنتاگون در سال 2017 که از هوش مصنوعی گوگل برای تجزیه و تحلیل مقادیر زیادی از فیلمهای نظارتی هواپیماهای بدون سرنشین استفاده میکرد، اشاره کرد.
در حالی که مدیران گوگل از این برنامه حمایت میکردند، کارمندان به شدت با مشارکت با پنتاگون و استفاده از هوش مصنوعی غول فناوری برای جنگافزاری مخالفت کردند. گوگل در نهایت تصمیم گرفت قرارداد خود را برای پروژه ماون پس از انقضای آن در سال 2019 تمدید نکند.
راجرز پیشنهاد میکند که سقوط پروژه ماون، یک مطالعهی موردی در مورد این است که چگونه عدم همسویی طراحی فنی با خطرات استقرار در دنیای واقعی میتواند منجر به واکنشهای اخلاقی، مشارکتهای متزلزل و به طور بالقوه سیستمهای ناامن شود.
او به یاد میآورد: «ماون با این سؤال وزارت دفاع (DoD) آغاز شد: ما قصد داریم تسلیحات وزارت دفاع، نیروهای مسلح را علیه افراد در مکانهایی در سراسر جهان به کار ببریم. این یک امر مسلم است، این عنصری از کاری است که وزارت دفاع انجام میدهد. ما معتقدیم که فناوری میتواند به ما کمک کند تا این کار را به روشی دقیقتر انجام دهیم که افراد بیگناه بسیار کمتری کشته یا آسیب ببینند، و خسارات فیزیکی بسیار کمتری وارد شود.»
پیام به گوگل، آنطور که راجرز به یاد میآورد، این بود: «به ما در کاربرد دقیق نیرو کمک کنید. ما از شما نمیخواهیم به ما بگویید، آیا باید از زور استفاده کنیم یا نه؟ این تصمیمی است که ما قصد داریم بگیریم. ما از شما میخواهیم، پس از اینکه این تصمیم را گرفتیم، به ما کمک کنید تا این کار را دقیقتر انجام دهیم.»
راجرز به یاد میآورد: «شما دیدید که این دو فرهنگ به یک مشکل کاملاً متفاوت نگاه میکنند.»
راجرز گفت: «دولت، وزارت دفاع، فکر میکند: ما سعی میکنیم افراد مسئولیتپذیری باشیم. ما سعی میکنیم نیرو را بسیار دقیقتر اعمال کنیم.» «و بخش خصوصی به آن نگاه میکند و میگوید: بله، اما شما در نهایت در مورد گرفتن جان انسانها در کاربرد نیرو هستید. و این باعث میشود ما واقعاً ناراحت شویم.»
در اوایل سال جاری، گوگل قانون عدم استفاده از هوش مصنوعی برای سلاح را نقض کرد. مجموعهی جدید اصول هوش مصنوعی آن به تعهد قبلی مبنی بر عدم استفاده از این فناوری برای توسعهی سلاح یا ابزارهای نظارتی که هنجارهای بینالمللی را نقض میکنند، اشاره نمیکند. این تغییر نشاندهندهی تغییر گستردهتری در موضع صنعت فناوری در مورد مرزهای اخلاقی استقرار هوش مصنوعی است.
این تنش بین دنیای شرکتها و کاربران نهایی دولتی همچنان فروکش نکرده است.
راجرز با اشاره به دوران پروژه ماون خاطرنشان کرد: «ما در یک مکان نیستیم. اما ما همچنان این سؤالات فرهنگی را بین خودمان خواهیم داشت که یک نهاد با چه چیزی راحت است … شاید یک نهاد دیگر دیدگاه متفاوتی داشته باشد.» ®