رئیس سابق NSA به توسعه‌دهندگان هوش مصنوعی هشدار می‌دهد: اشتباهات اولیه‌ی امنیت اطلاعات را تکرار نکنید

مایک راجرز می‌گوید: امنیت را اکنون تعبیه کنید یا بعداً هزینه آن را بپردازید

به گفته‌ی مایک راجرز، رئیس سابق NSA، مهندسان هوش مصنوعی باید از روزهای اول امنیت سایبری درس بگیرند و ایمنی و امنیت را در مدل‌های خود در طول توسعه تعبیه کنند، نه اینکه بعداً آن را به آن اضافه کنند.

راجرز، دریابان بازنشسته‌ی نیروی دریایی ایالات متحده که بین سال‌های 2014 و 2018 ریاست آژانس امنیت ملی و فرماندهی سایبری ایالات متحده را بر عهده داشت، گفت: «بنابراین وقتی این دنیای فوق‌العاده متصل و بسیار شبکه‌ای را ایجاد کردیم، که همه‌ی ما در آن زندگی می‌کنیم، که داده‌ها بسیار حیاتی هستند، ما قابلیت دفاع، افزونگی و انعطاف‌پذیری را به عنوان ویژگی‌های اصلی طراحی در نظر نگرفتیم.»

راجرز در یک پنل درباره‌ی هوش مصنوعی و امنیت ملی در اجلاس وندربیلت در مورد مناقشات مدرن و تهدیدهای نوظهور صحبت می‌کرد.

«پنجاه سال بعد، ما خود را در یک محیط بسیار متفاوت می‌یابیم که در آن چیزی را ایجاد کردیم که نگرانی‌های بعدی به سطح بسیار بالاتری رسیده است، و با این حال تا حدودی با این واقعیت که ما آن را در سیستم نساختیم، مانع شده‌ایم.»

ما قبلاً نمونه‌های زیادی از آنچه ممکن است با مدل‌های ناامن اشتباه پیش برود دیده‌ایم. پتانسیل آسیب از نشت داده‌های حساس تا توهم‌زایی متغیر است — که به اندازه‌ی کافی بد است اگر مدل‌ها برای تولید کد استفاده شوند، اما می‌تواند پیامدهای تهدیدکننده‌ی زندگی در برخی بخش‌ها، مانند مراقبت‌های بهداشتی داشته باشد. 

مدل‌های زبان بزرگ (LLM) همچنین به طور منظم سوگیری‌هایی را بر اساس رنگ پوست و جنسیت نشان می‌دهند، و ما دیده‌ایم که این موارد در استخدام و تصمیم‌گیری‌های مسکن بازی می‌کنند — فقط فکر کنید که آنها برای چیزی مانند "ابزار پیش‌بینی قتل" به اصطلاح وزارت دادگستری بریتانیا چه معنایی می‌توانند داشته باشند.

نکته راجرز: بهتر است برای این نقص‌ها اکنون برنامه‌ریزی و آنها را کاهش دهیم تا اینکه بعداً سعی کنیم آنها را اصلاح کنیم.

برنامه‌ریزی برای بدترین حالت یک استعاره‌ی کهنه از صنعت امنیت است، هم از آنجایی که توسعه‌دهندگان ادعا می‌کنند که امنیت یک جنبه‌ی اساسی از فرآیند توسعه‌ی نرم‌افزار آنها است — و بعداً وقتی مدافعان از حفره‌های این محصولات، هزینه‌ها و دست و پا گیر بودن کلی تلاش برای افزودن امنیت به عنوان یک فکر بعدی، مرثیه می‌خوانند.

ساخته شده در مقابل پیچ و مهره شده

جن ایسترلی در دوران تصدی خود به عنوان مدیر امنیت سایبری و زیرساخت ایالات متحده در دولت بایدن، از این موضوع حمایت کرد و بیش از 150 فروشنده‌ی فناوری را به امضای تعهدنامه‌ی «امن از طریق طراحی» CISA با دستورالعمل‌های داوطلبانه‌ی خود برای تشویق شیوه‌های توسعه‌ی امن ترغیب کرد.

او همچنین به طور مکرر در رویدادهای صنعتی درباره‌ی تامین‌کنندگان نرم‌افزاری که کد باگ‌دار و ناامن را عرضه می‌کنند، صحبت کرد و در یک مورد این فروشندگان را متهم کرد که «درها را برای شرورها برای حمله به قربانیان خود باز می‌کنند.»

در حالی که دولت بایدن و برخی از قانون‌گذاران مسئولیت‌پذیر کردن شرکت‌های فناوری را در قبال نقص‌های محصولاتشان مطرح کرده‌اند، دولت ترامپ به طور کلی از مقررات‌زدایی در بخش فناوری حمایت کرده است. این امر برای مقررات هوش مصنوعی نیز دوچندان صادق است: ترامپ در اولین روز بازگشت خود به دفتر بیضی، دستور اجرایی بایدن در مورد ایمنی هوش مصنوعی را لغو کرد — به طور رسمی EO 14110 را لغو کرد، که خواستار حفاظت‌هایی در اطراف توسعه و استقرار هوش مصنوعی شده بود.

به احتمال زیاد، این مسئولیت بر عهده‌ی توسعه‌دهندگان خواهد بود. و در حالی که ممکن است برای امنیت سایبری خیلی دیر شده باشد، راجرز می‌گوید برای هوش مصنوعی خیلی دیر نیست.

همانطور که به هوش مصنوعی نگاه می‌کنیم: ویژگی‌های اصلی که می‌خواهیم از همان ابتدا به آنها توجه داشته باشیم چیست؟

راجرز گفت: «همانطور که به هوش مصنوعی نگاه می‌کنیم: ویژگی‌های اصلی که می‌خواهیم از همان ابتدا به آنها توجه داشته باشیم چیست؟ زیرا یکی از برداشت‌ها از پیامدهای کاری که ما در فضای مجازی انجام دادیم — بازگشت به عقب و تلاش برای پیچ و مهره کردن چیزها از منظر دفاعی، هزینه‌ی زیادی داشت.» «اگر ما آن را از همان ابتدا در مدل ساخته بودیم، در جایگاه بسیار متفاوتی قرار می‌گرفتیم.»

وی افزود: این امر به ویژه در کاربرد هوش مصنوعی برای امنیت ملی مشهود است، و خاطرنشان کرد که اغلب یک گسست ذاتی بین این که توسعه‌دهندگان معتقدند محصولاتشان چگونه باید استفاده شوند و این که مشتری — در این مورد، پنتاگون — قصد دارد از این فناوری استفاده کند، وجود دارد.

راجرز گفت: «نحوه‌ی تعریف ما از امنیت ملی در حال حاضر بسیار محدود است. جهان‌های فناوری، امنیت اقتصادی و امنیت ملی اکنون همگی در هم تنیده‌اند. شما فقط این را در سیاست دولت می‌بینید. شما این را در نحوه‌ی واکنش جهان می‌بینید. و جالب است که ببینیم این فرهنگ‌های مختلف چگونه با هم کار خواهند کرد.»

پروژه ماون را به خاطر دارید؟

راجرز برای برجسته کردن خطرات برنامه‌ریزی ناکافی پیرامون هوش مصنوعی و امنیت ملی، به پروژه ماون، یک برنامه‌ی پنتاگون در سال 2017 که از هوش مصنوعی گوگل برای تجزیه و تحلیل مقادیر زیادی از فیلم‌های نظارتی هواپیماهای بدون سرنشین استفاده می‌کرد، اشاره کرد.

در حالی که مدیران گوگل از این برنامه حمایت می‌کردند، کارمندان به شدت با مشارکت با پنتاگون و استفاده از هوش مصنوعی غول فناوری برای جنگ‌افزاری مخالفت کردند. گوگل در نهایت تصمیم گرفت قرارداد خود را برای پروژه ماون پس از انقضای آن در سال 2019 تمدید نکند.

راجرز پیشنهاد می‌کند که سقوط پروژه ماون، یک مطالعه‌ی موردی در مورد این است که چگونه عدم همسویی طراحی فنی با خطرات استقرار در دنیای واقعی می‌تواند منجر به واکنش‌های اخلاقی، مشارکت‌های متزلزل و به طور بالقوه سیستم‌های ناامن شود.

او به یاد می‌آورد: «ماون با این سؤال وزارت دفاع (DoD) آغاز شد: ما قصد داریم تسلیحات وزارت دفاع، نیروهای مسلح را علیه افراد در مکان‌هایی در سراسر جهان به کار ببریم. این یک امر مسلم است، این عنصری از کاری است که وزارت دفاع انجام می‌دهد. ما معتقدیم که فناوری می‌تواند به ما کمک کند تا این کار را به روشی دقیق‌تر انجام دهیم که افراد بی‌گناه بسیار کمتری کشته یا آسیب ببینند، و خسارات فیزیکی بسیار کمتری وارد شود.»

پیام به گوگل، آنطور که راجرز به یاد می‌آورد، این بود: «به ما در کاربرد دقیق نیرو کمک کنید. ما از شما نمی‌خواهیم به ما بگویید، آیا باید از زور استفاده کنیم یا نه؟ این تصمیمی است که ما قصد داریم بگیریم. ما از شما می‌خواهیم، پس از اینکه این تصمیم را گرفتیم، به ما کمک کنید تا این کار را دقیق‌تر انجام دهیم.»

راجرز به یاد می‌آورد: «شما دیدید که این دو فرهنگ به یک مشکل کاملاً متفاوت نگاه می‌کنند.»

راجرز گفت: «دولت، وزارت دفاع، فکر می‌کند: ما سعی می‌کنیم افراد مسئولیت‌پذیری باشیم. ما سعی می‌کنیم نیرو را بسیار دقیق‌تر اعمال کنیم.» «و بخش خصوصی به آن نگاه می‌کند و می‌گوید: بله، اما شما در نهایت در مورد گرفتن جان انسان‌ها در کاربرد نیرو هستید. و این باعث می‌شود ما واقعاً ناراحت شویم.»

در اوایل سال جاری، گوگل قانون عدم استفاده از هوش مصنوعی برای سلاح را نقض کرد. مجموعه‌ی جدید اصول هوش مصنوعی آن به تعهد قبلی مبنی بر عدم استفاده از این فناوری برای توسعه‌ی سلاح یا ابزارهای نظارتی که هنجارهای بین‌المللی را نقض می‌کنند، اشاره نمی‌کند. این تغییر نشان‌دهنده‌ی تغییر گسترده‌تری در موضع صنعت فناوری در مورد مرزهای اخلاقی استقرار هوش مصنوعی است. 

این تنش بین دنیای شرکت‌ها و کاربران نهایی دولتی همچنان فروکش نکرده است.

راجرز با اشاره به دوران پروژه ماون خاطرنشان کرد: «ما در یک مکان نیستیم. اما ما همچنان این سؤالات فرهنگی را بین خودمان خواهیم داشت که یک نهاد با چه چیزی راحت است … شاید یک نهاد دیگر دیدگاه متفاوتی داشته باشد.» ®