اعتبار تصویر: Kimberly White/Getty Images for WIRED
اعتبار تصویر: Kimberly White/Getty Images for WIRED

گروهی به رهبری فی‌فی لی پیشنهاد می‌کند که قوانین ایمنی هوش مصنوعی باید خطرات آینده را پیش‌بینی کنند

در یک گزارش جدید، یک گروه سیاست‌گذاری مستقر در کالیفرنیا به رهبری فی‌فی لی، پیشگام هوش مصنوعی، پیشنهاد می‌کند که قانون‌گذاران باید خطرات هوش مصنوعی را که «هنوز در جهان مشاهده نشده‌اند» در هنگام تدوین سیاست‌های نظارتی هوش مصنوعی در نظر بگیرند.

این گزارش موقت ۴۱ صفحه‌ای که روز سه‌شنبه منتشر شد، از سوی گروه کاری مشترک سیاست‌گذاری کالیفرنیا در مورد مدل‌های پیشرفته هوش مصنوعی ارائه شده است، تلاشی که توسط فرماندار گاوین نیوسام پس از وتوی او برای لایحه ایمنی هوش مصنوعی بحث‌برانگیز کالیفرنیا، SB 1047 سازماندهی شد. در حالی که نیوسام دریافت که لایحه SB 1047 به هدف نرسید، او سال گذشته نیاز به ارزیابی گسترده‌تر از خطرات هوش مصنوعی برای اطلاع‌رسانی به قانون‌گذاران را تصدیق کرد.

در این گزارش، لی به همراه نویسندگان همکار جنیفر چایس (رئیس دانشکده محاسبات UC Berkeley) و ماریانو-فلورنتینو کوئلار (رئیس موقوفه کارنگی برای صلح بین‌المللی)، به نفع قوانینی استدلال می‌کنند که شفافیت در مورد آنچه آزمایشگاه‌های پیشرفته هوش مصنوعی مانند OpenAI در حال ساخت آن هستند را افزایش می‌دهد. ذینفعان صنعت از سراسر طیف ایدئولوژیک این گزارش را قبل از انتشار بررسی کردند، از جمله مدافعان سرسخت ایمنی هوش مصنوعی مانند یوشوا بنجیو، برنده جایزه تورینگ و کسانی که علیه SB 1047 استدلال کردند، مانند ایون استویکا، یکی از بنیانگذاران Databricks.

بر اساس این گزارش، خطرات جدید ناشی از سیستم‌های هوش مصنوعی ممکن است قوانینی را ضروری سازد که توسعه‌دهندگان مدل هوش مصنوعی را مجبور به گزارش عمومی آزمایش‌های ایمنی، شیوه‌های جمع‌آوری داده‌ها و اقدامات امنیتی خود کند. این گزارش همچنین از افزایش استانداردها در مورد ارزیابی‌های شخص ثالث از این معیارها و سیاست‌های شرکتی، علاوه بر حمایت‌های گسترده‌تر از افشاگران برای کارمندان و پیمانکاران شرکت‌های هوش مصنوعی حمایت می‌کند.

لی و همکارانش می‌نویسند که «سطح شواهد غیرقطعی» برای پتانسیل هوش مصنوعی در کمک به انجام حملات سایبری، ایجاد سلاح‌های بیولوژیکی یا ایجاد دیگر تهدیدهای «شدید» وجود دارد. با این حال، آن‌ها همچنین استدلال می‌کنند که سیاست هوش مصنوعی نباید تنها به خطرات فعلی بپردازد، بلکه باید پیامدهای آینده‌ای را که ممکن است بدون حفاظت کافی رخ دهند، پیش‌بینی کند.

در این گزارش آمده است: «به عنوان مثال، ما نیازی به مشاهده [انفجار] یک سلاح هسته‌ای نداریم تا به طور قابل اعتمادی پیش‌بینی کنیم که می‌تواند و آسیب گسترده‌ای وارد می‌کند.» «اگر کسانی که در مورد شدیدترین خطرات گمانه‌زنی می‌کنند درست بگویند - و ما مطمئن نیستیم که آن‌ها درست خواهند گفت - پس خطرات و هزینه‌های عدم اقدام در مورد هوش مصنوعی پیشرفته در این لحظه بسیار بالاست.»

این گزارش یک استراتژی دو جانبه را برای افزایش شفافیت توسعه مدل هوش مصنوعی توصیه می‌کند: اعتماد کنید اما تأیید کنید. این گزارش می‌گوید که باید راه‌هایی برای گزارش‌دهی در مورد زمینه‌های نگرانی عمومی، مانند آزمایش‌های ایمنی داخلی، در اختیار توسعه‌دهندگان مدل هوش مصنوعی و کارمندان آن‌ها قرار داده شود، در حالی که از آن‌ها خواسته می‌شود ادعاهای آزمایشی را برای تأیید شخص ثالث ارسال کنند.

در حالی که این گزارش، که نسخه نهایی آن قرار است در ژوئن ۲۰۲۵ منتشر شود، هیچ قانون خاصی را تأیید نمی‌کند، اما از سوی کارشناسان هر دو طرف بحث سیاست‌گذاری هوش مصنوعی به خوبی دریافت شده است.

دین بال، یک محقق متمرکز بر هوش مصنوعی در دانشگاه جورج میسون که از منتقدان SB 1047 بود، در پستی در X گفت که این گزارش یک گام امیدوارکننده برای مقررات ایمنی هوش مصنوعی کالیفرنیا بود. به گفته سناتور ایالت کالیفرنیا، اسکات وینر، که سال گذشته SB 1047 را معرفی کرد، این نیز یک پیروزی برای مدافعان ایمنی هوش مصنوعی است. وینر در یک بیانیه مطبوعاتی گفت که این گزارش بر اساس «گفتگوهای فوری پیرامون حاکمیت هوش مصنوعی که ما در مجلس قانون‌گذاری [در سال ۲۰۲۴] آغاز کردیم» ساخته شده است.

به نظر می‌رسد این گزارش با چندین مولفه SB 1047 و لایحه بعدی وینر، SB 53، همسو است، مانند الزام توسعه‌دهندگان مدل هوش مصنوعی به گزارش نتایج آزمایش‌های ایمنی. با نگاهی گسترده‌تر، به نظر می‌رسد که این یک پیروزی بسیار مورد نیاز برای افراد ایمنی هوش مصنوعی است، که دستور کار آن‌ها در سال گذشته جایگاه خود را از دست داده است.