در یک گزارش جدید، یک گروه سیاستگذاری مستقر در کالیفرنیا به رهبری فیفی لی، پیشگام هوش مصنوعی، پیشنهاد میکند که قانونگذاران باید خطرات هوش مصنوعی را که «هنوز در جهان مشاهده نشدهاند» در هنگام تدوین سیاستهای نظارتی هوش مصنوعی در نظر بگیرند.
این گزارش موقت ۴۱ صفحهای که روز سهشنبه منتشر شد، از سوی گروه کاری مشترک سیاستگذاری کالیفرنیا در مورد مدلهای پیشرفته هوش مصنوعی ارائه شده است، تلاشی که توسط فرماندار گاوین نیوسام پس از وتوی او برای لایحه ایمنی هوش مصنوعی بحثبرانگیز کالیفرنیا، SB 1047 سازماندهی شد. در حالی که نیوسام دریافت که لایحه SB 1047 به هدف نرسید، او سال گذشته نیاز به ارزیابی گستردهتر از خطرات هوش مصنوعی برای اطلاعرسانی به قانونگذاران را تصدیق کرد.
در این گزارش، لی به همراه نویسندگان همکار جنیفر چایس (رئیس دانشکده محاسبات UC Berkeley) و ماریانو-فلورنتینو کوئلار (رئیس موقوفه کارنگی برای صلح بینالمللی)، به نفع قوانینی استدلال میکنند که شفافیت در مورد آنچه آزمایشگاههای پیشرفته هوش مصنوعی مانند OpenAI در حال ساخت آن هستند را افزایش میدهد. ذینفعان صنعت از سراسر طیف ایدئولوژیک این گزارش را قبل از انتشار بررسی کردند، از جمله مدافعان سرسخت ایمنی هوش مصنوعی مانند یوشوا بنجیو، برنده جایزه تورینگ و کسانی که علیه SB 1047 استدلال کردند، مانند ایون استویکا، یکی از بنیانگذاران Databricks.
بر اساس این گزارش، خطرات جدید ناشی از سیستمهای هوش مصنوعی ممکن است قوانینی را ضروری سازد که توسعهدهندگان مدل هوش مصنوعی را مجبور به گزارش عمومی آزمایشهای ایمنی، شیوههای جمعآوری دادهها و اقدامات امنیتی خود کند. این گزارش همچنین از افزایش استانداردها در مورد ارزیابیهای شخص ثالث از این معیارها و سیاستهای شرکتی، علاوه بر حمایتهای گستردهتر از افشاگران برای کارمندان و پیمانکاران شرکتهای هوش مصنوعی حمایت میکند.
لی و همکارانش مینویسند که «سطح شواهد غیرقطعی» برای پتانسیل هوش مصنوعی در کمک به انجام حملات سایبری، ایجاد سلاحهای بیولوژیکی یا ایجاد دیگر تهدیدهای «شدید» وجود دارد. با این حال، آنها همچنین استدلال میکنند که سیاست هوش مصنوعی نباید تنها به خطرات فعلی بپردازد، بلکه باید پیامدهای آیندهای را که ممکن است بدون حفاظت کافی رخ دهند، پیشبینی کند.
در این گزارش آمده است: «به عنوان مثال، ما نیازی به مشاهده [انفجار] یک سلاح هستهای نداریم تا به طور قابل اعتمادی پیشبینی کنیم که میتواند و آسیب گستردهای وارد میکند.» «اگر کسانی که در مورد شدیدترین خطرات گمانهزنی میکنند درست بگویند - و ما مطمئن نیستیم که آنها درست خواهند گفت - پس خطرات و هزینههای عدم اقدام در مورد هوش مصنوعی پیشرفته در این لحظه بسیار بالاست.»
این گزارش یک استراتژی دو جانبه را برای افزایش شفافیت توسعه مدل هوش مصنوعی توصیه میکند: اعتماد کنید اما تأیید کنید. این گزارش میگوید که باید راههایی برای گزارشدهی در مورد زمینههای نگرانی عمومی، مانند آزمایشهای ایمنی داخلی، در اختیار توسعهدهندگان مدل هوش مصنوعی و کارمندان آنها قرار داده شود، در حالی که از آنها خواسته میشود ادعاهای آزمایشی را برای تأیید شخص ثالث ارسال کنند.
در حالی که این گزارش، که نسخه نهایی آن قرار است در ژوئن ۲۰۲۵ منتشر شود، هیچ قانون خاصی را تأیید نمیکند، اما از سوی کارشناسان هر دو طرف بحث سیاستگذاری هوش مصنوعی به خوبی دریافت شده است.
دین بال، یک محقق متمرکز بر هوش مصنوعی در دانشگاه جورج میسون که از منتقدان SB 1047 بود، در پستی در X گفت که این گزارش یک گام امیدوارکننده برای مقررات ایمنی هوش مصنوعی کالیفرنیا بود. به گفته سناتور ایالت کالیفرنیا، اسکات وینر، که سال گذشته SB 1047 را معرفی کرد، این نیز یک پیروزی برای مدافعان ایمنی هوش مصنوعی است. وینر در یک بیانیه مطبوعاتی گفت که این گزارش بر اساس «گفتگوهای فوری پیرامون حاکمیت هوش مصنوعی که ما در مجلس قانونگذاری [در سال ۲۰۲۴] آغاز کردیم» ساخته شده است.
به نظر میرسد این گزارش با چندین مولفه SB 1047 و لایحه بعدی وینر، SB 53، همسو است، مانند الزام توسعهدهندگان مدل هوش مصنوعی به گزارش نتایج آزمایشهای ایمنی. با نگاهی گستردهتر، به نظر میرسد که این یک پیروزی بسیار مورد نیاز برای افراد ایمنی هوش مصنوعی است، که دستور کار آنها در سال گذشته جایگاه خود را از دست داده است.