نویسنده SB 1047 کالیفرنیا، بحث برانگیزترین لایحه ایمنی هوش مصنوعی سال 2024 در کشور، با لایحه جدید هوش مصنوعی بازگشته است که می تواند دره سیلیکون را تکان دهد.
اسکات وینر، سناتور ایالت کالیفرنیا، روز جمعه لایحه جدیدی را معرفی کرد که از کارکنان در آزمایشگاههای پیشرو هوش مصنوعی محافظت میکند و به آنها اجازه میدهد تا اگر فکر میکنند سیستمهای هوش مصنوعی شرکتشان میتواند یک «خطر بحرانی» برای جامعه باشد، صحبت کنند. لایحه جدید، SB 53، همچنین یک خوشه محاسبات ابری عمومی به نام CalCompute ایجاد میکند تا منابع محاسباتی لازم را برای توسعه هوش مصنوعی که به نفع مردم است، در اختیار محققان و استارتآپها قرار دهد.
آخرین لایحه هوش مصنوعی وینر، SB 1047 کالیفرنیا، بحثهای پرشوری را در سراسر کشور در مورد نحوه برخورد با سیستمهای هوش مصنوعی عظیمی که میتوانند باعث فاجعه شوند، برانگیخت. هدف SB 1047 جلوگیری از احتمال ایجاد رویدادهای فاجعهبار توسط مدلهای هوش مصنوعی بسیار بزرگ، مانند ایجاد تلفات جانی یا حملات سایبری که بیش از 500 میلیون دلار خسارت به بار میآورد، بود. با این حال، گاوین نیوسام، فرماندار، در نهایت این لایحه را در ماه سپتامبر وتو کرد و گفت SB 1047 بهترین رویکرد نبود.
اما بحث بر سر SB 1047 به سرعت زشت شد. برخی از رهبران دره سیلیکون گفتند که SB 1047 به مزیت رقابتی آمریکا در مسابقه جهانی هوش مصنوعی آسیب میزند و ادعا کردند که این لایحه از ترسهای غیرواقعی الهام گرفته است که سیستمهای هوش مصنوعی میتوانند سناریوهای آخرالزمانی شبیه به داستانهای علمی تخیلی را به وجود آورند. در همین حال، سناتور وینر ادعا کرد که برخی از سرمایهگذاران خطرپذیر در یک «کمپین تبلیغاتی» علیه لایحه خود شرکت کردهاند و تا حدی به ادعای Y Combinator اشاره کرد که SB 1047 بنیانگذاران استارتآپ را به زندان میفرستد، ادعایی که به گفته کارشناسان گمراهکننده بود.
SB 53 اساساً کمبحثبرانگیزترین بخشهای SB 1047 - مانند حمایت از افشاگران و ایجاد خوشه CalCompute - را گرفته و آنها را در یک لایحه جدید هوش مصنوعی بستهبندی میکند.
شایان ذکر است، وینر در SB 53 از خطر وجودی هوش مصنوعی دوری نمیکند. لایحه جدید به طور خاص از افشاگرانی که معتقدند کارفرمایانشان سیستمهای هوش مصنوعی ایجاد میکنند که «خطر بحرانی» ایجاد میکنند، محافظت میکند. این لایحه خطر بحرانی را به این صورت تعریف میکند: «خطر قابل پیشبینی یا مادی که توسعه، ذخیرهسازی یا استقرار یک مدل پایه توسط یک توسعهدهنده، همانطور که تعریف شده است، منجر به مرگ یا آسیب جدی به بیش از 100 نفر، یا بیش از 1 میلیارد دلار خسارت به حقوق پولی یا دارایی شود.»
SB 53 توسعهدهندگان مدل هوش مصنوعی مرزی - احتمالاً شامل OpenAI، Anthropic و xAI، از جمله دیگران - را از تلافی علیه کارمندانی که اطلاعات نگرانکننده را به دادستان کل کالیفرنیا، مقامات فدرال یا سایر کارمندان افشا میکنند، محدود میکند. بر اساس این لایحه، این توسعهدهندگان ملزم به گزارش به افشاگران در مورد برخی از فرآیندهای داخلی هستند که افشاگران نگران آن هستند.
در مورد CalCompute، SB 53 گروهی را برای ایجاد یک خوشه محاسبات ابری عمومی ایجاد میکند. این گروه شامل نمایندگان دانشگاه کالیفرنیا، و همچنین سایر محققان دولتی و خصوصی خواهد بود. این گروه توصیههایی را در مورد نحوه ساخت CalCompute، اندازه خوشه و اینکه کدام کاربران و سازمانها باید به آن دسترسی داشته باشند، ارائه میدهد.
البته، هنوز در مراحل اولیه فرآیند قانونگذاری برای SB 53 هستیم. این لایحه باید توسط نهادهای قانونگذاری کالیفرنیا بررسی و تصویب شود تا به میز فرماندار نیوسام برسد. قانونگذاران ایالتی مطمئناً منتظر واکنش دره سیلیکون به SB 53 خواهند بود.
با این حال، سال 2025 ممکن است سال سختتری برای تصویب لوایح ایمنی هوش مصنوعی نسبت به سال 2024 باشد. کالیفرنیا 18 لایحه مربوط به هوش مصنوعی را در سال 2024 تصویب کرد، اما اکنون به نظر میرسد که جنبش نابودی هوش مصنوعی جایگاه خود را از دست داده است.
معاون رئیس جمهور جی.دی. ونس در اجلاس اقدام هوش مصنوعی پاریس اعلام کرد که آمریکا علاقهای به ایمنی هوش مصنوعی ندارد، بلکه نوآوری هوش مصنوعی را در اولویت قرار میدهد. در حالی که خوشه CalCompute ایجاد شده توسط SB 53 مطمئناً میتواند به عنوان پیشرفت در هوش مصنوعی تلقی شود، مشخص نیست که تلاشهای قانونگذاری در مورد خطر وجودی هوش مصنوعی در سال 2025 چگونه پیش خواهد رفت.