اعتبار تصویر: David Paul Morris/Bloomberg via Getty Images
اعتبار تصویر: David Paul Morris/Bloomberg via Getty Images

نویسنده SB 1047 لایحه جدید هوش مصنوعی را در کالیفرنیا معرفی می کند

نویسنده SB 1047 کالیفرنیا، بحث برانگیزترین لایحه ایمنی هوش مصنوعی سال 2024 در کشور، با لایحه جدید هوش مصنوعی بازگشته است که می تواند دره سیلیکون را تکان دهد.

اسکات وینر، سناتور ایالت کالیفرنیا، روز جمعه لایحه جدیدی را معرفی کرد که از کارکنان در آزمایشگاه‌های پیشرو هوش مصنوعی محافظت می‌کند و به آن‌ها اجازه می‌دهد تا اگر فکر می‌کنند سیستم‌های هوش مصنوعی شرکتشان می‌تواند یک «خطر بحرانی» برای جامعه باشد، صحبت کنند. لایحه جدید، SB 53، همچنین یک خوشه محاسبات ابری عمومی به نام CalCompute ایجاد می‌کند تا منابع محاسباتی لازم را برای توسعه هوش مصنوعی که به نفع مردم است، در اختیار محققان و استارت‌آپ‌ها قرار دهد.

آخرین لایحه هوش مصنوعی وینر، SB 1047 کالیفرنیا، بحث‌های پرشوری را در سراسر کشور در مورد نحوه برخورد با سیستم‌های هوش مصنوعی عظیمی که می‌توانند باعث فاجعه شوند، برانگیخت. هدف SB 1047 جلوگیری از احتمال ایجاد رویدادهای فاجعه‌بار توسط مدل‌های هوش مصنوعی بسیار بزرگ، مانند ایجاد تلفات جانی یا حملات سایبری که بیش از 500 میلیون دلار خسارت به بار می‌آورد، بود. با این حال، گاوین نیوسام، فرماندار، در نهایت این لایحه را در ماه سپتامبر وتو کرد و گفت SB 1047 بهترین رویکرد نبود.

اما بحث بر سر SB 1047 به سرعت زشت شد. برخی از رهبران دره سیلیکون گفتند که SB 1047 به مزیت رقابتی آمریکا در مسابقه جهانی هوش مصنوعی آسیب می‌زند و ادعا کردند که این لایحه از ترس‌های غیرواقعی الهام گرفته است که سیستم‌های هوش مصنوعی می‌توانند سناریوهای آخرالزمانی شبیه به داستان‌های علمی تخیلی را به وجود آورند. در همین حال، سناتور وینر ادعا کرد که برخی از سرمایه‌گذاران خطرپذیر در یک «کمپین تبلیغاتی» علیه لایحه خود شرکت کرده‌اند و تا حدی به ادعای Y Combinator اشاره کرد که SB 1047 بنیانگذاران استارت‌آپ را به زندان می‌فرستد، ادعایی که به گفته کارشناسان گمراه‌کننده بود.

SB 53 اساساً کم‌بحث‌برانگیزترین بخش‌های SB 1047 - مانند حمایت از افشاگران و ایجاد خوشه CalCompute - را گرفته و آنها را در یک لایحه جدید هوش مصنوعی بسته‌بندی می‌کند.

شایان ذکر است، وینر در SB 53 از خطر وجودی هوش مصنوعی دوری نمی‌کند. لایحه جدید به طور خاص از افشاگرانی که معتقدند کارفرمایانشان سیستم‌های هوش مصنوعی ایجاد می‌کنند که «خطر بحرانی» ایجاد می‌کنند، محافظت می‌کند. این لایحه خطر بحرانی را به این صورت تعریف می‌کند: «خطر قابل پیش‌بینی یا مادی که توسعه، ذخیره‌سازی یا استقرار یک مدل پایه توسط یک توسعه‌دهنده، همانطور که تعریف شده است، منجر به مرگ یا آسیب جدی به بیش از 100 نفر، یا بیش از 1 میلیارد دلار خسارت به حقوق پولی یا دارایی شود.»

SB 53 توسعه‌دهندگان مدل هوش مصنوعی مرزی - احتمالاً شامل OpenAI، Anthropic و xAI، از جمله دیگران - را از تلافی علیه کارمندانی که اطلاعات نگران‌کننده را به دادستان کل کالیفرنیا، مقامات فدرال یا سایر کارمندان افشا می‌کنند، محدود می‌کند. بر اساس این لایحه، این توسعه‌دهندگان ملزم به گزارش به افشاگران در مورد برخی از فرآیندهای داخلی هستند که افشاگران نگران آن هستند.

در مورد CalCompute، SB 53 گروهی را برای ایجاد یک خوشه محاسبات ابری عمومی ایجاد می‌کند. این گروه شامل نمایندگان دانشگاه کالیفرنیا، و همچنین سایر محققان دولتی و خصوصی خواهد بود. این گروه توصیه‌هایی را در مورد نحوه ساخت CalCompute، اندازه خوشه و اینکه کدام کاربران و سازمان‌ها باید به آن دسترسی داشته باشند، ارائه می‌دهد.

البته، هنوز در مراحل اولیه فرآیند قانون‌گذاری برای SB 53 هستیم. این لایحه باید توسط نهادهای قانون‌گذاری کالیفرنیا بررسی و تصویب شود تا به میز فرماندار نیوسام برسد. قانونگذاران ایالتی مطمئناً منتظر واکنش دره سیلیکون به SB 53 خواهند بود.

با این حال، سال 2025 ممکن است سال سخت‌تری برای تصویب لوایح ایمنی هوش مصنوعی نسبت به سال 2024 باشد. کالیفرنیا 18 لایحه مربوط به هوش مصنوعی را در سال 2024 تصویب کرد، اما اکنون به نظر می‌رسد که جنبش نابودی هوش مصنوعی جایگاه خود را از دست داده است.

معاون رئیس جمهور جی.دی. ونس در اجلاس اقدام هوش مصنوعی پاریس اعلام کرد که آمریکا علاقه‌ای به ایمنی هوش مصنوعی ندارد، بلکه نوآوری هوش مصنوعی را در اولویت قرار می‌دهد. در حالی که خوشه CalCompute ایجاد شده توسط SB 53 مطمئناً می‌تواند به عنوان پیشرفت در هوش مصنوعی تلقی شود، مشخص نیست که تلاش‌های قانون‌گذاری در مورد خطر وجودی هوش مصنوعی در سال 2025 چگونه پیش خواهد رفت.