گوگل، در ادامه اقدامات اوپنایآی، یک پیشنهاد سیاستی در پاسخ به درخواست دولت ترامپ برای "برنامه اقدام ملی هوش مصنوعی" منتشر کرد. این غول فناوری از محدودیتهای ضعیف حق تکثیر در آموزش هوش مصنوعی و همچنین کنترلهای "متوازن" صادرات که "از امنیت ملی محافظت میکند و در عین حال صادرات ایالات متحده و عملیات تجاری جهانی را تسهیل میکند" حمایت کرد.
گوگل در این سند نوشت: «ایالات متحده باید یک سیاست اقتصادی بینالمللی فعال را برای حمایت از ارزشهای آمریکایی و حمایت از نوآوری هوش مصنوعی در سطح بینالمللی دنبال کند. برای مدت طولانی، سیاستگذاری هوش مصنوعی توجه نامتناسبی به خطرات داشته است و اغلب هزینههایی را که مقررات نادرست میتواند بر نوآوری، رقابتپذیری ملی و رهبری علمی داشته باشد نادیده گرفته است - پویایی که در دولت جدید شروع به تغییر کرده است.»
یکی از توصیههای بحثبرانگیزتر گوگل مربوط به استفاده از مطالب محافظتشده با IP است.
گوگل استدلال میکند که "استفاده منصفانه و استثنائات استخراج متن و داده" برای توسعه هوش مصنوعی و نوآوری علمی مرتبط با هوش مصنوعی "حیاتی" هستند. این شرکت مانند OpenAI، به دنبال تدوین حق برای خود و رقبایش برای آموزش بر روی دادههای در دسترس عموم - از جمله دادههای دارای حق تکثیر - تا حد زیادی بدون محدودیت است.
گوگل نوشت: «این استثناها امکان استفاده از مطالب دارای حق تکثیر و در دسترس عموم را برای آموزش هوش مصنوعی بدون تأثیر قابل توجه بر دارندگان حقوق فراهم میکند و از مذاکرات اغلب غیرقابل پیشبینی، نامتعادل و طولانی با دارندگان داده در طول توسعه مدل یا آزمایشهای علمی جلوگیری میکند.»
گوگل که بر اساس گزارشها تعدادی مدل را بر روی دادههای دارای حق تکثیر و عمومی آموزش داده است، با صاحبان دادهای که این شرکت را به عدم اطلاعرسانی و جبران خسارت قبل از انجام این کار متهم میکنند، در حال مبارزه با دادخواستها است. دادگاههای ایالات متحده هنوز تصمیم نگرفتهاند که آیا دکترین استفاده منصفانه به طور موثری توسعهدهندگان هوش مصنوعی را از دعوی قضایی IP محافظت میکند یا خیر.
گوگل در پیشنهاد سیاست هوش مصنوعی خود، با برخی از کنترلهای صادراتی اعمال شده در دولت بایدن نیز مخالف است، که به گفته آن، "ممکن است اهداف رقابت اقتصادی را تضعیف کند" با "تحمیل بارهای نامتناسب بر ارائهدهندگان خدمات ابری ایالات متحده." این در تضاد با اظهارات رقبای گوگل مانند مایکروسافت است که در ژانویه اعلام کرد که "مطمئن" است که میتواند "به طور کامل" از قوانین "پیروی کند".
نکته مهم این است که قوانین صادرات، که به دنبال محدود کردن دسترسی به تراشههای پیشرفته هوش مصنوعی در کشورهای نامطلوب است، معافیتهایی را برای مشاغل مورد اعتمادی که به دنبال خوشههای بزرگ تراشهها هستند، در نظر میگیرد.
در جای دیگر پیشنهاد خود، گوگل خواستار سرمایهگذاری "بلندمدت و مستمر" در تحقیق و توسعه داخلی بنیادی است و در برابر تلاشهای اخیر فدرال برای کاهش هزینهها و حذف جوایز کمک هزینه مقاومت میکند. این شرکت گفت که دولت باید مجموعهدادههایی را منتشر کند که ممکن است برای آموزش تجاری هوش مصنوعی مفید باشد و بودجهای را به "تحقیق و توسعه بازار اولیه" اختصاص دهد و در عین حال اطمینان حاصل کند که محاسبات و مدلها "به طور گسترده" در دسترس دانشمندان و مؤسسات قرار دارند.
گوگل با اشاره به محیط نظارتی آشفته ایجاد شده توسط مجموعهای از قوانین هوش مصنوعی ایالتی ایالات متحده، از دولت خواست تا قانون فدرال در مورد هوش مصنوعی، از جمله یک چارچوب جامع حریم خصوصی و امنیتی را تصویب کند. تنها بیش از دو ماه پس از سال 2025، تعداد لایحههای هوش مصنوعی در انتظار در ایالات متحده به 781 افزایش یافته است، بر اساس یک ابزار ردیابی آنلاین.
گوگل به دولت ایالات متحده هشدار میدهد که از تحمیل تعهدات سنگین در مورد سیستمهای هوش مصنوعی، مانند تعهدات مسئولیت استفاده، خودداری کند. گوگل استدلال میکند که در بسیاری از موارد، توسعهدهنده یک مدل "دید یا کنترلی بر نحوه استفاده از مدل ندارد" و بنابراین نباید مسئول سوء استفاده باشد.
از لحاظ تاریخی، گوگل با قوانینی مانند SB 1047 کالیفرنیا که شکست خورد، مخالفت کرده است، که به وضوح مشخص کرد که چه اقداماتی یک توسعهدهنده هوش مصنوعی باید قبل از انتشار یک مدل انجام دهد و در چه مواردی ممکن است توسعهدهندگان در قبال آسیبهای ناشی از مدل مسئول شناخته شوند.
گوگل نوشت: «حتی در مواردی که یک توسعهدهنده مدلی را مستقیماً در اختیار استقرارکنندگان قرار میدهد، اغلب استقرارکنندگان در بهترین موقعیت برای درک خطرات استفادههای پاییندستی، اجرای مدیریت ریسک مؤثر و انجام نظارت و ورود به سیستم پس از بازار هستند.»
گوگل در پیشنهاد خود همچنین الزامات افشاگری مانند مواردی که توسط اتحادیه اروپا در نظر گرفته شده است را "بیش از حد گسترده" خواند و گفت که دولت ایالات متحده باید با قوانین شفافیتی که مستلزم "افشای اسرار تجاری، اجازه تکرار محصولات به رقبا یا به خطر انداختن امنیت ملی با ارائه نقشه راه به دشمنان در مورد چگونگی دور زدن محافظتها یا شکستن مدلها" است، مخالفت کند.
تعداد فزایندهای از کشورها و ایالتها قوانینی را تصویب کردهاند که توسعهدهندگان هوش مصنوعی را ملزم به افشای بیشتر در مورد نحوه عملکرد سیستمهای خود میکند. AB 2013 کالیفرنیا حکم میکند که شرکتهایی که سیستمهای هوش مصنوعی را توسعه میدهند، خلاصهای سطح بالا از مجموعهدادههایی که برای آموزش سیستمهای خود استفاده کردهاند، منتشر کنند. در اتحادیه اروپا، برای انطباق با قانون هوش مصنوعی پس از لازمالاجرا شدن، شرکتها باید دستورالعملهای مفصلی در مورد عملکرد، محدودیتها و خطرات مرتبط با مدل را به استقرارکنندگان مدل ارائه دهند.