اعتبار تصویر: Matthias Balk/picture alliance / Getty Images
اعتبار تصویر: Matthias Balk/picture alliance / Getty Images

گوگل خواستار تضعیف قوانین حق تکثیر و صادرات در پیشنهاد سیاست هوش مصنوعی شد

گوگل، در ادامه اقدامات اوپن‌ای‌آی، یک پیشنهاد سیاستی در پاسخ به درخواست دولت ترامپ برای "برنامه اقدام ملی هوش مصنوعی" منتشر کرد. این غول فناوری از محدودیت‌های ضعیف حق تکثیر در آموزش هوش مصنوعی و همچنین کنترل‌های "متوازن" صادرات که "از امنیت ملی محافظت می‌کند و در عین حال صادرات ایالات متحده و عملیات تجاری جهانی را تسهیل می‌کند" حمایت کرد.

گوگل در این سند نوشت: «ایالات متحده باید یک سیاست اقتصادی بین‌المللی فعال را برای حمایت از ارزش‌های آمریکایی و حمایت از نوآوری هوش مصنوعی در سطح بین‌المللی دنبال کند. برای مدت طولانی، سیاست‌گذاری هوش مصنوعی توجه نامتناسبی به خطرات داشته است و اغلب هزینه‌هایی را که مقررات نادرست می‌تواند بر نوآوری، رقابت‌پذیری ملی و رهبری علمی داشته باشد نادیده گرفته است - پویایی که در دولت جدید شروع به تغییر کرده است.»

یکی از توصیه‌های بحث‌برانگیزتر گوگل مربوط به استفاده از مطالب محافظت‌شده با IP است.

گوگل استدلال می‌کند که "استفاده منصفانه و استثنائات استخراج متن و داده" برای توسعه هوش مصنوعی و نوآوری علمی مرتبط با هوش مصنوعی "حیاتی" هستند. این شرکت مانند OpenAI، به دنبال تدوین حق برای خود و رقبایش برای آموزش بر روی داده‌های در دسترس عموم - از جمله داده‌های دارای حق تکثیر - تا حد زیادی بدون محدودیت است.

گوگل نوشت: «این استثناها امکان استفاده از مطالب دارای حق تکثیر و در دسترس عموم را برای آموزش هوش مصنوعی بدون تأثیر قابل توجه بر دارندگان حقوق فراهم می‌کند و از مذاکرات اغلب غیرقابل پیش‌بینی، نامتعادل و طولانی با دارندگان داده در طول توسعه مدل یا آزمایش‌های علمی جلوگیری می‌کند.»

گوگل که بر اساس گزارش‌ها تعدادی مدل را بر روی داده‌های دارای حق تکثیر و عمومی آموزش داده است، با صاحبان داده‌ای که این شرکت را به عدم اطلاع‌رسانی و جبران خسارت قبل از انجام این کار متهم می‌کنند، در حال مبارزه با دادخواست‌ها است. دادگاه‌های ایالات متحده هنوز تصمیم نگرفته‌اند که آیا دکترین استفاده منصفانه به طور موثری توسعه‌دهندگان هوش مصنوعی را از دعوی قضایی IP محافظت می‌کند یا خیر.

گوگل در پیشنهاد سیاست هوش مصنوعی خود، با برخی از کنترل‌های صادراتی اعمال شده در دولت بایدن نیز مخالف است، که به گفته آن، "ممکن است اهداف رقابت اقتصادی را تضعیف کند" با "تحمیل بارهای نامتناسب بر ارائه‌دهندگان خدمات ابری ایالات متحده." این در تضاد با اظهارات رقبای گوگل مانند مایکروسافت است که در ژانویه اعلام کرد که "مطمئن" است که می‌تواند "به طور کامل" از قوانین "پیروی کند".

نکته مهم این است که قوانین صادرات، که به دنبال محدود کردن دسترسی به تراشه‌های پیشرفته هوش مصنوعی در کشورهای نامطلوب است، معافیت‌هایی را برای مشاغل مورد اعتمادی که به دنبال خوشه‌های بزرگ تراشه‌ها هستند، در نظر می‌گیرد.

در جای دیگر پیشنهاد خود، گوگل خواستار سرمایه‌گذاری "بلندمدت و مستمر" در تحقیق و توسعه داخلی بنیادی است و در برابر تلاش‌های اخیر فدرال برای کاهش هزینه‌ها و حذف جوایز کمک هزینه مقاومت می‌کند. این شرکت گفت که دولت باید مجموعه‌داده‌هایی را منتشر کند که ممکن است برای آموزش تجاری هوش مصنوعی مفید باشد و بودجه‌ای را به "تحقیق و توسعه بازار اولیه" اختصاص دهد و در عین حال اطمینان حاصل کند که محاسبات و مدل‌ها "به طور گسترده" در دسترس دانشمندان و مؤسسات قرار دارند.

گوگل با اشاره به محیط نظارتی آشفته ایجاد شده توسط مجموعه‌ای از قوانین هوش مصنوعی ایالتی ایالات متحده، از دولت خواست تا قانون فدرال در مورد هوش مصنوعی، از جمله یک چارچوب جامع حریم خصوصی و امنیتی را تصویب کند. تنها بیش از دو ماه پس از سال 2025، تعداد لایحه‌های هوش مصنوعی در انتظار در ایالات متحده به 781 افزایش یافته است، بر اساس یک ابزار ردیابی آنلاین.

گوگل به دولت ایالات متحده هشدار می‌دهد که از تحمیل تعهدات سنگین در مورد سیستم‌های هوش مصنوعی، مانند تعهدات مسئولیت استفاده، خودداری کند. گوگل استدلال می‌کند که در بسیاری از موارد، توسعه‌دهنده یک مدل "دید یا کنترلی بر نحوه استفاده از مدل ندارد" و بنابراین نباید مسئول سوء استفاده باشد.

از لحاظ تاریخی، گوگل با قوانینی مانند SB 1047 کالیفرنیا که شکست خورد، مخالفت کرده است، که به وضوح مشخص کرد که چه اقداماتی یک توسعه‌دهنده هوش مصنوعی باید قبل از انتشار یک مدل انجام دهد و در چه مواردی ممکن است توسعه‌دهندگان در قبال آسیب‌های ناشی از مدل مسئول شناخته شوند.

گوگل نوشت: «حتی در مواردی که یک توسعه‌دهنده مدلی را مستقیماً در اختیار استقرارکنندگان قرار می‌دهد، اغلب استقرارکنندگان در بهترین موقعیت برای درک خطرات استفاده‌های پایین‌دستی، اجرای مدیریت ریسک مؤثر و انجام نظارت و ورود به سیستم پس از بازار هستند.»

گوگل در پیشنهاد خود همچنین الزامات افشاگری مانند مواردی که توسط اتحادیه اروپا در نظر گرفته شده است را "بیش از حد گسترده" خواند و گفت که دولت ایالات متحده باید با قوانین شفافیتی که مستلزم "افشای اسرار تجاری، اجازه تکرار محصولات به رقبا یا به خطر انداختن امنیت ملی با ارائه نقشه راه به دشمنان در مورد چگونگی دور زدن محافظت‌ها یا شکستن مدل‌ها" است، مخالفت کند.

تعداد فزاینده‌ای از کشورها و ایالت‌ها قوانینی را تصویب کرده‌اند که توسعه‌دهندگان هوش مصنوعی را ملزم به افشای بیشتر در مورد نحوه عملکرد سیستم‌های خود می‌کند. AB 2013 کالیفرنیا حکم می‌کند که شرکت‌هایی که سیستم‌های هوش مصنوعی را توسعه می‌دهند، خلاصه‌ای سطح بالا از مجموعه‌داده‌هایی که برای آموزش سیستم‌های خود استفاده کرده‌اند، منتشر کنند. در اتحادیه اروپا، برای انطباق با قانون هوش مصنوعی پس از لازم‌الاجرا شدن، شرکت‌ها باید دستورالعمل‌های مفصلی در مورد عملکرد، محدودیت‌ها و خطرات مرتبط با مدل را به استقرارکنندگان مدل ارائه دهند.