گروهی از کارمندان سابق OpenAI، محققان و سازمانهای غیرانتفاعی از نهادهای نظارتی میخواهند که مانع از تغییر ساختار پیشنهادی شرکت OpenAI شوند، زیرا معتقدند این تغییر، مأموریت اصلی این شرکت را برای توسعه هوش مصنوعی عمومی (AGI) به نفع بشریت تهدید میکند.
در یک نامه سرگشاده، این گروه با انتقال برنامهریزی شده کنترل عملیاتی از یک نهاد غیرانتفاعی به یک شرکت سهامی عام (PBC) مخالفت میکند و بیان میکند که این تغییر منافع سهامداران را بر پاسخگویی و ایمنی عمومی اولویت میدهد.
از جمله امضاکنندگان برجسته میتوان به جفری هینتون (Geoffrey Hinton)، پیشگام هوش مصنوعی و برنده جایزه نوبل (دانشگاه تورنتو)، مارگارت میچل (Margaret Mitchell)، محقق اخلاق هوش مصنوعی (Hugging Face) و استوارت راسل (Stuart Russell)، دانشمند علوم کامپیوتر (دانشگاه کالیفرنیا، برکلی) اشاره کرد. این نامه همچنین توسط کارمندان سابق OpenAI، اساتید دانشگاههای هاروارد، UCLA و کلمبیا و سازمانهایی مانند مرکز فناوری انسانی حمایت میشود.
حفاظتهای قانونی در ساختار جدید در معرض خطر قرار میگیرند
OpenAI در سال 2015 به عنوان یک سازمان غیرانتفاعی تأسیس شد، با این انگیزه که شرکتهای انتفاعی ممکن است AGI را بدون هماهنگی کافی با منافع عمومی توسعه دهند. در سال 2019، OpenAI یک شرکت تابعه انتفاعی به نام OpenAI LP ایجاد کرد تا ضمن حفظ نظارت غیرانتفاعی، سرمایه جذب کند. تحت این مدل ترکیبی، سودها محدود شد، یک هیئت مدیره مستقل تأسیس شد و مالکیت فناوری AGI در اختیار نهاد غیرانتفاعی باقی ماند.
تغییر ساختار پیشنهادی، کنترل عملیاتی را به یک PBC جدید منتقل میکند و نهاد غیرانتفاعی را به عنوان سهامدار بدون اختیارات حاکمیتی رها میکند. به گفته این نامه، این امر حفاظتهای قانونی کلیدی را که در حال حاضر مأموریت OpenAI را بر سود اولویت میدهد، حذف میکند:
| حفاظتهای حاکمیتی | امروز | تغییر ساختار پیشنهادی |
|---|---|---|
| 1. انگیزههای سود تابع هدف خیریه است | بله | خیر |
| 2. رهبری وظیفه امانتداری برای پیشبرد هدف خیریه دارد، که توسط دادستانهای کل قابل اجرا است | بله | خیر |
| 3. سود سرمایهگذاران محدود شده است، و سودهای بالاتر از سقف متعلق به سازمان غیرانتفاعی است | بله | شایعه شده خیر |
| 4. تعهد اکثریت هیئت مدیره مستقل | بله | نامشخص |
| 5. AGI، در صورت توسعه، برای منفعت بشریت متعلق به سازمان غیرانتفاعی است | بله | به طور پیشفرض خیر |
| 6. تعهد "توقف و کمک" از منشور | بله | نامشخص |
نویسندگان مینویسند: "تغییر ساختار پیشنهادی تمام این حفاظتها را تهدید میکند، و بنابراین باید متوقف شود."
این نامه تأکید میکند که ساختار غیرانتفاعی OpenAI نمادین نیست، بلکه یک سازوکار قانونی الزامآور است که اطمینان میدهد مأموریت آن در اولویت باقی میماند. این گروه از دادستانهای کل کالیفرنیا و دلاور - که بر سازمانهای غیرانتفاعی ثبت شده در ایالتهای خود نظارت میکنند - میخواهند تغییرات پیشنهادی را بررسی کنند.
نگرانیها در مورد کنترل AGI و دسترسی مایکروسافت
این نامه همچنین از عدم شفافیت در مورد اینکه چه کسی فناوری AGI را تحت ساختار جدید کنترل میکند یا اینکه آیا مایکروسافت - بزرگترین سرمایهگذار OpenAI - به آن دسترسی پیدا میکند، انتقاد میکند. نویسندگان همچنین این نگرانی را مطرح میکنند که بند "توقف و کمک" از منشور OpenAI، که این شرکت را ملزم میکند در صورت دستیابی پروژههای AGI ایمنیمحور دیگر به AGI ابتدا، از آنها پشتیبانی کند، دیگر قابل اجرا نخواهد بود.
به گفته این نامه، تغییر ساختار OpenAI "به نفع سهامداران OpenAI به قیمت هزینه عمومی خواهد بود." آنها استدلال میکنند که این امر بر نحوه توسعه AGI، سود بردن چه کسی از آن و در نهایت کنترل آن توسط چه کسی تأثیر میگذارد.
نویسندگان ادعا میکنند: "اینکه آیا OpenAI زمان و منابع را برای اطمینان از ایمن و مفید بودن سیستمهای هوش مصنوعی خود برای بشریت سرمایهگذاری میکند یا به طور بیپروا برای سود رقابتی و مالی به جلو میرود، در خطر است."
نویسندگان همچنین استدلال OpenAI را برای تغییر ساختار به چالش میکشند. OpenAI به نیاز به یک ساختار سرمایه ساده برای رقابت با سایر شرکتهای هوش مصنوعی با بودجه خوب اشاره کرده است. اما این نامه این استدلال را رد میکند و خاطرنشان میکند که برخلاف ساختار غیرانتفاعی فعلی، رقبای OpenAI ملزم به وظایف امانتداری برای اولویت دادن به رفاه عمومی نیستند.
این نامه میگوید: "این [OpenAI] این واقعیت را ذکر میکند که منافع سرمایهگذاران تابع مأموریت است به عنوان مشکلی که باید حل شود، اما این دقیقاً همان چیزی است که بدون تخریب مأموریت نمیتواند تغییر کند."
OpenAI همچنین ادعا کرده است که سازماندهی مجدد به سازمان غیرانتفاعی اجازه میدهد "به یکی از بهترین سازمانهای غیرانتفاعی با منابع در تاریخ تبدیل شود." با این حال، نویسندگان معتقدند که سازمان غیرانتفاعی فقط ارزش منصفانه بازار علاقه خود را در بازوی انتفاعی دریافت خواهد کرد و کنترل بر حاکمیت AGI را از دست خواهد داد.
کارمندان سابق نگرانیها را در پرونده دادگاه تکرار میکنند
این نگرانیها محدود به نامه سرگشاده نیست. دوازده کارمند سابق OpenAI قبلاً نامهای در حمایت از دادخواست ایلان ماسک علیه این شرکت ارائه کردند و بسیاری از همان انتقادات را تکرار کردند. پرونده آنها ادعا میکند که OpenAI از وضعیت غیرانتفاعی خود برای جذب محققان ایمنیمحور استفاده کرده است در حالی که به طور داخلی برای یک چرخش تجاری آماده میشده است - یکی از چندین نکتهای که با استدلالهای مطرح شده در نامه سرگشاده مطابقت دارد.
در یک اظهارنامه تحت سوگند، تودور مارکوف (Todor Markov)، محقق سابق، سام آلتمن (Sam Altman)، مدیرعامل را به اعمال توافقنامههای محرمانه محدودکننده و ارائه نادرست از اهداف بلندمدت شرکت متهم کرد. به گفته این گروه، تغییر برنامهریزی شده به یک PBC نشان دهنده نقض اساسی مأموریت تأسیس OpenAI خواهد بود.
اگر سازماندهی مجدد انجام نشود، OpenAI ممکن است با چالشهای مالی قابل توجهی روبرو شود. گزارش شده است که برخی از بودجههای دور سرمایهگذاری فعلی آن مشروط به تکمیل سازماندهی مجدد تا پایان سال است. بدون آن، OpenAI خطر از دست دادن حمایت سرمایهگذاران را دارد و ممکن است برای جمعآوری میلیاردها دلار مورد نیاز برای زیرساختهای محاسباتی، آموزش مدل و کارکنان با مشکل مواجه شود.
خلاصه
- نامه سرگشادهای که توسط محققان برجسته هوش مصنوعی، از جمله جفری هینتون، مارگارت میچل و استوارت راسل امضا شده است، هشدار میدهد که اقدام پیشنهادی OpenAI برای تبدیل شدن به یک شرکت سهامی عام، تعهد خود را به خدمت به منافع عمومی تهدید میکند.
- این نامه استدلال میکند که این تغییر ساختار الزامات قانونی الزامآور برای اولویت دادن به منافع عمومی را حذف میکند، سقف سود سرمایهگذاران را حذف میکند و نظارت بر فناوری پیشرفته هوش مصنوعی را تضعیف میکند.
- نگرانیهای مشابهی توسط کارمندان سابق OpenAI مطرح شده است که سام آلتمن، مدیرعامل را به استفاده از توافقنامههای عدم افشا برای فعال کردن تغییرات داخلی با هدف افزایش سود متهم کردهاند.