تصویرسازی: آلبرتو میراندا
تصویرسازی: آلبرتو میراندا

هوش مصنوعی یک معضل ترسناک به سبک جنگ سرد ایجاد می‌کند

آمریکا و چین در حال ارزیابی همکاری و رقابت هستند

هنگامی که شی جین پینگ و دونالد ترامپ در تاریخ ۱۴-۱۵ مه در پکن دیدار می‌کنند، ممکن است درباره مشکلات آزاردهنده‌ای مانند جنگ در خاورمیانه، عدم تعادل تجاری و وضعیت تایوان گفتگو کنند. به این لیست مسرت‌بخش، هوش مصنوعی را نیز اضافه کنید. نخبگان در پکن و واشنگتن هر دو از پیشرفت سریع این فناوری نگران هستند. مدل‌های هوش مصنوعی هر چه باهوش‌تر می‌شوند، برای رفاه داخلی و نفوذ ژئوپلیتیک خارجی حیاتی‌تر می‌گردند. اما خطراتی که آن‌ها ایجاد می‌کنند نیز به همان نسبت افزایش می‌یابد. از زمان ساخت بمب اتم، قدرت‌های بزرگ با چنین معضلی روبرو نبوده‌اند.

دولت ترامپ به طور فزاینده‌ای این موضوع را درک می‌کند. پس از درگیری‌های اخیر با آزمایشگاه آمریکایی آنتروپیک، رویکرد عدم مداخله خود را در مقررات فناوری کنار گذاشته و در حال بررسی دستور بررسی مدل‌های جدید توسط دولت است. آنتروپیک در ماه آوریل اعلام کرد که مدل Mythos را ساخته است؛ مدلی که در یافتن حفره‌ها در دفاع سایبری چنان توانمند است که نمی‌توان آن را به صورت عمومی منتشر کرد. آمریکا و رقبایش این موضوع را جدی گرفتند. پس از تردید اولیه، رسانه‌های دولتی چین به «قابلیت‌های بی‌سابقه حمله سایبری» Mythos اشاره کردند، در حالی که یک شبکه تلویزیونی روسی آن را «بدتر از بمب هسته‌ای» خواند.

ترس از اینکه مدل‌های توانمندتر ممکن است حملات سایبری را آغاز کنند، سلاح‌های بیولوژیکی طراحی کنند یا از کنترل انسان خارج شوند، دیپلماسی هوش مصنوعی را ضروری ساخته است. برخی در آمریکا و چین به طور پنهانی در حال بررسی این هستند که آیا می‌توانند بر سر سازوکارهای حفاظتی برای فناوری‌ای که هر یک آن را برای غلبه بر دیگری ضروری می‌دانند، به توافق برسند یا خیر. بی‌اعتمادی فراوان است. هیچ یک از طرفین نمی‌خواهند توسعه خود را کُند کنند و خطر واگذاری برتری به دیگری را بپذیرند.

برخی از کارشناسان فناوری آمریکایی این نظریه را مطرح می‌کنند که اولین بودن در ساخت یک مدل هوش مصنوعی خودبهبودبخش – و در نتیجه همواره قدرتمندتر – می‌تواند مزیت استراتژیک عظیمی ایجاد کند. کارشناسان چینی تمایل دارند هوش مصنوعی را کلید رشد اقتصادی بدانند: بیشتر شبیه انرژی هسته‌ای تا سلاح هسته‌ای.

شوئه لان، مشاور دولت چین، در اواخر ماه آوریل در رویدادی در کنگره ایالات متحده به حضار گفت: «آمریکا و چین در ایمنی هوش مصنوعی 'منافع مشترک' دارند.» او گفت: «اگر یک کشور امن نباشد، همه ما امن نیستیم.» آقای شوئه و یی زنگ، رئیس مؤسسه ایمنی هوش مصنوعی پکن، خواستار تلاش‌های جهانی برای تنظیم و حتی کُند کردن توسعه هوش مصنوعی شدند.

این با سیاست چین همخوانی دارد. اندکی پس از ظهور چت‌جی‌پی‌تی در سال ۲۰۲۲، چین شروع به فشار برای همکاری بین‌المللی در زمینه هوش مصنوعی و ایجاد یک نهاد در سازمان ملل کرد. دیپلمات‌های چینی ایده «توقف» توسعه هوش مصنوعی را مطرح کرده‌اند و استدلال می‌کنند که باید استانداردهای جهانی برای اطمینان از کنترل انسان بر آن اتخاذ شود. طرح آن‌ها از غرب می‌خواهد تا تجهیزات هوش مصنوعی خود را با کشورهای فقیر به اشتراک بگذارد تا جهان به دو دسته «دارا» و «ندار» تقسیم نشود.

رویکرد دوجانبه محتمل‌تر است و مقامات در واشنگتن نیز آن را ترجیح می‌دهند. آمریکا و چین با هم ۹۰ درصد از قدرت محاسباتی پیشرفته جهان را در اختیار دارند و بنابراین تنها کشورهایی هستند که قدرت نظارتی واقعی دارند. مقامات آمریکایی همچنین اکوسیستم هوش مصنوعی چین را منبع خاصی از خطر می‌دانند. مدل‌های چینی عمدتاً «متن‌باز» هستند، به این معنی که وزن‌هایی که به آن‌ها امکان عملکرد می‌دهند آزادانه منتشر می‌شوند و به بازیگران بد دسترسی آسانی به ابزارهای قدرتمند هوش مصنوعی می‌دهند.

مذاکرات مستقیم کاملاً جدید نخواهد بود. آقایان ترامپ و شی در اکتبر در بوسان، کره جنوبی، توافق کردند که در زمینه هوش مصنوعی «با هم کار کنند». پیش از آن، در سال ۲۰۲۴، جو بایدن از آقای شی توافق گرفت که انسان‌ها، نه هوش مصنوعی، کلاهک‌های هسته‌ای را کنترل کنند. اما سرعت خطرات نوظهور، رویکرد تکه‌تکه به همکاری را مجبور به بازنگری می‌کند.

محققان آمریکایی و چینی از قبل به روش‌های کمتر علنی با هم کار می‌کنند. به عنوان مثال، برخی از بزرگترین آزمایشگاه‌های چین، از جمله بایدو، کدهای متن‌باز نوشته شده توسط توسعه‌دهندگان آنتروپیک را برای کنترل نحوه ارتباط عوامل هوش مصنوعی پذیرفته‌اند. چندین گفت‌وگوی غیررسمی بین مدیران فناوری و مقامات بازنشسته آمریکا و چین در سال‌های اخیر، گاهی به صورت محرمانه، برگزار شده است. با این حال، شرکت‌کنندگان می‌گویند که کارشناسان فنی مورد نیاز برای پیشرفت واقعی در تطبیق استانداردها اغلب در این اتاق‌ها حضور ندارند.

سه نوع همکاری اکنون ممکن به نظر می‌رسد. اول، گفتگو. یک مقام غربی می‌گوید آمریکا و چین می‌توانند در «تضمین استراتژیک» شرکت کنند. در مذاکرات تسلیحات هسته‌ای، کشورها به طور معمول درباره برنامه‌های خود برای مدیریت ریسک، ایجاد اعتماد و کاهش احتمال سوءمحاسبه گفتگو می‌کنند. آمریکا و چین ممکن است قوانین هوش مصنوعی را به صورت موازی، اما نه هماهنگ، بنویسند. کارسون المگرن از موسسه سیاست و استراتژی هوش مصنوعی، یک اندیشکده آمریکایی، می‌گوید: «اگر آن‌ها مقالات فنی یکسانی را بخوانند و واقعیت زمینه‌ای مشابهی داشته باشند، ممکن است هر دو اقدامات معقولی در پاسخ انجام دهند.»

دوم، آمریکا و چین می‌توانند در مورد نحوه آزمایش ایمنی مدل‌ها توافق کنند. بدون به اشتراک گذاشتن یافته‌های خود، هر دو طرف می‌توانند به معیارهای مشترک رفتار خطرناک یا روش‌هایی برای شناسایی انگیزه‌هایی که با انگیزه‌های سازندگان انسانی آن‌ها مطابقت ندارند، پایبند باشند. جفری دینگ از دانشگاه جرج واشنگتن خاطرنشان می‌کند که تشخیص داده‌های مورد استفاده برای نظارت بر ایمنی هوش مصنوعی از اطلاعات مهم برای توسعه هوش مصنوعی دشوار است. با مخفی نگه داشتن نتایج، هر دو طرف می‌توانند نگرانی‌های مربوط به نشت داده‌های فنی را کاهش دهند.

سوم، اعتماد کنید اما راستی‌آزمایی کنید. اگر آقایان ترامپ و شی بلندپرواز بودند، می‌توانستند به دنبال توافق رسمی برای توسعه آزمایش‌های ایمنی مشترک و به اشتراک گذاشتن نتایج این ارزیابی‌ها باشند. اما انجام این کار احتمالاً مستلزم ابزارهای تهاجمی برای بررسی رعایت توافق خواهد بود. این موارد می‌تواند شامل بازرسی‌ها یا ارسال اطلاعات فعالیت مرکز داده به یک داور بین‌المللی، مانند آژانس بین‌المللی انرژی اتمی سازمان ملل، که بر مواد هسته‌ای نظارت می‌کند، باشد.

همه این انواع همکاری هنوز فاصله زیادی دارند. محققان هوش مصنوعی آمریکایی به صداقت مقامات چینی تردید دارند. آزمایشگاه‌های هوش مصنوعی چین در زمینه ایمنی نسبتاً سهل‌انگار بوده‌اند، شاید به این دلیل که مدل‌های آن‌ها هنوز آنقدر قدرتمند نیستند که تهدیدهای وجودی ایجاد کنند، یا به این دلیل که زمان و پول کافی برای آزمایش آن‌ها ندارند. اسناد همراه مدل v4 DeepSeek، که ماه گذشته منتشر شد، فاقد اقدامات حفاظتی رایج در آزمایشگاه‌های آمریکایی بود. رایان فداسیوک، یک مقام سابق دولت بایدن، اشاره می‌کند که نگرانی‌های ابراز شده چین در مورد ایمنی هوش مصنوعی نمایشی است و «برای بد جلوه دادن آمریکایی‌ها» انجام می‌شود.

علی‌رغم حمایت عمومی چین از حکمرانی جهانی هوش مصنوعی، این کشور تاکنون در برابر بحث‌های مفصل با آمریکا در این زمینه مقاومت کرده است. در سال ۲۰۲۴، آمریکا مقامات ارشد امنیتی و کارشناسان فنی را برای دیدار با همتایان چینی خود به ژنو فرستاد. چین مقامات سیاسی را اعزام کرد که طبق گفته افراد مطلع از مذاکرات، حاضر به بحث درباره ایمنی هوش مصنوعی نشدند مگر اینکه آمریکا کنترل‌های صادراتی بر تراشه‌های رایانه‌ای پیشرفته را لغو کند. دیپلمات‌های آمریکایی شکایت دارند که چین سابقه طولانی در دستکاری گفتگوها برای منافع سیاسی دارد: برای مثال، گفتگوهای تغییرات آب و هوایی را در سال ۲۰۲۲ به دلیل سفر نانسی پلوسی به تایوان متوقف کرد.

گفتمان هوش مصنوعی چین، از جمله صحبت‌های اخیر درباره Mythos، می‌تواند نشان‌دهنده پارانویایی باشد که آزمایشگاه‌های آمریکایی از نگرانی‌های ایمنی برای کنترل توسعه این فناوری استفاده می‌کنند. برخی نگرانند که به اشتراک گذاشتن داده‌های ایمنی یک ترفند برای ربودن اسرار فناوری چین است. تانگ ژائو، کارشناس مذاکرات کنترل تسلیحات هسته‌ای در «صندوق کارنگی»، یک اندیشکده آمریکایی، می‌گوید که استراتژیست‌های چینی عموماً به توافقات با همتایان برتر از نظر فناوری بدبین هستند. تاریخ چین در ورود به «معاهدات نابرابر» در قرن نوزدهم، مقامات را نسبت به توافقاتی که ممکن است توسعه آن‌ها را کُند کند یا آن‌ها را در جایگاه ثانویه قرار دهد، محتاط کرده است.

همکاری به دلیل پیامدهای جدی آن دشوارتر است. وزیر خزانه‌داری آمریکا در ماه آوریل به وال استریت ژورنال گفت: «اگر در هوش مصنوعی پیروز نشویم، بازی تمام است.» آقای شی اخیراً از هوش مصنوعی به عنوان «تعیین‌کننده دوران» ستایش کرده است. با این حال، به زودی رهبران آمریکایی و چینی ممکن است هوش مصنوعی را به دلایل دیگری نیز حیاتی بدانند. آقای دینگ می‌گوید: «متأسفانه، شواهد تاریخی نشان می‌دهد که حرکت واقعی تنها پس از یک حادثه غم‌انگیز رخ می‌دهد»، و به استانداردهای جهانی تعیین شده پس از فاجعه شیمیایی بوپال در سال ۱۹۸۴ یا ذوب چرنوبیل در سال ۱۹۸۶ اشاره می‌کند. مذاکرات هوش مصنوعی همچنان یک آزمون واقعی برای هوش انسانی است. ¦