این داستان در ابتدا در خبرنامه هفتگی ما در مورد هوش مصنوعی، الگوریتم، ظاهر شد. برای دریافت داستان هایی مانند این در صندوق ورودی خود، اینجا ثبت نام کنید.
مفهوم هوش مصنوعی عمومی (AGI) - یک سیستم هوش مصنوعی فوق العاده قدرتمند که هنوز آن را نداریم - را می توان به عنوان یک بادکنک در نظر گرفت که به طور مکرر با تبلیغات در طول اوج های خوش بینی (یا ترس) در مورد تأثیر بالقوه آن باد می شود و سپس با عدم موفقیت واقعیت در برآورده کردن انتظارات، تخلیه می شود. این هفته، اخبار زیادی به آن بادکنک AGI وارد شد. من قصد دارم به شما بگویم که این به چه معناست (و احتمالاً قیاس خود را در طول مسیر کمی بیش از حد گسترش می دهم).
ابتدا، بیایید کسب و کار آزاردهنده تعریف AGI را از سر راه برداریم. در عمل، این یک اصطلاح عمیقاً مبهم و قابل تغییر است که توسط محققان یا شرکت های مصمم به ساخت این فناوری شکل گرفته است. اما معمولاً به هوش مصنوعی آینده ای اشاره دارد که در وظایف شناختی از انسان پیشی می گیرد. اینکه در مورد چه انسان هایی و چه وظایفی صحبت می کنیم، در ارزیابی دستیابی، ایمنی و تأثیر AGI بر بازارهای کار، جنگ و جامعه تفاوت ایجاد می کند. به همین دلیل است که تعریف AGI، اگرچه یک تعقیب غیر جذاب است، اما در واقع بسیار مهم است، همانطور که در یک مقاله جدید منتشر شده در این هفته توسط نویسندگان Hugging Face و Google، از جمله دیگران، نشان داده شده است. در غیاب آن تعریف، توصیه من وقتی AGI را می شنوید این است که از خود بپرسید که گوینده چه نسخه ای از اصطلاح مبهم را در نظر دارد. (از پرسیدن برای شفاف سازی نترسید!).
خوب، برویم سراغ اخبار. اول، یک مدل هوش مصنوعی جدید از چین به نام Manus هفته گذشته راه اندازی شد. یک ویدیو تبلیغاتی برای این مدل، که برای انجام وظایف "عاملانه" مانند ایجاد وب سایت ها یا انجام تجزیه و تحلیل ساخته شده است، آن را "به طور بالقوه، نگاهی اجمالی به AGI" توصیف می کند. این مدل در حال انجام وظایف دنیای واقعی در پلتفرم های crowdsourcing مانند Fiverr و Upwork است، و رئیس محصول در Hugging Face، یک پلتفرم هوش مصنوعی، آن را "چشمگیرترین ابزار هوش مصنوعی که تا به حال امتحان کرده ام" نامید.
هنوز مشخص نیست که Manus واقعاً چقدر چشمگیر است، اما در این پس زمینه - ایده هوش مصنوعی عامل به عنوان یک پله به سوی AGI - مناسب بود که ازرا کلاین، ستون نویس نیویورک تایمز، پادکست خود را روز سه شنبه به AGI اختصاص داد. این همچنین به این معنی است که این مفهوم به سرعت از حلقه های هوش مصنوعی فراتر رفته و به قلمرو گفتگوی میز شام منتقل شده است. بن بوکانان، استاد دانشگاه جورج تاون و مشاور ویژه سابق هوش مصنوعی در کاخ سفید بایدن، به کلاین پیوست.
آنها در مورد چیزهای زیادی بحث کردند - اینکه AGI برای اجرای قانون و امنیت ملی چه معنایی خواهد داشت، و اینکه چرا دولت ایالات متحده توسعه AGI قبل از چین را ضروری می داند - اما بحث برانگیزترین بخش ها در مورد تأثیر بالقوه این فناوری بر بازارهای کار بود. کلاین گفت، اگر هوش مصنوعی در آستانه برتری در بسیاری از وظایف شناختی است، پس قانونگذاران بهتر است شروع به درک این موضوع کنند که انتقال گسترده نیروی کار از ذهن انسان به الگوریتم ها برای کارگران چه معنایی خواهد داشت. او از دموکرات ها به دلیل نداشتن برنامه ای اساسی انتقاد کرد.
ما می توانیم این را به عنوان باد کردن بادکنک ترس در نظر بگیریم، که نشان می دهد تأثیر AGI قریب الوقوع و گسترده است. گری مارکوس، استاد علوم عصبی در دانشگاه نیویورک و منتقد AGI که تکذیبیه ای در پاسخ به نکات مطرح شده در برنامه کلاین نوشت، با یک سنجاق قفلی غول پیکر آن بادکنک را سوراخ کرد.
مارکوس اشاره می کند که اخبار اخیر، از جمله عملکرد ناامیدکننده ChatGPT-4.5 جدید OpenAI، نشان می دهد که AGI بسیار بیشتر از سه سال دیگر با ما فاصله دارد. او می گوید مشکلات فنی اصلی با وجود دهه ها تحقیق همچنان پابرجاست و تلاش ها برای مقیاس بندی آموزش و ظرفیت محاسباتی به بازده نزولی رسیده است. مدل های زبان بزرگ، که امروزه غالب هستند، حتی ممکن است همان چیزی نباشند که قفل AGI را باز می کند. او می گوید حوزه سیاسی به افراد بیشتری که درباره AGI زنگ خطر را به صدا درآورند، نیاز ندارد، و استدلال می کند که چنین صحبت هایی در واقع به نفع شرکت هایی است که برای ساخت آن پول خرج می کنند، نه اینکه به نفع منافع عمومی باشد. در عوض، ما به افراد بیشتری نیاز داریم که ادعاهای قریب الوقوع بودن AGI را زیر سوال ببرند. با این حال، مارکوس در این موضوع تردید ندارد که AGI امکان پذیر است. او فقط در مورد جدول زمانی تردید دارد.
درست پس از اینکه مارکوس سعی کرد آن را تخلیه کند، بادکنک AGI دوباره باد شد. سه فرد تأثیرگذار - اریک اشمیت، مدیرعامل سابق گوگل، الکساندر وانگ، مدیرعامل Scale AI، و دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی - مقاله ای به نام "استراتژی ابرهوش" منتشر کردند.
هندریکس در ایمیلی به من گفت، منظور آنها از "ابرهوش"، هوش مصنوعی است که "به طور قاطع از بهترین متخصصان فردی جهان در تقریباً هر حوزه فکری فراتر می رود". "وظایف شناختی که بیشتر به ایمنی مربوط می شوند، هک کردن، ویروس شناسی و تحقیق و توسعه هوش مصنوعی خودمختار هستند - زمینه هایی که فراتر از تخصص انسانی می تواند خطرات شدیدی را به همراه داشته باشد."
در این مقاله، آنها طرحی را برای کاهش چنین خطراتی ارائه می دهند: "اختلال متقابل تضمین شده هوش مصنوعی"، که از مفهوم تخریب متقابل تضمین شده در سیاست سلاح های هسته ای الهام گرفته شده است. آنها می نویسند: "هر دولتی که به دنبال انحصار استراتژیک قدرت باشد، می تواند انتظار پاسخ تلافی جویانه از سوی رقبا را داشته باشد." نویسندگان پیشنهاد می کنند که تراشه ها - و همچنین مدل های هوش مصنوعی منبع باز با قابلیت های پیشرفته ویروس شناسی یا حملات سایبری - باید مانند اورانیوم کنترل شوند. از این منظر، AGI، هر زمان که فرا رسد، سطوحی از خطر را با خود به همراه خواهد آورد که از زمان ظهور بمب اتمی دیده نشده است.
آخرین خبر که به آن اشاره می کنم، این بادکنک را کمی تخلیه می کند. محققان دانشگاه Tsinghua و دانشگاه Renmin چین با یک مقاله AGI در هفته گذشته بیرون آمدند. آنها یک بازی بقا را برای ارزیابی مدل های هوش مصنوعی طراحی کردند که تعداد تلاش های آنها را برای به دست آوردن پاسخ های صحیح در مجموعه ای از آزمون های معیار مختلف محدود می کند. این توانایی های آنها را برای سازگاری و یادگیری اندازه گیری می کند.
این یک آزمایش واقعاً سخت است. این تیم حدس می زند که یک AGI که قادر به موفقیت در آن باشد، آنقدر بزرگ خواهد بود که تعداد پارامترهای آن - تعداد "دستگیره ها" در یک مدل هوش مصنوعی که می توان آنها را برای ارائه پاسخ های بهتر تنظیم کرد - "پنج مرتبه از تعداد کل نورون ها در تمام مغزهای بشریت بیشتر خواهد بود." با استفاده از تراشه های امروزی، این 400 میلیون برابر ارزش بازار اپل هزینه خواهد داشت.
صادقانه بگویم، اعداد خاص پشت این حدس و گمان چندان مهم نیستند. اما این مقاله چیزی را برجسته می کند که نادیده گرفتن آن در گفتگوها درباره AGI آسان نیست: ساختن چنین سیستم فوق العاده قدرتمندی ممکن است به مقدار غیرقابل تصوری از منابع - پول، تراشه، فلزات گرانبها، آب، برق و نیروی کار انسانی نیاز داشته باشد. اما اگر AGI (هرچقدر هم که مبهم تعریف شده باشد) به همان اندازه که به نظر می رسد قدرتمند باشد، پس ارزش هر هزینه ای را دارد.
پس این همه خبر چه فکری باید در ما ایجاد کند؟ منصفانه است که بگوییم بادکنک AGI این هفته کمی بزرگتر شد و این که تمایل فزاینده در میان شرکت ها و سیاست گذاران این است که با هوش مصنوعی به عنوان یک چیز فوق العاده قدرتمند با پیامدهایی برای امنیت ملی و بازارهای کار رفتار کنند.
این فرض یک سرعت بی امان از توسعه را دارد که در آن هر نقطه عطف در مدل های زبان بزرگ، و هر مدل جدید منتشر شده، می تواند به عنوان یک پله به سوی چیزی شبیه AGI محسوب شود. اگر به این باور دارید، AGI اجتناب ناپذیر است. اما این باوری است که واقعاً به بسیاری از موانع موجود در جاده تحقیق و استقرار هوش مصنوعی نمی پردازد، یا توضیح نمی دهد که چگونه هوش مصنوعی مختص برنامه ها به هوش عمومی تبدیل می شود. با این حال، اگر جدول زمانی AGI را به اندازه کافی در آینده گسترش دهید، به نظر می رسد که این سکسکه ها دیگر مهم نیستند.