سام آلتمن، بنیانگذار و مدیرعامل OpenAI، در اجلاس سالانه DealBook نیویورک تایمز در دسامبر صحبت می کند. مایکل ام. سانتیاگو/گتی ایمیجز
سام آلتمن، بنیانگذار و مدیرعامل OpenAI، در اجلاس سالانه DealBook نیویورک تایمز در دسامبر صحبت می کند. مایکل ام. سانتیاگو/گتی ایمیجز

دیدگاه سام آلتمن، مدیرعامل OpenAI، در مورد هوش مصنوعی عمومی و ابرهوش در سال ۲۰۲۵

O سام آلتمن، مدیرعامل OpenAI، اخیراً پستی در وبلاگ شخصی خود منتشر کرده و در آن به پیشرفت هوش مصنوعی و پیش بینی های خود در مورد تأثیر این فناوری بر آینده بشریت پرداخته است. آلتمن نوشت: "اکنون مطمئن هستیم که می دانیم چگونه هوش مصنوعی عمومی (AGI) را همانطور که به طور سنتی درک می کردیم، بسازیم." او افزود که OpenAI، شرکت سازنده ChatGPT، توجه خود را به ابرهوش معطوف کرده است.

در حالی که تعریف جهانی پذیرفته شده ای برای AGI وجود ندارد، OpenAI از نظر تاریخی آن را به عنوان "سیستمی بسیار خودمختار که در اکثر کارهای با ارزش اقتصادی از انسان پیشی می گیرد" تعریف کرده است. اگرچه سیستم‌های هوش مصنوعی در حال حاضر در حوزه‌های محدودی مانند شطرنج از انسان‌ها بهتر عمل می‌کنند، اما کلید AGI عمومیت آن است. چنین سیستمی می تواند، به عنوان مثال، یک پروژه پیچیده کدنویسی را از ابتدا تا انتها مدیریت کند، از بینش های زیست شناسی برای حل مشکلات مهندسی استفاده کند یا یک رمان شایسته جایزه پولیتزر بنویسد. OpenAI می گوید ماموریت آن "تضمین این است که AGI به نفع کل بشریت باشد."

آلتمن در پست خود اشاره کرد که پیشرفت در این فناوری می تواند منجر به پذیرش بیشتر هوش مصنوعی در محل کار در سال آینده شود، به شکل عوامل هوش مصنوعی - سیستم های خودمختاری که می توانند وظایف خاصی را بدون مداخله انسان انجام دهند و به طور بالقوه برای روزها به طور مداوم عمل کنند. او نوشت: "در سال 2025، ممکن است شاهد اولین عوامل هوش مصنوعی باشیم که به "نیروی کار" می پیوندند و خروجی شرکت ها را به طور محسوس تغییر می دهند."

آلتمن در مصاحبه اخیر با بلومبرگ گفت که فکر می کند "AGI احتمالاً در طول دوره [ترامپ] توسعه خواهد یافت" و در عین حال به این باور خود اشاره کرد که AGI "به یک اصطلاح بسیار بی دقت تبدیل شده است." رقبا نیز فکر می کنند AGI نزدیک است: ایلان ماسک، یکی از بنیانگذاران OpenAI، که استارت آپ هوش مصنوعی xAI را اداره می کند، و داریو آمودی، مدیرعامل Anthropic، هر دو گفته اند که فکر می کنند سیستم های هوش مصنوعی می توانند تا سال 2026 از انسان ها پیشی بگیرند. در بزرگترین نظرسنجی محققان هوش مصنوعی تا به امروز، که شامل بیش از 2700 شرکت کننده بود، محققان به طور جمعی تخمین زدند که 10٪ احتمال وجود دارد که سیستم های هوش مصنوعی بتوانند تا سال 2027 در اکثر وظایف از انسان ها پیشی بگیرند، با این فرض که علم بدون وقفه به پیشرفت خود ادامه دهد.

دیگران بدبین تر هستند. گری مارکوس، مفسر برجسته هوش مصنوعی، با آلتمن مخالف است که AGI "اساساً یک مشکل حل شده است"، در حالی که مصطفی سلیمان، مدیر عامل مایکروسافت هوش مصنوعی، در مورد اینکه آیا AGI را می توان در سخت افزار امروزی به دست آورد، گفته است: "عدم قطعیت در مورد این موضوع بسیار زیاد است، که هرگونه اظهار نظر قاطعانه فقط برای من بی اساس و اغراق آمیز به نظر می رسد." او چالش های موجود در رباتیک را به عنوان یکی از دلایل بدبینی خود ذکر کرده است.

مایکروسافت و OpenAI، که از سال 2019 با هم مشارکت داشته اند، تعریف مالی از AGI نیز دارند. مایکروسافت تامین کننده انحصاری خدمات ابری و بزرگترین حامی مالی OpenAI است و تاکنون بیش از 13 میلیارد دلار در این شرکت سرمایه گذاری کرده است. این شرکت ها توافقی دارند که بر اساس آن مایکروسافت پس از دستیابی به AGI دسترسی خود به مدل های OpenAI را از دست خواهد داد. بر اساس این توافق که به طور عمومی فاش نشده است، گزارش شده است که AGI زمانی محقق می شود که یک سیستم هوش مصنوعی قادر به ایجاد حداکثر سود کلی باشد که اولین سرمایه گذاران آن مستحق آن هستند: رقمی که در حال حاضر 100 میلیارد دلار است. با این حال، طبق گزارشی در The Information، اعلام "AGI کافی" در نهایت به "صلاحدید معقول" هیئت مدیره OpenAI بستگی دارد.

در حال حاضر، OpenAI فاصله زیادی با سودآوری دارد. این شرکت در حال حاضر سالانه میلیاردها دلار ضرر می کند و گزارش شده است که پیش بینی کرده است که زیان سالانه آن می تواند تا سال 2026 به 14 میلیارد دلار افزایش یابد. انتظار نمی رود تا سال 2029 اولین سود خود را به دست آورد، زمانی که انتظار دارد درآمد سالانه آن به 100 میلیارد دلار برسد. حتی آخرین طرح این شرکت، ChatGPT Pro، که 200 دلار در ماه هزینه دارد و به کاربران امکان دسترسی به پیشرفته ترین مدل های شرکت را می دهد، در حال ضرر است. آلتمن در پستی در X نوشت اگرچه آلتمن به طور صریح نگفت که چرا این شرکت ضرر می کند، اما اجرای مدل های هوش مصنوعی بسیار پرهزینه است و نیاز به سرمایه گذاری در مراکز داده و برق برای تامین قدرت محاسباتی لازم دارد.

پیگیری ابرهوش

OpenAI گفته است که AGI "می تواند به ما کمک کند تا با افزایش فراوانی، تقویت اقتصاد جهانی و کمک به کشف دانش علمی جدید که محدودیت های امکان را تغییر می دهد، بشریت را ارتقا دهیم." اما اظهارات اخیر آلتمن تا حدودی آرام تر بوده است. او در ماه دسامبر گفت: "حدس من این است که زودتر از آنچه اکثر مردم جهان فکر می کنند به AGI خواهیم رسید و اهمیت کمتری خواهد داشت." "AGI می تواند ساخته شود، جهان عمدتاً به همان شکل به کار خود ادامه می دهد، همه چیز سریعتر رشد می کند، اما سپس یک ادامه طولانی از آنچه ما AGI می نامیم تا آنچه ما ابرهوش می نامیم وجود دارد."

آلتمن در آخرین پست خود نوشت: "ما کم کم هدف خود را فراتر از [AGI] به ابرهوش در مفهوم واقعی کلمه تغییر می دهیم. ما محصولات فعلی خود را دوست داریم، اما اینجا برای آینده شکوهمند هستیم."

او افزود که "ابزارهای فوق هوشمند می توانند به طور چشمگیری کشف و نوآوری علمی را فراتر از آنچه ما به تنهایی قادر به انجام آن هستیم تسریع کنند و به نوبه خود، فراوانی و رفاه را به شدت افزایش دهند." این توانایی برای تسریع کشف علمی یک عامل کلیدی متمایز کننده بین AGI و ابرهوش است، حداقل برای آلتمن، که قبلاً نوشته است "ممکن است تا چند هزار روز دیگر ابرهوش داشته باشیم."

مفهوم ابرهوش توسط فیلسوف نیک باستروم رایج شد، که در سال 2014 یک کتاب پرفروش با عنوان «ابرهوش: مسیرها، خطرات، استراتژی‌ها» نوشت که آلتمن آن را "بهترین چیزی که [او] در مورد این موضوع دیده است" خوانده است. باستروم ابرهوش را به عنوان "هر هوشی که عملکرد شناختی انسان را تقریباً در تمام زمینه های مورد علاقه بسیار فراتر می برد" تعریف می کند - مانند AGI، اما بیشتر. OpenAI در پستی در وبلاگ در سال 2023 گفت: "اولین AGI فقط یک نقطه در امتداد یک پیوستار هوش خواهد بود. "یک AGI فوق هوشمند ناهماهنگ می تواند آسیب جدی به جهان وارد کند؛ یک رژیم خودکامه با رهبری قاطع فوق هوش نیز می تواند این کار را انجام دهد."

این آسیب ها از ایده ابرهوش جدایی ناپذیر هستند، زیرا کارشناسان در حال حاضر نمی دانند چگونه این سیستم های فرضی را با ارزش های انسانی همسو کنند. هم سیستم‌های AGI و هم سیستم‌های فوق هوشمند می‌توانند آسیب وارد کنند، نه لزوماً به دلیل قصد بدخواهانه، بلکه صرفاً به این دلیل که انسان‌ها نمی‌توانند به طور کافی مشخص کنند که از سیستم چه می‌خواهند. همانطور که پروفسور استوارت راسل در سال 2024 به TIME گفت، نگرانی این است که "آنچه که به نظر می رسد اهداف معقولی مانند رفع تغییرات آب و هوایی است، منجر به عواقب فاجعه باری مانند از بین بردن نژاد بشر به عنوان راهی برای رفع تغییرات آب و هوایی می شود." آلتمن در مقاله خود در سال 2015 نوشت: "توسعه هوش ماشینی فوق بشری احتمالاً بزرگترین تهدید برای ادامه حیات بشریت است."

بیشتر بخوانید: آزمایش‌های جدید، ظرفیت هوش مصنوعی برای فریبکاری را آشکار می‌کند

OpenAI قبلاً نوشته است که نمی داند "چگونه سیستم های هوش مصنوعی فوق بشری را به طور قابل اعتماد هدایت و کنترل کند." تیمی که برای رهبری کار بر روی هدایت سیستم‌های فوق هوشمند برای ایمنی انسان‌ها ایجاد شده بود، سال گذشته پس از خروج هر دو سرپرست آن از شرکت منحل شد. در آن زمان، یکی از سرپرستان، یان لایک، در X نوشت که "در طول سال های گذشته، فرهنگ ایمنی و فرآیندها جای خود را به محصولات درخشان داده اند." در حال حاضر، این شرکت دارای سه نهاد ایمنی است: یک گروه مشاور ایمنی داخلی، یک کمیته ایمنی و امنیت که بخشی از هیئت مدیره است و هیئت ایمنی استقرار که اعضایی از هر دو OpenAI و مایکروسافت دارد و استقرار مدل هایی با قابلیت بالاتر از سطح معینی را تایید می کند. آلتمن گفته است که آنها در تلاشند تا فرآیندهای ایمنی خود را ساده کنند.

بیشتر بخوانید: مدل های هوش مصنوعی در حال هوشمندتر شدن هستند. آزمایش های جدید برای جبران عقب ماندگی در حال سرعت گرفتن هستند

آلتمن در پاسخ به این سوال در X که آیا فکر می کند باید از عموم مردم سوال شود که آیا ابرهوش می خواهند، پاسخ داد: "بله، من واقعاً این کار را می کنم؛ امیدوارم بتوانیم خیلی زود بحث های عمومی بیشتری را در مورد چگونگی برخورد با این موضوع آغاز کنیم." OpenAI قبلاً تأکید کرده است که مأموریت این شرکت ساخت AGI است نه ابرهوش، اما پست اخیر آلتمن نشان می دهد که ممکن است این موضع تغییر کرده باشد.

آلتمن در مصاحبه اخیر خود با بلومبرگ درباره خطرات ناشی از هوش مصنوعی گفت که هنوز انتظار دارد "در زمینه امنیت سایبری و مسائل بیولوژیکی، مسائل جدی یا بالقوه جدی کوتاه مدتی را شاهد باشیم که نیاز به کاهش دارند" و اینکه تصور خطرات بلند مدت دقیقاً سخت تر است. او گفت: "من می توانم همزمان فکر کنم که این خطرات واقعی هستند و همچنین باور داشته باشم که تنها راه برای مقابله مناسب با آنها، عرضه محصول و یادگیری است."

درس های آموخته شده از برکناری کوتاه مدتش

آلتمن با تأمل در سال های اخیر نوشت که آنها "پاداش دهنده ترین، سرگرم کننده ترین، بهترین، جالب ترین، خسته کننده ترین، استرس زا ترین و به ویژه برای دو مورد آخر، ناخوشایندترین سال های زندگی من تا کنون بوده اند."

آلتمن با پرداختن بیشتر به برکناری کوتاه مدت خود در نوامبر 2023 به عنوان مدیرعامل توسط هیئت مدیره OpenAI و بازگشت متعاقب آن به شرکت، این رویداد را "شکست بزرگ در حاکمیت توسط افرادی با نیت خیر، از جمله خودم" خواند و اشاره کرد که ای کاش کارهای متفاوتی انجام داده بود. او در مصاحبه اخیر خود با بلومبرگ به این موضوع پرداخت و گفت که پشیمان است که در ابتدا گفته بود تنها در صورتی به شرکت باز خواهد گشت که کل هیئت مدیره استعفا دهند. او همچنین گفت که "فریب واقعی" از جانب هیئت مدیره وجود داشته است که او را متهم به "صریح نبودن مداوم" در معاملات خود با آنها کرده بودند. هلن تونر و تاشا مک کالی، اعضای هیئت مدیره در آن زمان، بعداً نوشتند که رهبران ارشد در شرکت با نگرانی هایی به آنها مراجعه کرده اند مبنی بر اینکه آلتمن "فرهنگ سمی دروغگویی" را پرورش داده و رفتاری را انجام داده است که می توان آن را "سوء استفاده روانی" نامید.

اعضای فعلی هیئت مدیره، برت تیلور و لری سامرز، ادعاهای تونر و مک کالی را رد کرده و به تحقیقی در مورد برکناری توسط شرکت حقوقی ویلمر هیل از طرف شرکت اشاره کرده اند. آنها در مقاله ای نوشتند که "آقای آلتمن را در همه مسائل مربوطه بسیار صریح و همواره با تیم مدیریتی خود همراهی می کند."

این بررسی برکناری آلتمن را به "از بین رفتن رابطه و از دست رفتن اعتماد بین هیئت مدیره قبلی و آقای آلتمن" نسبت داده است، نه به نگرانی در مورد ایمنی محصول یا سرعت توسعه. آلتمن در مورد دوره پس از بازگشت خود به عنوان مدیرعامل به بلومبرگ گفت: "این مانند یک تحقیق دولتی دیگر بود، یک عضو هیئت مدیره قدیمی دیگر اخبار جعلی را به مطبوعات درز می داد. و همه آن افرادی که من احساس می کنم واقعاً من و شرکت را به هم ریختند، رفتند و اکنون من باید خرابکاری آنها را درست کنم." او مشخص نکرد که منظور او از "اخبار جعلی" چیست.

آلتمن در مورد آنچه این تجربه به او آموخت، نوشت که "اهمیت هیئت مدیره ای با دیدگاه های متنوع و تجربه گسترده در مدیریت مجموعه ای پیچیده از چالش ها را آموخته است. حکمرانی خوب نیازمند اعتماد و اعتبار زیادی است."

از پایان سال 2023، بسیاری از محققان برتر شرکت‌ها - از جمله بنیانگذار و سپس دانشمند ارشد آن، ایلیا سوتسکوور، مدیر ارشد فناوری آن، میرا موراتی و الک رادفورد، که نویسنده اصلی مقاله مهمی بود که GPT را معرفی کرد، این شرکت را ترک کرده اند.

بیشتر بخوانید: جدول زمانی اتهامات اخیر وارده به OpenAI و سام آلتمن

در دسامبر، OpenAI برنامه هایی را برای تغییر ساختار به عنوان یک شرکت انتفاعی عمومی اعلام کرد، که شرکت را از کنترل سازمان غیرانتفاعی که سعی در اخراج آلتمن داشت، خارج می کند. سازمان غیرانتفاعی سهامی در شرکت جدید دریافت می کند، اگرچه ارزش آن هنوز در حال مذاکره است.

آلتمن با اذعان به اینکه برخی ممکن است بحث در مورد ابرهوش را "دیوانه وار" بدانند، نوشت: "ما کاملاً مطمئن هستیم که در چند سال آینده، همه آنچه را که ما می بینیم خواهند دید و نیاز به عمل با احتیاط فراوان، ضمن به حداکثر رساندن منافع و توانمندسازی گسترده، بسیار مهم است." و افزود: "با توجه به احتمالات کار ما، OpenAI نمی تواند یک شرکت عادی باشد."