به نظر میرسد آموزش سیستمهای هوش مصنوعی بیشباهت به بزرگ کردن کودک نیست. به همین دلیل است که برخی از محققان هوش مصنوعی شروع به تقلید از روشی کردهاند که کودکان به طور طبیعی دانش کسب میکنند و در مورد دنیای اطراف خود یاد میگیرند—از طریق کاوش، کنجکاوی، یادگیری تدریجی و تقویت مثبت.
کریستوفر کنان، دانشیار دپارتمان علوم کامپیوتر در دانشگاه روچستر و متخصص هوش مصنوعی، یادگیری مداوم، بینایی و الگوریتمهای الهامگرفته از مغز میگوید: «بسیاری از مشکلات الگوریتمهای هوش مصنوعی امروزی را میتوان با الهام گرفتن از ایدههای علوم اعصاب و رشد کودک برطرف کرد.»
البته، یادگیری و توانایی استدلال مانند انسان—فقط سریعتر و احتمالاً بهتر—سوالاتی را در مورد بهترین روش برای ایمن نگه داشتن انسانها از سیستمهای هوش مصنوعی همیشه در حال پیشرفت مطرح میکند. به همین دلیل کنان میگوید همه سیستمهای هوش مصنوعی باید دارای حفاظهای داخلی باشند، اما انجام این کار در انتهای فرآیند توسعه بسیار دیر است. «این نباید آخرین مرحله باشد، در غیر این صورت ممکن است هیولایی را رها کنیم.»
هوش مصنوعی عمومی چیست و چه تفاوتی با انواع دیگر هوش مصنوعی دارد؟
هوش مصنوعی شامل ایجاد سیستمهای کامپیوتری است که میتوانند وظایفی را انجام دهند که معمولاً به هوش انسانی نیاز دارند، مانند ادراک، استدلال، تصمیمگیری و حل مسئله. به طور سنتی، بخش زیادی از تحقیقات هوش مصنوعی بر ساخت سیستمهایی متمرکز بوده است که برای وظایف خاص طراحی شدهاند—که به آن هوش مصنوعی محدود (ANI) میگویند. نمونههایی از آن شامل سیستمهایی برای تشخیص تصویر، دستیارهای صوتی یا بازیهای استراتژیک است که همگی میتوانند وظایف خود را به طور استثنایی خوب، و اغلب بهتر از انسانها، انجام دهند.
سپس هوش مصنوعی عمومی (AGI) وجود دارد که هدف آن ساخت سیستمهایی است که قادر به درک، استدلال و یادگیری در طیف وسیعی از وظایف، بسیار شبیه به انسانها هستند. دستیابی به AGI همچنان یک هدف اصلی در تحقیقات هوش مصنوعی است اما هنوز محقق نشده است. فراتر از AGI، هوش مصنوعی ابرهوش (ASI) قرار دارد—شکلی از هوش مصنوعی که به طور گستردهای از هوش انسانی در تقریباً هر حوزهای فراتر میرود، که همچنان گمانهزنی است و در حال حاضر به داستانهای علمی-تخیلی محدود میشود.
در آزمایشگاه من، ما به ویژه علاقهمندیم که با الهام گرفتن از علوم اعصاب و رشد کودک، به هوش مصنوعی عمومی نزدیکتر شویم و سیستمهای هوش مصنوعی را قادر سازیم تا به طور مداوم یاد بگیرند و سازگار شوند، درست مانند کاری که کودکان انسان انجام میدهند.
برخی از راههایی که هوش مصنوعی میتواند «یاد بگیرد» چیست؟
هوش مصنوعی محدود (ANI) به لطف یادگیری عمیق موفق بوده است، که از حدود سال 2014 برای آموزش این سیستمها جهت یادگیری از مقادیر زیادی داده که توسط انسانها حاشیهنویسی شدهاند، استفاده میشود. یادگیری عمیق شامل آموزش شبکههای عصبی مصنوعی بزرگ متشکل از لایههای متعدد به هم پیوسته است. امروزه، یادگیری عمیق زیربنای اکثر کاربردهای مدرن هوش مصنوعی، از بینایی کامپیوتری و پردازش زبان طبیعی گرفته تا رباتیک و تحقیقات زیستپزشکی است. این سیستمها در وظایفی مانند تشخیص تصویر، ترجمه زبان، بازیهای پیچیدهای مانند Go و شطرنج، و تولید متن، تصویر و حتی کد برتری دارند.
یک مدل زبانی بزرگ (LLM) مانند GPT-4 از OpenAI بر روی مقادیر عظیمی از متن با استفاده از یادگیری خودنظارتی آموزش داده میشود. این بدان معناست که مدل با پیشبینی کلمه یا عبارت بعدی از متن موجود، بدون راهنمایی یا برچسبگذاری صریح انسانی، یاد میگیرد. این مدلها معمولاً بر روی تریلیونها کلمه آموزش داده میشوند—اساساً کل نوشتههای انسانی موجود آنلاین، از جمله کتابها، مقالات و وبسایتها. برای درک بهتر این مقیاس، اگر انسانی بخواهد تمام این متن را بخواند، دهها هزار عمر طول میکشد.
پس از این آموزش اولیه گسترده، مدل تحت تنظیم دقیق نظارتشده قرار میگیرد، جایی که انسانها نمونههایی از خروجیهای ترجیحی را ارائه میدهند و مدل را به سمت تولید پاسخهایی هدایت میکنند که با ترجیحات انسانی همسوتر باشد. در نهایت، تکنیکهایی مانند یادگیری تقویتی با بازخورد انسانی (RLHF) برای شکلدهی به رفتار مدل با تعریف مرزهای قابل قبول برای آنچه میتواند یا نمیتواند تولید کند، اعمال میشود.
هوش مصنوعی در چه کارهایی واقعاً خوب است؟
آنها در وظایف مربوط به زبانهای انسانی، از جمله ترجمه، نوشتن مقاله، ویرایش متن، ارائه بازخورد و عمل به عنوان مربیان نگارش شخصیسازی شده، عالی هستند.
آنها میتوانند آزمونهای استاندارد را پشت سر بگذارند. به عنوان مثال، GPT-4 از OpenAI در آزمونهای واقعاً چالشبرانگیز مانند آزمون وکالت (صدک 90)، LSAT (صدک 88)، GRE کمی (صدک 80)، GRE کلامی (صدک 99)، USMLE و چندین آزمون Advanced Placement (AP) به نمرات بالایی دست مییابد. آنها حتی در امتحانات ریاضی سطح دکترا نیز برتری دارند. به طرز شگفتآوری، مطالعات نشان دادهاند که آنها هوش هیجانی بیشتری نسبت به انسانها دارند.
فراتر از آزمونها، مدلهای زبانی بزرگ (LLM) میتوانند به عنوان همکاران دانشمندان عمل کنند و به محققان در تولید فرضیههای جدید، پیشنویس پیشنهادهای تحقیقاتی و ترکیب ادبیات علمی پیچیده کمک کنند. آنها به طور فزایندهای در سیستمهای چندوجهی طراحی شده برای وظایف بینایی-زبان، رباتیک و برنامهریزی اقدامات در دنیای واقعی گنجانده میشوند.
برخی از محدودیتهای فعلی ابزارهای هوش مصنوعی مولد چیست؟
مدلهای زبانی بزرگ (LLM) هنوز هم میتوانند «توهم بزنند»، به این معنی که با اطمینان اطلاعاتی را تولید میکنند که به نظر قابل قبول میرسد اما نادرست است. قابلیتهای استدلال و برنامهریزی آنها، اگرچه به سرعت در حال بهبود است، هنوز در مقایسه با انعطافپذیری و عمق سطح انسانی محدود است. و آنها به طور مداوم از تجربه یاد نمیگیرند؛ دانش آنها پس از آموزش به طور مؤثری منجمد میشود، به این معنی که از تحولات اخیر یا تغییرات جاری در جهان آگاهی ندارند.
سیستمهای هوش مصنوعی مولد فعلی همچنین فاقد فراشناخت هستند، به این معنی که معمولاً نمیدانند چه چیزی را نمیدانند، و به ندرت هنگام مواجهه با عدم قطعیت یا درخواستهای مبهم، سوالات روشنکننده میپرسند. این فقدان خودآگاهی، اثربخشی آنها را در تعاملات دنیای واقعی محدود میکند.
انسانها در یادگیری مداوم برتری دارند، جایی که مهارتهای اکتسابی اولیه به عنوان پایه برای تواناییهای پیچیدهتر عمل میکنند. به عنوان مثال، نوزادان ابتدا باید کنترل حرکتی اولیه را فرا بگیرند قبل از اینکه به راه رفتن، دویدن یا حتی ژیمناستیک پیشرفت کنند. مدلهای زبانی بزرگ امروزی نه این نوع یادگیری تجمعی و انتقال رو به جلو را نشان میدهند و نه به طور مؤثر بر روی آن ارزیابی میشوند. رفع این محدودیت یکی از اهداف اصلی تحقیقات آزمایشگاه من است.
چالشها و خطرات اصلی هوش مصنوعی چیست؟
هوش مصنوعی مولد در حال حاضر به طور قابل توجهی در حال تغییر محل کار است. این امر به ویژه برای نقشهای یقه سفید—موقعیتیهایی که به طور سنتی به تحصیلات یا تخصص ویژه نیاز دارند—مخرب است، زیرا کمکخلبانهای هوش مصنوعی (AI copilots) به کارگران منفرد قدرت میدهند تا بهرهوری خود را به طور قابل توجهی افزایش دهند؛ آنها میتوانند تازهکاران را به سطحی نزدیکتر به سطح متخصصان تبدیل کنند. این افزایش بهرهوری به این معنی است که شرکتها میتوانند با تعداد کارمندان به طور قابل توجهی کمتری به طور مؤثر فعالیت کنند و احتمال کاهش گسترده نقشهای یقه سفید در بسیاری از صنایع را افزایش میدهد.
در مقابل، مشاغلی که به مهارت دستی، خلاقیت، رهبری و تعامل فیزیکی مستقیم انسان نیاز دارند، مانند مشاغل فنی ماهر، موقعیتهای مراقبتهای بهداشتی شامل مراقبت مستقیم از بیمار، یا صنایع دستی، بعید است که به این زودیها توسط هوش مصنوعی جایگزین شوند.
در حالی که سناریوهایی مانند «ماکسیمایزر گیره کاغذ» (Paperclip Maximizer) معروف نیک باستروم، که در آن AGI به طور ناخواسته بشریت را نابود میکند، معمولاً مورد بحث قرار میگیرند، من فکر میکنم خطر فوری بزرگتر، انسانهایی هستند که ممکن است عمداً از هوش مصنوعی پیشرفته برای اهداف فاجعهبار استفاده کنند. تلاشها باید بر همکاری بینالمللی، توسعه مسئولانه و سرمایهگذاری در تحقیقات ایمنی هوش مصنوعی دانشگاهی متمرکز شود.
برای اطمینان از توسعه و استفاده ایمن از هوش مصنوعی، ما به مقررات پیرامون کاربردهای خاص نیاز داریم. جالب اینجاست که افرادی که اکنون خواستار مقررات دولتی هستند، همان کسانی هستند که شرکتهای هوش مصنوعی را اداره میکنند. اما شخصاً، من نگران مقرراتی هستم که میتواند تلاشهای هوش مصنوعی منبعباز را از بین ببرد، نوآوری را خفه کند و منافع هوش مصنوعی را در میان عده کمی متمرکز کند.
شانس دستیابی به هوش مصنوعی عمومی (AGI) چقدر است؟
سه «پدرخوانده» هوش مصنوعی مدرن و برندگان جایزه تورینگ—یوشوا بنجیو، جفری هینتون و یان لکون—همگی موافقند که دستیابی به AGI امکانپذیر است. اخیراً، بنجیو و هینتون نگرانی قابل توجهی ابراز کردهاند و هشدار دادهاند که AGI به طور بالقوه میتواند خطری وجودی برای بشریت ایجاد کند. با این وجود، من فکر نمیکنم هیچ یک از آنها—یا من—معتقد باشیم که معماریهای LLM امروزی به تنهایی برای دستیابی به AGI واقعی کافی خواهند بود.
LLMها ذاتاً با استفاده از زبان استدلال میکنند، در حالی که برای انسانها، زبان عمدتاً به عنوان وسیلهای برای ارتباط عمل میکند تا یک رسانه اصلی برای خود تفکر. این اتکا به زبان ذاتاً توانایی LLMها را برای درگیر شدن در استدلال انتزاعی یا تجسم محدود میکند و پتانسیل آنها را برای هوش گستردهتر و شبیه به انسان محدود میسازد.