اعتبار: تصویرسازی دانشگاه روچستر / ساندرا کنیسپل با استفاده از ChatGPT توسط OpenAI
اعتبار: تصویرسازی دانشگاه روچستر / ساندرا کنیسپل با استفاده از ChatGPT توسط OpenAI

هوش مصنوعی عمومی چیست و چه تفاوتی با انواع دیگر هوش مصنوعی دارد؟

به نظر می‌رسد آموزش سیستم‌های هوش مصنوعی بی‌شباهت به بزرگ کردن کودک نیست. به همین دلیل است که برخی از محققان هوش مصنوعی شروع به تقلید از روشی کرده‌اند که کودکان به طور طبیعی دانش کسب می‌کنند و در مورد دنیای اطراف خود یاد می‌گیرند—از طریق کاوش، کنجکاوی، یادگیری تدریجی و تقویت مثبت.

کریستوفر کنان، دانشیار دپارتمان علوم کامپیوتر در دانشگاه روچستر و متخصص هوش مصنوعی، یادگیری مداوم، بینایی و الگوریتم‌های الهام‌گرفته از مغز می‌گوید: «بسیاری از مشکلات الگوریتم‌های هوش مصنوعی امروزی را می‌توان با الهام گرفتن از ایده‌های علوم اعصاب و رشد کودک برطرف کرد.»

البته، یادگیری و توانایی استدلال مانند انسان—فقط سریع‌تر و احتمالاً بهتر—سوالاتی را در مورد بهترین روش برای ایمن نگه داشتن انسان‌ها از سیستم‌های هوش مصنوعی همیشه در حال پیشرفت مطرح می‌کند. به همین دلیل کنان می‌گوید همه سیستم‌های هوش مصنوعی باید دارای حفاظ‌های داخلی باشند، اما انجام این کار در انتهای فرآیند توسعه بسیار دیر است. «این نباید آخرین مرحله باشد، در غیر این صورت ممکن است هیولایی را رها کنیم.»

هوش مصنوعی عمومی چیست و چه تفاوتی با انواع دیگر هوش مصنوعی دارد؟

هوش مصنوعی شامل ایجاد سیستم‌های کامپیوتری است که می‌توانند وظایفی را انجام دهند که معمولاً به هوش انسانی نیاز دارند، مانند ادراک، استدلال، تصمیم‌گیری و حل مسئله. به طور سنتی، بخش زیادی از تحقیقات هوش مصنوعی بر ساخت سیستم‌هایی متمرکز بوده است که برای وظایف خاص طراحی شده‌اند—که به آن هوش مصنوعی محدود (ANI) می‌گویند. نمونه‌هایی از آن شامل سیستم‌هایی برای تشخیص تصویر، دستیارهای صوتی یا بازی‌های استراتژیک است که همگی می‌توانند وظایف خود را به طور استثنایی خوب، و اغلب بهتر از انسان‌ها، انجام دهند.

سپس هوش مصنوعی عمومی (AGI) وجود دارد که هدف آن ساخت سیستم‌هایی است که قادر به درک، استدلال و یادگیری در طیف وسیعی از وظایف، بسیار شبیه به انسان‌ها هستند. دستیابی به AGI همچنان یک هدف اصلی در تحقیقات هوش مصنوعی است اما هنوز محقق نشده است. فراتر از AGI، هوش مصنوعی ابرهوش (ASI) قرار دارد—شکلی از هوش مصنوعی که به طور گسترده‌ای از هوش انسانی در تقریباً هر حوزه‌ای فراتر می‌رود، که همچنان گمانه‌زنی است و در حال حاضر به داستان‌های علمی-تخیلی محدود می‌شود.

در آزمایشگاه من، ما به ویژه علاقه‌مندیم که با الهام گرفتن از علوم اعصاب و رشد کودک، به هوش مصنوعی عمومی نزدیک‌تر شویم و سیستم‌های هوش مصنوعی را قادر سازیم تا به طور مداوم یاد بگیرند و سازگار شوند، درست مانند کاری که کودکان انسان انجام می‌دهند.

برخی از راه‌هایی که هوش مصنوعی می‌تواند «یاد بگیرد» چیست؟

هوش مصنوعی محدود (ANI) به لطف یادگیری عمیق موفق بوده است، که از حدود سال 2014 برای آموزش این سیستم‌ها جهت یادگیری از مقادیر زیادی داده که توسط انسان‌ها حاشیه‌نویسی شده‌اند، استفاده می‌شود. یادگیری عمیق شامل آموزش شبکه‌های عصبی مصنوعی بزرگ متشکل از لایه‌های متعدد به هم پیوسته است. امروزه، یادگیری عمیق زیربنای اکثر کاربردهای مدرن هوش مصنوعی، از بینایی کامپیوتری و پردازش زبان طبیعی گرفته تا رباتیک و تحقیقات زیست‌پزشکی است. این سیستم‌ها در وظایفی مانند تشخیص تصویر، ترجمه زبان، بازی‌های پیچیده‌ای مانند Go و شطرنج، و تولید متن، تصویر و حتی کد برتری دارند.

یک مدل زبانی بزرگ (LLM) مانند GPT-4 از OpenAI بر روی مقادیر عظیمی از متن با استفاده از یادگیری خودنظارتی آموزش داده می‌شود. این بدان معناست که مدل با پیش‌بینی کلمه یا عبارت بعدی از متن موجود، بدون راهنمایی یا برچسب‌گذاری صریح انسانی، یاد می‌گیرد. این مدل‌ها معمولاً بر روی تریلیون‌ها کلمه آموزش داده می‌شوند—اساساً کل نوشته‌های انسانی موجود آنلاین، از جمله کتاب‌ها، مقالات و وب‌سایت‌ها. برای درک بهتر این مقیاس، اگر انسانی بخواهد تمام این متن را بخواند، ده‌ها هزار عمر طول می‌کشد.

پس از این آموزش اولیه گسترده، مدل تحت تنظیم دقیق نظارت‌شده قرار می‌گیرد، جایی که انسان‌ها نمونه‌هایی از خروجی‌های ترجیحی را ارائه می‌دهند و مدل را به سمت تولید پاسخ‌هایی هدایت می‌کنند که با ترجیحات انسانی همسوتر باشد. در نهایت، تکنیک‌هایی مانند یادگیری تقویتی با بازخورد انسانی (RLHF) برای شکل‌دهی به رفتار مدل با تعریف مرزهای قابل قبول برای آنچه می‌تواند یا نمی‌تواند تولید کند، اعمال می‌شود.

هوش مصنوعی در چه کارهایی واقعاً خوب است؟

آن‌ها در وظایف مربوط به زبان‌های انسانی، از جمله ترجمه، نوشتن مقاله، ویرایش متن، ارائه بازخورد و عمل به عنوان مربیان نگارش شخصی‌سازی شده، عالی هستند.

آن‌ها می‌توانند آزمون‌های استاندارد را پشت سر بگذارند. به عنوان مثال، GPT-4 از OpenAI در آزمون‌های واقعاً چالش‌برانگیز مانند آزمون وکالت (صدک 90)، LSAT (صدک 88)، GRE کمی (صدک 80)، GRE کلامی (صدک 99)، USMLE و چندین آزمون Advanced Placement (AP) به نمرات بالایی دست می‌یابد. آن‌ها حتی در امتحانات ریاضی سطح دکترا نیز برتری دارند. به طرز شگفت‌آوری، مطالعات نشان داده‌اند که آن‌ها هوش هیجانی بیشتری نسبت به انسان‌ها دارند.

فراتر از آزمون‌ها، مدل‌های زبانی بزرگ (LLM) می‌توانند به عنوان همکاران دانشمندان عمل کنند و به محققان در تولید فرضیه‌های جدید، پیش‌نویس پیشنهادهای تحقیقاتی و ترکیب ادبیات علمی پیچیده کمک کنند. آن‌ها به طور فزاینده‌ای در سیستم‌های چندوجهی طراحی شده برای وظایف بینایی-زبان، رباتیک و برنامه‌ریزی اقدامات در دنیای واقعی گنجانده می‌شوند.

برخی از محدودیت‌های فعلی ابزارهای هوش مصنوعی مولد چیست؟

مدل‌های زبانی بزرگ (LLM) هنوز هم می‌توانند «توهم بزنند»، به این معنی که با اطمینان اطلاعاتی را تولید می‌کنند که به نظر قابل قبول می‌رسد اما نادرست است. قابلیت‌های استدلال و برنامه‌ریزی آن‌ها، اگرچه به سرعت در حال بهبود است، هنوز در مقایسه با انعطاف‌پذیری و عمق سطح انسانی محدود است. و آن‌ها به طور مداوم از تجربه یاد نمی‌گیرند؛ دانش آن‌ها پس از آموزش به طور مؤثری منجمد می‌شود، به این معنی که از تحولات اخیر یا تغییرات جاری در جهان آگاهی ندارند.

سیستم‌های هوش مصنوعی مولد فعلی همچنین فاقد فراشناخت هستند، به این معنی که معمولاً نمی‌دانند چه چیزی را نمی‌دانند، و به ندرت هنگام مواجهه با عدم قطعیت یا درخواست‌های مبهم، سوالات روشن‌کننده می‌پرسند. این فقدان خودآگاهی، اثربخشی آن‌ها را در تعاملات دنیای واقعی محدود می‌کند.

انسان‌ها در یادگیری مداوم برتری دارند، جایی که مهارت‌های اکتسابی اولیه به عنوان پایه برای توانایی‌های پیچیده‌تر عمل می‌کنند. به عنوان مثال، نوزادان ابتدا باید کنترل حرکتی اولیه را فرا بگیرند قبل از اینکه به راه رفتن، دویدن یا حتی ژیمناستیک پیشرفت کنند. مدل‌های زبانی بزرگ امروزی نه این نوع یادگیری تجمعی و انتقال رو به جلو را نشان می‌دهند و نه به طور مؤثر بر روی آن ارزیابی می‌شوند. رفع این محدودیت یکی از اهداف اصلی تحقیقات آزمایشگاه من است.

چالش‌ها و خطرات اصلی هوش مصنوعی چیست؟

هوش مصنوعی مولد در حال حاضر به طور قابل توجهی در حال تغییر محل کار است. این امر به ویژه برای نقش‌های یقه سفید—موقعیتی‌هایی که به طور سنتی به تحصیلات یا تخصص ویژه نیاز دارند—مخرب است، زیرا کمک‌خلبان‌های هوش مصنوعی (AI copilots) به کارگران منفرد قدرت می‌دهند تا بهره‌وری خود را به طور قابل توجهی افزایش دهند؛ آن‌ها می‌توانند تازه‌کاران را به سطحی نزدیک‌تر به سطح متخصصان تبدیل کنند. این افزایش بهره‌وری به این معنی است که شرکت‌ها می‌توانند با تعداد کارمندان به طور قابل توجهی کمتری به طور مؤثر فعالیت کنند و احتمال کاهش گسترده نقش‌های یقه سفید در بسیاری از صنایع را افزایش می‌دهد.

در مقابل، مشاغلی که به مهارت دستی، خلاقیت، رهبری و تعامل فیزیکی مستقیم انسان نیاز دارند، مانند مشاغل فنی ماهر، موقعیت‌های مراقبت‌های بهداشتی شامل مراقبت مستقیم از بیمار، یا صنایع دستی، بعید است که به این زودی‌ها توسط هوش مصنوعی جایگزین شوند.

در حالی که سناریوهایی مانند «ماکسیمایزر گیره کاغذ» (Paperclip Maximizer) معروف نیک باستروم، که در آن AGI به طور ناخواسته بشریت را نابود می‌کند، معمولاً مورد بحث قرار می‌گیرند، من فکر می‌کنم خطر فوری بزرگتر، انسان‌هایی هستند که ممکن است عمداً از هوش مصنوعی پیشرفته برای اهداف فاجعه‌بار استفاده کنند. تلاش‌ها باید بر همکاری بین‌المللی، توسعه مسئولانه و سرمایه‌گذاری در تحقیقات ایمنی هوش مصنوعی دانشگاهی متمرکز شود.

برای اطمینان از توسعه و استفاده ایمن از هوش مصنوعی، ما به مقررات پیرامون کاربردهای خاص نیاز داریم. جالب اینجاست که افرادی که اکنون خواستار مقررات دولتی هستند، همان کسانی هستند که شرکت‌های هوش مصنوعی را اداره می‌کنند. اما شخصاً، من نگران مقرراتی هستم که می‌تواند تلاش‌های هوش مصنوعی منبع‌باز را از بین ببرد، نوآوری را خفه کند و منافع هوش مصنوعی را در میان عده کمی متمرکز کند.

شانس دستیابی به هوش مصنوعی عمومی (AGI) چقدر است؟

سه «پدرخوانده» هوش مصنوعی مدرن و برندگان جایزه تورینگ—یوشوا بنجیو، جفری هینتون و یان لکون—همگی موافقند که دستیابی به AGI امکان‌پذیر است. اخیراً، بنجیو و هینتون نگرانی قابل توجهی ابراز کرده‌اند و هشدار داده‌اند که AGI به طور بالقوه می‌تواند خطری وجودی برای بشریت ایجاد کند. با این وجود، من فکر نمی‌کنم هیچ یک از آن‌ها—یا من—معتقد باشیم که معماری‌های LLM امروزی به تنهایی برای دستیابی به AGI واقعی کافی خواهند بود.

LLMها ذاتاً با استفاده از زبان استدلال می‌کنند، در حالی که برای انسان‌ها، زبان عمدتاً به عنوان وسیله‌ای برای ارتباط عمل می‌کند تا یک رسانه اصلی برای خود تفکر. این اتکا به زبان ذاتاً توانایی LLMها را برای درگیر شدن در استدلال انتزاعی یا تجسم محدود می‌کند و پتانسیل آن‌ها را برای هوش گسترده‌تر و شبیه به انسان محدود می‌سازد.