اعتبار تصویر: برایس دوربین / TechCrunch
اعتبار تصویر: برایس دوربین / TechCrunch

به گفته محقق ارشد OpenAI، نوام براون، مدل‌های «استدلالی» خاص هوش مصنوعی می‌توانستند دهه‌ها پیش به وجود آیند

نوام براون، که رهبری تحقیقات استدلال هوش مصنوعی در OpenAI را بر عهده دارد، می‌گوید اگر محققان «رویکرد [درست]» و الگوریتم‌ها را می‌دانستند، اشکال خاصی از مدل‌های هوش مصنوعی «استدلالی» می‌توانستند ۲۰ سال زودتر به وجود آیند.

براون در جریان یک پنل در کنفرانس GTC انویدیا در سن خوزه در روز چهارشنبه گفت: «دلایل مختلفی وجود داشت که چرا این مسیر تحقیقاتی نادیده گرفته شد. من در طول تحقیقاتم متوجه شدم که، باشه، چیزی کم است. انسان‌ها قبل از اینکه در یک موقعیت سخت عمل کنند، زمان زیادی را صرف فکر کردن می‌کنند. شاید این [در هوش مصنوعی] بسیار مفید باشد.»

براون به کار خود در زمینه هوش مصنوعی بازی‌کن در دانشگاه کارنگی ملون، از جمله Pluribus، که متخصصان نخبه انسانی را در پوکر شکست داد، اشاره می‌کرد. هوش مصنوعی که براون در ایجاد آن کمک کرد، در آن زمان از این نظر منحصر به فرد بود که به جای تلاش برای یک رویکرد مبتنی بر زور، از طریق مسائل «استدلال» می‌کرد.

او همچنین یکی از معماران o1، یک مدل هوش مصنوعی OpenAI است که از تکنیکی به نام استنتاج زمان آزمایش برای «فکر کردن» قبل از پاسخ دادن به پرسش‌ها استفاده می‌کند. استنتاج زمان آزمایش مستلزم اعمال محاسبات اضافی برای اجرای مدل‌ها برای هدایت نوعی «استدلال» است. به طور کلی، مدل‌های استدلالی دقیق‌تر و قابل اعتمادتر از مدل‌های سنتی هستند، به ویژه در حوزه‌هایی مانند ریاضیات و علوم.

در طول پنل، از براون پرسیده شد که آیا دانشگاه‌ها می‌توانند امیدوار باشند که آزمایش‌هایی را در مقیاس آزمایشگاه‌های هوش مصنوعی مانند OpenAI انجام دهند، با توجه به عدم دسترسی عمومی مؤسسات به منابع محاسباتی. او اعتراف کرد که در سال‌های اخیر با توجه به اینکه مدل‌ها محاسباتی‌تر شده‌اند، این کار سخت‌تر شده است، اما دانشگاهیان می‌توانند با بررسی زمینه‌هایی که به محاسبات کمتری نیاز دارند، مانند طراحی معماری مدل، تأثیرگذار باشند.

براون گفت: «[بنابراین] فرصتی برای همکاری بین آزمایشگاه‌های پیشرو [و دانشگاه‌ها] وجود دارد. مطمئناً، آزمایشگاه‌های پیشرو به انتشارات دانشگاهی نگاه می‌کنند و با دقت به این فکر می‌کنند که، باشه، آیا این استدلال قانع‌کننده‌ای ارائه می‌دهد که اگر این بیشتر توسعه یابد، بسیار مؤثر خواهد بود. اگر آن استدلال قانع‌کننده از مقاله وجود داشته باشد، می‌دانید، ما آن را در این آزمایشگاه‌ها بررسی خواهیم کرد.»

اظهارات براون در زمانی بیان می‌شود که دولت ترامپ در حال ایجاد کاهش‌های عمیق در کمک‌های علمی است. کارشناسان هوش مصنوعی، از جمله جفری هینتون، برنده جایزه نوبل، از این کاهش‌ها انتقاد کرده‌اند و گفته‌اند که ممکن است تلاش‌های تحقیقاتی هوش مصنوعی را هم در داخل و هم در خارج از کشور تهدید کنند.

براون، ارزیابی عملکرد هوش مصنوعی را به عنوان حوزه‌ای معرفی کرد که دانشگاه‌ها می‌توانند در آن تأثیر قابل توجهی داشته باشند. او گفت: «وضعیت ارزیابی عملکرد در هوش مصنوعی واقعاً بد است و برای انجام آن نیازی به محاسبات زیادی نیست.»

همانطور که قبلاً در مورد آن نوشته‌ایم، ارزیابی‌های عملکرد محبوب هوش مصنوعی امروزی تمایل دارند دانش باطنی را آزمایش کنند و نمراتی را ارائه دهند که همبستگی ضعیفی با مهارت در وظایفی که بیشتر مردم به آن اهمیت می‌دهند، دارند. این امر منجر به سردرگمی گسترده در مورد توانایی‌ها و پیشرفت‌های مدل‌ها شده است.

به روز رسانی در ساعت 4:06 بعد از ظهر به وقت محلی: نسخه قبلی این قطعه به این معنی بود که براون در اظهارات اولیه خود به مدل‌های استدلالی مانند o1 اشاره می‌کرد. در واقع، او به کار خود در زمینه هوش مصنوعی بازی‌کن قبل از حضورش در OpenAI اشاره می‌کرد. ما از این اشتباه متاسفیم.