نوام براون، که رهبری تحقیقات استدلال هوش مصنوعی در OpenAI را بر عهده دارد، میگوید اگر محققان «رویکرد [درست]» و الگوریتمها را میدانستند، اشکال خاصی از مدلهای هوش مصنوعی «استدلالی» میتوانستند ۲۰ سال زودتر به وجود آیند.
براون در جریان یک پنل در کنفرانس GTC انویدیا در سن خوزه در روز چهارشنبه گفت: «دلایل مختلفی وجود داشت که چرا این مسیر تحقیقاتی نادیده گرفته شد. من در طول تحقیقاتم متوجه شدم که، باشه، چیزی کم است. انسانها قبل از اینکه در یک موقعیت سخت عمل کنند، زمان زیادی را صرف فکر کردن میکنند. شاید این [در هوش مصنوعی] بسیار مفید باشد.»
براون به کار خود در زمینه هوش مصنوعی بازیکن در دانشگاه کارنگی ملون، از جمله Pluribus، که متخصصان نخبه انسانی را در پوکر شکست داد، اشاره میکرد. هوش مصنوعی که براون در ایجاد آن کمک کرد، در آن زمان از این نظر منحصر به فرد بود که به جای تلاش برای یک رویکرد مبتنی بر زور، از طریق مسائل «استدلال» میکرد.
او همچنین یکی از معماران o1، یک مدل هوش مصنوعی OpenAI است که از تکنیکی به نام استنتاج زمان آزمایش برای «فکر کردن» قبل از پاسخ دادن به پرسشها استفاده میکند. استنتاج زمان آزمایش مستلزم اعمال محاسبات اضافی برای اجرای مدلها برای هدایت نوعی «استدلال» است. به طور کلی، مدلهای استدلالی دقیقتر و قابل اعتمادتر از مدلهای سنتی هستند، به ویژه در حوزههایی مانند ریاضیات و علوم.
در طول پنل، از براون پرسیده شد که آیا دانشگاهها میتوانند امیدوار باشند که آزمایشهایی را در مقیاس آزمایشگاههای هوش مصنوعی مانند OpenAI انجام دهند، با توجه به عدم دسترسی عمومی مؤسسات به منابع محاسباتی. او اعتراف کرد که در سالهای اخیر با توجه به اینکه مدلها محاسباتیتر شدهاند، این کار سختتر شده است، اما دانشگاهیان میتوانند با بررسی زمینههایی که به محاسبات کمتری نیاز دارند، مانند طراحی معماری مدل، تأثیرگذار باشند.
براون گفت: «[بنابراین] فرصتی برای همکاری بین آزمایشگاههای پیشرو [و دانشگاهها] وجود دارد. مطمئناً، آزمایشگاههای پیشرو به انتشارات دانشگاهی نگاه میکنند و با دقت به این فکر میکنند که، باشه، آیا این استدلال قانعکنندهای ارائه میدهد که اگر این بیشتر توسعه یابد، بسیار مؤثر خواهد بود. اگر آن استدلال قانعکننده از مقاله وجود داشته باشد، میدانید، ما آن را در این آزمایشگاهها بررسی خواهیم کرد.»
اظهارات براون در زمانی بیان میشود که دولت ترامپ در حال ایجاد کاهشهای عمیق در کمکهای علمی است. کارشناسان هوش مصنوعی، از جمله جفری هینتون، برنده جایزه نوبل، از این کاهشها انتقاد کردهاند و گفتهاند که ممکن است تلاشهای تحقیقاتی هوش مصنوعی را هم در داخل و هم در خارج از کشور تهدید کنند.
براون، ارزیابی عملکرد هوش مصنوعی را به عنوان حوزهای معرفی کرد که دانشگاهها میتوانند در آن تأثیر قابل توجهی داشته باشند. او گفت: «وضعیت ارزیابی عملکرد در هوش مصنوعی واقعاً بد است و برای انجام آن نیازی به محاسبات زیادی نیست.»
همانطور که قبلاً در مورد آن نوشتهایم، ارزیابیهای عملکرد محبوب هوش مصنوعی امروزی تمایل دارند دانش باطنی را آزمایش کنند و نمراتی را ارائه دهند که همبستگی ضعیفی با مهارت در وظایفی که بیشتر مردم به آن اهمیت میدهند، دارند. این امر منجر به سردرگمی گسترده در مورد تواناییها و پیشرفتهای مدلها شده است.
به روز رسانی در ساعت 4:06 بعد از ظهر به وقت محلی: نسخه قبلی این قطعه به این معنی بود که براون در اظهارات اولیه خود به مدلهای استدلالی مانند o1 اشاره میکرد. در واقع، او به کار خود در زمینه هوش مصنوعی بازیکن قبل از حضورش در OpenAI اشاره میکرد. ما از این اشتباه متاسفیم.