این مطالعه این ادعا را به چالش میکشد که بازتاب در مدلهای هوش مصنوعی تنها پس از تنظیم دقیق یا یادگیری تقویتی پدیدار میشود.
استارتاپ هوش مصنوعی ضروری (Essential AI) که توسط اشیش واسوانی، نویسنده مشترک مقاله برجسته «Attention Is All You Need» که معرفیکننده ترانسفورمرها بود، مطالعهای را چند هفته پیش با عنوان «بازاندیشی بازتاب در پیشآموزش» منتشر کرد.
این تحقیق نشان میدهد که ظرفیت یک مدل هوش مصنوعی برای خودبازتابی در استدلال خود در طول خودِ مرحله پیشآموزش به وجود میآید، نه از طریق تنظیم دقیق یا یادگیری تقویتی، آنطور که اغلب تصور میشود.
محققان با آزمایش یک مدل هوش مصنوعی (OLMo-2) در مراحل مختلف آموزش با استفاده از وظایفی که دارای خطاهای عمدی بودند، دریافتند که بازتاب بهطور طبیعی در طول فرآیند آموزش پدیدار میشود.
محققان مجموعهدادههایی را در حوزههای مختلف مانند ریاضیات، برنامهنویسی، استدلال منطقی و کسب دانش ایجاد کردند. این مجموعهدادهها حاوی مسیرهای استدلال زنجیرهای تفکر (CoT) بودند که بهطور عمدی تغییر یافته و خطاهایی مانند اشتباهات محاسباتی و ناسازگاریهای منطقی در آنها وارد شده بود. آنها همچنین توانایی مدلها را در تصحیح استدلال نادرست خود آزمایش کردند.
یکی از یافتههای کلیدی این بود که بازتاب را میتوان با استفاده از محرکهای زبانی ساده و طبیعی فعال کرد.
عباراتی مانند «صبر کن» حتی مدلهای نیمهآموزشدیده را وادار میکند که مکث کنند، خطاها را تشخیص دهند و آنها را از مسیرهای استدلال اصلاح کنند.
بخشی از این مطالعه میگوید: «به عنوان مثال، یک مدل OLMo-2 7B که روی چهار تریلیون توکن پیشآموزش داده شده است، خوداصلاحی را در شش وظیفه خودبازتابی ما نشان میدهد.»
این مطالعه همچنین نشان داد که با آموزش بیشتر مدلها، توانایی آنها در شناسایی اشتباهات و تصحیح استدلال بهطور پیوسته بهبود مییابد.
این استارتاپ همچنین گزارش فنیای را منتشر کرده است که روشهای تحقیق، پیامدها و نتایج را تشریح میکند.
هوش مصنوعی ضروری در دسامبر ۲۰۲۳ از حالت مخفی خارج شد و در یک دور سرمایهگذاری به رهبری گوگل، Thrive Capital، AMD و دیگران، ۵۶.۵ میلیون دلار جمعآوری کرد. این استارتاپ بر ساخت «محصولات هوش مصنوعی کامل» از جمله LLMهایی متمرکز است که بهرهوری را در گردشهای کاری «یکنواخت» افزایش میدهند.
واسوانی همچنین نیکی پارمار را به عنوان یکی از بنیانگذاران در کنار خود داشت که او نیز در نوشتن مقاله «Attention Is All You Need» همکاری داشت. با این حال، او به تازگی به استارتاپ هوش مصنوعی Anthropic پیوسته است.
Attention Is All You Need یک مقاله تحقیقاتی بود که توسط گوگل در سال ۲۰۱۷ منتشر شد و معماری «ترانسفورمر» را معرفی کرد که به عنوان ستون فقرات اکثر، اگر نگوییم همه، مدلهای زبانی بزرگ امروزی عمل میکند.