هوش مصنوعی ضروری
هوش مصنوعی ضروری

نویسنده مقاله «Attention is All You Need» پیشنهاد می‌کند که LLMها در مرحله پیش‌آموزش «بازتاب» می‌کنند

این مطالعه این ادعا را به چالش می‌کشد که بازتاب در مدل‌های هوش مصنوعی تنها پس از تنظیم دقیق یا یادگیری تقویتی پدیدار می‌شود.

نمودار خود بازتابی
نمودار خود بازتابی

استارتاپ هوش مصنوعی ضروری (Essential AI) که توسط اشیش واسوانی، نویسنده مشترک مقاله برجسته «Attention Is All You Need» که معرفی‌کننده ترانسفورمرها بود، مطالعه‌ای را چند هفته پیش با عنوان «بازاندیشی بازتاب در پیش‌آموزش» منتشر کرد.

این تحقیق نشان می‌دهد که ظرفیت یک مدل هوش مصنوعی برای خودبازتابی در استدلال خود در طول خودِ مرحله پیش‌آموزش به وجود می‌آید، نه از طریق تنظیم دقیق یا یادگیری تقویتی، آن‌طور که اغلب تصور می‌شود.

محققان با آزمایش یک مدل هوش مصنوعی (OLMo-2) در مراحل مختلف آموزش با استفاده از وظایفی که دارای خطاهای عمدی بودند، دریافتند که بازتاب به‌طور طبیعی در طول فرآیند آموزش پدیدار می‌شود.

محققان مجموعه‌داده‌هایی را در حوزه‌های مختلف مانند ریاضیات، برنامه‌نویسی، استدلال منطقی و کسب دانش ایجاد کردند. این مجموعه‌داده‌ها حاوی مسیرهای استدلال زنجیره‌ای تفکر (CoT) بودند که به‌طور عمدی تغییر یافته و خطاهایی مانند اشتباهات محاسباتی و ناسازگاری‌های منطقی در آن‌ها وارد شده بود. آن‌ها همچنین توانایی مدل‌ها را در تصحیح استدلال نادرست خود آزمایش کردند.

یکی از یافته‌های کلیدی این بود که بازتاب را می‌توان با استفاده از محرک‌های زبانی ساده و طبیعی فعال کرد.

عباراتی مانند «صبر کن» حتی مدل‌های نیمه‌آموزش‌دیده را وادار می‌کند که مکث کنند، خطاها را تشخیص دهند و آن‌ها را از مسیرهای استدلال اصلاح کنند.

بخشی از این مطالعه می‌گوید: «به عنوان مثال، یک مدل OLMo-2 7B که روی چهار تریلیون توکن پیش‌آموزش داده شده است، خوداصلاحی را در شش وظیفه خودبازتابی ما نشان می‌دهد.»

این مطالعه همچنین نشان داد که با آموزش بیشتر مدل‌ها، توانایی آن‌ها در شناسایی اشتباهات و تصحیح استدلال به‌طور پیوسته بهبود می‌یابد.

این استارتاپ همچنین گزارش فنی‌ای را منتشر کرده است که روش‌های تحقیق، پیامدها و نتایج را تشریح می‌کند.

هوش مصنوعی ضروری در دسامبر ۲۰۲۳ از حالت مخفی خارج شد و در یک دور سرمایه‌گذاری به رهبری گوگل، Thrive Capital، AMD و دیگران، ۵۶.۵ میلیون دلار جمع‌آوری کرد. این استارتاپ بر ساخت «محصولات هوش مصنوعی کامل» از جمله LLMهایی متمرکز است که بهره‌وری را در گردش‌های کاری «یکنواخت» افزایش می‌دهند.

واسوانی همچنین نیکی پارمار را به عنوان یکی از بنیان‌گذاران در کنار خود داشت که او نیز در نوشتن مقاله «Attention Is All You Need» همکاری داشت. با این حال، او به تازگی به استارتاپ هوش مصنوعی Anthropic پیوسته است.

Attention Is All You Need یک مقاله تحقیقاتی بود که توسط گوگل در سال ۲۰۱۷ منتشر شد و معماری «ترانسفورمر» را معرفی کرد که به عنوان ستون فقرات اکثر، اگر نگوییم همه، مدل‌های زبانی بزرگ امروزی عمل می‌کند.