مدلهای زبانی بزرگ (LLM) که نیروی محرکه چتباتهای امروزی هستند، به طرز شگفتآوری توانمند شدهاند. محققان هوش مصنوعی برای ارزیابی این قابلیتها تحت فشار هستند—به نظر میرسد که هنوز آزمون جدیدی نیامده، سیستمهای هوش مصنوعی در آن موفق میشوند. اما این عملکرد واقعاً به چه معناست؟ آیا این مدلها واقعاً دنیای ما را درک میکنند؟ یا صرفاً یک پیروزی از دادهها و محاسباتی هستند که درک واقعی را شبیهسازی میکنند؟
برای بررسی این سؤالات، IEEE Spectrum با موزه تاریخ کامپیوتر در مانتین ویو، کالیفرنیا، همکاری کرد تا دو کارشناس صاحب نظر را به صحنه بیاورد. من مجری این رویداد بودم که در 25 مارس برگزار شد. این یک مناظره آتشین (اما محترمانه) بود که تماشای کامل آن ارزشمند است.
امیلی ام. بندر، استاد دانشگاه واشنگتن و مدیر آزمایشگاه زبانشناسی محاسباتی آن است و در دهه گذشته به عنوان یکی از سرسختترین منتقدان شرکتهای پیشرو هوش مصنوعی امروزی و رویکرد آنها به هوش مصنوعی ظاهر شده است. او همچنین به عنوان یکی از نویسندگان مقاله مهم سال 2021 با عنوان "در مورد خطرات طوطیهای تصادفی" شناخته میشود، مقالهای که خطرات احتمالی LLMها را تشریح کرد (و باعث شد گوگل، تیمنیت گبرو، نویسنده همکار را اخراج کند). جای تعجب نیست که بندر موضع "نه" را گرفت.
سباستین بوبک، که اخیراً از مایکروسافت به OpenAI نقل مکان کرده و در آنجا معاون هوش مصنوعی بود، موضع "بله" را گرفت. او در طول مدت حضورش در مایکروسافت، نویسنده همکار پیشنویس تأثیرگذار "جرقههای هوش مصنوعی عمومی" بود که آزمایشهای اولیه او با GPT-4 OpenAI را در حالی که هنوز در دست توسعه بود، توصیف میکرد. در آن مقاله، او پیشرفتهایی را نسبت به LLMهای قبلی توصیف کرد که باعث شد احساس کند این مدل به سطح جدیدی از درک رسیده است.
بدون هیچ مقدمه دیگری، مسابقهای را که من آن را "طوطیها در مقابل جرقهها" مینامم، برای شما به ارمغان میآوریم.
الیزا استریکلند ویراستار ارشد IEEE Spectrum است، جایی که او هوش مصنوعی، مهندسی زیست پزشکی و موضوعات دیگر را پوشش میدهد. مشاهده بیوگرافی کامل