هوش مصنوعی (AI) میتواند محاسبات پیچیده را انجام دهد و دادهها را سریعتر از هر انسانی تجزیه و تحلیل کند، اما انجام این کار به مقادیر عظیمی انرژی نیاز دارد. مغز انسان نیز یک کامپیوتر فوقالعاده قدرتمند است، با این حال انرژی بسیار کمی مصرف میکند.
با گسترش روزافزون شرکتهای فناوری، رویکرد جدیدی به «تفکر» هوش مصنوعی که توسط محققان، از جمله مهندسان دانشگاه تگزاس ای اند ام (Texas A&M University) توسعه یافته است، از مغز انسان تقلید میکند و پتانسیل ایجاد تحول در صنعت هوش مصنوعی را دارد.
دکتر سوین یی (Suin Yi)، استادیار مهندسی برق و کامپیوتر در دانشکده مهندسی تگزاس ای اند ام، عضو تیمی از محققان است که «هوش مصنوعی فرا-تورینگ» (Super-Turing AI) را توسعه دادهاند؛ این هوش مصنوعی بیشتر شبیه مغز انسان عمل میکند. این هوش مصنوعی جدید به جای جداسازی فرآیندها و سپس انتقال حجم عظیمی از دادهها مانند سیستمهای فعلی، برخی فرآیندها را یکپارچه میکند.
واژه «تورینگ» در نام این سیستم به آلن تورینگ، پیشگام هوش مصنوعی اشاره دارد که کارهای نظری او در اواسط قرن بیستم، ستون فقرات محاسبات، هوش مصنوعی و رمزنگاری شده است. امروزه، بالاترین افتخار در علوم کامپیوتر، جایزه تورینگ نام دارد.
این تیم یافتههای خود را در نشریه Science Advances منتشر کرده است.
بحران انرژی در هوش مصنوعی
سیستمهای هوش مصنوعی امروزی، از جمله مدلهای زبان بزرگ (large language models) مانند OpenAI و ChatGPT، به قدرت محاسباتی عظیمی نیاز دارند و در مراکز داده (data centers) گستردهای قرار دارند که مقادیر زیادی برق مصرف میکنند.
سوین توضیح داد: «این مراکز داده در مقیاس گیگاوات انرژی مصرف میکنند، در حالی که مغز ما ۲۰ وات مصرف میکند. این یعنی ۱ میلیارد وات در مقایسه با فقط ۲۰ وات. مراکز دادهای که این انرژی را مصرف میکنند با روشهای محاسباتی فعلی پایدار نیستند. بنابراین، در حالی که تواناییهای هوش مصنوعی قابل توجه است، سختافزار و تولید برق مورد نیاز برای حفظ آن هنوز مورد نیاز است.»
نیازهای قابل توجه انرژی نه تنها هزینههای عملیاتی را افزایش میدهد، بلکه با توجه به ردپای کربن مرتبط با مراکز داده در مقیاس بزرگ، نگرانیهای زیستمحیطی را نیز برمیانگیزد. با یکپارچهتر شدن هوش مصنوعی، پرداختن به پایداری آن به طور فزایندهای حیاتی میشود.
تقلید از مغز
یی و تیمش معتقدند که کلید حل این مشکل در طبیعت نهفته است - به ویژه، فرآیندهای عصبی مغز انسان.
در مغز، عملکردهای یادگیری و حافظه از هم جدا نیستند؛ بلکه یکپارچهاند. یادگیری و حافظه به اتصالات بین نورونها، به نام «سیناپس» (synapses)، که سیگنالها در آنجا منتقل میشوند، متکی هستند. یادگیری از طریق فرآیندی به نام «انعطافپذیری سیناپسی» (synaptic plasticity)، اتصالات سیناپسی را تقویت یا تضعیف میکند و مدارهای جدیدی تشکیل میدهد و مدارهای موجود را برای ذخیره و بازیابی اطلاعات تغییر میدهد.
در مقابل، در سیستمهای محاسباتی فعلی، آموزش (نحوه آموزش هوش مصنوعی) و حافظه (ذخیرهسازی دادهها) در دو مکان جداگانه در سختافزار کامپیوتر اتفاق میافتد. هوش مصنوعی فرا-تورینگ انقلابی است زیرا این شکاف کارایی را پر میکند، به طوری که کامپیوتر مجبور نیست مقادیر عظیمی از دادهها را از یک بخش سختافزار خود به بخش دیگر منتقل کند.
یی گفت: «مدلهای هوش مصنوعی سنتی به شدت به پسانتشار (backpropagation) متکی هستند - روشی که برای تنظیم شبکههای عصبی در طول آموزش استفاده میشود. اگرچه پسانتشار مؤثر است، اما از نظر بیولوژیکی قابل قبول نیست و از نظر محاسباتی فشرده است.»
او افزود: «کاری که ما در آن مقاله انجام دادیم، عیبیابی عدم امکانپذیری بیولوژیکی موجود در الگوریتمهای یادگیری ماشین غالب بود. تیم ما مکانیسمهایی مانند یادگیری هبی (Hebbian learning) و انعطافپذیری وابسته به زمان اسپایک (spike-timing-dependent plasticity) را بررسی میکند - فرآیندهایی که به نورونها کمک میکنند تا اتصالات را به روشی تقویت کنند که نحوه یادگیری مغز واقعی را تقلید میکند.»
اصول یادگیری هبی اغلب به این صورت خلاصه میشود: «سلولهایی که با هم شلیک میکنند، با هم سیمکشی میشوند». این رویکرد بیشتر با نحوه تقویت اتصالات نورونها در مغز بر اساس الگوهای فعالیت همسو است. با ادغام چنین مکانیسمهای الهام گرفته از زیستشناسی، تیم قصد دارد سیستمهای هوش مصنوعی را توسعه دهد که بدون به خطر انداختن عملکرد، به قدرت محاسباتی کمتری نیاز دارند.
در یک آزمایش، مداری با استفاده از این اجزا به یک پهپاد کمک کرد تا در یک محیط پیچیده - بدون آموزش قبلی - مسیریابی کند و در حین پرواز یاد بگیرد و سازگار شود. این رویکرد سریعتر، کارآمدتر و با مصرف انرژی کمتر نسبت به هوش مصنوعی سنتی بود.
چرا این موضوع برای آینده هوش مصنوعی اهمیت دارد
این تحقیق میتواند یک تغییردهنده بازی برای صنعت هوش مصنوعی باشد. شرکتها در رقابت برای ساخت مدلهای هوش مصنوعی بزرگتر و قدرتمندتر هستند، اما توانایی آنها برای مقیاسپذیری با محدودیتهای سختافزاری و انرژی محدود شده است. در برخی موارد، برنامههای کاربردی جدید هوش مصنوعی نیاز به ساخت مراکز داده کاملاً جدید دارند که هزینههای زیستمحیطی و اقتصادی را بیشتر افزایش میدهد.
یی تأکید میکند که نوآوری در سختافزار به همان اندازه پیشرفت در خود سیستمهای هوش مصنوعی حیاتی است. او گفت: «بسیاری از مردم میگویند هوش مصنوعی فقط یک موضوع نرمافزاری است، اما بدون سختافزار محاسباتی، هوش مصنوعی نمیتواند وجود داشته باشد.»
نگاه به آینده: توسعه پایدار هوش مصنوعی
هوش مصنوعی فرا-تورینگ گامی محوری به سوی توسعه پایدار هوش مصنوعی است. با بازنگری در معماریهای هوش مصنوعی برای انعکاس کارایی مغز انسان، این صنعت میتواند هم چالشهای اقتصادی و هم چالشهای زیستمحیطی را برطرف کند.
یی و تیمش امیدوارند که تحقیقات آنها به نسل جدیدی از هوش مصنوعی منجر شود که هم هوشمندتر و هم کارآمدتر باشد.
یی گفت: «هوش مصنوعی مدرن مانند ChatGPT عالی است، اما بسیار گران است. ما قصد داریم هوش مصنوعی پایدار بسازیم. هوش مصنوعی فرا-تورینگ میتواند نحوه ساخت و استفاده از هوش مصنوعی را تغییر دهد و اطمینان حاصل کند که با ادامه پیشرفت، به گونهای عمل میکند که هم به نفع مردم و هم به نفع سیاره زمین باشد.»
اطلاعات بیشتر: Jungmin Lee et al, HfZrO-based synaptic resistor circuit for a Super-Turing intelligent system, Science Advances (2025). DOI: 10.1126/sciadv.adr2082
اطلاعات نشریه: Science Advances
ارائه شده توسط دانشگاه تگزاس ای اند ام