ساختار مدار سینستور (synstor). اعتبار: Science Advances (2025). DOI: 10.1126/sciadv.adr2082
ساختار مدار سینستور (synstor). اعتبار: Science Advances (2025). DOI: 10.1126/sciadv.adr2082

هوش مصنوعی 'فرا-تورینگ' با تقلید از مغز انسان انرژی کمتری مصرف می‌کند

هوش مصنوعی (AI) می‌تواند محاسبات پیچیده را انجام دهد و داده‌ها را سریع‌تر از هر انسانی تجزیه و تحلیل کند، اما انجام این کار به مقادیر عظیمی انرژی نیاز دارد. مغز انسان نیز یک کامپیوتر فوق‌العاده قدرتمند است، با این حال انرژی بسیار کمی مصرف می‌کند.

با گسترش روزافزون شرکت‌های فناوری، رویکرد جدیدی به «تفکر» هوش مصنوعی که توسط محققان، از جمله مهندسان دانشگاه تگزاس ای اند ام (Texas A&M University) توسعه یافته است، از مغز انسان تقلید می‌کند و پتانسیل ایجاد تحول در صنعت هوش مصنوعی را دارد.

دکتر سوین یی (Suin Yi)، استادیار مهندسی برق و کامپیوتر در دانشکده مهندسی تگزاس ای اند ام، عضو تیمی از محققان است که «هوش مصنوعی فرا-تورینگ» (Super-Turing AI) را توسعه داده‌اند؛ این هوش مصنوعی بیشتر شبیه مغز انسان عمل می‌کند. این هوش مصنوعی جدید به جای جداسازی فرآیندها و سپس انتقال حجم عظیمی از داده‌ها مانند سیستم‌های فعلی، برخی فرآیندها را یکپارچه می‌کند.

واژه «تورینگ» در نام این سیستم به آلن تورینگ، پیشگام هوش مصنوعی اشاره دارد که کارهای نظری او در اواسط قرن بیستم، ستون فقرات محاسبات، هوش مصنوعی و رمزنگاری شده است. امروزه، بالاترین افتخار در علوم کامپیوتر، جایزه تورینگ نام دارد.

این تیم یافته‌های خود را در نشریه Science Advances منتشر کرده است.

بحران انرژی در هوش مصنوعی

سیستم‌های هوش مصنوعی امروزی، از جمله مدل‌های زبان بزرگ (large language models) مانند OpenAI و ChatGPT، به قدرت محاسباتی عظیمی نیاز دارند و در مراکز داده (data centers) گسترده‌ای قرار دارند که مقادیر زیادی برق مصرف می‌کنند.

سوین توضیح داد: «این مراکز داده در مقیاس گیگاوات انرژی مصرف می‌کنند، در حالی که مغز ما ۲۰ وات مصرف می‌کند. این یعنی ۱ میلیارد وات در مقایسه با فقط ۲۰ وات. مراکز داده‌ای که این انرژی را مصرف می‌کنند با روش‌های محاسباتی فعلی پایدار نیستند. بنابراین، در حالی که توانایی‌های هوش مصنوعی قابل توجه است، سخت‌افزار و تولید برق مورد نیاز برای حفظ آن هنوز مورد نیاز است.»

نیازهای قابل توجه انرژی نه تنها هزینه‌های عملیاتی را افزایش می‌دهد، بلکه با توجه به ردپای کربن مرتبط با مراکز داده در مقیاس بزرگ، نگرانی‌های زیست‌محیطی را نیز برمی‌انگیزد. با یکپارچه‌تر شدن هوش مصنوعی، پرداختن به پایداری آن به طور فزاینده‌ای حیاتی می‌شود.

تقلید از مغز

یی و تیمش معتقدند که کلید حل این مشکل در طبیعت نهفته است - به ویژه، فرآیندهای عصبی مغز انسان.

در مغز، عملکردهای یادگیری و حافظه از هم جدا نیستند؛ بلکه یکپارچه‌اند. یادگیری و حافظه به اتصالات بین نورون‌ها، به نام «سیناپس» (synapses)، که سیگنال‌ها در آنجا منتقل می‌شوند، متکی هستند. یادگیری از طریق فرآیندی به نام «انعطاف‌پذیری سیناپسی» (synaptic plasticity)، اتصالات سیناپسی را تقویت یا تضعیف می‌کند و مدارهای جدیدی تشکیل می‌دهد و مدارهای موجود را برای ذخیره و بازیابی اطلاعات تغییر می‌دهد.

در مقابل، در سیستم‌های محاسباتی فعلی، آموزش (نحوه آموزش هوش مصنوعی) و حافظه (ذخیره‌سازی داده‌ها) در دو مکان جداگانه در سخت‌افزار کامپیوتر اتفاق می‌افتد. هوش مصنوعی فرا-تورینگ انقلابی است زیرا این شکاف کارایی را پر می‌کند، به طوری که کامپیوتر مجبور نیست مقادیر عظیمی از داده‌ها را از یک بخش سخت‌افزار خود به بخش دیگر منتقل کند.

یی گفت: «مدل‌های هوش مصنوعی سنتی به شدت به پس‌انتشار (backpropagation) متکی هستند - روشی که برای تنظیم شبکه‌های عصبی در طول آموزش استفاده می‌شود. اگرچه پس‌انتشار مؤثر است، اما از نظر بیولوژیکی قابل قبول نیست و از نظر محاسباتی فشرده است.»

او افزود: «کاری که ما در آن مقاله انجام دادیم، عیب‌یابی عدم امکان‌پذیری بیولوژیکی موجود در الگوریتم‌های یادگیری ماشین غالب بود. تیم ما مکانیسم‌هایی مانند یادگیری هبی (Hebbian learning) و انعطاف‌پذیری وابسته به زمان اسپایک (spike-timing-dependent plasticity) را بررسی می‌کند - فرآیندهایی که به نورون‌ها کمک می‌کنند تا اتصالات را به روشی تقویت کنند که نحوه یادگیری مغز واقعی را تقلید می‌کند.»

اصول یادگیری هبی اغلب به این صورت خلاصه می‌شود: «سلول‌هایی که با هم شلیک می‌کنند، با هم سیم‌کشی می‌شوند». این رویکرد بیشتر با نحوه تقویت اتصالات نورون‌ها در مغز بر اساس الگوهای فعالیت همسو است. با ادغام چنین مکانیسم‌های الهام گرفته از زیست‌شناسی، تیم قصد دارد سیستم‌های هوش مصنوعی را توسعه دهد که بدون به خطر انداختن عملکرد، به قدرت محاسباتی کمتری نیاز دارند.

در یک آزمایش، مداری با استفاده از این اجزا به یک پهپاد کمک کرد تا در یک محیط پیچیده - بدون آموزش قبلی - مسیریابی کند و در حین پرواز یاد بگیرد و سازگار شود. این رویکرد سریع‌تر، کارآمدتر و با مصرف انرژی کمتر نسبت به هوش مصنوعی سنتی بود.

چرا این موضوع برای آینده هوش مصنوعی اهمیت دارد

این تحقیق می‌تواند یک تغییردهنده بازی برای صنعت هوش مصنوعی باشد. شرکت‌ها در رقابت برای ساخت مدل‌های هوش مصنوعی بزرگتر و قدرتمندتر هستند، اما توانایی آن‌ها برای مقیاس‌پذیری با محدودیت‌های سخت‌افزاری و انرژی محدود شده است. در برخی موارد، برنامه‌های کاربردی جدید هوش مصنوعی نیاز به ساخت مراکز داده کاملاً جدید دارند که هزینه‌های زیست‌محیطی و اقتصادی را بیشتر افزایش می‌دهد.

یی تأکید می‌کند که نوآوری در سخت‌افزار به همان اندازه پیشرفت در خود سیستم‌های هوش مصنوعی حیاتی است. او گفت: «بسیاری از مردم می‌گویند هوش مصنوعی فقط یک موضوع نرم‌افزاری است، اما بدون سخت‌افزار محاسباتی، هوش مصنوعی نمی‌تواند وجود داشته باشد.»

نگاه به آینده: توسعه پایدار هوش مصنوعی

هوش مصنوعی فرا-تورینگ گامی محوری به سوی توسعه پایدار هوش مصنوعی است. با بازنگری در معماری‌های هوش مصنوعی برای انعکاس کارایی مغز انسان، این صنعت می‌تواند هم چالش‌های اقتصادی و هم چالش‌های زیست‌محیطی را برطرف کند.

یی و تیمش امیدوارند که تحقیقات آن‌ها به نسل جدیدی از هوش مصنوعی منجر شود که هم هوشمندتر و هم کارآمدتر باشد.

یی گفت: «هوش مصنوعی مدرن مانند ChatGPT عالی است، اما بسیار گران است. ما قصد داریم هوش مصنوعی پایدار بسازیم. هوش مصنوعی فرا-تورینگ می‌تواند نحوه ساخت و استفاده از هوش مصنوعی را تغییر دهد و اطمینان حاصل کند که با ادامه پیشرفت، به گونه‌ای عمل می‌کند که هم به نفع مردم و هم به نفع سیاره زمین باشد.»

اطلاعات بیشتر: Jungmin Lee et al, HfZrO-based synaptic resistor circuit for a Super-Turing intelligent system, Science Advances (2025). DOI: 10.1126/sciadv.adr2082

اطلاعات نشریه: Science Advances

ارائه شده توسط دانشگاه تگزاس ای اند ام