ترانزیستورها و کاربرد آن‌ها در دستگاه‌های تقلیدکننده نورو-سیناپسی. اعتبار: مجله <i>Nature</i> (2025). DOI: 10.1038/s41586-025-08742-4
ترانزیستورها و کاربرد آن‌ها در دستگاه‌های تقلیدکننده نورو-سیناپسی. اعتبار: مجله <i>Nature</i> (2025). DOI: 10.1038/s41586-025-08742-4

پیشرفت ادوات نیمه‌رسانا برای هوش مصنوعی: یک ترانزیستور منفرد مانند نورون و سیناپس عمل می‌کند

قرار دادن مغز در سیلیکون

پژوهشگران دانشگاه ملی سنگاپور (NUS) نشان داده‌اند که یک ترانزیستور سیلیکونی استاندارد منفرد، که بلوک سازنده اساسی ریزتراشه‌های مورد استفاده در رایانه‌ها، تلفن‌های هوشمند و تقریباً تمام سیستم‌های الکترونیکی است، می‌تواند هنگامی که به روشی خاص و غیرمتعارف عمل کند، مانند یک نورون و سیناپس بیولوژیکی عمل کند.

این کار تیم تحقیقاتی به رهبری دانشیار ماریو لانزا از دپارتمان علوم و مهندسی مواد در دانشکده طراحی و مهندسی NUS، راه‌حلی بسیار مقیاس‌پذیر و کم‌مصرف برای شبکه‌های عصبی مصنوعی (ANNs) مبتنی بر سخت‌افزار ارائه می‌دهد.

این امر محاسبات نورومورفیک — جایی که تراشه‌ها می‌توانند اطلاعات را بسیار کارآمدتر، شبیه به مغز انسان پردازش کنند — را به واقعیت نزدیک‌تر می‌کند. مطالعه آن‌ها در مجله Nature منتشر شده است.

پیچیده‌ترین رایانه‌های جهان در حال حاضر درون سر ما وجود دارند. مطالعات نشان می‌دهند که مغز انسان، به طور کلی، به لطف تقریباً ۹۰ میلیارد نورون که حدود ۱۰۰ تریلیون اتصال با یکدیگر برقرار می‌کنند و سیناپس‌هایی که قدرت خود را در طول زمان تنظیم می‌کنند — فرآیندی به نام پلاستیسیته سیناپسی (synaptic plasticity)، که زیربنای یادگیری و حافظه است — از پردازنده‌های الکترونیکی کم‌مصرف‌تر است.

دهه‌هاست که دانشمندان به دنبال تکرار این کارایی با استفاده از شبکه‌های عصبی مصنوعی (ANNs) بوده‌اند. ANNs اخیراً پیشرفت‌های چشمگیری در هوش مصنوعی (AI) ایجاد کرده‌اند که به طور کلی از نحوه پردازش اطلاعات توسط مغز الهام گرفته‌اند.

اما در حالی که آن‌ها اصطلاحات بیولوژیکی را وام می‌گیرند، شباهت‌ها فقط سطحی است — ANNs مبتنی بر نرم‌افزار، مانند آن‌هایی که مدل‌های زبان بزرگ مانند ChatGPT را قدرت می‌بخشند، اشتهای سیری‌ناپذیری برای منابع محاسباتی و در نتیجه برق دارند. این امر آن‌ها را برای بسیاری از کاربردها غیرعملی می‌سازد.

محاسبات نورومورفیک با هدف تقلید از قدرت محاسباتی و بهره‌وری انرژی مغز انجام می‌شود. این امر نه تنها مستلزم طراحی مجدد معماری سیستم برای انجام حافظه و محاسبات در یک مکان — به اصطلاح محاسبات درون حافظه (in-memory computing یا IMC) — است، بلکه نیازمند توسعه دستگاه‌های الکترونیکی است که از پدیده‌های فیزیکی و الکترونیکی قادر به تکرار وفادارانه‌تر نحوه عملکرد نورون‌ها و سیناپس‌ها بهره می‌برند.

با این حال، سیستم‌های محاسباتی نورومورفیک کنونی به دلیل نیاز به مدارهای چند ترانزیستوری پیچیده یا مواد نوظهور که هنوز برای تولید در مقیاس بزرگ تأیید نشده‌اند، با مشکل مواجه هستند.

پروفسور لانزا گفت: «برای فعال کردن محاسبات نورومورفیک واقعی، جایی که ریزتراشه‌ها مانند نورون‌ها و سیناپس‌های بیولوژیکی رفتار می‌کنند، به سخت‌افزاری نیاز داریم که هم مقیاس‌پذیر و هم کم‌مصرف باشد.»

تیم تحقیقاتی NUS اکنون نشان داده است که یک ترانزیستور سیلیکونی استاندارد منفرد، هنگامی که به روشی خاص چیده و عمل کند، می‌تواند هم شلیک عصبی و هم تغییرات وزن سیناپسی — مکانیسم‌های اساسی نورون‌ها و سیناپس‌های بیولوژیکی — را تکرار کند.

این امر از طریق تنظیم مقاومت ترمینال بالک (bulk terminal) به مقادیر مشخص به دست آمد که امکان کنترل دو پدیده فیزیکی رخ داده در ترانزیستور را فراهم می‌کند: یونیزاسیون ضربه‌ای پانچ-ترو (punch through impact ionization) و به دام انداختن بار (charge trapping). علاوه بر این، تیم یک سلول دو ترانزیستوری ساخت که قادر به کار در حالت نورونی یا سیناپسی است و پژوهشگران آن را «حافظه دسترسی تصادفی نورو-سیناپسی» یا NS-RAM نامیده‌اند.

پروفسور لانزا توضیح داد: «رویکردهای دیگر به آرایه‌های ترانزیستوری پیچیده یا مواد جدید با قابلیت ساخت نامشخص نیاز دارند، اما روش ما از فناوری تجاری CMOS (نیمه‌رسانای اکسید-فلز مکمل)، همان پلتفرمی که در پردازنده‌های رایانه‌ای مدرن و ریزتراشه‌های حافظه یافت می‌شود، استفاده می‌کند.»

وی افزود: «این بدان معناست که مقیاس‌پذیر، قابل اعتماد و سازگار با فرآیندهای ساخت نیمه‌رسانای موجود است.»

از طریق آزمایش‌ها، سلول NS-RAM مصرف برق پایین را نشان داد، عملکرد پایداری را در طی چرخه‌های عملیاتی متعدد حفظ کرد و رفتار ثابت و قابل پیش‌بینی را در دستگاه‌های مختلف به نمایش گذاشت — که همگی ویژگی‌های مطلوبی برای ساخت سخت‌افزار ANN قابل اعتماد مناسب برای کاربردهای دنیای واقعی هستند.

پیشرفت این تیم گامی مهم در توسعه پردازنده‌های هوش مصنوعی فشرده و کم‌مصرف است که می‌تواند محاسبات سریع‌تر و پاسخگوتر را امکان‌پذیر کند.