هنگامی که والدین به فرزند خردسال خود آموزش میدهند که با جهان ارتباط برقرار کند، از طریق تداعیها و شناسایی الگوها آموزش میدهند. به عنوان مثال، حرف S را در نظر بگیرید. والدین نمونههای کافی از این حرف را به فرزند خود نشان میدهند و طولی نمیکشد که او میتواند نمونههای دیگر را در زمینههایی که راهنمایی فعال نیست، شناسایی کند: مدرسه، کتاب، بیلبورد.
بسیاری از فناوریهای هوش مصنوعی (AI) نوظهور نیز به همین روش آموزش داده شدهاند. محققان نمونههای درست از چیزی را که میخواستند سیستم تشخیص دهد، به آن وارد کردند و مانند یک کودک خردسال، هوش مصنوعی شروع به تشخیص الگوها و برونیابی این دانش به زمینههایی کرد که قبلاً تجربه نکرده بود و "شبکه عصبی" خود را برای طبقهبندی تشکیل داد. با این حال، مانند هوش انسانی، متخصصان ورودیهایی را که به تصمیمگیری هوش مصنوعی اطلاع میدادند، گم کردند.
بدین ترتیب، «مشکل جعبه سیاه» هوش مصنوعی به این صورت ظاهر میشود که ما به طور کامل درک نمیکنیم که چگونه یا چرا یک سیستم هوش مصنوعی ارتباط برقرار میکند، و نه متغیرهایی که در تصمیمات آن نقش دارند. این موضوع به ویژه هنگام تلاش برای بهبود قابلیت اعتماد و ایمنی سیستمها و ایجاد حاکمیت پذیرش هوش مصنوعی مرتبط است.
از یک وسیله نقلیه مجهز به هوش مصنوعی که به موقع ترمز نمیکند و به عابران پیاده آسیب میرساند، تا دستگاههای فناوری سلامت متکی به هوش مصنوعی که به پزشکان در تشخیص بیماران کمک میکنند، و سوگیریهای نشان داده شده توسط فرآیندهای غربالگری استخدام مبتنی بر هوش مصنوعی، پیچیدگی پشت این سیستمها منجر به ظهور یک رشته تحصیلی جدید شده است: فیزیک هوش مصنوعی، که به دنبال تثبیت بیشتر هوش مصنوعی به عنوان ابزاری برای دستیابی انسان به درک بالاتر است.
اکنون، یک گروه مطالعاتی مستقل جدید با ادغام زمینههای فیزیک، روانشناسی، فلسفه و علوم اعصاب در یک بررسی بینرشتهای از اسرار هوش مصنوعی، به این چالشها رسیدگی خواهد کرد.
NTT اعتماد و ایمنی هوش مصنوعی را پیشنهاد میکند
گروه فیزیک هوش مصنوعی که به تازگی معرفی شده است، یک انشعاب از آزمایشگاه فیزیک و انفورماتیک (PHI) NTT Research است و هفته گذشته در کنفرانس Upgrade 2025 NTT در سانفرانسیسکو، کالیفرنیا رونمایی شد. این گروه به پیشبرد رویکرد فیزیک هوش مصنوعی برای درک هوش مصنوعی ادامه خواهد داد، رویکردی که این تیم در پنج سال گذشته در حال بررسی آن بوده است.
دکتر هیدِنوری تاناکا، که دارای دکترای فیزیک کاربردی و علوم کامپیوتر و مهندسی از دانشگاه هاروارد است، رهبری این گروه تحقیقاتی جدید را بر عهده خواهد گرفت و بر تجربه قبلی خود در گروه سیستمهای هوشمند NTT و برنامه تحقیقات هوش مصنوعی CBS-NTT در زمینه فیزیک هوش در هاروارد تکیه خواهد کرد.
دکتر تاناکا هفته گذشته در حاشیه کنفرانس Upgrade به من گفت: «من به عنوان یک فیزیکدان، از موضوع هوش هیجانزده هستم، زیرا از نظر ریاضی، چگونه میتوانید به مفهوم خلاقیت فکر کنید؟ چگونه حتی میتوانید به مهربانی فکر کنید؟ این مفاهیم اگر هوش مصنوعی نبود، انتزاعی باقی میماندند. حدس زدن آسان است و میگوییم "این تعریف من از مهربانی است"، که از نظر ریاضی معنادار نیست، اما اکنون با هوش مصنوعی، این موضوع از نظر عملی مهم است، زیرا اگر بخواهیم هوش مصنوعی را مهربان کنیم، باید به زبان ریاضی به آن بگوییم که مهربانی چیست، به عنوان مثال.»
آزمایشگاه PHI در اوایل تحقیقات خود، اهمیت درک ماهیت "جعبه سیاه" هوش مصنوعی و یادگیری ماشین را برای توسعه سیستمهای جدید با بهبود بهرهوری انرژی برای محاسبات تشخیص داد. با این حال، پیشرفت هوش مصنوعی در نیم دهه گذشته، ملاحظات ایمنی و قابلیت اعتماد فزایندهای را برانگیخته است که بدین ترتیب برای کاربردهای صنعتی و تصمیمات حاکمیتی در مورد پذیرش هوش مصنوعی حیاتی شدهاند.
NTT Research از طریق گروه تحقیقاتی جدید، به شباهتهای بین هوشهای بیولوژیکی و مصنوعی رسیدگی میکند و بدین ترتیب امیدوار است پیچیدگیهای مکانیسمهای هوش مصنوعی را آشکار کند و ادغام هماهنگتری از همکاری انسان و هوش مصنوعی ایجاد کند.
اگرچه این رویکرد در ادغام هوش مصنوعی بدیع است، اما جدید نیست. فیزیکدانان قرنهاست که به دنبال آشکار کردن جزئیات دقیق روابط فناوری و انسانی بودهاند، از مطالعات گالیله در مورد نحوه حرکت اشیاء و سهم او در مکانیک، تا نحوه اطلاعرسانی موتور بخار از درک ترمودینامیک در طول انقلاب صنعتی. با این حال، در قرن بیست و یکم، دانشمندان به دنبال درک نحوه عملکرد هوش مصنوعی از نظر آموزش، انباشت دانش و تصمیمگیری هستند تا در آینده، فناوریهای هوش مصنوعی منسجمتر، ایمنتر و قابل اعتمادتری طراحی شوند.
دکتر هاناکا گفت: «هوش مصنوعی یک شبکه عصبی است، ساختار آن بسیار شبیه به نحوه عملکرد مغز انسان است. نورونها توسط سیناپسها به هم متصل میشوند که همه توسط اعداد در داخل یک کامپیوتر نشان داده میشوند. و سپس آنجاست که ما معتقدیم که میتواند فیزیک وجود داشته باشد… فیزیک در مورد برداشتن هر چیزی از جهان، تدوین فرضیههای ریاضی در مورد عملکرد درونی آنها و آزمایش آنها است.»
این گروه جدید به همکاری با مرکز علوم مغز (CBS) دانشگاه هاروارد ادامه خواهد داد و قصد دارد با پروفسور سویا گانگولی، دانشیار دانشگاه استنفورد، که دکتر تاناکا چندین مقاله را با او نوشته است، همکاری کند.
با این حال، دکتر تاناکا تأکید میکند که یک رویکرد علوم طبیعی و بینصنعتی اساسی خواهد بود. در سال 2017، زمانی که او دانشجوی دکترای دانشگاه هاروارد بود، محقق متوجه شد که میخواهد کاری بیشتر از فیزیک سنتی انجام دهد و از گالیله تا نیوتن و انیشتین، از پیشینیان خود پیروی کند تا جهانهای مفهومی جدیدی را در فیزیک بگشاید.
دکتر تاناکا در پایان گفت: «در حال حاضر، هوش مصنوعی تنها موضوعی است که میتوانم با همه در مورد آن صحبت کنم. به عنوان یک محقق، این عالی است زیرا همه همیشه مشتاق صحبت در مورد هوش مصنوعی هستند، و من نیز از هر مکالمهای یاد میگیرم زیرا متوجه میشوم که مردم چگونه هوش مصنوعی را متفاوت میبینند و استفاده میکنند، حتی فراتر از زمینههای آکادمیک. من مأموریت NTT را به عنوان کاتالیزوری برای جرقه زدن این مکالمات، صرف نظر از پیشینه افراد، میبینم، زیرا ما از هر تعاملی یاد میگیریم.»