هر کسی که یک راهکار هوش مصنوعی (AI) توسعه میدهد، گاهی سفری به ناشناختهها را آغاز میکند. حداقل در ابتدا، محققان و طراحان همیشه نمیدانند که آیا الگوریتمها و مدلهای هوش مصنوعی آنها طبق انتظار عمل خواهند کرد یا اینکه هوش مصنوعی در نهایت مرتکب اشتباه خواهد شد.
گاهی اوقات، برنامههای هوش مصنوعی که در تئوری به خوبی کار میکنند، در شرایط واقعی عملکرد ضعیفی دارند. با این حال، برای جلب اعتماد کاربران، یک هوش مصنوعی باید قابل اعتماد و صحیح عمل کند. این امر هم برای چتباتهای محبوب و هم برای ابزارهای هوش مصنوعی در تحقیقات صدق میکند.
هر ابزار جدید هوش مصنوعی باید قبل از استقرار در دنیای واقعی به طور کامل آزمایش شود. با این حال، آزمایش در دنیای واقعی میتواند یک تلاش پرهزینه یا حتی مخاطرهآمیز باشد. به همین دلیل، محققان اغلب الگوریتمهای خود را در شبیهسازیهای کامپیوتری از واقعیت آزمایش میکنند. اما از آنجایی که شبیهسازیها تقریبی از واقعیت هستند، آزمایش راهکارهای هوش مصنوعی به این روش میتواند باعث شود محققان عملکرد هوش مصنوعی را بیش از حد تخمین بزنند.
خوان گاملا، ریاضیدان ETH، در مقالهای در مجله Nature Machine Intelligence، رویکرد جدیدی را ارائه میدهد که محققان میتوانند با استفاده از آن، میزان قابل اطمینان بودن و صحت عملکرد الگوریتمها و مدلهای هوش مصنوعی خود را بررسی کنند.
یک مدل هوش مصنوعی بر اساس فرضیات خاصی بنا شده و برای یادگیری از دادهها و انجام هوشمندانه وظایف مشخص آموزش داده میشود. یک الگوریتم شامل قوانین ریاضی است که مدل هوش مصنوعی برای پردازش یک وظیفه از آنها پیروی میکند.
آزمایش هوش مصنوعی به جای تخمین بیش از حد
گاملا آزمایشگاههای مینیاتوری ویژهای ("مینیلبها") ساخته است که میتوانند به عنوان بسترهای آزمایشی برای الگوریتمهای جدید هوش مصنوعی استفاده شوند.
گاملا میگوید: «مینیلبها یک محیط آزمایشی انعطافپذیر فراهم میکنند که دادههای اندازهگیری واقعی ارائه میدهد. آنها کمی شبیه یک زمین بازی برای الگوریتمها هستند، جایی که محققان میتوانند هوش مصنوعی خود را فراتر از دادههای شبیهسازی شده در یک محیط کنترلشده و ایمن آزمایش کنند.»
مینیلبها بر اساس فیزیک به خوبی درک شده ساخته شدهاند، به طوری که محققان میتوانند از این دانش برای بررسی اینکه آیا الگوریتمهایشان به راهحل صحیح برای انواع مشکلات میرسند، استفاده کنند. اگر یک هوش مصنوعی در آزمون شکست بخورد، محققان میتوانند در مراحل اولیه فرآیند توسعه، بهبودهای هدفمندی را در فرضیات ریاضی و الگوریتمهای زیربنایی ایجاد کنند.
اولین مینیلبهای گاملا بر اساس دو سیستم فیزیکی هستند که ویژگیهای اساسی را نشان میدهند که بسیاری از ابزارهای هوش مصنوعی باید در شرایط دنیای واقعی با آنها سروکار داشته باشند. نحوه استفاده از مینیلبها به مسئله مورد بررسی و کاری که الگوریتم قرار است انجام دهد بستگی دارد. به عنوان مثال، اولین مینیلب او شامل یک سیستم پویا مانند باد است که دائماً در حال تغییر است و به تأثیرات خارجی واکنش نشان میدهد.
میتوان از آن برای آزمایش ابزارهای هوش مصنوعی برای مسائل کنترلی استفاده کرد. دومین مینیلب او، که از قوانین فیزیکی به خوبی درک شده برای نور پیروی میکند، میتواند برای آزمایش هوش مصنوعی استفاده شود که هدف آن یادگیری خودکار چنین قوانینی از دادهها و در نتیجه کمک به دانشمندان در کشفیات جدید است.
مینیلبها دستگاههای ملموسی به اندازه یک کامپیوتر رومیزی هستند که میتوان آنها را با کنترل از راه دور اداره کرد. آنها یادآور آزمایشهای نمایشی تاریخی هستند که محققان از قرن شانزدهم به بعد برای ارائه، بحث و بهبود نظریهها و یافتههای خود در انجمنهای علمی انجام میدادند.
گاملا نقش مینیلبها در طراحی الگوریتمهای هوش مصنوعی را با نقش تونل باد در ساخت هواپیما مقایسه میکند: هنگامی که یک هواپیمای جدید در حال توسعه است، بیشتر کارهای طراحی در ابتدا با استفاده از شبیهسازیهای کامپیوتری انجام میشود زیرا کارآمدتر و مقرونبهصرفهتر است.
هنگامی که مهندسان در مورد طرحهای خود به توافق رسیدند، مدلهای مینیاتوری میسازند و آنها را در یک تونل باد آزمایش میکنند. تنها پس از آن است که یک هواپیمای با اندازه کامل میسازند و آن را در پروازهای واقعی آزمایش میکنند.
گاملا میگوید: «مانند تونل باد برای هواپیما، مینیلبها به عنوان یک بررسی سلامت عقل عمل میکنند تا اطمینان حاصل شود که همه چیز در مراحل اولیه، همزمان با حرکت از شبیهسازی به واقعیت، به درستی کار میکند.»
او آزمایش الگوریتمهای هوش مصنوعی در یک محیط کنترلشده را به عنوان یک گام میانی حیاتی برای اطمینان از عملکرد هوش مصنوعی در سناریوهای پیچیده دنیای واقعی میداند. مینیلبها این امکان را برای انواع خاصی از هوش مصنوعی، به ویژه آنهایی که برای تعامل مستقیم با دنیای فیزیکی طراحی شدهاند، فراهم میکنند.
مینیلبها به محققان کمک میکنند تا مشکل انتقال از شبیهسازی به واقعیت را با فراهم کردن یک بستر آزمایشی که در آن میتوانند هر تعداد آزمایش مورد نیاز را انجام دهند، مطالعه کنند. این مشکل انتقالی همچنین در تقاطع بین رباتیک و هوش مصنوعی، جایی که الگوریتمهای هوش مصنوعی اغلب ابتدا برای حل وظایف در یک محیط شبیهسازی شده و سپس در دنیای واقعی آموزش داده میشوند، مرتبط است. این امر قابلیت اطمینان را افزایش میدهد.
گاملا خود با مدرک کارشناسی ریاضیات شروع کرد و سپس مدرک کارشناسی ارشد رباتیک را در ETH دنبال کرد. به عنوان دانشجوی دکترا، به تحقیقات ریاضیات و هوش مصنوعی بازگشت.
او استعداد خود را در فیزیک و فناوری حفظ کرده است. «من میخواهم ابزارهایی توسعه دهم که به دانشمندان در حل سوالات تحقیقاتی کمک کند.»
کاربرد مینیلبهای او به مهندسی محدود نمیشود. او به همراه یک همکار از بیمارستان دانشگاهی شاریته در برلین، تلاش کرد تا یک مینیلب برای آزمایش الگوریتمهای هوش مصنوعی در زیستشناسی سلولی و زیستشناسی مصنوعی طراحی کند. با این حال، هزینهها بسیار بالا بود.
در مقابل، دومین مینیلب او، یک تونل نور، در حال حاضر به عنوان یک محیط آزمایشی در تولید صنعتی - برای یک مشکل نوری - استفاده میشود. مینیلبها همچنین به آزمایش روشهای جدید مختلفی برای چگونگی پیشبینیهای دقیقتر مدلهای زبان بزرگ (LLM) در دنیای واقعی کمک کردهاند.
هوش مصنوعی علی (Causal AI) - راه حل نهایی برای هوش مصنوعی صحیح
گاملا رویکرد راه حل نهایی را برای اثبات مناسب بودن مینیلبهای خود اتخاذ کرده است - و در نهایت نشان میدهد که آنها حتی برای مسائل هوش مصنوعی علی نیز مفید هستند. تحقیقات علیت و هوش مصنوعی علی (Causal AI) یک حوزه کلیدی در آمار و علوم کامپیوتر نظری است که برای مدلهای هوش مصنوعی بنیادی است: برای اینکه مدلهای هوش مصنوعی به طور قابل اعتماد و صحیح عمل کنند، باید روابط علی را درک کنند.
با این حال، مدلهای هوش مصنوعی اغلب روابط علی جهان را منعکس نمیکنند، بلکه پیشبینیها را بر اساس همبستگیهای آماری انجام میدهند. از نظر علمی، علیت یک مفهوم اساسی است که روابط بین علت و معلول را توصیف میکند.
هوش مصنوعی علی به مدلهای هوش مصنوعی اطلاق میشود که روابط علت و معلولی را تشخیص میدهند. نتایج هوش مصنوعی علی دقیقتر و شفافتر هستند. به همین دلیل هوش مصنوعی علی برای حوزههایی مانند پزشکی، اقتصاد و تحقیقات اقلیمی مهم است.
برای توسعه هوش مصنوعی علی به روشهای آماری جدیدی نیاز است، زیرا روابط علی گاهی تحت تأثیر شرایط خاص و تصادفات قرار میگیرند. علاوه بر این، نمیتوان آنها را به راحتی در زمینههای پیچیده از یکدیگر جدا کرد.
گاملا با همکاری اساتید ریاضیات ETH، پیتر بولمن و یوناس پیترز، روی این تحقیق کار کرده است. هر دوی آنها رویکردهای مهمی برای شناسایی روابط علی تحت شرایط متغیر و تمایز آنها از تأثیرات مخدوش کننده یا نویز تصادفی توسعه دادهاند.
گاملا میگوید: «با این حال، آزمایش این روشها به طور کلی در دنیای واقعی دشوار است. برای انجام این کار، ما به دادههایی از سیستمهایی نیاز داریم که روابط علت و معلولی آنها از قبل مشخص باشد تا بررسی کنیم آیا الگوریتمهای ما میتوانند به دقت آنها را یاد بگیرند یا خیر. یافتن این دادهها دشوار است.»
بنابراین، برای این مقاله، سه محقق ETH الگوریتمهای هوش مصنوعی علی را در مینیلبهای ساخته شده توسط گاملا آزمایش کردند. او خود نیز مینیلبهایش را "محفظههای علی" مینامد.
ابتدا، آنها آزمایش کردند که آیا الگوریتمها مدل علی صحیح را برای هر مینیلب، یعنی برای باد و نور، یاد میگیرند یا خیر. آنها همچنین مشاهده کردند که الگوریتمها چقدر خوب عواملی را که بر یکدیگر تأثیر میگذارند شناسایی میکنند و چگونه تحت شرایط غیرعادی یا هنگام وقوع تغییرات ناگهانی عمل میکنند.
پیتر بولمن، استاد راهنمای دکترای گاملا، پر از تحسین میگوید: «محفظههای علی یک افزودنی ارزشمند برای تحقیقات علیت هستند. الگوریتمهای جدید را میتوان به روشی بیسابقه تأیید کرد.»
گاملا از مزایای غیرمنتظرهای که محفظههای علی برای آموزش فراهم میکنند خرسند است. او میگوید: «از آنجایی که مینیلبها یک زمین بازی ایمن برای الگوریتمها فراهم میکنند، زمین بازی عالی برای دانشجویان نیز هستند.»
استادان در رشتههای هوش مصنوعی، آمار و سایر رشتههای مهندسی میتوانند از آنها استفاده کنند تا به دانشجویان خود اجازه دهند مستقیماً آنچه را که آموختهاند در یک محیط عملی به کار گیرند. استادان از سراسر جهان قبلاً علاقه خود را ابراز کردهاند و گاملا اکنون در حال راهاندازی مطالعات آزمایشی در ETH زوریخ و دانشگاه لیژ است.