مدلهای هوش مصنوعی اغلب به «همبستگیهای کاذب» تکیه میکنند و تصمیمگیریها را بر اساس اطلاعات غیرمهم و بالقوه گمراهکننده انجام میدهند. محققان اکنون دریافتهاند که این همبستگیهای کاذب آموختهشده را میتوان به زیرمجموعه بسیار کوچکی از دادههای آموزشی ردیابی کرد و تکنیکی را نشان دادهاند که بر این مشکل غلبه میکند. این کار در سرور پیشچاپ arXiv منتشر شده است.
یونگ-اون کیم، نویسنده مسئول مقاله و استادیار علوم کامپیوتر در دانشگاه ایالتی کارولینای شمالی میگوید: «این تکنیک از این نظر بدیع است که حتی زمانی که هیچ ایدهای در مورد اینکه هوش مصنوعی به چه همبستگیهای کاذبی تکیه میکند، ندارید، میتوان از آن استفاده کرد.»
«اگر از قبل ایده خوبی در مورد ویژگیهای کاذب دارید، تکنیک ما یک راه کارآمد و مؤثر برای حل این مشکل است. با این حال، حتی اگر صرفاً با مشکلات عملکردی مواجه هستید، اما دلیل آن را نمیفهمید، همچنان میتوانید از تکنیک ما برای تعیین اینکه آیا همبستگی کاذبی وجود دارد یا خیر و حل آن مشکل استفاده کنید.»
همبستگیهای کاذب عموماً ناشی از سوگیری سادگی در طول آموزش هوش مصنوعی است. متخصصان از مجموعهدادهها برای آموزش مدلهای هوش مصنوعی برای انجام وظایف خاص استفاده میکنند. به عنوان مثال، یک مدل هوش مصنوعی میتواند برای شناسایی عکسهای سگها آموزش داده شود. مجموعه داده آموزشی شامل تصاویری از سگها است که در آن به هوش مصنوعی گفته میشود که یک سگ در عکس وجود دارد.
در طول فرآیند آموزش، هوش مصنوعی شروع به شناسایی ویژگیهای خاصی میکند که میتواند از آنها برای شناسایی سگها استفاده کند. با این حال، اگر بسیاری از سگها در عکسها قلاده داشته باشند، و از آنجایی که قلادهها عموماً ویژگیهای سادهتری از سگ نسبت به گوشها یا خز هستند، هوش مصنوعی ممکن است از قلادهها به عنوان راهی ساده برای شناسایی سگها استفاده کند. اینگونه است که سوگیری سادگی میتواند باعث ایجاد همبستگیهای کاذب شود.
کیم میگوید: «و اگر هوش مصنوعی از قلادهها به عنوان عاملی که برای شناسایی سگها استفاده میکند، استفاده کند، هوش مصنوعی ممکن است گربههایی را که قلاده دارند به عنوان سگ شناسایی کند.»
تکنیکهای مرسوم برای رفع مشکلات ناشی از همبستگیهای کاذب، متکی بر این هستند که متخصصان بتوانند ویژگیهای کاذبی را که باعث ایجاد مشکل میشوند، شناسایی کنند. سپس میتوانند با اصلاح مجموعهدادههای مورد استفاده برای آموزش مدل هوش مصنوعی، این مشکل را برطرف کنند. به عنوان مثال، متخصصان ممکن است وزنی را که به عکسهایی در مجموعه داده داده میشود که شامل سگهایی است که قلاده ندارند، افزایش دهند.
با این حال، محققان در کار جدید خود نشان میدهند که همیشه نمیتوان ویژگیهای کاذبی را که باعث ایجاد مشکل میشوند، شناسایی کرد—که باعث میشود تکنیکهای مرسوم برای رفع همبستگیهای کاذب بیاثر باشند.
مقاله "قطع همبستگی های کاذب با هرس کردن داده ها"، در کنفرانس بین المللی ارائه بازنمایی های یادگیری (ICLR) که از 24 تا 28 آوریل در سنگاپور برگزار می شود، ارائه خواهد شد. نویسنده اول مقاله وارون مولچندانی، دانشجوی دکترا در دانشگاه ایالتی کارولینای شمالی است.
کیم میگوید: «هدف ما از این کار توسعه تکنیکی بود که به ما امکان میدهد همبستگیهای کاذب را حتی زمانی که هیچ اطلاعی در مورد آن ویژگیهای کاذب نداریم، قطع کنیم.»
تکنیک جدید متکی بر حذف بخش کوچکی از دادههای مورد استفاده برای آموزش مدل هوش مصنوعی است.
کیم میگوید: «میتواند تغییرات قابل توجهی در نمونههای داده موجود در مجموعهدادههای آموزشی وجود داشته باشد. برخی از نمونهها میتوانند بسیار ساده باشند، در حالی که برخی دیگر ممکن است بسیار پیچیده باشند. و ما میتوانیم میزان «سخت» بودن هر نمونه را بر اساس نحوه عملکرد مدل در طول آموزش اندازهگیری کنیم.
کیم توضیح میدهد: «فرضیه ما این بود که سختترین نمونهها در مجموعه داده میتوانند پر سر و صدا و مبهم باشند و به احتمال زیاد شبکه را مجبور میکنند به اطلاعات نامربوطی تکیه کند که به عملکرد مدل آسیب میرساند.»
«با حذف یک لایه کوچک از دادههای آموزشی که درک آن دشوار است، شما همچنین نمونههای دادهای سختی را که حاوی ویژگیهای کاذب هستند، حذف میکنید. این حذف بر مشکل همبستگیهای کاذب غلبه میکند، بدون اینکه اثرات نامطلوب قابل توجهی ایجاد کند.»
محققان نشان دادند که این تکنیک جدید به نتایج پیشرفته دست مییابد—بهبود عملکرد حتی در مقایسه با کارهای قبلی در مورد مدلهایی که در آن ویژگیهای کاذب قابل شناسایی بودند.
اطلاعات بیشتر: وارون مولچندانی و همکاران، قطع همبستگی های کاذب با هرس کردن داده ها، arXiv (2025). DOI: 10.48550/arxiv.2503.18258
اطلاعات مجله: arXiv
ارائه شده توسط دانشگاه ایالتی کارولینای شمالی
ارجاع: تکنیک جدید بر مشکل همبستگی های کاذب در هوش مصنوعی غلبه می کند (2025، 18 آوریل) بازیابی شده در 18 آوریل 2025 از https://techxplore.com/news/2025-04-technique-spurious-problem-ai.html
این سند مشمول حق چاپ است. به غیر از هرگونه معامله منصفانه به منظور مطالعه یا تحقیق خصوصی، هیچ بخشی را نمی توان بدون اجازه کتبی تکثیر کرد. این محتوا فقط برای اهداف اطلاعاتی ارائه شده است.