سوگیری در سیستمهای هوش مصنوعی، یا این واقعیت که مدلهای زبانی بزرگ، تشخیص چهره و مولدهای تصویر هوش مصنوعی فقط میتوانند اطلاعات موجود در دادههایی را که این فناوریها بر اساس آن آموزش داده شدهاند، دوباره ترکیب و بازتولید کنند، یک واقعیت اثباتشده است که محققان و دانشگاهیان از زمان آغاز به کار این فناوریها در مورد آن هشدار دادهاند.
در یک پست وبلاگی درباره انتشار Llama 4، مدل هوش مصنوعی با وزن باز متا، این شرکت به وضوح بیان میکند که سوگیری مشکلی است که آنها در تلاش برای حل آن هستند، اما برخلاف انبوه تحقیقاتی که ثابت کردهاند سیستمهای هوش مصنوعی بیشتر احتمال دارد بر اساس نژاد، جنسیت و ملیت علیه اقلیتها تبعیض قائل شوند، متا به طور خاص نگران این است که Llama 4 دارای سوگیری سیاسی چپگرایانه باشد.
متا در وبلاگ خود گفت: «این موضوع به خوبی شناخته شده است که همه LLMهای برتر در مورد سوگیری مشکل داشتهاند—به طور خاص، آنها از لحاظ تاریخی زمانی که صحبت از موضوعات سیاسی و اجتماعی مورد بحث به میان میآید، به چپ متمایل بودهاند.» «این به دلیل انواع دادههای آموزشی موجود در اینترنت است.»