تصویر: مارک زاکربرگ
تصویر: مارک زاکربرگ

فیسبوک مدل هوش مصنوعی Llama 4 خود را به راست متمایل می‌کند و می‌خواهد «هر دو طرف» را ارائه دهد

مدل Llama 4 متا نگران سوگیری چپ‌گرایانه در داده‌ها است و می‌خواهد بیشتر شبیه Grok ایلان ماسک باشد.

سوگیری در سیستم‌های هوش مصنوعی، یا این واقعیت که مدل‌های زبانی بزرگ، تشخیص چهره و مولدهای تصویر هوش مصنوعی فقط می‌توانند اطلاعات موجود در داده‌هایی را که این فناوری‌ها بر اساس آن آموزش داده شده‌اند، دوباره ترکیب و بازتولید کنند، یک واقعیت اثبات‌شده است که محققان و دانشگاهیان از زمان آغاز به کار این فناوری‌ها در مورد آن هشدار داده‌اند.

در یک پست وبلاگی درباره انتشار Llama 4، مدل هوش مصنوعی با وزن باز متا، این شرکت به وضوح بیان می‌کند که سوگیری مشکلی است که آنها در تلاش برای حل آن هستند، اما برخلاف انبوه تحقیقاتی که ثابت کرده‌اند سیستم‌های هوش مصنوعی بیشتر احتمال دارد بر اساس نژاد، جنسیت و ملیت علیه اقلیت‌ها تبعیض قائل شوند، متا به طور خاص نگران این است که Llama 4 دارای سوگیری سیاسی چپ‌گرایانه باشد.

متا در وبلاگ خود گفت: «این موضوع به خوبی شناخته شده است که همه LLMهای برتر در مورد سوگیری مشکل داشته‌اند—به طور خاص، آنها از لحاظ تاریخی زمانی که صحبت از موضوعات سیاسی و اجتماعی مورد بحث به میان می‌آید، به چپ متمایل بوده‌اند.» «این به دلیل انواع داده‌های آموزشی موجود در اینترنت است.»