Claimify: استخراج ادعاهای با کیفیت بالا از خروجی‌های مدل زبانی

در حالی که مدل‌های زبانی بزرگ (LLM) قادر به سنتز مقادیر عظیمی از اطلاعات هستند، گاهی اوقات محتوای نادرست یا اثبات نشده تولید می‌کنند. برای کاهش این خطر، ابزارهایی مانند تشخیص обоснованность هوش مصنوعی Azure می‌توانند برای تأیید خروجی‌های LLM استفاده شوند.

یک استراتژی رایج برای بررسی صحت متون تولید شده توسط LLM - به ویژه خروجی‌های پیچیده و بسیار دقیق - استخراج ادعا است: به جای ارزیابی کل متن به طور همزمان، به عبارات واقعی ساده تقسیم می‌شود که می‌توانند به طور مستقل تأیید شوند. با این حال، اثربخشی این رویکرد بستگی به کیفیت ادعاهای استخراج شده دارد: اگر نادرست یا ناقص باشند، نتایج بررسی صحت ممکن است به خطر بیفتد.

مقاله ما با عنوان "به سوی استخراج و ارزیابی موثر ادعاهای واقعی" یک چارچوب برای ارزیابی استخراج ادعا پیشنهاد می‌کند و Claimify را معرفی می‌کند، یک روش جدید مبتنی بر LLM که از راه حل‌های قبلی بهتر عمل می‌کند. در این پست وبلاگ، مسائل رایج استخراج ادعا را مورد بحث قرار می‌دهیم و رویکرد Claimify را بررسی می‌کنیم.

مسائل کلیدی در استخراج ادعا

به عنوان یک مطالعه موردی، از مدل GPT-4o OpenAI درخواست کردیم تا بر اساس مجموعه‌ای از مقالات خبری، "مروری بر چالش‌ها در بازارهای نوظهور" ارائه دهد. در اینجا خروجی آن آمده است: