در حالی که مدلهای زبانی بزرگ (LLM) قادر به سنتز مقادیر عظیمی از اطلاعات هستند، گاهی اوقات محتوای نادرست یا اثبات نشده تولید میکنند. برای کاهش این خطر، ابزارهایی مانند تشخیص обоснованность هوش مصنوعی Azure میتوانند برای تأیید خروجیهای LLM استفاده شوند.
یک استراتژی رایج برای بررسی صحت متون تولید شده توسط LLM - به ویژه خروجیهای پیچیده و بسیار دقیق - استخراج ادعا است: به جای ارزیابی کل متن به طور همزمان، به عبارات واقعی ساده تقسیم میشود که میتوانند به طور مستقل تأیید شوند. با این حال، اثربخشی این رویکرد بستگی به کیفیت ادعاهای استخراج شده دارد: اگر نادرست یا ناقص باشند، نتایج بررسی صحت ممکن است به خطر بیفتد.
مقاله ما با عنوان "به سوی استخراج و ارزیابی موثر ادعاهای واقعی" یک چارچوب برای ارزیابی استخراج ادعا پیشنهاد میکند و Claimify را معرفی میکند، یک روش جدید مبتنی بر LLM که از راه حلهای قبلی بهتر عمل میکند. در این پست وبلاگ، مسائل رایج استخراج ادعا را مورد بحث قرار میدهیم و رویکرد Claimify را بررسی میکنیم.
مسائل کلیدی در استخراج ادعا
به عنوان یک مطالعه موردی، از مدل GPT-4o OpenAI درخواست کردیم تا بر اساس مجموعهای از مقالات خبری، "مروری بر چالشها در بازارهای نوظهور" ارائه دهد. در اینجا خروجی آن آمده است: