چارچوبهای RAG به دلیل تواناییشان در بهبود مدلهای زبانی بزرگ (LLMs) از طریق ادغام منابع دانش خارجی، توجه زیادی را به خود جلب کردهاند. این چارچوبها به رفع محدودیتهایی مانند توهم و اطلاعات قدیمی کمک میکنند. رویکردهای سنتی RAG اغلب بر ارتباط سطحی اسناد تکیه میکنند و از بینشهای عمیقاً نهفته در متون یا اطلاعات پراکنده در منابع مختلف غافل میشوند. این روشها همچنین در کاربرد خود محدود هستند و عمدتاً برای وظایف ساده پاسخ به سؤالات مناسب هستند و در کاربردهای پیچیدهتر، مانند ترکیب بینشها از دادههای کیفی متنوع یا تجزیه و تحلیل محتوای پیچیده حقوقی یا تجاری، با مشکل مواجه میشوند.
در حالی که مدلهای RAG اولیه دقت را در وظایفی مانند خلاصهسازی و پرسش و پاسخ در دامنه باز بهبود بخشیدند، مکانیسمهای بازیابی آنها فاقد عمق لازم برای استخراج اطلاعات ظریف بودند. انواع جدیدتر، مانند Iter-RetGen و self-RAG، تلاش میکنند تا استدلال چند مرحلهای را مدیریت کنند، اما برای وظایف غیرقابل تجزیه مانند وظایفی که در اینجا مورد مطالعه قرار گرفتهاند، مناسب نیستند. تلاشهای موازی در استخراج بینش نشان داده است که LLMها میتوانند به طور موثر اطلاعات دقیق و خاص زمینهای را از متن بدون ساختار استخراج کنند. تکنیکهای پیشرفته، از جمله مدلهای مبتنی بر ترانسفورماتور مانند OpenIE6، توانایی شناسایی جزئیات حیاتی را بهبود بخشیدهاند. LLMها به طور فزایندهای در استخراج کلیدواژهها و حوزههای دادهکاوی اسناد به کار میروند و ارزش خود را فراتر از وظایف بازیابی اساسی نشان میدهند.
محققان آزمایشگاه Megagon، Insight-RAG را معرفی کردند، یک چارچوب جدید که با گنجاندن یک مرحله استخراج بینش واسط، تولید افزوده با بازیابی سنتی را بهبود میبخشد. Insight-RAG به جای تکیه بر بازیابی سطحی اسناد، ابتدا از یک LLM برای شناسایی نیازهای اطلاعاتی کلیدی یک پرسش استفاده میکند. سپس یک LLM خاص دامنه، محتوای مرتبط با این بینشها را بازیابی میکند و یک پاسخ نهایی و غنی از نظر زمینه ایجاد میکند. Insight-RAG که بر روی دو مجموعه داده مقاله علمی ارزیابی شد، به طور قابل توجهی از روشهای استاندارد RAG، به ویژه در وظایفی که شامل اطلاعات پنهان یا چند منبعی و توصیه استناد هستند، عملکرد بهتری داشت. این نتایج کاربرد گستردهتر آن را فراتر از وظایف استاندارد پاسخ به سؤالات برجسته میکند.
Insight-RAG شامل سه جزء اصلی است که برای رفع کاستیهای روشهای سنتی RAG با گنجاندن یک مرحله میانی متمرکز بر استخراج بینشهای خاص وظیفه طراحی شدهاند. ابتدا، شناسه بینش (Insight Identifier) پرسش ورودی را تجزیه و تحلیل میکند تا نیازهای اطلاعاتی اصلی آن را تعیین کند و به عنوان فیلتری برای برجسته کردن زمینه مرتبط عمل میکند. سپس، استخراجکننده بینش (Insight Miner) از یک LLM تطبیقیافته با دامنه، به طور خاص یک مدل Llama-3.2 3B که به طور مداوم از پیش آموزش داده شده است، برای بازیابی محتوای دقیق همسو با این بینشها استفاده میکند. در نهایت، تولیدکننده پاسخ (Response Generator) پرسش اصلی را با بینشهای استخراج شده ترکیب میکند و از یک LLM دیگر برای تولید یک خروجی غنی از نظر زمینه و دقیق استفاده میکند.
برای ارزیابی Insight-RAG، محققان سه محک با استفاده از چکیدههای مجموعههای داده AAN و OC ساختند و بر چالشهای مختلف در تولید افزوده با بازیابی تمرکز کردند. برای بینشهای عمیقاً پنهان، آنها سهگانههای موضوع-رابطه-هدف را شناسایی کردند که در آن هدف فقط یک بار ظاهر میشود و تشخیص آن را دشوارتر میکند. برای بینشهای چند منبعی، آنها سهگانههایی را با اهداف متعدد پراکنده در اسناد انتخاب کردند. در نهایت، برای وظایف غیر پرسش و پاسخ مانند توصیه استناد، آنها ارزیابی کردند که آیا بینشها میتوانند مطابقتهای مرتبط را هدایت کنند یا خیر. آزمایشها نشان داد که Insight-RAG به طور مداوم از RAG سنتی عملکرد بهتری دارد، به ویژه در رسیدگی به اطلاعات ظریف یا توزیع شده، و مدلهای DeepSeek-R1 و Llama-3.3 نتایج قوی در همه محکها نشان دادند.
در نتیجه، Insight-RAG یک چارچوب جدید است که با افزودن یک مرحله میانی متمرکز بر استخراج بینشهای کلیدی، RAG سنتی را بهبود میبخشد. این روش محدودیتهای RAG استاندارد، مانند از دست دادن جزئیات پنهان، ادغام اطلاعات چند سندی و رسیدگی به وظایف فراتر از پاسخ به سؤالات را برطرف میکند. Insight-RAG ابتدا از مدلهای زبانی بزرگ برای درک نیازهای اساسی یک پرسش استفاده میکند و سپس محتوای همسو با آن بینشها را بازیابی میکند. Insight-RAG که بر روی مجموعه دادههای علمی (AAN و OC) ارزیابی شد، به طور مداوم از RAG معمولی عملکرد بهتری داشت. مسیرهای آینده شامل گسترش به زمینههایی مانند حقوق و پزشکی، معرفی استخراج بینش سلسله مراتبی، رسیدگی به دادههای چندوجهی، گنجاندن ورودی متخصص و بررسی انتقال بینش بین دامنهها است.
مقاله را در اینجا ببینید. تمام اعتبار این تحقیق به محققان این پروژه میرسد. همچنین، میتوانید ما را در توییتر دنبال کنید و فراموش نکنید که به انجمن ۹۰k+ ML SubReddit ما بپیوندید.