ظهور شبکه جهانی وب به توسعهدهندگان اجازه داد تا ابزارها و پلتفرمهایی را بر روی آن بسازند. ظهور LLMها امکان توسعه ابزارها و پلتفرمها را بر روی LLMها فراهم میکند. به عنوان مثال، عوامل هوش مصنوعی میتوانند روشهای جدیدی برای تعامل با LLMها، اجرای وظایف و تصمیمگیری مستقل ایجاد کنند.
این وظایف و تصمیمات مستقل نیاز به تأیید دارند و استدلال انتقادی ممکن است یکی از راههای رسیدگی به این مشکل باشد، Yam Marcovitz، رهبر فنی در Parlant.io و مدیر عامل Emcie.co گفت.
Marcovitz، در این قسمت از The New Stack Makers، با این دیدگاه موافق است که اینترنت به عنوان یک پلتفرم برای توسعه عمل میکند. اما او ترجیح میدهد قیاس با زبانهای برنامهنویسی انجام دهد.
Marcovitz گفت که فناوران پیشگام با کارتهای پانچ شروع کردند، که بیشتر برای ورودیها استفاده میشدند. در این راستا، زبانهای سطح پایین با زبانهای اسمبلی مانند Fortran دنبال شدند. صنعت بعداً شاهد ظهور C، SQL، C++ و Python بود.
امروزه، شاهد ظهور LLMها هستیم که با مدلهای ترانسفورماتور کوچک شروع شدند و دیگران، مانند BERT، بر GPT 3 مقدم بودند. اکنون، به جای تنظیم دقیقتر روی متن و انجام تکمیل خودکار، پیکربندیهای پویا ظاهر میشوند. چیزی که ما شاهد ظهور آن هستیم، مدلهای استدلال بهتری هستند که میتوانند دستورالعملهای پیچیدهای ارائه دهند.
Marcovitz گفت که Parlant با استفاده از آنچه که آنها "پرسشهای استدلال دقیق" (ARQ) مینامند، یک عامل هوش مصنوعی رو به مشتری ارائه میدهد. ARQها ثبات و انسجام را از طریق درخواستهای طولانی و پیچیده حفظ میکنند. از نشانههای بیشتری استفاده میکند، اما این رویکرد، با استفاده از استدلال، به دستیابی به نزدیک به 100٪ دقت کمک میکند، مانند نزدیک به 99.999٪.
افراد دستورالعملها را تفسیر میکنند. برای تیم Parlant، این به معنای توسعه چیزی بود که آن را دستورالعمل مینامند. این بدان معناست که دستورالعملها مانند مدل سنتی از ابتدا ساخته نمیشوند. همچنین مدلها آزادی عمل ندارند. در عوض، تیم Parlant با تراز کردن آن با شکلی که پیشبینی میشود، رویکردی مجسمهسازی شده را اتخاذ میکند.
Marcovitz گفت که مهم نیست اندازه یک LLM چقدر باشد، مشکلاتی که با آن مواجه میشود اغلب مسئله ذهنیت است. چیزی که میخواهیم به آن دست یابیم به روشهای مختلفی تفسیر میشود. یک کارمند ممکن است بخواهد به چیزی دست یابد، اما ممکن است مدیر دیدگاه متفاوتی داشته باشد.
بنابراین، غیرعملی است که باور کنیم یک LLM عملکرد متفاوتی خواهد داشت.
Marcovitz گفت: "بنابراین، در عوض، ما این نوآوری را ارائه دادیم که در آن شما دستورالعملها را تعریف میکنید و هر دستورالعمل دو چیز را توصیف میکند: شرایطی که در آن برخی از اقدامات باید انجام شوند، و همچنین خود عمل." "ما اینها را دستورالعملهای اتمی مینامیم. بنابراین به جای اینکه فقط یک درخواست بزرگ و بیشکل و بسیار پیچیده داشته باشید، فقط آن را به عنوان دستورالعمل شماره یک تعریف میکنید… این دستورالعمل شماره دو است.
"این سیستم در واقع دستورالعملهای مناسب را برای هر حالت یا مرحله خاصی از هر مکالمه انتخاب و مطابقت میدهد. مشخص میکند که دقیقاً کدام یک باید در حال حاضر فعال شوند. بنابراین، تجزیهکنندههای متحرک متعددی وجود دارد. هنگامی که همه این راهنماییها را داشته باشیم، میتوانیم بازخورد فردی خاصی در مورد آنها ارائه دهیم. این واقعیت که آنها اتمی و کوچک هستند به این معنی است که میتوانیم یک رویکرد آگاهانه را برای هر یک از آنها اعمال کنیم و اطمینان حاصل کنیم که به طور دقیق اعمال میشود."
برای اطلاعات بیشتر در مورد رویکرد Parlant به عوامل هوش مصنوعی، لطفاً به این قسمت از The New Stack Makers گوش دهید تا درباره چگونگی ارائه ذهنیت به یک LLM با استفاده از تکنیکهای استدلال توسط عوامل هوش مصنوعی بیشتر بدانید.