مدل‌های زبانی بزرگ (LLM) و عوامل هوش مصنوعی مانند زبان‌های برنامه‌نویسی در حال تکامل هستند

ظهور شبکه جهانی وب به توسعه‌دهندگان اجازه داد تا ابزارها و پلتفرم‌هایی را بر روی آن بسازند. ظهور LLMها امکان توسعه ابزارها و پلتفرم‌ها را بر روی LLMها فراهم می‌کند. به عنوان مثال، عوامل هوش مصنوعی می‌توانند روش‌های جدیدی برای تعامل با LLMها، اجرای وظایف و تصمیم‌گیری مستقل ایجاد کنند.

این وظایف و تصمیمات مستقل نیاز به تأیید دارند و استدلال انتقادی ممکن است یکی از راه‌های رسیدگی به این مشکل باشد، Yam Marcovitz، رهبر فنی در Parlant.io و مدیر عامل Emcie.co گفت.

Marcovitz، در این قسمت از The New Stack Makers، با این دیدگاه موافق است که اینترنت به عنوان یک پلتفرم برای توسعه عمل می‌کند. اما او ترجیح می‌دهد قیاس با زبان‌های برنامه‌نویسی انجام دهد.

Marcovitz گفت که فناوران پیشگام با کارت‌های پانچ شروع کردند، که بیشتر برای ورودی‌ها استفاده می‌شدند. در این راستا، زبان‌های سطح پایین با زبان‌های اسمبلی مانند Fortran دنبال شدند. صنعت بعداً شاهد ظهور C، SQL، C++ و Python بود.

امروزه، شاهد ظهور LLMها هستیم که با مدل‌های ترانسفورماتور کوچک شروع شدند و دیگران، مانند BERT، بر GPT 3 مقدم بودند. اکنون، به جای تنظیم دقیق‌تر روی متن و انجام تکمیل خودکار، پیکربندی‌های پویا ظاهر می‌شوند. چیزی که ما شاهد ظهور آن هستیم، مدل‌های استدلال بهتری هستند که می‌توانند دستورالعمل‌های پیچیده‌ای ارائه دهند.

Marcovitz گفت که Parlant با استفاده از آنچه که آن‌ها "پرسش‌های استدلال دقیق" (ARQ) می‌نامند، یک عامل هوش مصنوعی رو به مشتری ارائه می‌دهد. ARQها ثبات و انسجام را از طریق درخواست‌های طولانی و پیچیده حفظ می‌کنند. از نشانه‌های بیشتری استفاده می‌کند، اما این رویکرد، با استفاده از استدلال، به دستیابی به نزدیک به 100٪ دقت کمک می‌کند، مانند نزدیک به 99.999٪.

افراد دستورالعمل‌ها را تفسیر می‌کنند. برای تیم Parlant، این به معنای توسعه چیزی بود که آن را دستورالعمل می‌نامند. این بدان معناست که دستورالعمل‌ها مانند مدل سنتی از ابتدا ساخته نمی‌شوند. همچنین مدل‌ها آزادی عمل ندارند. در عوض، تیم Parlant با تراز کردن آن با شکلی که پیش‌بینی می‌شود، رویکردی مجسمه‌سازی شده را اتخاذ می‌کند.

Marcovitz گفت که مهم نیست اندازه یک LLM چقدر باشد، مشکلاتی که با آن مواجه می‌شود اغلب مسئله ذهنیت است. چیزی که می‌خواهیم به آن دست یابیم به روش‌های مختلفی تفسیر می‌شود. یک کارمند ممکن است بخواهد به چیزی دست یابد، اما ممکن است مدیر دیدگاه متفاوتی داشته باشد.

بنابراین، غیرعملی است که باور کنیم یک LLM عملکرد متفاوتی خواهد داشت.

Marcovitz گفت: "بنابراین، در عوض، ما این نوآوری را ارائه دادیم که در آن شما دستورالعمل‌ها را تعریف می‌کنید و هر دستورالعمل دو چیز را توصیف می‌کند: شرایطی که در آن برخی از اقدامات باید انجام شوند، و همچنین خود عمل." "ما این‌ها را دستورالعمل‌های اتمی می‌نامیم. بنابراین به جای اینکه فقط یک درخواست بزرگ و بی‌شکل و بسیار پیچیده داشته باشید، فقط آن را به عنوان دستورالعمل شماره یک تعریف می‌کنید… این دستورالعمل شماره دو است.

"این سیستم در واقع دستورالعمل‌های مناسب را برای هر حالت یا مرحله خاصی از هر مکالمه انتخاب و مطابقت می‌دهد. مشخص می‌کند که دقیقاً کدام یک باید در حال حاضر فعال شوند. بنابراین، تجزیه‌کننده‌های متحرک متعددی وجود دارد. هنگامی که همه این راهنمایی‌ها را داشته باشیم، می‌توانیم بازخورد فردی خاصی در مورد آن‌ها ارائه دهیم. این واقعیت که آن‌ها اتمی و کوچک هستند به این معنی است که می‌توانیم یک رویکرد آگاهانه را برای هر یک از آن‌ها اعمال کنیم و اطمینان حاصل کنیم که به طور دقیق اعمال می‌شود."

برای اطلاعات بیشتر در مورد رویکرد Parlant به عوامل هوش مصنوعی، لطفاً به این قسمت از The New Stack Makers گوش دهید تا درباره چگونگی ارائه ذهنیت به یک LLM با استفاده از تکنیک‌های استدلال توسط عوامل هوش مصنوعی بیشتر بدانید.