عکس از Fotis Fotopoulos در Unsplash
عکس از Fotis Fotopoulos در Unsplash

بدون API، بدون هوش مصنوعی: چرا دسترسی به API برای سیستم‌های عامل حیاتی است

عوامل هوش مصنوعی با استفاده از APIها برای دریافت داده‌ها و انجام اقدامات واقعی، مدل‌های زبان بزرگ (LLM) را گسترش می‌دهند.

در حالی که آخرین مدل‌های زبان بزرگ (LLM) همچنان مورد توجه زیادی قرار می‌گیرند، اما برای کسانی که بر پتانسیل واقعی هوش مصنوعی تمرکز دارند، هیجان در طول سال گذشته به سمت وعده برنامه‌های هوشمندی که توسط LLMها پشتیبانی می‌شوند، منتقل شده است که به عنوان عوامل هوش مصنوعی شناخته می‌شوند.

هنگامی که افراد مفهوم هوش مصنوعی عامل (Agentic AI) را درک می‌کنند، ایده برنامه‌هایی که می‌توانند به طور مستقل یاد بگیرند، تصمیم بگیرند و اقدام کنند، تخیل را تسخیر می‌کند. امکانات برای دستیارهای شخصی مبتنی بر هوش مصنوعی، دستیارهای کدنویسی و برنامه‌های کاربردی عمودی، از غربالگران مراقبت‌های بهداشتی گرفته تا عوامل مهمان‌نوازی، بی‌پایان است.

عوامل هوش مصنوعی به زودی بسیاری از جنبه‌های زندگی ما را خودکار می‌کنند. اتوماسیونی که آن‌ها می‌توانند ارائه دهند، به سه دسته تقسیم می‌شود:

اتوماسیون شناختی (Cognitive automation) از تفکر انسانی تقلید می‌کند، مانند مدل‌سازی مولد در پشت ربات‌های گفتگوی هوش مصنوعی که متن و تصاویر اصلی را سنتز می‌کنند.

اتوماسیون سیستم (System automation) نه تنها جایگزین مدیریت سیستم انسانی می‌شود، بلکه پاسخ‌های استاتیک و از پیش تعریف‌شده را نیز حذف می‌کند و سیستم‌ها را قادر می‌سازد تا در هنگام خرابی، خودشان را تشخیص داده و خود بهبودی کنند.

اتوماسیون فیزیکی (Physical automation) سیستم‌های رباتیک را قادر می‌سازد تا در دنیای واقعی حرکت کنند، اما توسعه مدل‌های بنیادی برای این منظور هنوز در حال انجام است.

برای اینکه عوامل هوش مصنوعی از هر نوعی مفید باشند، باید با برنامه‌های دیگر تعامل داشته باشند، LLM زیربنایی را با دریافت داده‌های اضافی افزایش دهند یا به برنامه‌های دیگر بگویند که اقدامی را انجام دهند. این تعامل ممکن است با یک عامل هوش مصنوعی دیگر یا با سیستمی باشد که فاقد هرگونه هوش تعبیه شده است.

به عبارت دیگر، عوامل هوش مصنوعی را می‌توان به عنوان خدمات هوشمند در سیستم‌های توزیع‌شده در نظر گرفت. و مانند تقریباً تمام سیستم‌های توزیع‌شده، APIها تعامل بین خدمات را امکان‌پذیر می‌کنند.

نقش حیاتی APIها

تعامل بین هوش مصنوعی و API قدرتمند است. LLMها استاتیک هستند: آموزش آن‌ها به منابع محاسباتی عظیمی نیاز دارد و پس از آموزش، تا زمانی که ارائه‌دهنده LLM نسخه جدیدی را منتشر نکند، بدون تغییر باقی می‌مانند. در مقابل، اگرچه عوامل هوش مصنوعی بر روی LLMها اجرا می‌شوند، اما پویا هستند و مدل‌های از پیش آموزش دیده خود را از طریق APIها با داده‌های جدید افزایش می‌دهند، زیرا وظایف خود را کامل می‌کنند.

یکی از راه‌های قدردانی از ماهیت پویای سیستم‌های هوش مصنوعی عامل، مقایسه آن‌ها با برنامه‌های کاربردی مبتنی بر میکروسرویس‌های معمولی است. در حالت دوم، اگرچه هر میکروسرویس دارای یک API است، تعاملات بین سرویس‌ها از قبل توسط توسعه‌دهنده یا معمار برنامه تعیین می‌شود. با هوش مصنوعی عامل، خود عامل هوش مصنوعی تصمیم می‌گیرد که بسته به وظیفه، با کدام سرویس‌ها یا عوامل ارتباط برقرار کند.

عامل هوش مصنوعی عوامل مختلف را ارزیابی می‌کند، الگوهایی را بر اساس داده‌های آموزشی خود شناسایی می‌کند و معقول‌ترین گام بعدی را برای دستیابی به بهترین نتایج ممکن تعیین می‌کند. سپس برای غنی‌سازی پاسخ‌ها یا انجام اقدامات مختلف برای برآورده کردن درخواست کاربر، با سرویس‌های قابل دسترسی از طریق API ارتباط برقرار می‌کند. در حال حاضر، برخی از ارائه‌دهندگان خدمات — مانند Stripe و Amazon — APIهایی را منتشر کرده‌اند که برای گردش‌های کاری مبتنی بر عامل طراحی شده‌اند، در حالی که برخی دیگر از پروتکل زمینه مدل (MCP) استفاده می‌کنند تا APIهای خود را برای LLMها قابل دسترسی کنند.

به طور طبیعی، یک عامل هوش مصنوعی فقط باید از APIهای مورد اعتماد استفاده کند. یکی از مکان‌هایی که می‌توان آن‌ها را پیدا کرد، شبکه API Postman است که بزرگترین کاتالوگ APIهای عمومی تأیید شده از فروشندگان مورد اعتماد را ارائه می‌دهد که از طریق تولید کد تسهیل شده یا میزبانی شده به عنوان MCP در دسترس LLMها هستند. در داخل یک سازمان، چندین تیم مهندسی و محصول نیز از طریق APIهای خصوصی با هم همکاری می‌کنند. بسته به ماهیت عامل و درخواست کاربر، عوامل هوش مصنوعی ممکن است ترکیبی از APIهای عمومی و خصوصی را برای شروع اقدامات یا تولید پاسخ‌ها به کار گیرند.

مدیریت خطرات هوش مصنوعی عامل

هوش مصنوعی عامل، خطرات مربوط به نتایج هوش مصنوعی را افزایش می‌دهد. امروزه، ما اغلب به دلیل داده‌های آموزشی محدودی که از ربات‌های گفتگوی هوش مصنوعی در دسترس است، گاهی اوقات توهم یا اطلاعات نادرست را تحمل می‌کنیم. یک خطا زمانی پیامدهای کاملاً متفاوتی دارد که، به عنوان مثال، به عوامل هوش مصنوعی مسئولیت مدیریت زیرساخت ابری یا تعامل با مشتریان به گونه‌ای داده شود که هنوز هم صدای انسانی داشته باشد.

به همین دلیل است که یک گرادیان از عوامل وجود خواهد داشت. به برخی از آن‌ها اعتماد می‌شود که کاملاً خودمختار باشند، در حالی که برخی دیگر به یک تأییدکننده انسانی در حلقه نیاز دارند، با یک مرحله تأیید و محافظت‌هایی در اطراف فرآیند تأیید وجود دارد. توسعه محافظ‌ها برای تعیین اینکه عوامل چه کاری می‌توانند انجام دهند و چه کاری نمی‌توانند انجام دهند، باید به عنوان حداقل در نظر گرفته شود. با این حال، چنین محافظ‌هایی نیاز به تحقیق و توسعه دارند و ما هنوز در مرحله آزمایش هستیم.

آزمایش دقیق سیستم‌های عامل هوش مصنوعی ضروری است. عوامل هوش مصنوعی می‌توانند اقدامات خودمختارانه انجام دهند، بنابراین اگر این اقدامات اشتباه پیش بروند، می‌توانند آسیب جدی وارد کنند، به ویژه اگر به خطر بیفتند یا ضعیف طراحی شده باشند. توسعه‌دهندگان باید سیستم و درخواست‌های کاربر را آزمایش کنند، زمان‌های پاسخگویی را محک بزنند و LLMها را برای انتخاب بهترین مدل برای یک سیستم عامل معین مقایسه کنند. پس از انتخاب، LLMهای زیربنایی عوامل هوش مصنوعی باید برای ارائه بهترین و قابل پیش‌بینی‌ترین نتایج، تنظیم شوند.

APIهای موجود در یک سیستم عامل باید کاملاً محافظت شوند. برای جلوگیری از سوء استفاده از API، احراز هویت، مجوز و محدودیت نرخ قوی باید برای هر دو APIهای عامل هوش مصنوعی و APIهایی که هنگام فراخوانی داده‌ها یا عملکردهای ارائه شده توسط سیستم‌های معمولی به آن‌ها دسترسی دارند، وجود داشته باشد.

آینده هوش مصنوعی عامل ما

مدیرعامل NVIDIA، Jensen Huang گفته است که "بخش فناوری اطلاعات هر شرکت، بخش منابع انسانی عوامل هوش مصنوعی خواهد بود." این قیاس آنقدرها هم غیرقابل تصور نیست که به نظر می‌رسد: مانند انسان‌ها، عوامل هوشمند باید از قوانین پیروی کنند، به طور مداوم یاد بگیرند و منابعی در اختیارشان قرار گیرد که آن‌ها را قادر به پیشرفت کند.

سازمان‌ها با گذشت زمان ده‌ها و ده‌ها عامل هوش مصنوعی را توسعه و مستقر خواهند کرد. بسته به مأموریت آن‌ها، این عوامل ممکن است به طور فشرده در مورد وظایف پیچیده و مشارکتی با یکدیگر ارتباط برقرار کنند و دنیای کاملاً جدیدی از سیستم‌های هوشمند را باز کنند. چندین عامل می‌توانند بر روی یک LLM یکسان اجرا شوند، در حالی که برخی دیگر ممکن است بر روی مدل‌های زبانی مختلف، از جمله مدل‌های کوچکتر برای وظایف تخصصی، ساخته شوند.

ما از یک الگویی که در آن همه چیز تجویز و ایستا است، به الگویی تغییر می‌کنیم که در آن عوامل هوش مصنوعی اساساً در حال فکر کردن هستند، با دنیایی از داده‌ها و عملکردهای قابل دسترسی از طریق API برای تقویت قابلیت‌های خود. توسعه‌دهندگان دیگر نیازی به نوشتن کد برای هر مرحله از فرآیند نخواهند داشت. و در آن سیستم‌های عامل جدید و درخشانی که توسعه‌دهندگان ایجاد می‌کنند، بدون API، هوش مصنوعی وجود ندارد.