MCP: حلقه گمشده بین عوامل هوش مصنوعی و APIها

در نوامبر گذشته، Anthropic پروتکل مدل-محتوا (MCP) را راه‌اندازی کرد، یک استاندارد متن‌باز که برای ساده‌سازی نحوه تعامل مدل‌های هوش مصنوعی با APIها طراحی شده است. همانطور که پیش‌تر در این ماه توضیح دادیم، چشم‌انداز این است که MCP به روشی جهانی برای عوامل هوش مصنوعی برای راه‌اندازی اقدامات خارجی تبدیل شود.

MCP در چند ماه اول خود توجه زیادی را به خود جلب کرده است، از جمله از شرکت‌های مدیریت API مانند Speakeasy. شرکت‌های API، پروتکل MCP را به عنوان یک مکانیزم پیوند دهنده به اکوسیستم غنی از LLMها و چارچوب‌های عامل‌محور می‌بینند. برای کسب اطلاعات بیشتر، با مدیرعامل Speakeasy، ساگار باتچو، صحبت کردم.

پروتکل مدل-محتوا (MCP) چیست؟

همانطور که در مستندات آن توضیح داده شده است، MCP "از معماری کلاینت-سرور پیروی می‌کند که در آن یک برنامه میزبان می‌تواند به چندین سرور متصل شود."

در اصل، MCP دسترسی API را برای عوامل هوش مصنوعی استاندارد می‌کند. همچنین می‌توانید آن را به عنوان یک فرا-API در نظر بگیرید، همانطور که این نمودار از مت پوکاک نشان می‌دهد:

تصویرسازی MCP
تصویرسازی MCP

باتچو توضیح داد: "بنابراین MCP یک پروتکل است و در واقع یک لایه بسیار نازک بالای API است که می‌گوید، این تعریفی است که این API باید برای LLM یا عامل نمایش دهد تا بتواند پرس و جو کند و اطلاعات بیشتری در مورد [...] هر داده‌ای که ممکن است، به دست آورد."

یک کلاینت MCP می‌تواند یک LLM مانند Claude، IDEهایی مانند Cursor و Windsurf، و ابزارهای مختلف دیگر (مانند SpinAI، یک چارچوب TypeScript برای ساخت عوامل هوش مصنوعی) باشد.

در مورد یک سرور MCP - بلوک نارنجی رنگ در نمودار بالا - شما می‌توانید سرور خود را بسازید یا از یک سرور MCP از پیش ساخته شده استفاده کنید. در پست وبلاگ مقدماتی خود، Anthropic اشاره کرد که سرورهای MCP از پیش ساخته شده "برای سیستم‌های سازمانی محبوب مانند Google Drive، Slack، GitHub، Git، Postgres و Puppeteer" وجود دارد.

نقش Speakeasy در معماری MCP

ساخت سرور MCP خودتان جایی است که Speakeasy وارد عمل می‌شود. اخیراً این شرکت تولید سرور MCP را راه‌اندازی کرده است، ابزاری که ایجاد سرورهای سازگار با MCP را خودکار می‌کند.

در حال حاضر، تولید سرور MCP Speakeasy از SDKهای مبتنی بر TypeScript پشتیبانی می‌کند. با این حال، با توجه به تسلط پایتون در اکوسیستم هوش مصنوعی، این شرکت قصد دارد به زودی پشتیبانی از پایتون را نیز اضافه کند.

باتچو خاطرنشان کرد از آنجا که MCP به عنوان یک مدل کلاینت-سرور عمل می‌کند، عوامل هوش مصنوعی که با یک سرور MCP تعامل دارند می‌توانند از هر زبان برنامه‌نویسی استفاده کنند. او توضیح داد که برخلاف SDKهای سنتی - که خاص زبان هستند و نیاز به نوشتن کد یکپارچه‌سازی توسط توسعه‌دهندگان دارند - سرورهای MCP نقاط پایانی را نشان می‌دهند که عوامل هوش مصنوعی می‌توانند مستقیماً به آنها دسترسی داشته باشند.

MCP چگونه با OpenAPI مقایسه می‌شود؟

OpenAPI یک استاندارد گسترده پذیرفته شده برای تعریف APIها است، بنابراین در نگاه اول، این نیز نوعی لایه بالای APIها است. اما به گفته باتچو، MCP بر اساس OpenAPI ساخته شده است نه جایگزین آن.

او گفت: "پرش از یک مشخصات OpenAPI به MCP بسیار کوچک است." "OpenAPI تا حدودی یک ابرمجموعه از تمام اطلاعاتی است که MCP به آن نیاز دارد، و سپس شما آن را با مثال‌ها و توضیحات خاص [برای] یک LLM بسته‌بندی می‌کنید، و آن را به عنوان یک سرور اجرا می‌کنید."

به عبارت دیگر: در حالی که OpenAPI یک تعریف ساختاریافته از قابلیت‌های یک API ارائه می‌دهد، در درجه اول یک مشخصات استاتیک است. در مقابل، MCP یک مدل تعامل کلاینت-سرور را معرفی می‌کند. یک سرور MCP یک نمونه زنده و در حال اجرا است که عوامل هوش مصنوعی می‌توانند در زمان واقعی از آن پرس و جو کنند. این بدان معناست که یک سرور MCP می‌تواند به صورت پویا به درخواست‌های تولید شده توسط هوش مصنوعی پاسخ دهد، و APIها را برای جریان‌های کاری عامل‌محور در دسترس‌تر می‌کند.

"پرش از یک مشخصات OpenAPI به MCP بسیار کوچک است."
- ساگار باتچو، مدیرعامل Speakeasy

همانطور که باتچو بیان کرد، "تفاوت این است که یک مشخصات OpenAPI فقط یک تعریف است، و سرور MCP در واقع یک تجربه سرور-کلاینت است."

تا قبل از رسیدن MCP، ادغام یک API با یک مدل هوش مصنوعی چالش برانگیز بود. باتچو خاطرنشان کرد که بسیاری از ادغام‌های API مبتنی بر هوش مصنوعی با شکست مواجه شدند زیرا مدل‌ها فاقد اطلاعات شماتیک لازم برای درک پاسخ‌های API بودند. MCP این مشکل را با ساختاربندی تعاملات API به گونه‌ای که هوش مصنوعی بتواند درک کند، حل می‌کند و ادغام‌ها را قابل اعتمادتر می‌کند.

موارد استفاده واقعی برای سرورهای MCP

باتچو گفت که Speakeasy در حال حاضر چندین مشتری دارد که از مجموعه ویژگی‌های MCP آن استفاده می‌کنند. شرکت‌هایی مانند Vercel، Dub و دیگران از سرورهای MCP برای بهبود جریان‌های کاری مبتنی بر API خود استفاده می‌کنند.

در Dub، یک پلتفرم اشتراک‌گذاری لینک، تیم‌های بازاریابی اغلب لینک‌های کوتاهی را برای ردیابی عملکرد مقاله ایجاد می‌کنند. به جای جستجوی دستی در داشبوردهای تجزیه و تحلیل، اکنون می‌توانند از یک دستیار هوش مصنوعی بخواهند که لینک‌های پرطرفدار خود را در هفته گذشته بازیابی کند. هوش مصنوعی از سرور MCP Dub پرس و جو می‌کند، داده‌های مربوطه را واکشی می‌کند و حتی یک تجسم ایجاد می‌کند - همه اینها بدون اینکه کاربر رابط چت خود را ترک کند.

Speakeasy MCP
مشتری Speakeasy، Dub، در حال استفاده از MCP.

من در مورد برنامه‌های تجارت الکترونیک بالقوه سؤال کردم، زیرا این حوزه‌ای است که به نظر می‌رسد برای عوامل هوش مصنوعی مناسب است. باتچو پیشنهاد کرد که تصور کنید چنین شرکتی از MCP برای قدرت بخشیدن به هوش تجاری مبتنی بر هوش مصنوعی استفاده می‌کند. یک دستیار هوش مصنوعی می‌تواند از یک سرور MCP برای داده‌های فروش پرس و جو کند، گزارش‌ها ایجاد کند و حتی استراتژی‌های بازاریابی را بر اساس بینش‌های بلادرنگ پیشنهاد کند. این امر نیاز به استخراج و تجزیه و تحلیل دستی داده‌ها را کاهش می‌دهد.

استانداردهای رقیب در پیش؟

Anthropic پروتکل MCP را توسعه داده است، اما تاکنون هیچ نشانه‌ای وجود ندارد که دیگر بزرگان هوش مصنوعی - مانند OpenAI، Google و Meta - آن را اتخاذ کنند.

باتچو فکر می‌کند که الگوی MCP احتمالاً در کنار سایر رویکردهای API مبتنی بر هوش مصنوعی تکامل خواهد یافت. او اشاره می‌کند که فراخوانی عملکرد OpenAI در حال حاضر راهی را برای تعامل مدل‌های هوش مصنوعی با خدمات خارجی فراهم می‌کند، اگرچه فاقد ماهیت استاندارد و باز MCP است.

او گفت: "من معتقدم که برای مدتی جنگ شماتیک وجود خواهد داشت، تا زمانی که به چیزی شبیه OpenAPI تبدیل شود، درست است، جایی که یک استاندارد وجود دارد."

"برای مدتی جنگ شماتیک وجود خواهد داشت."
- باتچو

صرف نظر از این، باتچو فکر می‌کند که زمان مناسبی برای تولیدکنندگان API است که MCP را آزمایش کنند.

"تولیدکنندگان API باید در ابزارهای عامل مانند MCP سرمایه‌گذاری کنند و، می‌دانید، یک مخزن GitHub ایجاد کنند، آن را بسازند، آن را منتشر کنند."

به همین ترتیب، او فکر می‌کند که مصرف‌کنندگان API باید آزمایش کنند، اگرچه او اذعان می‌کند که برای آنها "اختلال و هرج و مرج" بیشتری وجود خواهد داشت - زیرا استانداردها هنوز در حال تغییر هستند. اما او توصیه‌هایی برای توسعه‌دهندگانی دارد که وظیفه استفاده از APIها در کنار هوش مصنوعی را دارند.

"اولین کاری که می‌توانید انجام دهید این است که در واقع بررسی کنید که آیا API یک سرور MCP دارد یا خیر. می‌توانید آن را به صورت محلی در IDE یا کلاینت دسکتاپ LLM خود نصب کنید و در واقع فقط شروع به ادغام از طریق پرس و جو [از طریق] زبان طبیعی کنید."

باتچو همچنین خاطرنشان می‌کند که این فرصت برای توسعه‌دهندگان وجود دارد تا جریان‌های کاری را خودکار کنند و بینش‌ها را به صورت پویا از APIها استخراج کنند، و از MCP در کنار چارچوب‌های عامل‌محور مانند LangChain و AutoGen استفاده کنند.