در نوامبر گذشته، Anthropic پروتکل مدل-محتوا (MCP) را راهاندازی کرد، یک استاندارد متنباز که برای سادهسازی نحوه تعامل مدلهای هوش مصنوعی با APIها طراحی شده است. همانطور که پیشتر در این ماه توضیح دادیم، چشمانداز این است که MCP به روشی جهانی برای عوامل هوش مصنوعی برای راهاندازی اقدامات خارجی تبدیل شود.
MCP در چند ماه اول خود توجه زیادی را به خود جلب کرده است، از جمله از شرکتهای مدیریت API مانند Speakeasy. شرکتهای API، پروتکل MCP را به عنوان یک مکانیزم پیوند دهنده به اکوسیستم غنی از LLMها و چارچوبهای عاملمحور میبینند. برای کسب اطلاعات بیشتر، با مدیرعامل Speakeasy، ساگار باتچو، صحبت کردم.
پروتکل مدل-محتوا (MCP) چیست؟
همانطور که در مستندات آن توضیح داده شده است، MCP "از معماری کلاینت-سرور پیروی میکند که در آن یک برنامه میزبان میتواند به چندین سرور متصل شود."
در اصل، MCP دسترسی API را برای عوامل هوش مصنوعی استاندارد میکند. همچنین میتوانید آن را به عنوان یک فرا-API در نظر بگیرید، همانطور که این نمودار از مت پوکاک نشان میدهد:
باتچو توضیح داد: "بنابراین MCP یک پروتکل است و در واقع یک لایه بسیار نازک بالای API است که میگوید، این تعریفی است که این API باید برای LLM یا عامل نمایش دهد تا بتواند پرس و جو کند و اطلاعات بیشتری در مورد [...] هر دادهای که ممکن است، به دست آورد."
یک کلاینت MCP میتواند یک LLM مانند Claude، IDEهایی مانند Cursor و Windsurf، و ابزارهای مختلف دیگر (مانند SpinAI، یک چارچوب TypeScript برای ساخت عوامل هوش مصنوعی) باشد.
در مورد یک سرور MCP - بلوک نارنجی رنگ در نمودار بالا - شما میتوانید سرور خود را بسازید یا از یک سرور MCP از پیش ساخته شده استفاده کنید. در پست وبلاگ مقدماتی خود، Anthropic اشاره کرد که سرورهای MCP از پیش ساخته شده "برای سیستمهای سازمانی محبوب مانند Google Drive، Slack، GitHub، Git، Postgres و Puppeteer" وجود دارد.
نقش Speakeasy در معماری MCP
ساخت سرور MCP خودتان جایی است که Speakeasy وارد عمل میشود. اخیراً این شرکت تولید سرور MCP را راهاندازی کرده است، ابزاری که ایجاد سرورهای سازگار با MCP را خودکار میکند.
در حال حاضر، تولید سرور MCP Speakeasy از SDKهای مبتنی بر TypeScript پشتیبانی میکند. با این حال، با توجه به تسلط پایتون در اکوسیستم هوش مصنوعی، این شرکت قصد دارد به زودی پشتیبانی از پایتون را نیز اضافه کند.
باتچو خاطرنشان کرد از آنجا که MCP به عنوان یک مدل کلاینت-سرور عمل میکند، عوامل هوش مصنوعی که با یک سرور MCP تعامل دارند میتوانند از هر زبان برنامهنویسی استفاده کنند. او توضیح داد که برخلاف SDKهای سنتی - که خاص زبان هستند و نیاز به نوشتن کد یکپارچهسازی توسط توسعهدهندگان دارند - سرورهای MCP نقاط پایانی را نشان میدهند که عوامل هوش مصنوعی میتوانند مستقیماً به آنها دسترسی داشته باشند.
MCP چگونه با OpenAPI مقایسه میشود؟
OpenAPI یک استاندارد گسترده پذیرفته شده برای تعریف APIها است، بنابراین در نگاه اول، این نیز نوعی لایه بالای APIها است. اما به گفته باتچو، MCP بر اساس OpenAPI ساخته شده است نه جایگزین آن.
او گفت: "پرش از یک مشخصات OpenAPI به MCP بسیار کوچک است." "OpenAPI تا حدودی یک ابرمجموعه از تمام اطلاعاتی است که MCP به آن نیاز دارد، و سپس شما آن را با مثالها و توضیحات خاص [برای] یک LLM بستهبندی میکنید، و آن را به عنوان یک سرور اجرا میکنید."
به عبارت دیگر: در حالی که OpenAPI یک تعریف ساختاریافته از قابلیتهای یک API ارائه میدهد، در درجه اول یک مشخصات استاتیک است. در مقابل، MCP یک مدل تعامل کلاینت-سرور را معرفی میکند. یک سرور MCP یک نمونه زنده و در حال اجرا است که عوامل هوش مصنوعی میتوانند در زمان واقعی از آن پرس و جو کنند. این بدان معناست که یک سرور MCP میتواند به صورت پویا به درخواستهای تولید شده توسط هوش مصنوعی پاسخ دهد، و APIها را برای جریانهای کاری عاملمحور در دسترستر میکند.
"پرش از یک مشخصات OpenAPI به MCP بسیار کوچک است."
- ساگار باتچو، مدیرعامل Speakeasy
همانطور که باتچو بیان کرد، "تفاوت این است که یک مشخصات OpenAPI فقط یک تعریف است، و سرور MCP در واقع یک تجربه سرور-کلاینت است."
تا قبل از رسیدن MCP، ادغام یک API با یک مدل هوش مصنوعی چالش برانگیز بود. باتچو خاطرنشان کرد که بسیاری از ادغامهای API مبتنی بر هوش مصنوعی با شکست مواجه شدند زیرا مدلها فاقد اطلاعات شماتیک لازم برای درک پاسخهای API بودند. MCP این مشکل را با ساختاربندی تعاملات API به گونهای که هوش مصنوعی بتواند درک کند، حل میکند و ادغامها را قابل اعتمادتر میکند.
موارد استفاده واقعی برای سرورهای MCP
باتچو گفت که Speakeasy در حال حاضر چندین مشتری دارد که از مجموعه ویژگیهای MCP آن استفاده میکنند. شرکتهایی مانند Vercel، Dub و دیگران از سرورهای MCP برای بهبود جریانهای کاری مبتنی بر API خود استفاده میکنند.
در Dub، یک پلتفرم اشتراکگذاری لینک، تیمهای بازاریابی اغلب لینکهای کوتاهی را برای ردیابی عملکرد مقاله ایجاد میکنند. به جای جستجوی دستی در داشبوردهای تجزیه و تحلیل، اکنون میتوانند از یک دستیار هوش مصنوعی بخواهند که لینکهای پرطرفدار خود را در هفته گذشته بازیابی کند. هوش مصنوعی از سرور MCP Dub پرس و جو میکند، دادههای مربوطه را واکشی میکند و حتی یک تجسم ایجاد میکند - همه اینها بدون اینکه کاربر رابط چت خود را ترک کند.
من در مورد برنامههای تجارت الکترونیک بالقوه سؤال کردم، زیرا این حوزهای است که به نظر میرسد برای عوامل هوش مصنوعی مناسب است. باتچو پیشنهاد کرد که تصور کنید چنین شرکتی از MCP برای قدرت بخشیدن به هوش تجاری مبتنی بر هوش مصنوعی استفاده میکند. یک دستیار هوش مصنوعی میتواند از یک سرور MCP برای دادههای فروش پرس و جو کند، گزارشها ایجاد کند و حتی استراتژیهای بازاریابی را بر اساس بینشهای بلادرنگ پیشنهاد کند. این امر نیاز به استخراج و تجزیه و تحلیل دستی دادهها را کاهش میدهد.
استانداردهای رقیب در پیش؟
Anthropic پروتکل MCP را توسعه داده است، اما تاکنون هیچ نشانهای وجود ندارد که دیگر بزرگان هوش مصنوعی - مانند OpenAI، Google و Meta - آن را اتخاذ کنند.
باتچو فکر میکند که الگوی MCP احتمالاً در کنار سایر رویکردهای API مبتنی بر هوش مصنوعی تکامل خواهد یافت. او اشاره میکند که فراخوانی عملکرد OpenAI در حال حاضر راهی را برای تعامل مدلهای هوش مصنوعی با خدمات خارجی فراهم میکند، اگرچه فاقد ماهیت استاندارد و باز MCP است.
او گفت: "من معتقدم که برای مدتی جنگ شماتیک وجود خواهد داشت، تا زمانی که به چیزی شبیه OpenAPI تبدیل شود، درست است، جایی که یک استاندارد وجود دارد."
"برای مدتی جنگ شماتیک وجود خواهد داشت."
- باتچو
صرف نظر از این، باتچو فکر میکند که زمان مناسبی برای تولیدکنندگان API است که MCP را آزمایش کنند.
"تولیدکنندگان API باید در ابزارهای عامل مانند MCP سرمایهگذاری کنند و، میدانید، یک مخزن GitHub ایجاد کنند، آن را بسازند، آن را منتشر کنند."
به همین ترتیب، او فکر میکند که مصرفکنندگان API باید آزمایش کنند، اگرچه او اذعان میکند که برای آنها "اختلال و هرج و مرج" بیشتری وجود خواهد داشت - زیرا استانداردها هنوز در حال تغییر هستند. اما او توصیههایی برای توسعهدهندگانی دارد که وظیفه استفاده از APIها در کنار هوش مصنوعی را دارند.
"اولین کاری که میتوانید انجام دهید این است که در واقع بررسی کنید که آیا API یک سرور MCP دارد یا خیر. میتوانید آن را به صورت محلی در IDE یا کلاینت دسکتاپ LLM خود نصب کنید و در واقع فقط شروع به ادغام از طریق پرس و جو [از طریق] زبان طبیعی کنید."
باتچو همچنین خاطرنشان میکند که این فرصت برای توسعهدهندگان وجود دارد تا جریانهای کاری را خودکار کنند و بینشها را به صورت پویا از APIها استخراج کنند، و از MCP در کنار چارچوبهای عاملمحور مانند LangChain و AutoGen استفاده کنند.