دو سال پس از انقلاب هوش مصنوعی مولد، مدلهای زبانی بزرگ (LLM) که ابزارهایی مانند ChatGPT و Claude را تقویت میکنند، به طرز شگفتآوری قدرتمند شدهاند. با این حال، به گفته مارک بنیوف، مدیرعامل Salesforce، آنها ممکن است به محدودیتهای خود برسند. به گفته بنیوف، تکامل بعدی لزوماً مدلهای زبانی بزرگ هوشمندتر نیستند، بلکه عوامل هوش مصنوعی خودمختاری هستند که از مدلهای زبانی بزرگ برای اجرای مستقل وظایف استفاده میکنند.
بنیوف در مورد هوش مصنوعی فعال جدی است و سال گذشته Agentforce را راهاندازی کرد تا میلیونها عامل هوش مصنوعی را برای مشتریان Salesforce به ارمغان بیاورد. او تنها نیست: در نظر بگیرید که جرمیا اوویانگ، تحلیلگر سابق Forrester که به سرمایهگذار خطرپذیر تبدیل شده است، پیشبینی کرد که به زودی تعداد عوامل هوش مصنوعی بیشتر از انسانها خواهد بود، با 100 عامل هوش مصنوعی به ازای هر نفر. اگر حتی کسری از این پیشبینیها به حقیقت بپیوندد، پیامدهای عمیقی برای آینده تجارت الکترونیک خواهد داشت.
دنیایی را تصور کنید که در آن عوامل هوش مصنوعی هر دو طرف تعامل مشتری-فروشنده را بر عهده میگیرند. داراییهای رو به مشتری مانند وبسایتها و برنامههای وب میتوانند بهطور گسترده با عوامل هوش مصنوعی شخصیسازیشده برای مشتری جایگزین شوند - یا حداقل با آنها ادغام شوند. سپس این عوامل میتوانند با عامل هوش مصنوعی مشتری تعامل داشته باشند و چرخه فروش را با معاملات عامل به عامل خودکار کنند.
Salesforce تنها شرکتی نیست که از هوش مصنوعی فعال استقبال میکند. بر اساس نظرسنجی از 1100 مدیر اجرایی در شرکتهای بزرگ توسط CapGemini، 10 درصد از سازمانها در حال حاضر از عوامل هوش مصنوعی استفاده میکنند، بیش از نیمی از آنها قصد دارند در سال آینده از آنها استفاده کنند و 82 درصد قصد دارند آنها را ظرف سه سال آینده ادغام کنند. شصت و چهار درصد از این مدیران اجرایی انتظار داشتند که هوش مصنوعی فعال خدمات و رضایت مشتری را بهبود بخشد. Gartner پیشبینی میکند که تا سال 2028، 33 درصد از برنامههای نرمافزاری سازمانی شامل هوش مصنوعی فعال خواهند بود.
با توجه به این پیشبینیها، تنها مسئله زمان است که مشتریان انتظار داشته باشند عوامل هوش مصنوعی اطلاعات مورد نیاز خود را برای تصمیمگیری خرید در اختیار آنها قرار دهند، نه اینکه خودشان به دنبال آن بگردند.
معماری مورد نیاز برای استقرار هوش مصنوعی فعال اکنون برای شرکتهایی که به دنبال پیشی گرفتن از منحنی و ادغام آن در برنامههای وب خود هستند، در حال توسعه است. بهطور خاص، برای تسهیل هزاران تعامل مشتری در سراسر جهان، شرکتها به توانایی استقرار استنتاج هوش مصنوعی با تأخیر کم در لبه نیاز دارند.
ایجاد معماری برای پشتیبانی از استنتاج هوش مصنوعی فعال در لبه
توسعه معماری برای پشتیبانی از استنتاج با تأخیر کم در لبه، پیشنیاز حیاتی برای عملیات هوش مصنوعی فعال در مقیاس است، بهویژه در تجارت الکترونیک، جایی که عوامل هوش مصنوعی باید در زمان واقعی با مشتریان در سراسر جهان ارتباط برقرار کنند. این تغییر به سمت لبه در حال حاضر در حال انجام است: یک مطالعه اخیر توسط S&P Global Market Intelligence (به سفارش Vultr) نشان داد که بیش از 80 درصد از 1000 متخصص هوش مصنوعی و فناوری اطلاعات مورد بررسی انتظار دارند که عملیات لبه هوش مصنوعی خود را در سال آینده افزایش دهند.
با این حال، اکثر شرکتها زیرساخت لازم برای پشتیبانی از استنتاج هوش مصنوعی لبه در مقیاس را ندارند و هرگز نخواهند داشت. پردازندههای گرافیکی و سایر تراشههای تخصصی هوش مصنوعی فوقالعاده گران هستند و به سرعت منسوخ میشوند، که سرمایهگذاری در این منابع بهصورت داخلی را غیرعملی میکند.
استنتاج هوش مصنوعی که از محیطهای لبه ارائه میشود، به یک پشته فناوری متفاوت نیاز دارد تا هوش مصنوعی را در مقیاس مقرونبهصرفه کند. برای اکثر شرکتها، رویکرد بدون سرور به استنتاج هوش مصنوعی هم از نظر هزینه و هم از نظر عملکرد بهینه خواهد بود.
استنتاج بدون سرور: انتخاب بهینه برای هزینه و عملکرد
برای جلوگیری از هزینه سرمایهای تهیه تراشههای اختصاصی هوش مصنوعی که به سرعت منسوخ میشوند، رویکرد بدون سرور از منابع مدیریتشده توسط ارائهدهنده ابر استفاده میکند تا هر حجم کاری هوش مصنوعی را با منبع محاسباتی بهینه برای آن کار مطابقت دهد. بهطور خلاصه، استنتاج بدون سرور به شرکت اجازه میدهد تا نگرانیهای مربوط به زیرساخت را به ارائهدهندگان ابری واگذار کند که روزانه با این موضوع سروکار دارند.
استفاده از رویکرد بدون سرور به شرکتها این امکان را میدهد تا از تنوع سیلیکونی ارائهدهندگان ابری بهرهمند شوند - فوقتخصصیسازی تراشههای محاسباتی هوش مصنوعی برای رسیدگی به الزامات محاسباتی منحصربهفرد در هر مرحله از چرخه عمر مدل هوش مصنوعی. از دیدگاه مشتری، یک رویکرد بدون سرور بهطور خودکار مقیاسبندی منابع مناسب را بر اساس حجم کاری هوش مصنوعی و الزامات مورد استفاده برای بهینهسازی هزینه و عملکرد مدیریت میکند.
با یک رویکرد بدون سرور برای مدیریت منابع محاسباتی و بهینهسازی هزینهها، گام بعدی توسعه معماری برای پشتیبانی از پخش جریانی داده با تأخیر کم با کنترلهای حاکمیت داده برای ایمن نگه داشتن دادههای مشتری است.
حفظ حاکمیت و حریم خصوصی دادهها با استنتاج هوش مصنوعی فعال در زمان واقعی
برای فراتر رفتن از برنامههای کاربردی هوش مصنوعی عمومی مانند ChatGPT، برنامههای هوش مصنوعی فعال نیاز به دسترسی به دادههای اختصاصی حساس دارند. این امر بهویژه در یک زمینه تجارت الکترونیک صادق است، جایی که دادههای مشتری برای ارائه اطلاعات مرتبط با متن به مشتریان توسط عوامل هوش مصنوعی ضروری است. البته، هر زمان که مدلهای هوش مصنوعی از دادههای اختصاصی استفاده میکنند، شرکت باید از الزامات حاکمیت داده محلی پیروی کند.
فروشگاههای برداری و تولید تقویتشده با بازیابی (RAG) استراتژیهای مؤثری برای حفظ دادهها حاکمیت برای سوخترسانی به استنتاج هوش مصنوعی فعال در هر کجا که دادهها قرار دارند. در این رویکرد، دادههای حساس در فروشگاههای برداری ایمنشده با کنترلهای حاکمیت داده محلی نگهداری میشوند، که عوامل هوش مصنوعی در صورت نیاز با استفاده از RAG به جای آموزش مستقیم مدلها بر روی دادههای حساس به آنها دسترسی پیدا میکنند.
فروشگاههای برداری و RAG امکان ارائه بینشهای مناسب متنی را بدون قرار دادن دادههای حساس در معرض ارائهدهنده مدل شخص ثالث فراهم میکنند. محتویات فروشگاه برداری را میتوان بدون آموزش مجدد کل مدل، دوباره پر کرد، که هزینههای آموزش را کاهش میدهد. این رویکرد همچنین مدلها را به راحتی قابل انتقال در سراسر جغرافیا میکند و در عین حال الزامات حاکمیت داده محلی را رعایت میکند.
جدا از حاکمیت داده، شرکتها همچنین به پخش جریانی داده با تأخیر کم برای تسهیل زمان واقعی تعاملات هوش مصنوعی فعال نیاز دارند. Apache Kafka، یک پلتفرم داده جریانی منبع باز، برای تغذیه دادههای جریانی در زمان واقعی به برنامههای هوش مصنوعی فعال ایدهآل است. با RAG و فروشگاههای برداری، Apache Kafka برنامههای کاربردی هوش مصنوعی فعال با تأخیر کم را در لبه امکانپذیر میکند و در عین حال حاکمیت محلی را حفظ میکند.
هوش مصنوعی فعال نیاز به رویکرد معماری مناسب را تشدید میکند
در مقایسه با هوش مصنوعی سنتی، هوش مصنوعی فعال بار قابل توجهی را بر دوش تیمهای مهندسی قرار میدهد با پیکربندی و نگهداری زیرساخت پیچیده مورد نیاز برای پشتیبانی از دستههای عوامل هوش مصنوعی توزیعشده در سراسر مناطق جغرافیایی وسیع و هزاران دستگاه لبه. تنها رویکرد عملی، استنتاج بدون سرور همراه با RAG و Kafka مدیریتشده است، که تضمین میکند وظایف اجراشده توسط عوامل هوش مصنوعی بهطور دقیق و ایمن و بدون تأخیر معنیدار انجام میشوند.
با برونسپاری پیچیدگیهای تأمین، پیکربندی و مقیاسبندی خودکار زیرساخت به ارائهدهندگان ابری، تیمهای مهندسی میتوانند بر ایجاد یک لایه کاربردی هوش مصنوعی قوی، توسعه عوامل هوش مصنوعی هدفمند و اولویتبندی تجربه مشتری تمرکز کنند. یک رویکرد بدون سرور به زیرساخت هوش مصنوعی، پایه و اساس کاملی برای ساختن آینده فعال جدید برای سفر مشتری ایجاد میکند.