عکس از Phillip Glickman در Unsplash.
عکس از Phillip Glickman در Unsplash.

هوش مصنوعی فعال، اپلیکیشن وب جدید است و استراتژی هوش مصنوعی شما باید تکامل یابد

دو سال پس از انقلاب هوش مصنوعی مولد، مدل‌های زبانی بزرگ (LLM) که ابزارهایی مانند ChatGPT و Claude را تقویت می‌کنند، به طرز شگفت‌آوری قدرتمند شده‌اند. با این حال، به گفته مارک بنیوف، مدیرعامل Salesforce، آن‌ها ممکن است به محدودیت‌های خود برسند. به گفته بنیوف، تکامل بعدی لزوماً مدل‌های زبانی بزرگ هوشمندتر نیستند، بلکه عوامل هوش مصنوعی خودمختاری هستند که از مدل‌های زبانی بزرگ برای اجرای مستقل وظایف استفاده می‌کنند.

بنیوف در مورد هوش مصنوعی فعال جدی است و سال گذشته Agentforce را راه‌اندازی کرد تا میلیون‌ها عامل هوش مصنوعی را برای مشتریان Salesforce به ارمغان بیاورد. او تنها نیست: در نظر بگیرید که جرمیا اوویانگ، تحلیلگر سابق Forrester که به سرمایه‌گذار خطرپذیر تبدیل شده است، پیش‌بینی کرد که به زودی تعداد عوامل هوش مصنوعی بیشتر از انسان‌ها خواهد بود، با 100 عامل هوش مصنوعی به ازای هر نفر. اگر حتی کسری از این پیش‌بینی‌ها به حقیقت بپیوندد، پیامدهای عمیقی برای آینده تجارت الکترونیک خواهد داشت.

دنیایی را تصور کنید که در آن عوامل هوش مصنوعی هر دو طرف تعامل مشتری-فروشنده را بر عهده می‌گیرند. دارایی‌های رو به مشتری مانند وب‌سایت‌ها و برنامه‌های وب می‌توانند به‌طور گسترده با عوامل هوش مصنوعی شخصی‌سازی‌شده برای مشتری جایگزین شوند - یا حداقل با آن‌ها ادغام شوند. سپس این عوامل می‌توانند با عامل هوش مصنوعی مشتری تعامل داشته باشند و چرخه فروش را با معاملات عامل به عامل خودکار کنند.

Salesforce تنها شرکتی نیست که از هوش مصنوعی فعال استقبال می‌کند. بر اساس نظرسنجی از 1100 مدیر اجرایی در شرکت‌های بزرگ توسط CapGemini، 10 درصد از سازمان‌ها در حال حاضر از عوامل هوش مصنوعی استفاده می‌کنند، بیش از نیمی از آن‌ها قصد دارند در سال آینده از آن‌ها استفاده کنند و 82 درصد قصد دارند آن‌ها را ظرف سه سال آینده ادغام کنند. شصت و چهار درصد از این مدیران اجرایی انتظار داشتند که هوش مصنوعی فعال خدمات و رضایت مشتری را بهبود بخشد. Gartner پیش‌بینی می‌کند که تا سال 2028، 33 درصد از برنامه‌های نرم‌افزاری سازمانی شامل هوش مصنوعی فعال خواهند بود.

با توجه به این پیش‌بینی‌ها، تنها مسئله زمان است که مشتریان انتظار داشته باشند عوامل هوش مصنوعی اطلاعات مورد نیاز خود را برای تصمیم‌گیری خرید در اختیار آن‌ها قرار دهند، نه اینکه خودشان به دنبال آن بگردند.

معماری مورد نیاز برای استقرار هوش مصنوعی فعال اکنون برای شرکت‌هایی که به دنبال پیشی گرفتن از منحنی و ادغام آن در برنامه‌های وب خود هستند، در حال توسعه است. به‌طور خاص، برای تسهیل هزاران تعامل مشتری در سراسر جهان، شرکت‌ها به توانایی استقرار استنتاج هوش مصنوعی با تأخیر کم در لبه نیاز دارند.

ایجاد معماری برای پشتیبانی از استنتاج هوش مصنوعی فعال در لبه

توسعه معماری برای پشتیبانی از استنتاج با تأخیر کم در لبه، پیش‌نیاز حیاتی برای عملیات هوش مصنوعی فعال در مقیاس است، به‌ویژه در تجارت الکترونیک، جایی که عوامل هوش مصنوعی باید در زمان واقعی با مشتریان در سراسر جهان ارتباط برقرار کنند. این تغییر به سمت لبه در حال حاضر در حال انجام است: یک مطالعه اخیر توسط S&P Global Market Intelligence (به سفارش Vultr) نشان داد که بیش از 80 درصد از 1000 متخصص هوش مصنوعی و فناوری اطلاعات مورد بررسی انتظار دارند که عملیات لبه هوش مصنوعی خود را در سال آینده افزایش دهند.

با این حال، اکثر شرکت‌ها زیرساخت لازم برای پشتیبانی از استنتاج هوش مصنوعی لبه در مقیاس را ندارند و هرگز نخواهند داشت. پردازنده‌های گرافیکی و سایر تراشه‌های تخصصی هوش مصنوعی فوق‌العاده گران هستند و به سرعت منسوخ می‌شوند، که سرمایه‌گذاری در این منابع به‌صورت داخلی را غیرعملی می‌کند.

استنتاج هوش مصنوعی که از محیط‌های لبه ارائه می‌شود، به یک پشته فناوری متفاوت نیاز دارد تا هوش مصنوعی را در مقیاس مقرون‌به‌صرفه کند. برای اکثر شرکت‌ها، رویکرد بدون سرور به استنتاج هوش مصنوعی هم از نظر هزینه و هم از نظر عملکرد بهینه خواهد بود.

استنتاج بدون سرور: انتخاب بهینه برای هزینه و عملکرد

برای جلوگیری از هزینه سرمایه‌ای تهیه تراشه‌های اختصاصی هوش مصنوعی که به سرعت منسوخ می‌شوند، رویکرد بدون سرور از منابع مدیریت‌شده توسط ارائه‌دهنده ابر استفاده می‌کند تا هر حجم کاری هوش مصنوعی را با منبع محاسباتی بهینه برای آن کار مطابقت دهد. به‌طور خلاصه، استنتاج بدون سرور به شرکت اجازه می‌دهد تا نگرانی‌های مربوط به زیرساخت را به ارائه‌دهندگان ابری واگذار کند که روزانه با این موضوع سروکار دارند.

استفاده از رویکرد بدون سرور به شرکت‌ها این امکان را می‌دهد تا از تنوع سیلیکونی ارائه‌دهندگان ابری بهره‌مند شوند - فوق‌تخصصی‌سازی تراشه‌های محاسباتی هوش مصنوعی برای رسیدگی به الزامات محاسباتی منحصربه‌فرد در هر مرحله از چرخه عمر مدل هوش مصنوعی. از دیدگاه مشتری، یک رویکرد بدون سرور به‌طور خودکار مقیاس‌بندی منابع مناسب را بر اساس حجم کاری هوش مصنوعی و الزامات مورد استفاده برای بهینه‌سازی هزینه و عملکرد مدیریت می‌کند.

با یک رویکرد بدون سرور برای مدیریت منابع محاسباتی و بهینه‌سازی هزینه‌ها، گام بعدی توسعه معماری برای پشتیبانی از پخش جریانی داده با تأخیر کم با کنترل‌های حاکمیت داده برای ایمن نگه داشتن داده‌های مشتری است.

حفظ حاکمیت و حریم خصوصی داده‌ها با استنتاج هوش مصنوعی فعال در زمان واقعی

برای فراتر رفتن از برنامه‌های کاربردی هوش مصنوعی عمومی مانند ChatGPT، برنامه‌های هوش مصنوعی فعال نیاز به دسترسی به داده‌های اختصاصی حساس دارند. این امر به‌ویژه در یک زمینه تجارت الکترونیک صادق است، جایی که داده‌های مشتری برای ارائه اطلاعات مرتبط با متن به مشتریان توسط عوامل هوش مصنوعی ضروری است. البته، هر زمان که مدل‌های هوش مصنوعی از داده‌های اختصاصی استفاده می‌کنند، شرکت باید از الزامات حاکمیت داده محلی پیروی کند.

فروشگاه‌های برداری و تولید تقویت‌شده با بازیابی (RAG) استراتژی‌های مؤثری برای حفظ داده‌ها حاکمیت برای سوخت‌رسانی به استنتاج هوش مصنوعی فعال در هر کجا که داده‌ها قرار دارند. در این رویکرد، داده‌های حساس در فروشگاه‌های برداری ایمن‌شده با کنترل‌های حاکمیت داده محلی نگهداری می‌شوند، که عوامل هوش مصنوعی در صورت نیاز با استفاده از RAG به جای آموزش مستقیم مدل‌ها بر روی داده‌های حساس به آن‌ها دسترسی پیدا می‌کنند.

فروشگاه‌های برداری و RAG امکان ارائه بینش‌های مناسب متنی را بدون قرار دادن داده‌های حساس در معرض ارائه‌دهنده مدل شخص ثالث فراهم می‌کنند. محتویات فروشگاه برداری را می‌توان بدون آموزش مجدد کل مدل، دوباره پر کرد، که هزینه‌های آموزش را کاهش می‌دهد. این رویکرد همچنین مدل‌ها را به راحتی قابل انتقال در سراسر جغرافیا می‌کند و در عین حال الزامات حاکمیت داده محلی را رعایت می‌کند.

جدا از حاکمیت داده، شرکت‌ها همچنین به پخش جریانی داده با تأخیر کم برای تسهیل زمان واقعی تعاملات هوش مصنوعی فعال نیاز دارند. Apache Kafka، یک پلتفرم داده جریانی منبع باز، برای تغذیه داده‌های جریانی در زمان واقعی به برنامه‌های هوش مصنوعی فعال ایده‌آل است. با RAG و فروشگاه‌های برداری، Apache Kafka برنامه‌های کاربردی هوش مصنوعی فعال با تأخیر کم را در لبه امکان‌پذیر می‌کند و در عین حال حاکمیت محلی را حفظ می‌کند.

هوش مصنوعی فعال نیاز به رویکرد معماری مناسب را تشدید می‌کند

در مقایسه با هوش مصنوعی سنتی، هوش مصنوعی فعال بار قابل توجهی را بر دوش تیم‌های مهندسی قرار می‌دهد با پیکربندی و نگهداری زیرساخت پیچیده مورد نیاز برای پشتیبانی از دسته‌های عوامل هوش مصنوعی توزیع‌شده در سراسر مناطق جغرافیایی وسیع و هزاران دستگاه لبه. تنها رویکرد عملی، استنتاج بدون سرور همراه با RAG و Kafka مدیریت‌شده است، که تضمین می‌کند وظایف اجراشده توسط عوامل هوش مصنوعی به‌طور دقیق و ایمن و بدون تأخیر معنی‌دار انجام می‌شوند.

با برون‌سپاری پیچیدگی‌های تأمین، پیکربندی و مقیاس‌بندی خودکار زیرساخت به ارائه‌دهندگان ابری، تیم‌های مهندسی می‌توانند بر ایجاد یک لایه کاربردی هوش مصنوعی قوی، توسعه عوامل هوش مصنوعی هدفمند و اولویت‌بندی تجربه مشتری تمرکز کنند. یک رویکرد بدون سرور به زیرساخت هوش مصنوعی، پایه و اساس کاملی برای ساختن آینده فعال جدید برای سفر مشتری ایجاد می‌کند.