Cloudflare، سرویس ارائه محتوا و امنیت، امروز از راهاندازی Cloudflare for AI خبر داد، مجموعهای جدید از ابزارهای امنیتی که هدف آن رفع برخی از مهمترین نگرانیهای امنیتی است که کسبوکارها در مورد استفاده از مدلها و خدمات هوش مصنوعی دارند.
این ابزارها شامل ابزارهایی برای نظارت بر نحوه استفاده کارمندان از این ابزارها، کشف زمان استفاده آنها از خدمات غیرمجاز و جلوگیری از نشت اطلاعات به این مدلها است. این سرویس جدید همچنین میتواند تشخیص دهد که چه دستورالعملهای نامناسب یا سمی به یک مدل ارسال میشود.
همانطور که Cloudflare در اطلاعیه امروز توضیح میدهد، ایده این است که به کسبوکارها کمک کند تا در مورد حجم کاری هوش مصنوعی که برای کارمندان و کاربران خود فعال میکنند، احساس اطمینان بیشتری داشته باشند.
متیو پرینس (Matthew Prince)، یکی از بنیانگذاران و مدیر عامل Cloudflare، گفت: «در دهه آینده، استراتژی هوش مصنوعی یک سازمان سرنوشت آن را تعیین خواهد کرد - نوآوران شکوفا خواهند شد و کسانی که مقاومت میکنند ناپدید میشوند. این ضرب المثل "سریع حرکت کن، چیزها را خراب کن" به عنوان شعار سازمانها در مسابقه برای پیادهسازی مدلهای جدید و آزمایش با هوش مصنوعی برای پیشبرد نوآوری تبدیل شده است. اما اغلب یک حلقه گمشده بین آزمایش و ایمنی وجود دارد. Cloudflare for AI به مشتریان این امکان را میدهد تا با هر سرعتی که میخواهند و در هر جهتی حرکت کنند، با اقدامات حفاظتی لازم برای فعال کردن استقرار و استفاده سریع از هوش مصنوعی. این تنها مجموعه ابزارهایی است که امروزه نگرانیهای فوری مشتریان را بدون ترمز کردن بر نوآوری حل میکند.»
این مجموعه کلی شامل تعدادی از خدمات است. به عنوان مثال، فایروال برای هوش مصنوعی (Firewall for AI) وجود دارد که به کسبوکارها اجازه میدهد تا کشف کنند که کارمندان واقعاً از کدام برنامههای هوش مصنوعی استفاده میکنند. مشکل دیرینه فناوری اطلاعات سایه همچنان وجود دارد. از آنجایی که کارمندان برای استفاده از این ابزارهای جدید هوش مصنوعی هیاهو میکنند، تیمهای امنیتی اغلب هیچ بینشی نسبت به آنچه انجام میدهند ندارند. اکنون، آنها گزارشهایی در مورد اینکه کدام ابزارها در حال استفاده هستند و امکان مسدود کردن آنها در صورت لزوم دریافت خواهند کرد.
به طور مشابه، دروازه هوش مصنوعی Cloudflare (Cloudflare AI Gateway)، که این شرکت در سال 2023 راه اندازی کرد، بینشهایی را در مورد مدلهایی که در داخل یک شرکت استفاده میشوند و نوع دستورالعملهای ارسالی ارائه میدهد، که به نوبه خود به این معنی است که فایروال میتواند دستورالعملهایی را که ممکن است اطلاعات شناسایی شخصی و سایر نشتهای داده را در معرض دید مدل قرار دهند، مسدود کند.
تعداد کمی از ابزارهای موجود در بازار امروز بر جلوگیری از دستورالعملهای سمی تمرکز دارند. برای تشخیص این موارد، Cloudflare از Llama Guard، ابزار متا (Meta) برای محافظت از مکالمات LLM استفاده میکند. Cloudflare میگوید که این به حفظ مدلها مطابق با استفاده مورد نظرشان کمک میکند.
البته Cloudflare در دیدن بازاری برای این ابزارها تنها نیست. به عنوان مثال، پیشنهادات API محور از Kong و IBM، و همچنین راه حلهایی از F5 و Databricks وجود دارد.