شبکه Cato
شبکه Cato

Cato Networks کنترل‌های امنیتی هوش مصنوعی مولد را برای Cato CASB معرفی می‌کند

Cato CASB با داشبورد هوش مصنوعی سایه برای دید جامع برنامه‌های GenAI و یک موتور سیاست قدرتمند برای حکمرانی استفاده از GenAI تقویت شده است.

Cato Networks، رهبر SASE، امروز کنترل‌های امنیتی هوش مصنوعی مولد (GenAI) را برای Cato CASB (کارگزار امنیت دسترسی ابری) معرفی کرد. Cato CASB، یک ویژگی بومی در پلتفرم Cato SASE Cloud، اکنون با قابلیت‌های جدیدی برای برنامه‌های GenAI، از جمله داشبورد هوش مصنوعی سایه و موتور سیاست، تقویت شده است. با داشبورد هوش مصنوعی سایه، شرکت‌ها می‌توانند استفاده از GenAI را شناسایی، تجزیه و تحلیل و بینش کسب کنند. با موتور سیاست، شرکت‌ها می‌توانند فعالیت‌های کاربران را در برنامه‌های GenAI کنترل کنند. در مجموع، Cato تیم‌های امنیتی و فناوری اطلاعات را قادر می‌سازد تا نوآوری را با مدیریت ریسک متعادل کنند.

GenAI به سرعت به ابزاری برای کارکنان تبدیل شده است تا بهره‌وری را افزایش داده و وظایف را خودکار کنند. با این حال، این افزایش در پذیرش GenAI منجر به یک مشکل رو به رشد هوش مصنوعی سایه شده است، جایی که کارکنان از برنامه‌های GenAI بدون نظارت فناوری اطلاعات استفاده می‌کنند. به گفته Gartner®، "تا سال ۲۰۲۷، بیش از ۴۰٪ از نقض داده‌های مرتبط با هوش مصنوعی ناشی از استفاده نادرست از هوش مصنوعی مولد (GenAI) در سراسر مرزها خواهد بود."¹

روند رو به افزایش هوش مصنوعی سایه، شرکت‌ها را در معرض خطرات امنیتی، انطباق و عملیاتی قرار می‌دهد. داده‌های حساس شرکت ممکن است ناآگاهانه با برنامه‌های GenAI به اشتراک گذاشته شود، الزامات نظارتی ممکن است نقض شود و اطلاعات نادرست یا خروجی‌های مغرضانه می‌تواند بر تصمیمات تجاری تأثیر بگذارد.

با کنترل‌های امنیتی جدید GenAI برای Cato CASB، تیم‌های امنیتی و فناوری اطلاعات می‌توانند:

  • کشف هوش مصنوعی سایه: با شناسایی همه برنامه‌های GenAI و طبقه‌بندی آن‌ها، بین استفاده مجاز و غیرمجاز تمایز قائل شوید. Cato یک کاتالوگ از بیش از ۹۵۰ برنامه GenAI ارائه می‌دهد.
  • کنترل دسترسی به برنامه GenAI: با تعریف و اجرای سیاست‌های دسترسی در سطح دانه بندی شده، استفاده مسئولانه از GenAI را تضمین کنید. کنترل کنید که به کدام برنامه‌های GenAI می‌توان دسترسی داشت و دقیقاً چه اقداماتی (آپلود، دانلود و غیره) می‌توان در آن‌ها انجام داد.
  • حفاظت از داده‌های حساس: از آپلود داده‌های حساس به مدل‌های زبانی بزرگ (LLM) محدود یا جلوگیری کنید و از نقض امنیت داده‌ها و محرمانه بودن در زمان واقعی جلوگیری کنید.
  • حفظ حکمرانی و انطباق: پذیرش استفاده از GenAI را با دید کامل به تمام فعالیت‌های کاربر و به گونه‌ای که با سیاست‌های شرکت و استانداردهای نظارتی مطابقت داشته باشد، فعال کنید.

اوفیر آگاسی، معاون مدیریت محصول در Cato Networks، گفت: "شرکت‌ها به راه‌های هوشمندانه برای حکمرانی GenAI نیاز دارند." "با پیشرفت‌هایی که در Cato CASB ایجاد کرده‌ایم، از هوش مصنوعی در پلتفرم Cato SASE Cloud برای کشف، طبقه‌بندی و ایمن‌سازی نحوه استفاده از برنامه‌های GenAI در سراسر شرکت استفاده می‌کنیم. ما به تیم‌های امنیتی و فناوری اطلاعات ابزارهایی می‌دهیم تا ریسک را مدیریت کرده و نوآوری را به طور مسئولانه فعال کنند."

شین گرین، رئیس عملیات امنیتی در CloudFactory، گفت: "Cato Networks به ما این اطمینان را می‌دهد که GenAI را بدون ترس از افشای داده‌های حساس یا مالکیت معنوی بپذیریم." "با کنترل‌های امنیتی جدید GenAI Cato CASB، می‌توانیم ابزارهای GenAI را به روشی کنترل شده از نظر ریسک اتخاذ کنیم."

دسترسی

کنترل‌های امنیتی GenAI برای Cato CASB به طور کلی برای مشتریان در سراسر جهان در دسترس است.

منابع

  • در وبلاگ درباره کنترل‌های امنیتی جدید GenAI در Cato CASB بیشتر بدانید.
  • درباره رویکرد Cato به ایمنی هوش مصنوعی و قابلیت‌های هوش مصنوعی/ML Cato بیشتر بدانید.
  • کنترل‌های امنیتی GenAI برای Cato CASB آخرین نوآوری هوش مصنوعی از Cato است و در طول SASEfy 2025، رویداد مجازی جهانی Cato اعلام شد. رویداد امسال بر SASE و هوش مصنوعی متمرکز بود. اگر SASEfy 2025 را از دست دادید، برای تماشای ضبط در صورت تقاضا ثبت نام کنید.

سلب مسئولیت Gartner

¹ بیانیه مطبوعاتی Gartner، "Gartner پیش بینی می‌کند ۴۰٪ از نقض داده‌های هوش مصنوعی ناشی از سوء استفاده GenAI فرامرزی تا سال ۲۰۲۷ ناشی شود"، ۱۷ فوریه ۲۰۲۵.

GARTNER علامت تجاری و علامت خدمات ثبت شده Gartner, Inc. و/یا شرکت‌های وابسته به آن در ایالات متحده و بین‌المللی است و در اینجا با اجازه استفاده می‌شود. کلیه حقوق محفوظ است.