اعتبار: Adobe
اعتبار: Adobe

چگونه دفاع هوش مصنوعی سیسکو در برابر تهدیدات سایبری که هرگز نمی بینید، عمل می کند؟

چگونه دفاع هوش مصنوعی سیسکو در برابر تهدیدات سایبری که هرگز نمی بینید، عمل می کند؟

این مقاله بخشی از شماره ویژه VentureBeat با عنوان "دفترچه راهنمای تاب آوری سایبری: پیمایش در عصر جدید تهدیدها" است. بیشتر از این شماره ویژه را اینجا بخوانید.

همزمان با شتاب گرفتن پذیرش هوش مصنوعی در سراسر شرکت ها، سازگاری فوق العاده سریع آن یک پارادوکس امنیتی ایجاد می کند - چگونه تیم ها از سیستمی محافظت می کنند که دائماً در حال تکامل است در حالی که آن را در کل شرکت مقیاس بندی می کنند؟

هوش مصنوعی متخاصم اکنون بر چشم انداز تهدیدات تسلط دارد و به جنگ سایبری پنهانی دامن می زند. مخالفان به سرعت هر جنبه ای از هوش مصنوعی، از جمله مدل های زبان بزرگ (LLM)را به سلاح تبدیل می کنند. پذیرش سریع هوش مصنوعی سطوح حمله جدیدی را باز می کند که تیم های امنیتی نمی توانند با استفاده از فناوری های امنیتی فعلی از عهده آن برآیند.

حرف آخر این است که شکاف بین هوش مصنوعی متخاصم و هوش مصنوعی دفاعی به سرعت در حال افزایش است و امنیت و ثبات مالی شرکت ها در تعادل است. مخالفان از مسمومیت داده ها گرفته تا حملات تزریق سریع، در حال حاضر از آسیب پذیری های هوش مصنوعی سوء استفاده می کنند و این فناوری را به ابزاری برای انتشار اطلاعات نادرست، نقض امنیت و اختلال در کسب و کار تبدیل می کنند.

چگونه سیسکو به پر کردن شکاف ها کمک می کند

استراتژی دفاع هوش مصنوعی سیسکو هدف آن پر کردن این شکاف‌های فزاینده بین صنعت هوش مصنوعی متخاصم و پتانسیل آن برای آسیب رساندن به شرکت‌ها است. با توجه به اینکه اکثریت استقرارهای هوش مصنوعی مولد تا سال 2028 فاقد امنیت کافی خواهند بود، زمان بندی سیسکو بسیار مهم است.

Gartner همچنین در رادار تأثیر فناوری های نوظهور خود: امنیت ابری گزارش داد که 40 درصد از پیاده‌سازی‌های هوش مصنوعی مولد تا سال 2028 بر روی زیرساخت‌هایی مستقر می‌شوند که فاقد پوشش امنیتی کافی هستند و شرکت‌ها را در معرض تهدیدات سایبری ناشی از هوش مصنوعی در مقیاسی بی‌سابقه قرار می‌دهند.

هیچ کسب و کاری نمی تواند در مورد محافظت از مدل های هوش مصنوعی تعلل کند - آنها به کمک نیاز دارند تا به پارادوکس مدیریت چنین دارایی بسیار سازگار که می تواند به راحتی بدون اطلاع آنها به سلاح تبدیل شود، رسیدگی کنند.

دفاع هوش مصنوعی سیسکو که در ژانویه راه اندازی شد، این معضل را حل می کند و نظارت بر زمان واقعی، اعتبار سنجی مدل و اجرای سیاست را در مقیاس ادغام می کند؟.

جنگ نامرئی: هوش مصنوعی به عنوان سطح حمله

بزرگترین نقطه قوت هوش مصنوعی، و جایی که بیشترین ارزش را برای شرکت ها ارائه می دهد، توانایی خودآموزی و انطباق آن است. اما این بزرگترین نقطه ضعف آن نیز هست. مدل‌های هوش مصنوعی غیرقطعی هستند، به این معنی که رفتار آنها با گذشت زمان تغییر می‌کند. این غیرقابل پیش بینی بودن نقاط کور امنیتی را ایجاد می کند که مهاجمان از آن سوء استفاده می کنند.

شواهدی از شدت جنگ سایبری پنهانی با گسترده‌تر شدن این پارادوکس ظاهر می‌شود. حملات مسمومیت داده ها مجموعه داده های آموزشی را خراب می کنند و باعث می شوند هوش مصنوعی خروجی های مغرضانه، ناقص یا خطرناکتولید کند. حملات تزریق سریع برای فریب دادن ربات‌های چت هوش مصنوعی برای افشای داده‌های حساس مشتری یا اجرای دستوراتی که به مدل‌ها و داده‌ها آسیب می‌رسانند، طراحی شده‌اند. هدف از استخراج مدل، مدل‌های هوش مصنوعی اختصاصی است که مالکیت معنوی را می‌دزدد و مزیت رقابتی یک شرکت را تضعیف می‌کند.

هوش مصنوعی سایه - یا استفاده غیرمجاز از ابزارهای هوش مصنوعی توسط کارمندان، که ناخواسته (یا نه) داده های حساس را در مدل های هوش مصنوعی خارجی مانند ChatGPT و Copilot وارد می کنند - نیز به مشکلی که گسترده تر و با سرعت بیشتری در حال رشد است، کمک می کند.

همانطور که جیتو پاتل، معاون اجرایی و مدیر ارشد محصول سیسکو به VentureBeat گفت: «رهبران کسب و کار و فناوری نمی توانند هنگام پذیرش هوش مصنوعی، ایمنی را فدای سرعت کنند. در یک چشم انداز پویا که رقابت در آن شدید است، سرعت برنده ها را تعیین می کند. »؟.

به بیان ساده: سرعت بدون امنیت یک بازی باخت است.

دفاع هوش مصنوعی سیسکو: رویکردی جدید به امنیت هوش مصنوعی

دفاع هوش مصنوعی سیسکو به طور هدفمند ساخته شده است و امنیت را در زیرساخت شبکه تعبیه می کند تا بتواند هر جنبه از توسعه، راه اندازی و استفاده از هوش مصنوعی را مقیاس بندی و محافظت کند.

در هسته خود، این پلتفرم موارد زیر را ارائه می دهد:

  • دید هوش مصنوعی و شناسایی هوش مصنوعی سایه: تیم‌های امنیتی دید در زمان واقعی به برنامه‌های کاربردی هوش مصنوعی مجاز و غیرمجاز به دست می‌آورند، ردیابی می‌کنند که چه کسی از هوش مصنوعی استفاده می‌کند، چگونه آموزش داده می‌شود و آیا با سیاست‌های امنیتی مطابقت دارد یا خیر.
  • اعتبار سنجی مدل خودکار و تیم قرمز: تیم قرمز الگوریتمی هوش مصنوعی سیسکو، که از اکتساب هوش مصنوعی قوی توسعه یافته است، تریلیون‌ها شبیه‌سازی حمله را اجرا می‌کند و آسیب‌پذیری‌ها را قبل از انجام مخالفان شناسایی می‌کند؟.
  • امنیت زمان اجرا هوش مصنوعی و اجرای تطبیقی: مدل‌های هوش مصنوعی برای شناسایی و مسدود کردن تزریق سریع، مسمومیت داده‌ها و سوء استفاده‌های متخاصم در زمان واقعی، اعتبارسنجی مداوم را انجام می‌دهند.
  • کنترل دسترسی و جلوگیری از از دست دادن داده ها (DLP): شرکت ها می توانند از استفاده غیرمجاز از هوش مصنوعی جلوگیری کنند، سیاست های امنیتی را اجرا کنند و اطمینان حاصل کنند که داده های حساس هرگز به مدل های هوش مصنوعی خارجی درز نمی کنند.

با تعبیه امنیت هوش مصنوعی در ساختار شبکه سیسکو، دفاع هوش مصنوعی تضمین می کند که امنیت هوش مصنوعی ذاتی در عملیات سازمانی است - و نه یک فکر بعدی.

دفاع هوش مصنوعی امنیت را در DNA شرکت های مبتنی بر هوش مصنوعی تعبیه می کند

سازمان های بیشتری که مشتاق نتایج هستند و از عقب ماندن از رقبا می ترسند، برای استقرار هوش مصنوعی در مقیاس عجله می کنند. روند رو به رشد «استقرار اکنون، ایمن بعداً» در بهترین حالت خطرناک است و به دامن زدن به جنگ سایبری پنهانی علیه مخالفان مجهز با بودجه کافی که قصد حمله به سازمان های هدف را به میل خود دارند، کمک می کند.

شاخص آمادگی هوش مصنوعی 2024 سیسکو نشان داد که تنها 29 درصد از شرکت ها احساس می کنند که برای شناسایی و جلوگیری از دستکاری غیرمجاز هوش مصنوعی مجهز هستند. این بدان معناست که 71 درصد از شرکت ها در برابر حملات سایبری ناشی از هوش مصنوعی، نقض قوانین و مقررات و خرابی های فاجعه بار هوش مصنوعی آسیب پذیر هستند.

Gartner هشدار می دهد که شرکت ها باید مکانیسم های دفاعی زمان اجرای هوش مصنوعی را پیاده سازی کنند، زیرا ابزارهای امنیتی نقطه پایانی سنتی نمی توانند از مدل های هوش مصنوعی در برابر حملات متخاصم محافظت کنند.

برای پیشی گرفتن، شرکت ها باید:

  • چارچوب‌های امنیتی هوش مصنوعی یکپارچه را اتخاذ کنید: راه‌حل‌های امنیتی باید جامع، خودکار و تعبیه‌شده در زیرساخت باشند.
  • هوش تهدید هوش مصنوعی و اعتبارسنجی مداوم را پیاده سازی کنید: مدل‌های هوش مصنوعی به نظارت مداوم نیاز دارند زیرا چشم‌انداز تهدید برای دفاع‌های ثابت بسیار سریع تغییر می‌کند؟.
  • از انطباق هوش مصنوعی در محیط‌های چند ابری اطمینان حاصل کنید: چارچوب‌های نظارتی در سطح جهانی در حال سخت‌تر شدن هستند. شرکت ها باید سیاست های امنیتی هوش مصنوعی را با دستورات انطباق در حال تحول مانند قانون هوش مصنوعی اتحادیه اروپا و چارچوب امنیت هوش مصنوعی NIST هماهنگ کنند؟.

دفاع هوش مصنوعی سیسکو: سخت کردن هوش مصنوعی سازمانی در برابر تهدیدهای در حال تحول

هوش مصنوعی آینده نوآوری سازمانی است، اما هوش مصنوعی ناامن یک بدهی است. هوش مصنوعی محافظت نشده می تواند توسط مجرمان سایبری دستکاری، سوء استفاده و به سلاح تبدیل شود.

دفاع هوش مصنوعی سیسکو فقط یک ابزار امنیتی نیست - بلکه یک استراتژی امنیتی هوش مصنوعی در کل شرکت است. سیسکو با ادغام نظارت بر هوش مصنوعی در زمان واقعی، اعتبار سنجی مدل خودکار و اجرای تعبیه شده در شبکه، استاندارد جدیدی را برای امنیت هوش مصنوعی در مقیاس تعیین می کند.

همانطور که پاتل هشدار داد: «چالش‌های امنیتی که هوش مصنوعی معرفی می‌کند، جدید و پیچیده هستند و آسیب‌پذیری‌هایی در مدل‌ها، برنامه‌ها و زنجیره‌های تامین دارند. ما باید متفاوت فکر کنیم. دفاع هوش مصنوعی به طور هدفمند ساخته شده است تا اطمینان حاصل شود که شرکت ها می توانند با جسارت نوآوری کنند، بدون مصالحه.»؟.