چگونه دفاع هوش مصنوعی سیسکو در برابر تهدیدات سایبری که هرگز نمی بینید، عمل می کند؟
این مقاله بخشی از شماره ویژه VentureBeat با عنوان "دفترچه راهنمای تاب آوری سایبری: پیمایش در عصر جدید تهدیدها" است. بیشتر از این شماره ویژه را اینجا بخوانید.
همزمان با شتاب گرفتن پذیرش هوش مصنوعی در سراسر شرکت ها، سازگاری فوق العاده سریع آن یک پارادوکس امنیتی ایجاد می کند - چگونه تیم ها از سیستمی محافظت می کنند که دائماً در حال تکامل است در حالی که آن را در کل شرکت مقیاس بندی می کنند؟
هوش مصنوعی متخاصم اکنون بر چشم انداز تهدیدات تسلط دارد و به جنگ سایبری پنهانی دامن می زند. مخالفان به سرعت هر جنبه ای از هوش مصنوعی، از جمله مدل های زبان بزرگ (LLM)را به سلاح تبدیل می کنند. پذیرش سریع هوش مصنوعی سطوح حمله جدیدی را باز می کند که تیم های امنیتی نمی توانند با استفاده از فناوری های امنیتی فعلی از عهده آن برآیند.
حرف آخر این است که شکاف بین هوش مصنوعی متخاصم و هوش مصنوعی دفاعی به سرعت در حال افزایش است و امنیت و ثبات مالی شرکت ها در تعادل است. مخالفان از مسمومیت داده ها گرفته تا حملات تزریق سریع، در حال حاضر از آسیب پذیری های هوش مصنوعی سوء استفاده می کنند و این فناوری را به ابزاری برای انتشار اطلاعات نادرست، نقض امنیت و اختلال در کسب و کار تبدیل می کنند.
چگونه سیسکو به پر کردن شکاف ها کمک می کند
استراتژی دفاع هوش مصنوعی سیسکو هدف آن پر کردن این شکافهای فزاینده بین صنعت هوش مصنوعی متخاصم و پتانسیل آن برای آسیب رساندن به شرکتها است. با توجه به اینکه اکثریت استقرارهای هوش مصنوعی مولد تا سال 2028 فاقد امنیت کافی خواهند بود، زمان بندی سیسکو بسیار مهم است.
Gartner همچنین در رادار تأثیر فناوری های نوظهور خود: امنیت ابری گزارش داد که 40 درصد از پیادهسازیهای هوش مصنوعی مولد تا سال 2028 بر روی زیرساختهایی مستقر میشوند که فاقد پوشش امنیتی کافی هستند و شرکتها را در معرض تهدیدات سایبری ناشی از هوش مصنوعی در مقیاسی بیسابقه قرار میدهند.
هیچ کسب و کاری نمی تواند در مورد محافظت از مدل های هوش مصنوعی تعلل کند - آنها به کمک نیاز دارند تا به پارادوکس مدیریت چنین دارایی بسیار سازگار که می تواند به راحتی بدون اطلاع آنها به سلاح تبدیل شود، رسیدگی کنند.
دفاع هوش مصنوعی سیسکو که در ژانویه راه اندازی شد، این معضل را حل می کند و نظارت بر زمان واقعی، اعتبار سنجی مدل و اجرای سیاست را در مقیاس ادغام می کند؟.
جنگ نامرئی: هوش مصنوعی به عنوان سطح حمله
بزرگترین نقطه قوت هوش مصنوعی، و جایی که بیشترین ارزش را برای شرکت ها ارائه می دهد، توانایی خودآموزی و انطباق آن است. اما این بزرگترین نقطه ضعف آن نیز هست. مدلهای هوش مصنوعی غیرقطعی هستند، به این معنی که رفتار آنها با گذشت زمان تغییر میکند. این غیرقابل پیش بینی بودن نقاط کور امنیتی را ایجاد می کند که مهاجمان از آن سوء استفاده می کنند.
شواهدی از شدت جنگ سایبری پنهانی با گستردهتر شدن این پارادوکس ظاهر میشود. حملات مسمومیت داده ها مجموعه داده های آموزشی را خراب می کنند و باعث می شوند هوش مصنوعی خروجی های مغرضانه، ناقص یا خطرناکتولید کند. حملات تزریق سریع برای فریب دادن رباتهای چت هوش مصنوعی برای افشای دادههای حساس مشتری یا اجرای دستوراتی که به مدلها و دادهها آسیب میرسانند، طراحی شدهاند. هدف از استخراج مدل، مدلهای هوش مصنوعی اختصاصی است که مالکیت معنوی را میدزدد و مزیت رقابتی یک شرکت را تضعیف میکند.
هوش مصنوعی سایه - یا استفاده غیرمجاز از ابزارهای هوش مصنوعی توسط کارمندان، که ناخواسته (یا نه) داده های حساس را در مدل های هوش مصنوعی خارجی مانند ChatGPT و Copilot وارد می کنند - نیز به مشکلی که گسترده تر و با سرعت بیشتری در حال رشد است، کمک می کند.
همانطور که جیتو پاتل، معاون اجرایی و مدیر ارشد محصول سیسکو به VentureBeat گفت: «رهبران کسب و کار و فناوری نمی توانند هنگام پذیرش هوش مصنوعی، ایمنی را فدای سرعت کنند. در یک چشم انداز پویا که رقابت در آن شدید است، سرعت برنده ها را تعیین می کند. »؟.
به بیان ساده: سرعت بدون امنیت یک بازی باخت است.
دفاع هوش مصنوعی سیسکو: رویکردی جدید به امنیت هوش مصنوعی
دفاع هوش مصنوعی سیسکو به طور هدفمند ساخته شده است و امنیت را در زیرساخت شبکه تعبیه می کند تا بتواند هر جنبه از توسعه، راه اندازی و استفاده از هوش مصنوعی را مقیاس بندی و محافظت کند.
در هسته خود، این پلتفرم موارد زیر را ارائه می دهد:
- دید هوش مصنوعی و شناسایی هوش مصنوعی سایه: تیمهای امنیتی دید در زمان واقعی به برنامههای کاربردی هوش مصنوعی مجاز و غیرمجاز به دست میآورند، ردیابی میکنند که چه کسی از هوش مصنوعی استفاده میکند، چگونه آموزش داده میشود و آیا با سیاستهای امنیتی مطابقت دارد یا خیر.
- اعتبار سنجی مدل خودکار و تیم قرمز: تیم قرمز الگوریتمی هوش مصنوعی سیسکو، که از اکتساب هوش مصنوعی قوی توسعه یافته است، تریلیونها شبیهسازی حمله را اجرا میکند و آسیبپذیریها را قبل از انجام مخالفان شناسایی میکند؟.
- امنیت زمان اجرا هوش مصنوعی و اجرای تطبیقی: مدلهای هوش مصنوعی برای شناسایی و مسدود کردن تزریق سریع، مسمومیت دادهها و سوء استفادههای متخاصم در زمان واقعی، اعتبارسنجی مداوم را انجام میدهند.
- کنترل دسترسی و جلوگیری از از دست دادن داده ها (DLP): شرکت ها می توانند از استفاده غیرمجاز از هوش مصنوعی جلوگیری کنند، سیاست های امنیتی را اجرا کنند و اطمینان حاصل کنند که داده های حساس هرگز به مدل های هوش مصنوعی خارجی درز نمی کنند.
با تعبیه امنیت هوش مصنوعی در ساختار شبکه سیسکو، دفاع هوش مصنوعی تضمین می کند که امنیت هوش مصنوعی ذاتی در عملیات سازمانی است - و نه یک فکر بعدی.
دفاع هوش مصنوعی امنیت را در DNA شرکت های مبتنی بر هوش مصنوعی تعبیه می کند
سازمان های بیشتری که مشتاق نتایج هستند و از عقب ماندن از رقبا می ترسند، برای استقرار هوش مصنوعی در مقیاس عجله می کنند. روند رو به رشد «استقرار اکنون، ایمن بعداً» در بهترین حالت خطرناک است و به دامن زدن به جنگ سایبری پنهانی علیه مخالفان مجهز با بودجه کافی که قصد حمله به سازمان های هدف را به میل خود دارند، کمک می کند.
شاخص آمادگی هوش مصنوعی 2024 سیسکو نشان داد که تنها 29 درصد از شرکت ها احساس می کنند که برای شناسایی و جلوگیری از دستکاری غیرمجاز هوش مصنوعی مجهز هستند. این بدان معناست که 71 درصد از شرکت ها در برابر حملات سایبری ناشی از هوش مصنوعی، نقض قوانین و مقررات و خرابی های فاجعه بار هوش مصنوعی آسیب پذیر هستند.
Gartner هشدار می دهد که شرکت ها باید مکانیسم های دفاعی زمان اجرای هوش مصنوعی را پیاده سازی کنند، زیرا ابزارهای امنیتی نقطه پایانی سنتی نمی توانند از مدل های هوش مصنوعی در برابر حملات متخاصم محافظت کنند.
برای پیشی گرفتن، شرکت ها باید:
- چارچوبهای امنیتی هوش مصنوعی یکپارچه را اتخاذ کنید: راهحلهای امنیتی باید جامع، خودکار و تعبیهشده در زیرساخت باشند.
- هوش تهدید هوش مصنوعی و اعتبارسنجی مداوم را پیاده سازی کنید: مدلهای هوش مصنوعی به نظارت مداوم نیاز دارند زیرا چشمانداز تهدید برای دفاعهای ثابت بسیار سریع تغییر میکند؟.
- از انطباق هوش مصنوعی در محیطهای چند ابری اطمینان حاصل کنید: چارچوبهای نظارتی در سطح جهانی در حال سختتر شدن هستند. شرکت ها باید سیاست های امنیتی هوش مصنوعی را با دستورات انطباق در حال تحول مانند قانون هوش مصنوعی اتحادیه اروپا و چارچوب امنیت هوش مصنوعی NIST هماهنگ کنند؟.
دفاع هوش مصنوعی سیسکو: سخت کردن هوش مصنوعی سازمانی در برابر تهدیدهای در حال تحول
هوش مصنوعی آینده نوآوری سازمانی است، اما هوش مصنوعی ناامن یک بدهی است. هوش مصنوعی محافظت نشده می تواند توسط مجرمان سایبری دستکاری، سوء استفاده و به سلاح تبدیل شود.
دفاع هوش مصنوعی سیسکو فقط یک ابزار امنیتی نیست - بلکه یک استراتژی امنیتی هوش مصنوعی در کل شرکت است. سیسکو با ادغام نظارت بر هوش مصنوعی در زمان واقعی، اعتبار سنجی مدل خودکار و اجرای تعبیه شده در شبکه، استاندارد جدیدی را برای امنیت هوش مصنوعی در مقیاس تعیین می کند.
همانطور که پاتل هشدار داد: «چالشهای امنیتی که هوش مصنوعی معرفی میکند، جدید و پیچیده هستند و آسیبپذیریهایی در مدلها، برنامهها و زنجیرههای تامین دارند. ما باید متفاوت فکر کنیم. دفاع هوش مصنوعی به طور هدفمند ساخته شده است تا اطمینان حاصل شود که شرکت ها می توانند با جسارت نوآوری کنند، بدون مصالحه.»؟.