منبع تصویر: https://unsplash.com/@lollish
منبع تصویر: https://unsplash.com/@lollish

مبارزه پنهان - چگونه مدیران ارشد فناوری اطلاعات با مشکل رو به رشد «هوش مصنوعی سایه» مقابله می‌کنند

هوش مصنوعی سایه (Shadow AI)، چه بخواهید چه نخواهید، اینجاست، پس بهتر است برای آن آماده شوید

تصویری انتزاعی که هوش مصنوعی و سایه‌ها را نشان می‌دهد.

به گفته مدیران ارشد فناوری اطلاعات (CIO) در دو شرکت بزرگ نرم‌افزار به عنوان سرویس (SaaS)، رویکردی که شرکت‌ها باید برای مقابله با استفاده روزافزون کارمندان از ابزارهای غیرمجاز «هوش مصنوعی سایه» (Shadow AI) اتخاذ کنند، «پذیرش، اما با چارچوب‌های محافظتی» است.

اریک جانسون، مدیر ارشد فناوری اطلاعات پلتفرم مدیریت حوادث PagerDuty، می‌گوید با توجه به اینکه طبق نظرسنجی مایکروسافت، ۷۸ درصد از کاربران هوش مصنوعی از ابزارهای هوش مصنوعی شخصی خود در محل کار استفاده می‌کنند، واضح است که کارمندان احساس می‌کنند نیازهایشان برآورده نمی‌شود.

او که در رویداد Relate شرکت Zendesk در لاس وگاس صحبت می‌کرد، گفت شرکت‌ها نباید تلاش کنند تا با حذف تمام موارد هوش مصنوعی سایه، به یک «حکومت پلیسی» تبدیل شوند. بلکه، «شما باید آن را بپذیرید زیرا چه بخواهید و چه نخواهید، در حال آمدن است.»

وی افزود: «رویکرد من اکنون در PagerDuty این است که چگونه می‌توانیم این گفتگوها را با [بخش‌های وسیع‌تر] کسب‌وکار داشته باشیم تا بفهمیم چرا آن نیازها برآورده نمی‌شوند و گفتگوی بازی را در مورد آنچه می‌توانیم برای کمک به پشتیبانی [کارمندان] انجام دهیم، آغاز کنیم.»

در حالی که فناوری اطلاعات سایه (Shadow IT)، همانطور که قبلاً شناخته می‌شد، به هیچ وجه موضوع جدیدی نیست، نظرسنجی‌های اخیر نشان داده‌اند که با جا افتادن بیشتر هوش مصنوعی مولد (GenAI) در فرهنگ سازمانی، استفاده از هوش مصنوعی سایه به سرعت در حال افزایش است. نظرسنجی روندهای خود Zendesk، افزایش ۱۸۸ درصدی سالانه در استفاده توسط کارشناسان خدمات مشتری را گزارش کرده است.

به طور مشابه، کریگ فلاورز، مدیر ارشد فناوری اطلاعات Zendesk و شریک ارائه جانسون، به The Stack گفت که شرکتش رویکردی را اتخاذ کرده است که «میزان تأثیر ریسک» بالقوه در موارد هوش مصنوعی سایه را تجزیه و تحلیل می‌کند، اما «با تمایل به آموزش».

با این حال، با توجه به اینکه نظرسنجی Zendesk نشان داد ۸۶ درصد از کارشناسان خدمات مشتری از ابزارهای هوش مصنوعی غیرمجاز بر روی داده‌های مشتریان استفاده می‌کنند، واضح است که یک استراتژی کاملاً «هر کس ابزار خودش را انتخاب کند» برای هوش مصنوعی، ناگزیر به شیوه‌های ضعیف و بالقوه غیرقانونی حفظ حریم خصوصی منجر خواهد شد.

جانسون و فلاورز به وضوح از این موضوع آگاه هستند. جانسون گفت: «اگر ابتدا خود را برای ایجاد چارچوب‌های محافظتی آماده نکنید... مشکلات زیادی خواهید داشت.»

و آن چارچوب‌های محافظتی چه هستند؟ به گفته این دو مدیر ارشد فناوری اطلاعات، واضح‌ترین اقدامات، اصول اولیه امنیتی مانند استفاده از روش ورود یکپارچه (Single Sign-On) و احراز هویت دو عاملی (Two-Factor Authentication) برای ورود کارمندان است.

جانسون گفت: این موضوع عمدتاً یک مشکل داده‌ای است، بنابراین «فروشنده‌ای که با او کار می‌کنیم باید بتواند نشان دهد که توانایی مدیریت و ایمن‌سازی داده‌ها را دارد.»

«هنگامی که بتوانیم این موارد کلیدی را تأیید کنیم، تیم‌های امنیتی، انطباق و حقوقی می‌گویند 'بسیار خوب، حالا مشکلی نیست، تا زمانی که طبق این قوانین عمل کنید.'»

کریگ فلاورز و اریک جانسون در رویداد Relate شرکت Zendesk درباره هوش مصنوعی سایه بحث می‌کنند.

اما چه اتفاقی می‌افتد وقتی مشخص شود کارمندی داده‌های نامشخصی را وارد یک مدل زبان بزرگ (LLM) تأیید نشده کرده است؟ فلاورز به The Stack گفت، واکنش به تخلف دقیق بستگی دارد.

او گفت، کسی که مالکیت معنوی (IP) شرکت را برداشته و آن را از طریق یک شخص ثالث غیرمجاز پردازش می‌کند، «احتمالاً یک تخلف منجر به اخراج» است، اما «اگر کاری را از روی کنجکاوی انجام دهند و... دارایی‌های شرکت را به خطر نیندازند، آنگاه این یک فرصت آموزشی است.»

با این حال، منتظر ماندن برای آشکار شدن این موارد هوش مصنوعی سایه احتمالاً سیاست خوبی نیست، بنابراین Zendesk، که کارگزاران هوش مصنوعی خود را به مشتریان عرضه می‌کند، یک «سازوکار رسمی هیئت بازبینی معماری سازمانی» ایجاد کرده است تا پیشنهادات کارمندان را در مورد موارد استفاده از هوش مصنوعی دریافت کند.

در حالی که فلاورز اذعان می‌کند «من نمی‌دانم چه چیزی را نمی‌دانم»، به نظر می‌رسد این سازوکار کارمندان را تشویق می‌کند تا به جای اینکه خودسرانه عمل کنند، با ایده‌های خود پیشقدم شوند.

او گفت: «ما ده‌ها پیشنهاد دریافت می‌کنیم، و مزیت این رویکرد برای من این بوده است که ما واقعاً از خلاقیت و نوآوری پایگاه کارمندان خود با استفاده از فناوری‌ای که همه ما تازه در حال یادگیری نحوه استفاده از آن در زمان واقعی هستیم، جمع‌سپاری (crowdsourcing) کرده‌ایم.»

جانسون از سیاست مشابهی حمایت کرد و به حضار رویداد گفت که «موارد پراکنده‌ای وجود داشته است که ما قطعات جدیدی از هوش مصنوعی مولد را در محیط خود فعال کرده‌ایم زیرا نیازی وجود داشت که برآورده نمی‌شد.»

او گفت، همه چیز به رویکرد پذیرش در مقابل حکومت پلیسی برمی‌گردد، «و من فکر می‌کنم استراتژی پذیرش واقعاً راهی است که باید رفت.»