به گفته مدیران ارشد فناوری اطلاعات (CIO) در دو شرکت بزرگ نرمافزار به عنوان سرویس (SaaS)، رویکردی که شرکتها باید برای مقابله با استفاده روزافزون کارمندان از ابزارهای غیرمجاز «هوش مصنوعی سایه» (Shadow AI) اتخاذ کنند، «پذیرش، اما با چارچوبهای محافظتی» است.
اریک جانسون، مدیر ارشد فناوری اطلاعات پلتفرم مدیریت حوادث PagerDuty، میگوید با توجه به اینکه طبق نظرسنجی مایکروسافت، ۷۸ درصد از کاربران هوش مصنوعی از ابزارهای هوش مصنوعی شخصی خود در محل کار استفاده میکنند، واضح است که کارمندان احساس میکنند نیازهایشان برآورده نمیشود.
او که در رویداد Relate شرکت Zendesk در لاس وگاس صحبت میکرد، گفت شرکتها نباید تلاش کنند تا با حذف تمام موارد هوش مصنوعی سایه، به یک «حکومت پلیسی» تبدیل شوند. بلکه، «شما باید آن را بپذیرید زیرا چه بخواهید و چه نخواهید، در حال آمدن است.»
وی افزود: «رویکرد من اکنون در PagerDuty این است که چگونه میتوانیم این گفتگوها را با [بخشهای وسیعتر] کسبوکار داشته باشیم تا بفهمیم چرا آن نیازها برآورده نمیشوند و گفتگوی بازی را در مورد آنچه میتوانیم برای کمک به پشتیبانی [کارمندان] انجام دهیم، آغاز کنیم.»
در حالی که فناوری اطلاعات سایه (Shadow IT)، همانطور که قبلاً شناخته میشد، به هیچ وجه موضوع جدیدی نیست، نظرسنجیهای اخیر نشان دادهاند که با جا افتادن بیشتر هوش مصنوعی مولد (GenAI) در فرهنگ سازمانی، استفاده از هوش مصنوعی سایه به سرعت در حال افزایش است. نظرسنجی روندهای خود Zendesk، افزایش ۱۸۸ درصدی سالانه در استفاده توسط کارشناسان خدمات مشتری را گزارش کرده است.
به طور مشابه، کریگ فلاورز، مدیر ارشد فناوری اطلاعات Zendesk و شریک ارائه جانسون، به The Stack گفت که شرکتش رویکردی را اتخاذ کرده است که «میزان تأثیر ریسک» بالقوه در موارد هوش مصنوعی سایه را تجزیه و تحلیل میکند، اما «با تمایل به آموزش».
با این حال، با توجه به اینکه نظرسنجی Zendesk نشان داد ۸۶ درصد از کارشناسان خدمات مشتری از ابزارهای هوش مصنوعی غیرمجاز بر روی دادههای مشتریان استفاده میکنند، واضح است که یک استراتژی کاملاً «هر کس ابزار خودش را انتخاب کند» برای هوش مصنوعی، ناگزیر به شیوههای ضعیف و بالقوه غیرقانونی حفظ حریم خصوصی منجر خواهد شد.
جانسون و فلاورز به وضوح از این موضوع آگاه هستند. جانسون گفت: «اگر ابتدا خود را برای ایجاد چارچوبهای محافظتی آماده نکنید... مشکلات زیادی خواهید داشت.»
و آن چارچوبهای محافظتی چه هستند؟ به گفته این دو مدیر ارشد فناوری اطلاعات، واضحترین اقدامات، اصول اولیه امنیتی مانند استفاده از روش ورود یکپارچه (Single Sign-On) و احراز هویت دو عاملی (Two-Factor Authentication) برای ورود کارمندان است.
جانسون گفت: این موضوع عمدتاً یک مشکل دادهای است، بنابراین «فروشندهای که با او کار میکنیم باید بتواند نشان دهد که توانایی مدیریت و ایمنسازی دادهها را دارد.»
«هنگامی که بتوانیم این موارد کلیدی را تأیید کنیم، تیمهای امنیتی، انطباق و حقوقی میگویند 'بسیار خوب، حالا مشکلی نیست، تا زمانی که طبق این قوانین عمل کنید.'»
اما چه اتفاقی میافتد وقتی مشخص شود کارمندی دادههای نامشخصی را وارد یک مدل زبان بزرگ (LLM) تأیید نشده کرده است؟ فلاورز به The Stack گفت، واکنش به تخلف دقیق بستگی دارد.
او گفت، کسی که مالکیت معنوی (IP) شرکت را برداشته و آن را از طریق یک شخص ثالث غیرمجاز پردازش میکند، «احتمالاً یک تخلف منجر به اخراج» است، اما «اگر کاری را از روی کنجکاوی انجام دهند و... داراییهای شرکت را به خطر نیندازند، آنگاه این یک فرصت آموزشی است.»
با این حال، منتظر ماندن برای آشکار شدن این موارد هوش مصنوعی سایه احتمالاً سیاست خوبی نیست، بنابراین Zendesk، که کارگزاران هوش مصنوعی خود را به مشتریان عرضه میکند، یک «سازوکار رسمی هیئت بازبینی معماری سازمانی» ایجاد کرده است تا پیشنهادات کارمندان را در مورد موارد استفاده از هوش مصنوعی دریافت کند.
در حالی که فلاورز اذعان میکند «من نمیدانم چه چیزی را نمیدانم»، به نظر میرسد این سازوکار کارمندان را تشویق میکند تا به جای اینکه خودسرانه عمل کنند، با ایدههای خود پیشقدم شوند.
او گفت: «ما دهها پیشنهاد دریافت میکنیم، و مزیت این رویکرد برای من این بوده است که ما واقعاً از خلاقیت و نوآوری پایگاه کارمندان خود با استفاده از فناوریای که همه ما تازه در حال یادگیری نحوه استفاده از آن در زمان واقعی هستیم، جمعسپاری (crowdsourcing) کردهایم.»
جانسون از سیاست مشابهی حمایت کرد و به حضار رویداد گفت که «موارد پراکندهای وجود داشته است که ما قطعات جدیدی از هوش مصنوعی مولد را در محیط خود فعال کردهایم زیرا نیازی وجود داشت که برآورده نمیشد.»
او گفت، همه چیز به رویکرد پذیرش در مقابل حکومت پلیسی برمیگردد، «و من فکر میکنم استراتژی پذیرش واقعاً راهی است که باید رفت.»