هوش مصنوعی فرصت‌های جدیدی را برای هکرها فراهم می‌کند. GettyImages/ Hero Images
هوش مصنوعی فرصت‌های جدیدی را برای هکرها فراهم می‌کند. GettyImages/ Hero Images

هوش مصنوعی نوع جدیدی از هکرها را به وجود آورده است

بدبینان هوش مصنوعی همچنان نگران پتانسیل این فناوری برای فروپاشی جامعه هستند. اما محتمل‌ترین سناریو در حال حاضر این است که هکرهای خرده‌پا از این وضعیت نهایت استفاده را ببرند.

یووال فرنباخ، مدیر ارشد فناوری عملیات یادگیری ماشین در شرکت زنجیره تأمین نرم‌افزار JFrog، به بیزینس اینسایدر گفت که هکرها معمولاً سه هدف اصلی دارند: آن‌ها سیستم‌ها را از کار می‌اندازند، اطلاعات را می‌دزدند، یا خروجی یک وب‌سایت یا ابزار را تغییر می‌دهند.

کلاهبرداران و هکرها، مانند کارمندان هر کسب‌وکاری، پیشاپیش از هوش مصنوعی برای افزایش بهره‌وری خود استفاده می‌کنند. با این حال، به گفته فرنباخ، این خودِ مدل‌های هوش مصنوعی هستند که راه جدیدی را برای ورود عوامل مخرب به شرکت‌ها فراهم می‌کنند، زیرا کد مخرب به راحتی در مدل‌های زبان بزرگ منبع‌باز پنهان می‌شود.

او گفت: «ما شاهد حملات بسیار بسیار زیادی هستیم.» طبق گزارش JFrog، فشار بیش از حد به یک مدل به طوری که دیگر نتواند پاسخ دهد، به ویژه در حال افزایش است.

فرنباخ گفت: «رسیدن به جایی که یک مدل دیگر پاسخگو نباشد، بسیار آسان است.» رهبران صنعت در حال سازماندهی برای کاهش مدل‌های مخرب هستند. JFrog محصولی اسکنر دارد تا مدل‌ها را قبل از رفتن به مرحله تولید بررسی کند. اما تا حدودی مسئولیت همیشه بر عهده هر شرکت خواهد بود.

حمله مدل‌های مخرب

وقتی کسب‌وکارها می‌خواهند از هوش مصنوعی استفاده کنند، باید مدلی را از شرکتی مانند OpenAI، Anthropic یا Meta انتخاب کنند، زیرا اکثر آن‌ها هزینه هنگفت ساخت یک مدل داخلی از ابتدا را متحمل نمی‌شوند. دو شرکت اول مدل‌های اختصاصی ارائه می‌دهند، بنابراین امنیت تا حدودی بیشتر تضمین شده است. اما استفاده از مدل‌های اختصاصی هزینه بیشتری دارد و بسیاری از شرکت‌ها نگران به اشتراک گذاشتن داده‌های خود هستند.

استفاده از یک مدل منبع‌باز از Meta یا هر یک از هزاران مدل موجود، به طور فزاینده‌ای محبوب شده است. شرکت‌ها می‌توانند از APIها استفاده کنند یا مدل‌ها را دانلود کرده و به صورت محلی اجرا کنند. تقریباً نیمی از شرکت‌ها در یک نظرسنجی اخیر از 1400 کسب‌وکار توسط JFrog و InformationWeek، مدل‌های دانلود شده را روی سرورهای خود اجرا می‌کردند.

فرنباخ گفت، با بلوغ هوش مصنوعی، شرکت‌ها احتمالاً چندین مدل با مهارت‌ها و تخصص‌های مختلف را به هم متصل می‌کنند. بررسی کامل همه آن‌ها برای هر به‌روزرسانی، با مرحله آزمایش سریع و بی‌قید و بند هوش مصنوعی شرکت‌ها مغایرت دارد.

فرنباخ گفت که هر مدل جدید و هر به‌روزرسانی داده یا عملکرد در آینده، می‌تواند حاوی کد مخرب یا صرفاً تغییری در مدل باشد که بر نتیجه تأثیر بگذارد.

عواقب سهل‌انگاری می‌تواند قابل توجه باشد.

در سال 2024، دادگاهی در کانادا به ایر کانادا دستور داد تا به مسافری که اطلاعات نادرستی در مورد نحوه دریافت تخفیف سوگواری از چت‌بات شرکت دریافت کرده بود، این تخفیف را ارائه دهد، حتی پس از اینکه نمایندگان انسانی شرکت هواپیمایی آن را رد کرده بودند. شرکت هواپیمایی مجبور شد صدها دلار را بازپرداخت کند و هزینه‌های قانونی را پوشش دهد. فرنباخ گفت که در مقیاس بزرگ، این نوع اشتباه می‌تواند پرهزینه باشد. به عنوان مثال، بانک‌ها از قبل نگران هستند که هوش مصنوعی مولد سریع‌تر از آن چیزی که آن‌ها بتوانند پاسخ دهند، در حال پیشرفت است.

مردی با تیشرت مشکی در اتاقی خاکستری با لوگوی JFrog روی صفحه نمایش در پس‌زمینه در حال گفتگو است.
یووال فرنباخ، مدیر ارشد فناوری JFrog، در رویداد شرکت در شهر نیویورک در مارس 2025 سخنرانی می‌کند. JFrog

برای پی بردن به مقیاس مشکل، JFrog سال گذشته با Hugging Face، مخزن آنلاین مدل‌های هوش مصنوعی، همکاری کرد. چهارصد مدل از بیش از 1 میلیون مدل حاوی کد مخرب بودند - کمتر از 1٪ و تقریباً معادل شانس به دست آوردن چهار کارت مشابه در یک دست پنج کارتی پوکر.

از آن زمان، JFrog تخمین می‌زند که در حالی که تعداد مدل‌های جدید سه برابر شده است، حملات هفت برابر افزایش یافته است.

موضوع ناگوارتر اینکه، بسیاری از مدل‌های محبوب اغلب دارای جعل‌های مخربی هستند که نام‌هایشان اشتباهات املایی جزئی از مدل‌های معتبر است و مهندسان عجول را وسوسه می‌کنند.

پنجاه و هشت درصد از شرکت‌های مورد بررسی در همان نظرسنجی یا هیچ خط‌مشی شرکتی در مورد مدل‌های هوش مصنوعی منبع‌باز نداشتند یا نمی‌دانستند که آیا چنین خط‌مشی‌ای دارند. و 68 درصد از شرکت‌های پاسخ‌دهنده هیچ راهی برای بررسی استفاده توسعه‌دهندگان از مدل‌ها به جز بررسی دستی نداشتند.

با افزایش هوش مصنوعی عامل‌گرا (Agentic AI)، مدل‌ها نه تنها اطلاعات و تجزیه و تحلیل ارائه می‌دهند، بلکه وظایفی را نیز انجام خواهند داد و خطرات می‌توانند افزایش یابند.