منبع: Unsplash/CC0 Public Domain
منبع: Unsplash/CC0 Public Domain

محققان یک مدل زبانی بزرگ متمرکز بر امنیت برای دفاع در برابر بدافزارها توسعه می‌دهند

وقتی دکتر مارکوس بوتاچین، استادیار گروه علوم و مهندسی کامپیوتر، در مورد مدل‌های زبانی بزرگ (LLM) مانند ChatGPT شنید, امنیت در اولویت قرار داشت. مدل‌های زبانی بزرگ نوعی از هوش مصنوعی (Artificial Intelligence یا AI) هستند که می‌توانند به سرعت متن تولید کنند. برخی از مدل‌های زبانی بزرگ، از جمله ChatGPT، می‌توانند کد کامپیوتری (Computer Code) نیز تولید کنند. بوتاچین نگران شد که مهاجمان از قابلیت‌های مدل‌های زبانی بزرگ برای نوشتن سریع حجم زیادی از بدافزارها سوءاستفاده کنند.

به گفته بوتاچین: «وقتی شما یک محقق امنیتی (یا یک فرد پارانوئید امنیتی) هستید، فناوری جدیدی را می‌بینید و فکر می‌کنید: «چه چیزی ممکن است اشتباه پیش برود؟ چگونه مردم می‌توانند از این نوع چیزها سوء استفاده کنند؟»

بوتاچین در پروژه‌ای که امسال آغاز می‌شود، قصد دارد یک مدل زبانی بزرگ (LLM) برای مقابله با این

تهدید امنیتی
توسعه دهد. او پروژه خود را به ساختن یک نسخه کوچکتر و متمرکز بر امنیت از ChatGPT تشبیه کرد.

به گفته بوتاچین: «ایده این است که با همان سلاح‌هایی که مهاجمان استفاده می‌کنند، مبارزه کنیم. اگر مهاجمان از مدل‌های زبانی بزرگ (LLM) برای ایجاد میلیون‌ها بدافزار در مقیاس بزرگ استفاده می‌کنند، ما می‌خواهیم میلیون‌ها قانون برای دفاع در مقیاس بزرگ ایجاد کنیم.»

بدافزارها اغلب الگوهای منحصربه‌فردی را نشان می‌دهند که می‌توان از آن‌ها به عنوان امضا، مانند اثر انگشت، برای شناسایی آن‌ها استفاده کرد. بوتاچین قصد دارد که مدل زبانی بزرگ (LLM) او از امضاها برای شناسایی خودکار

بدافزارها
و نوشتن قوانین برای دفاع در برابر آن‌ها استفاده کند.

در حال حاضر، تحلیلگران انسانی این قوانین را می‌نویسند، اما این کار زمان‌بر است و نیاز به تجربه قابل توجهی دارد, که دفاع در برابر مهاجمانی که از هوش مصنوعی (AI) برای تولید حجم زیادی از کد به طور همزمان استفاده می‌کنند را برای انسان دشوار می‌کند. بوتاچین می‌خواهد که مدل زبانی بزرگ (LLM) او ابزاری باشد که تحلیلگران بتوانند از آن برای تکمیل مهارت‌های خود و شناسایی سریع‌تر و دقیق‌تر بدافزارها استفاده کنند.

به گفته بوتاچین: «ایده این است که، البته، جایگزین تحلیلگر نشویم، بلکه تحلیلگر را آزاد بگذاریم تا فکر کند—دستگاه را هدایت کند و سپس اجازه دهد دستگاه کار سنگین را برای تحلیلگر انجام دهد.»

بوتاچین هنوز در مورد قالب رابط نرم‌افزاری (Software Interface) برای مدل زبانی بزرگ (LLM) خود تصمیم‌گیری نکرده است—ممکن است یک وب‌سایت یا

کد منبع (Source Code)
باشد که مردم بتوانند آن را دانلود کنند—اما برای عموم در دسترس خواهد بود.

اگرچه می‌توان از آن به صورت پیشگیرانه استفاده کرد، اما بوتاچین پیش‌بینی می‌کند که تحلیلگران از این مدل زبانی بزرگ (LLM) برای واکنش به حوادث استفاده خواهند کرد. به عنوان مثال، یک تحلیلگر می‌تواند مدل زبانی بزرگ (LLM) را روی لپ‌تاپ خود اجرا کند، آن را با خود به یک شرکت ببرد و از آن برای جستجوی امضاهای بدافزار در رایانه‌های شبکه استفاده کند.

این پروژه با

سایر تحقیقات جاری
بوتاچین همسو است که در آن او در حال ادغام تشخیص بدافزار در سخت‌افزار کامپیوتر به عنوان یک رویکرد پیشگیرانه است.

برای اینکه مدل زبانی بزرگ (LLM) به اندازه کافی کوچک باشد تا روی یک لپ‌تاپ اجرا شود—«یک ChatGPT که در جیب شما اجرا می‌شود»—مدل زبانی بزرگ (LLM) نیاز به آموزش گسترده‌ای خواهد داشت. انجام آموزش بیشتر در طول توسعه، امکان تولید یک محصول نهایی کوچکتر را فراهم می‌کند. بوتاچین به یک خوشه واحدهای پردازش گرافیکی (GPU) دسترسی دارد که از آن‌ها برای آموزش مدل زبانی بزرگ (LLM) استفاده خواهد کرد. واحدهای پردازش گرافیکی (GPU) به دلیل ظرفیت خود برای پردازش همزمان داده‌های زیاد، برای آموزش مدل‌های زبانی بزرگ (LLM) ایده‌آل هستند.

شریک علمی تحقیقات بوتاچین، آزمایشگاه علوم فیزیکی است.

تهیه شده توسط

دانشگاه تگزاس A&M