وقتی دکتر مارکوس بوتاچین، استادیار گروه علوم و مهندسی کامپیوتر، در مورد مدلهای زبانی بزرگ (LLM) مانند ChatGPT شنید, امنیت در اولویت قرار داشت. مدلهای زبانی بزرگ نوعی از هوش مصنوعی (Artificial Intelligence یا AI) هستند که میتوانند به سرعت متن تولید کنند. برخی از مدلهای زبانی بزرگ، از جمله ChatGPT، میتوانند کد کامپیوتری (Computer Code) نیز تولید کنند. بوتاچین نگران شد که مهاجمان از قابلیتهای مدلهای زبانی بزرگ برای نوشتن سریع حجم زیادی از بدافزارها سوءاستفاده کنند.
به گفته بوتاچین: «وقتی شما یک محقق امنیتی (یا یک فرد پارانوئید امنیتی) هستید، فناوری جدیدی را میبینید و فکر میکنید: «چه چیزی ممکن است اشتباه پیش برود؟ چگونه مردم میتوانند از این نوع چیزها سوء استفاده کنند؟»
بوتاچین در پروژهای که امسال آغاز میشود، قصد دارد یک مدل زبانی بزرگ (LLM) برای مقابله با این
به گفته بوتاچین: «ایده این است که با همان سلاحهایی که مهاجمان استفاده میکنند، مبارزه کنیم. اگر مهاجمان از مدلهای زبانی بزرگ (LLM) برای ایجاد میلیونها بدافزار در مقیاس بزرگ استفاده میکنند، ما میخواهیم میلیونها قانون برای دفاع در مقیاس بزرگ ایجاد کنیم.»
بدافزارها اغلب الگوهای منحصربهفردی را نشان میدهند که میتوان از آنها به عنوان امضا، مانند اثر انگشت، برای شناسایی آنها استفاده کرد. بوتاچین قصد دارد که مدل زبانی بزرگ (LLM) او از امضاها برای شناسایی خودکار
در حال حاضر، تحلیلگران انسانی این قوانین را مینویسند، اما این کار زمانبر است و نیاز به تجربه قابل توجهی دارد, که دفاع در برابر مهاجمانی که از هوش مصنوعی (AI) برای تولید حجم زیادی از کد به طور همزمان استفاده میکنند را برای انسان دشوار میکند. بوتاچین میخواهد که مدل زبانی بزرگ (LLM) او ابزاری باشد که تحلیلگران بتوانند از آن برای تکمیل مهارتهای خود و شناسایی سریعتر و دقیقتر بدافزارها استفاده کنند.
به گفته بوتاچین: «ایده این است که، البته، جایگزین تحلیلگر نشویم، بلکه تحلیلگر را آزاد بگذاریم تا فکر کند—دستگاه را هدایت کند و سپس اجازه دهد دستگاه کار سنگین را برای تحلیلگر انجام دهد.»
بوتاچین هنوز در مورد قالب رابط نرمافزاری (Software Interface) برای مدل زبانی بزرگ (LLM) خود تصمیمگیری نکرده است—ممکن است یک وبسایت یا
اگرچه میتوان از آن به صورت پیشگیرانه استفاده کرد، اما بوتاچین پیشبینی میکند که تحلیلگران از این مدل زبانی بزرگ (LLM) برای واکنش به حوادث استفاده خواهند کرد. به عنوان مثال، یک تحلیلگر میتواند مدل زبانی بزرگ (LLM) را روی لپتاپ خود اجرا کند، آن را با خود به یک شرکت ببرد و از آن برای جستجوی امضاهای بدافزار در رایانههای شبکه استفاده کند.
این پروژه با
برای اینکه مدل زبانی بزرگ (LLM) به اندازه کافی کوچک باشد تا روی یک لپتاپ اجرا شود—«یک ChatGPT که در جیب شما اجرا میشود»—مدل زبانی بزرگ (LLM) نیاز به آموزش گستردهای خواهد داشت. انجام آموزش بیشتر در طول توسعه، امکان تولید یک محصول نهایی کوچکتر را فراهم میکند. بوتاچین به یک خوشه واحدهای پردازش گرافیکی (GPU) دسترسی دارد که از آنها برای آموزش مدل زبانی بزرگ (LLM) استفاده خواهد کرد. واحدهای پردازش گرافیکی (GPU) به دلیل ظرفیت خود برای پردازش همزمان دادههای زیاد، برای آموزش مدلهای زبانی بزرگ (LLM) ایدهآل هستند.
شریک علمی تحقیقات بوتاچین، آزمایشگاه علوم فیزیکی است.
تهیه شده توسط