ارزیابیهای اخیر نشان میدهد که مدلهای هوش مصنوعی چینی، بهویژه DeepSeek، از همتایان آمریکایی خود مانند Llama متا، در حوزههای مهم از جمله افشای اطلاعات حساس، عملکرد بهتری دارند.
این یافته از امتیاز جدید اعتماد هوش مصنوعی (AI Trust Score) که توسط Tumeryk توسعه یافته، به دست آمده است. این امتیاز، مدلهای هوش مصنوعی را در نه عامل کلیدی ارزیابی میکند، از جمله: افشای اطلاعات حساس، مدیریت ناامن خروجی، امنیت، سمیت و غیره. AI Trust Manager شرکت Tumeryk به متخصصان امنیت کمک میکند تا اطمینان حاصل کنند که استقرار هوش مصنوعی آنها ایمن و مطابق با مقررات است، در حالی که آسیبپذیریها را در برنامههای هوش مصنوعی خود شناسایی کرده و عملکرد را در زمان واقعی نظارت میکنند. همچنین میتواند گامهای عملی برای افزایش امنیت و انطباق سیستم توصیه کند.
مدل DeepSeek، با نام DeepSeek NIM، به طرز چشمگیری امتیاز 910 را در دسته افشای اطلاعات حساس کسب کرده است و از امتیاز 687 آنتروپیک کلود و امتیاز 557 متا لاما پیشی گرفته است. این نتایج نشان میدهد که چشمانداز توسعه هوش مصنوعی در حال تحول است و تصورات موجود در مورد مدلهای خارجی و استانداردهای ایمنی و انطباق آنها را به چالش میکشد.
Betanews گزارش میدهد که بر اساس ارزیابیها، DeepSeek و سایر مدلهای چینی، استانداردهای ایمنی و انطباق بالاتری نسبت به آنچه قبلاً تصور میشد، از خود نشان میدهند. علاوه بر این، این مدلها بر روی پلتفرمهای مستقر در ایالات متحده مانند NVIDIA و SambaNova اجرا میشوند و امنیت دادهها را ضمن رعایت مقررات بینالمللی تضمین میکنند. این همگرایی عملکرد و انطباق، برای شرکتهایی که به دنبال اتخاذ ایمن و اخلاقی فناوریهای هوش مصنوعی هستند، بسیار مهم است.
همزمان با تکامل صنعت هوش مصنوعی، چنین ارزیابیهای عینی و مبتنی بر داده، در شکلدهی اعتماد و شفافیت در بین کاربران و توسعهدهندگان، بسیار مهم خواهد بود.