نمودار امتیاز اعتماد هوش مصنوعی برای مدل‌های مختلف
نمودار امتیاز اعتماد هوش مصنوعی برای مدل‌های مختلف

امتیاز جدید اعتماد هوش مصنوعی نشان می‌دهد DeepSeek در افشای اطلاعات حساس پیشتاز است

ارزیابی‌های اخیر نشان می‌دهد که مدل‌های هوش مصنوعی چینی، به‌ویژه DeepSeek، از همتایان آمریکایی خود مانند Llama متا، در حوزه‌های مهم از جمله افشای اطلاعات حساس، عملکرد بهتری دارند.

این یافته از امتیاز جدید اعتماد هوش مصنوعی (AI Trust Score) که توسط Tumeryk توسعه یافته، به دست آمده است. این امتیاز، مدل‌های هوش مصنوعی را در نه عامل کلیدی ارزیابی می‌کند، از جمله: افشای اطلاعات حساس، مدیریت ناامن خروجی، امنیت، سمیت و غیره. AI Trust Manager شرکت Tumeryk به متخصصان امنیت کمک می‌کند تا اطمینان حاصل کنند که استقرار هوش مصنوعی آنها ایمن و مطابق با مقررات است، در حالی که آسیب‌پذیری‌ها را در برنامه‌های هوش مصنوعی خود شناسایی کرده و عملکرد را در زمان واقعی نظارت می‌کنند. همچنین می‌تواند گام‌های عملی برای افزایش امنیت و انطباق سیستم توصیه کند.

مدل DeepSeek، با نام DeepSeek NIM، به طرز چشمگیری امتیاز 910 را در دسته افشای اطلاعات حساس کسب کرده است و از امتیاز 687 آنتروپیک کلود و امتیاز 557 متا لاما پیشی گرفته است. این نتایج نشان می‌دهد که چشم‌انداز توسعه هوش مصنوعی در حال تحول است و تصورات موجود در مورد مدل‌های خارجی و استانداردهای ایمنی و انطباق آنها را به چالش می‌کشد.

Betanews گزارش می‌دهد که بر اساس ارزیابی‌ها، DeepSeek و سایر مدل‌های چینی، استانداردهای ایمنی و انطباق بالاتری نسبت به آنچه قبلاً تصور می‌شد، از خود نشان می‌دهند. علاوه بر این، این مدل‌ها بر روی پلتفرم‌های مستقر در ایالات متحده مانند NVIDIA و SambaNova اجرا می‌شوند و امنیت داده‌ها را ضمن رعایت مقررات بین‌المللی تضمین می‌کنند. این همگرایی عملکرد و انطباق، برای شرکت‌هایی که به دنبال اتخاذ ایمن و اخلاقی فناوری‌های هوش مصنوعی هستند، بسیار مهم است.

همزمان با تکامل صنعت هوش مصنوعی، چنین ارزیابی‌های عینی و مبتنی بر داده، در شکل‌دهی اعتماد و شفافیت در بین کاربران و توسعه‌دهندگان، بسیار مهم خواهد بود.