رونمایی از اولین جستجوی هوش مصنوعی Cohesity برای داده‌های پشتیبان داخلی

Cohesity، یک پلتفرم امنیت داده، از گسترش قابل توجه Cohesity Gaia، دستیار کشف دانش سازمانی خود، خبر داد. این توسعه، آنچه را که به عنوان یکی از اولین قابلیت‌های جستجوی مجهز به هوش مصنوعی برای داده‌های پشتیبان ذخیره شده در محل (on-premises) ادعا می‌شود، معرفی می‌کند.

این یک جهش بزرگ در اکوسیستم مدیریت داده‌های سازمانی به شمار می‌رود. با استفاده از محاسبات شتاب‌یافته NVIDIA و نرم‌افزار هوش مصنوعی سازمانی، از جمله NVIDIA NIM microservices و NVIDIA NeMo Retriever، Cohesity Gaia به طور یکپارچه هوش مصنوعی مولد (Generative AI) را در فرآیندهای پشتیبان‌گیری و بایگانی ادغام می‌کند.

این امر، شرکت‌ها را قادر می‌سازد تا از طریق بینش‌های عمیق‌تر داده، کارایی، نوآوری و پتانسیل رشد کلی را افزایش دهند.

پت لی، معاون مشارکت‌های استراتژیک سازمانی در NVIDIA، با تأکید بر مزایای این همکاری گفت: “سازمان‌ها اکنون می‌توانند از بینش‌های مبتنی بر هوش مصنوعی به طور مستقیم در داخل داده‌های خود بهره ببرند تا در عین حفظ دسترسی و امنیت داده‌ها، سطوح جدیدی از هوشمندی را باز کنند.”

این راه حل با Cisco Unified Computing System (UCS)، Hewlett Packard Enterprise (HPE) و Nutanix سازگار خواهد بود و گزینه‌های مختلفی برای استقرار ارائه می‌دهد.

علاوه بر این، مشتریانی مانند JSR Corporation، یک شرکت تحقیقاتی و تولیدی ژاپنی، نیز در حال ارزیابی مزایای این راه حل هستند.

با پذیرش استراتژی‌های ابری ترکیبی (hybrid cloud) توسط شرکت‌ها، بسیاری از آنها داده‌های حیاتی را در محل (on-premises) نگهداری می‌کنند تا الزامات امنیتی، انطباق و عملکرد را برآورده کنند. با گسترش Gaia به این محیط‌ها، سازمان‌ها می‌توانند بینش‌های داده با کیفیت بالا را در حین حفظ کنترل بر زیرساخت خود، اتخاذ کنند.

سانجی پونن، مدیرعامل و رئیس Cohesity، نیز بر اهمیت راه حل‌های هوش مصنوعی در محل (on-premises) تأکید کرد.

Cohesity Gaia اکنون به شرکت‌ها سرعت، دقت و کارایی بیشتری در جستجو و کشف داده‌ها ارائه می‌دهد. قابلیت‌های نمایه سازی و پرس و جوی چند زبانه (multi-lingual) آن به سازمان‌های جهانی اجازه می‌دهد تا داده‌ها را به چندین زبان تجزیه و تحلیل کنند.

این زیرساخت مقیاس‌پذیر و قابل تنظیم برای برآورده کردن الزامات تجاری است، با یک معماری مرجع (reference architecture) که برای استقرار یکپارچه در سراسر پلتفرم‌های سخت‌افزاری طراحی شده است.

مدل‌های زبانی بزرگ (LLM) از پیش بسته‌بندی شده در محل (on-premises) اطمینان می‌دهند که داده‌های پشتیبان بدون دسترسی به ابر امن باقی می‌مانند. معماری بهینه شده آن امکان جستجوهای کارآمد در مجموعه‌های داده در مقیاس پتابایت (petabyte-scale datasets) را فراهم می‌کند و بازیابی را سریع و قابل اعتماد می‌سازد.