peepo/Getty Images
peepo/Getty Images

داده‌های شما احتمالاً برای هوش مصنوعی آماده نیستند - در اینجا نحوه اطمینان از قابل اعتماد بودن آن آورده شده است

هوش مصنوعی فقط به اندازه داده‌های پشت آن خوب است. اما معماری داده آماده هوش مصنوعی با رویکردهای سنتی ارائه داده متفاوت است.

اعتماد شکننده است، و این یکی از مشکلات هوش مصنوعی (Artificial Intelligence) است، که فقط به اندازه داده‌های پشت آن خوب است. نگرانی‌های مربوط به یکپارچگی داده‌ها - که حتی خبره‌ترین سازمان‌ها را برای دهه‌ها آزار داده است - دوباره سر برآورده است. و کارشناسان صنعت زنگ خطر را به صدا درآورده‌اند. کاربران هوش مصنوعی مولد (Generative AI) ممکن است با اطلاعات ناقص، تکراری یا نادرست تغذیه شوند که به لطف داده‌های ضعیف یا مجزای زیربنای این سیستم‌ها، به آن‌ها ضربه می‌زند.

به گفته تحلیل اخیر منتشر شده توسط Ashish Verma، مدیر ارشد داده و تحلیل در Deloitte US، و تیمی از نویسندگان همکار، "هوش مصنوعی و هوش مصنوعی مولد، سطح داده‌های با کیفیت را بالا می‌برند". این تیم اظهار داشت: "استراتژی‌های GenAI ممکن است بدون یک معماری داده روشن که انواع و روش‌ها را در بر می‌گیرد، با در نظر گرفتن تنوع و سوگیری داده‌ها و اصلاح داده‌ها برای سیستم‌های احتمالی، با مشکل مواجه شوند."

یک معماری داده آماده هوش مصنوعی، یک جانور متفاوت از رویکردهای سنتی به ارائه داده است. هوش مصنوعی بر اساس مدل‌های احتمالی ساخته شده است - به این معنی که خروجی بر اساس احتمالات و داده‌های پشتیبان در زمان پرس و جو متفاوت خواهد بود. ورما و نویسندگان همکارش نوشتند که این امر طراحی سیستم داده را محدود می‌کند. "سیستم‌های داده ممکن است برای مدل‌های احتمالی طراحی نشده باشند، که می‌تواند هزینه آموزش و بازآموزی را بدون تبدیل داده که شامل هستی‌شناسی داده، حکمرانی و اقدامات اعتماد سازی و ایجاد پرس و جوهای داده‌ای است که منعکس کننده سناریوهای دنیای واقعی هستند، بالا ببرد."

آن‌ها خاطرنشان کردند که به این چالش‌ها، توهمات و رانش مدل را اضافه کنید. همه این‌ها دلایلی هستند برای نگه داشتن دست‌های انسانی در این فرآیند - و افزایش تلاش‌ها برای هماهنگ کردن و اطمینان از سازگاری در داده‌ها.

ایان کلیتون، مدیر ارشد محصول Redpoint Global، به ZDNET گفت که این به طور بالقوه به اعتماد آسیب می‌رساند، شاید ارزشمندترین کالا در دنیای هوش مصنوعی.

کلیتون گفت: "ایجاد یک محیط داده با حاکمیت داده قوی، تبار داده و مقررات شفاف حریم خصوصی به اطمینان از استفاده اخلاقی از هوش مصنوعی در چارچوب وعده یک برند کمک می‌کند." ایجاد یک پایه اعتماد به جلوگیری از سرکش شدن هوش مصنوعی کمک می‌کند، که به راحتی می‌تواند منجر به تجربیات ناهموار مشتری شود.

در سراسر صنعت، نگرانی در مورد آمادگی داده برای هوش مصنوعی در حال افزایش است.

گوردون رابینسون، مدیر ارشد مدیریت داده در SAS، گفت: "کیفیت داده یک مسئله همیشگی است که کسب و کارها برای دهه‌ها با آن مواجه بوده‌اند." وی افزود: دو سوال اساسی در مورد محیط‌های داده وجود دارد که کسب و کارها باید قبل از شروع یک برنامه هوش مصنوعی در نظر بگیرند. اول، "آیا می‌فهمید چه داده‌هایی دارید، کیفیت داده‌ها چیست و آیا قابل اعتماد هستند یا نه؟" دوم، "آیا مهارت‌ها و ابزارهای مناسبی در اختیار دارید تا داده‌های خود را برای هوش مصنوعی آماده کنید؟"

کلیتون گفت: برای مقابله با بادهای مخالف هوش مصنوعی، نیاز بیشتری به "تلفیق داده و کیفیت داده" وجود دارد. "این مستلزم گردآوری تمام داده‌ها و خارج کردن آن‌ها از سیلوها، و همچنین مراحل فشرده کیفیت داده است که شامل حذف تکراری، یکپارچگی داده و اطمینان از سازگاری است."

امنیت داده نیز با معرفی هوش مصنوعی ابعاد جدیدی پیدا می‌کند. عمر خواجه، مدیر ارشد امنیت اطلاعات میدانی در Databricks، گفت: "میانبر زدن کنترل‌های امنیتی در تلاش برای ارائه سریع راه حل‌های هوش مصنوعی منجر به عدم نظارت می‌شود."

ناظران صنعت به چندین عنصر ضروری مورد نیاز برای اطمینان از اعتماد به داده‌های پشت هوش مصنوعی اشاره می‌کنند:

  • خطوط لوله داده چابک: کلیتون گفت: تکامل سریع هوش مصنوعی "نیازمند خطوط لوله داده چابک و مقیاس‌پذیر است که برای اطمینان از اینکه کسب‌وکار می‌تواند به راحتی با موارد استفاده جدید هوش مصنوعی سازگار شود، حیاتی هستند". "این چابکی به ویژه برای اهداف آموزشی مهم است."
  • تصویرسازی: کلیتون اشاره کرد: "اگر دانشمندان داده دسترسی و تجسم داده‌هایی را که دارند دشوار بدانند، به شدت کارایی توسعه هوش مصنوعی آن‌ها را محدود می‌کند."
  • برنامه‌های حکمرانی قوی: رابینسون گفت: "بدون حکمرانی قوی داده، کسب و کارها ممکن است با مسائل کیفیت داده مواجه شوند که منجر به بینش‌های نادرست و تصمیم‌گیری ضعیف می‌شود." علاوه بر این، یک رویکرد حکمرانی قوی به شناسایی "اینکه سازمان چه داده‌هایی دارد، به طور کافی آن را برای برنامه‌های کاربردی هوش مصنوعی آماده می‌کند و از انطباق با الزامات نظارتی اطمینان می‌دهد، کمک می‌کند."
  • اندازه‌گیری‌های کامل و مداوم: خواجه گفت: "دقت و اثربخشی مدل‌های هوش مصنوعی به طور مستقیم به کیفیت داده‌هایی که روی آن آموزش داده می‌شوند بستگی دارد." وی خواستار اجرای اندازه‌گیری‌هایی مانند نرخ پذیرش ماهانه شد که "سرعت پذیرش قابلیت‌های داده مبتنی بر هوش مصنوعی توسط تیم‌ها و سیستم‌ها را ردیابی می‌کند. نرخ پذیرش بالا نشان می‌دهد که ابزارها و فرآیندهای هوش مصنوعی نیازهای کاربر را برآورده می‌کنند."

یک معماری داده آماده هوش مصنوعی باید IT و تیم‌های داده را قادر سازد تا "نتایج متنوعی را که کیفیت داده، دقت، کامل بودن، سازگاری و عملکرد مدل هوش مصنوعی را پوشش می‌دهند، اندازه‌گیری کنند." کلیتون گفت: "سازمان‌ها باید گام‌هایی برای تأیید مداوم بردارند که هوش مصنوعی در مقایسه با صرفاً پیاده‌سازی هوش مصنوعی برای خاطر هوش مصنوعی، سود سهام می‌دهد."

آیا داستان‌های بیشتری درباره هوش مصنوعی می‌خواهید؟ برای خبرنامه هفتگی ما، Innovation، ثبت نام کنید.