دولت بریتانیا آماده پذیرش هوش مصنوعی است، اما بدون اعتماد، با خطر فاجعه مواجه می‌شود

در سطح بین‌المللی، بریتانیا امنیت هوش مصنوعی را بر ایمنی اولویت می‌دهد

هفته گذشته، بریتانیا به همراه ایالات متحده، از امضای یک توافقنامه بین‌المللی در مورد هوش مصنوعی در اجلاس جهانی هوش مصنوعی در پاریس خودداری کرد. هدف این توافقنامه، همسو کردن 60 کشور در تعهد به توسعه هوش مصنوعی به روشی باز، فراگیر و اخلاقی است. با این حال، به گفته دولت بریتانیا، این توافقنامه به مسائل مربوط به حکمرانی جهانی هوش مصنوعی نمی‌پردازد و سوالاتی را در مورد امنیت ملی بی‌پاسخ می‌گذارد.

بله، این نوع توافقنامه‌ها به ندرت تغییرات فوری در سیاست یا رویه‌ها ایجاد می‌کنند (در واقع، هدف آنها این نیست!)، اما توجیه عجیبی است و این که بریتانیا، که «ایمنی هوش مصنوعی» را در سطح جهانی ترویج کرد و پذیرش مجموعه‌ای از توافقنامه‌ها را در گذشته ترویج کرد، اکنون از آن فاصله می‌گیرد، گیج‌کننده است.

در همین حال، وزارت علوم، نوآوری و فناوری بریتانیا اعلام کرد که نام جهانی «موسسه ایمنی هوش مصنوعی» به «موسسه امنیت هوش مصنوعی» تغییر یافته است. اشتباه نکنید: این چیزی بیش از یک تغییر نام است. تمرکز جدید موسسه امنیت هوش مصنوعی در درجه اول بر امنیت سایبری است و اهداف قبلی - مانند درک تأثیرات اجتماعی هوش مصنوعی و کاهش خطراتی مانند نتایج نابرابر و آسیب رساندن به رفاه فردی - دیگر بخش‌های صریح مأموریت آن نیستند.

در سطح داخلی، بریتانیا می‌خواهد نوآوری هوش مصنوعی در بخش دولتی را هدایت کند

دولت بریتانیا نه تنها مشغول ایجاد روابط جدید فناوری/ژئوپلیتیکی بود، بلکه تصمیمات داخلی نیز گرفت که شهروندان و مصرف‌کنندگان بریتانیا باید مراقب آنها باشند. این شامل:

  • توافق با Anthropic برای شروع ساخت خدمات مبتنی بر هوش مصنوعی. هفته گذشته، دولت بریتانیا و ارائه‌دهنده هوش مصنوعی Anthropic یادداشت تفاهمی امضا کردند که آغاز همکاری را نشان می‌دهد که بخش دولتی بریتانیا را قادر می‌سازد تا از قدرت هوش مصنوعی برای طیف وسیعی از خدمات و تجربیات استفاده کند. هدف فوری استفاده از Claude، خانواده مدل‌های زبانی بزرگ (LLM) Anthropic، برای راه‌اندازی یک چت‌بات است که نحوه دسترسی شهروندان در بریتانیا به اطلاعات و خدمات بخش دولتی را بهبود می‌بخشد.
  • برنامه‌های جسورانه آینده. این فقط آغاز است. برنامه‌های آینده شامل استفاده از LLMهای Anthropic در طیف وسیعی از فعالیت‌های بخش دولتی، از تحقیقات علمی گرفته تا سیاست‌گذاری، مدیریت زنجیره تأمین و موارد دیگر است. همانطور که دولت بریتانیا بیش از 50 طرح مختلف را در بر می‌گیرد که هوش مصنوعی را به هسته اصلی بخش دولتی و فعالیت‌های دولتی خود می‌آورد، طبق آخرین «برنامه اقدام فرصت‌های هوش مصنوعی»، همکاری آینده با سایر ارائه‌دهندگان هوش مصنوعی فراتر از Anthropic، گام بعدی واضح است.
  • دستورالعمل‌های جدید هوش مصنوعی برای بخش‌های دولتی. برای تکمیل فعالیت‌های مرتبط با هوش مصنوعی، دستورالعمل‌های جدید برای استفاده از هوش مصنوعی و هوش مصنوعی مولد در بخش دولتی نیز هفته گذشته منتشر شد. کتابچه راهنمای هوش مصنوعی برای دولت بریتانیا چارچوب هوش مصنوعی مولد 2024 را برای دولت اعلیحضرت گسترش می‌دهد، اما اساساً مجموعه‌ای از اصول اساسی و عقل سلیم است که کارمندان دولت باید هنگام استفاده از هوش مصنوعی و genAI از آنها استفاده کنند. به نظر می‌رسد که این مقدار بسیار کم است، به خصوص اگر با حجم و بزرگی بلندپروازی‌ها و پروژه‌های هوش مصنوعی بریتانیا مقایسه شود.

نوآوری بدون اعتماد شهروندان بی‌معنی خواهد بود

هوش مصنوعی فرصتی باورنکردنی برای تقریباً هر سازمانی، از جمله بخش دولتی است. اشتیاقی که دولت بریتانیا به پروژه‌های هوش مصنوعی فعلی و آینده خود نشان می‌دهد، بسیار خوشحال‌کننده است، اما تعهد به هوش مصنوعی قابل اعتماد برای حفظ این اشتیاق و جلوگیری از واکنش منفی بسیار مهم است - به ویژه در کشوری که در حال حاضر هیچ قانون و حکمرانی برای هوش مصنوعی قابل اعتماد وجود ندارد و احتمالاً در آینده نیز وجود نخواهد داشت.

همانطور که تحقیقات اعتماد دولت Forrester نشان می‌دهد، هنگامی که اعتماد به نهادها قوی است، دولت‌ها از مزایای اجتماعی، اقتصادی و اعتباری بهره‌مند می‌شوند که آنها را قادر می‌سازد روابط خود را با مردمی که به آنها خدمت می‌کنند، گسترش دهند و تعمیق بخشند. هنگامی که اعتماد ضعیف است، آنها این مزایا را از دست می‌دهند و باید سخت‌تر کار کنند تا رفاه اقتصادی و انسجام اجتماعی را ایجاد و حفظ کنند تا مردم بتوانند شکوفا شوند. بر اساس آخرین داده‌های Forrester، اعتماد کلی به سازمان‌های دولتی بریتانیا ضعیف است و امتیاز 42.3 را در مقیاس 100 امتیازی ما کسب کرده است.

دو اولویت اصلی برای بخش دولتی بریتانیا و شرکای آن در هنگام پذیرش هوش مصنوعی وجود دارد:

  • ایجاد و پیروی از یک چارچوب قابل اعتماد برای هر پروژه هوش مصنوعی. کتابچه راهنمای جدید هوش مصنوعی نقطه شروع خوبی است. سایر چارچوب‌های ریسک هوش مصنوعی می‌توانند اثربخشی کتابچه راهنما را برای ارائه هوش مصنوعی مسئولانه و قابل اعتماد افزایش دهند. به عنوان مثال، قانون هوش مصنوعی اتحادیه اروپا، که برای بخش دولتی بریتانیا و شرکای آن الزام‌آور نیست، همچنان می‌تواند مجموعه‌ای از اصول معتبر را برای ارزیابی خطرات هوش مصنوعی و انتخاب استراتژی‌های کاهش ریسک ارائه دهد.
  • طراحی و ساخت برنامه‌های هوش مصنوعی که باعث ایجاد اعتماد شهروندان شوند. بسیار مهم است که درک کنید و بر عواملی که بیشترین تأثیر را بر نحوه اعتماد شهروندان بریتانیا به دولت بریتانیا دارند، و همچنین اثراتی که اعتماد بر فعالیت‌های حیاتی مأموریت خاص دولت دارد، عمل کنید. هنگامی که پویایی‌هایی که بر اعتماد حاکم هستند روشن شوند، کارمندان دولت می‌توانند به طور مؤثرتری استراتژی‌هایی را توسعه دهند که به طور خاص به «شکاف اعتماد» رسیدگی می‌کنند و به رشد و حفظ اعتماد شهروندان کمک می‌کنند.

اگر می‌خواهید اطلاعات بیشتری در مورد تحقیقات اعتماد دولت Forrester یا چارچوب‌های قابل اعتماد هوش مصنوعی کسب کنید، لطفاً یک جلسه راهنمایی با ما برنامه‌ریزی کنید.