در سطح بینالمللی، بریتانیا امنیت هوش مصنوعی را بر ایمنی اولویت میدهد
هفته گذشته، بریتانیا به همراه ایالات متحده، از امضای یک توافقنامه بینالمللی در مورد هوش مصنوعی در اجلاس جهانی هوش مصنوعی در پاریس خودداری کرد. هدف این توافقنامه، همسو کردن 60 کشور در تعهد به توسعه هوش مصنوعی به روشی باز، فراگیر و اخلاقی است. با این حال، به گفته دولت بریتانیا، این توافقنامه به مسائل مربوط به حکمرانی جهانی هوش مصنوعی نمیپردازد و سوالاتی را در مورد امنیت ملی بیپاسخ میگذارد.
بله، این نوع توافقنامهها به ندرت تغییرات فوری در سیاست یا رویهها ایجاد میکنند (در واقع، هدف آنها این نیست!)، اما توجیه عجیبی است و این که بریتانیا، که «ایمنی هوش مصنوعی» را در سطح جهانی ترویج کرد و پذیرش مجموعهای از توافقنامهها را در گذشته ترویج کرد، اکنون از آن فاصله میگیرد، گیجکننده است.
در همین حال، وزارت علوم، نوآوری و فناوری بریتانیا اعلام کرد که نام جهانی «موسسه ایمنی هوش مصنوعی» به «موسسه امنیت هوش مصنوعی» تغییر یافته است. اشتباه نکنید: این چیزی بیش از یک تغییر نام است. تمرکز جدید موسسه امنیت هوش مصنوعی در درجه اول بر امنیت سایبری است و اهداف قبلی - مانند درک تأثیرات اجتماعی هوش مصنوعی و کاهش خطراتی مانند نتایج نابرابر و آسیب رساندن به رفاه فردی - دیگر بخشهای صریح مأموریت آن نیستند.
در سطح داخلی، بریتانیا میخواهد نوآوری هوش مصنوعی در بخش دولتی را هدایت کند
دولت بریتانیا نه تنها مشغول ایجاد روابط جدید فناوری/ژئوپلیتیکی بود، بلکه تصمیمات داخلی نیز گرفت که شهروندان و مصرفکنندگان بریتانیا باید مراقب آنها باشند. این شامل:
- توافق با Anthropic برای شروع ساخت خدمات مبتنی بر هوش مصنوعی. هفته گذشته، دولت بریتانیا و ارائهدهنده هوش مصنوعی Anthropic یادداشت تفاهمی امضا کردند که آغاز همکاری را نشان میدهد که بخش دولتی بریتانیا را قادر میسازد تا از قدرت هوش مصنوعی برای طیف وسیعی از خدمات و تجربیات استفاده کند. هدف فوری استفاده از Claude، خانواده مدلهای زبانی بزرگ (LLM) Anthropic، برای راهاندازی یک چتبات است که نحوه دسترسی شهروندان در بریتانیا به اطلاعات و خدمات بخش دولتی را بهبود میبخشد.
- برنامههای جسورانه آینده. این فقط آغاز است. برنامههای آینده شامل استفاده از LLMهای Anthropic در طیف وسیعی از فعالیتهای بخش دولتی، از تحقیقات علمی گرفته تا سیاستگذاری، مدیریت زنجیره تأمین و موارد دیگر است. همانطور که دولت بریتانیا بیش از 50 طرح مختلف را در بر میگیرد که هوش مصنوعی را به هسته اصلی بخش دولتی و فعالیتهای دولتی خود میآورد، طبق آخرین «برنامه اقدام فرصتهای هوش مصنوعی»، همکاری آینده با سایر ارائهدهندگان هوش مصنوعی فراتر از Anthropic، گام بعدی واضح است.
- دستورالعملهای جدید هوش مصنوعی برای بخشهای دولتی. برای تکمیل فعالیتهای مرتبط با هوش مصنوعی، دستورالعملهای جدید برای استفاده از هوش مصنوعی و هوش مصنوعی مولد در بخش دولتی نیز هفته گذشته منتشر شد. کتابچه راهنمای هوش مصنوعی برای دولت بریتانیا چارچوب هوش مصنوعی مولد 2024 را برای دولت اعلیحضرت گسترش میدهد، اما اساساً مجموعهای از اصول اساسی و عقل سلیم است که کارمندان دولت باید هنگام استفاده از هوش مصنوعی و genAI از آنها استفاده کنند. به نظر میرسد که این مقدار بسیار کم است، به خصوص اگر با حجم و بزرگی بلندپروازیها و پروژههای هوش مصنوعی بریتانیا مقایسه شود.
نوآوری بدون اعتماد شهروندان بیمعنی خواهد بود
هوش مصنوعی فرصتی باورنکردنی برای تقریباً هر سازمانی، از جمله بخش دولتی است. اشتیاقی که دولت بریتانیا به پروژههای هوش مصنوعی فعلی و آینده خود نشان میدهد، بسیار خوشحالکننده است، اما تعهد به هوش مصنوعی قابل اعتماد برای حفظ این اشتیاق و جلوگیری از واکنش منفی بسیار مهم است - به ویژه در کشوری که در حال حاضر هیچ قانون و حکمرانی برای هوش مصنوعی قابل اعتماد وجود ندارد و احتمالاً در آینده نیز وجود نخواهد داشت.
همانطور که تحقیقات اعتماد دولت Forrester نشان میدهد، هنگامی که اعتماد به نهادها قوی است، دولتها از مزایای اجتماعی، اقتصادی و اعتباری بهرهمند میشوند که آنها را قادر میسازد روابط خود را با مردمی که به آنها خدمت میکنند، گسترش دهند و تعمیق بخشند. هنگامی که اعتماد ضعیف است، آنها این مزایا را از دست میدهند و باید سختتر کار کنند تا رفاه اقتصادی و انسجام اجتماعی را ایجاد و حفظ کنند تا مردم بتوانند شکوفا شوند. بر اساس آخرین دادههای Forrester، اعتماد کلی به سازمانهای دولتی بریتانیا ضعیف است و امتیاز 42.3 را در مقیاس 100 امتیازی ما کسب کرده است.
دو اولویت اصلی برای بخش دولتی بریتانیا و شرکای آن در هنگام پذیرش هوش مصنوعی وجود دارد:
- ایجاد و پیروی از یک چارچوب قابل اعتماد برای هر پروژه هوش مصنوعی. کتابچه راهنمای جدید هوش مصنوعی نقطه شروع خوبی است. سایر چارچوبهای ریسک هوش مصنوعی میتوانند اثربخشی کتابچه راهنما را برای ارائه هوش مصنوعی مسئولانه و قابل اعتماد افزایش دهند. به عنوان مثال، قانون هوش مصنوعی اتحادیه اروپا، که برای بخش دولتی بریتانیا و شرکای آن الزامآور نیست، همچنان میتواند مجموعهای از اصول معتبر را برای ارزیابی خطرات هوش مصنوعی و انتخاب استراتژیهای کاهش ریسک ارائه دهد.
- طراحی و ساخت برنامههای هوش مصنوعی که باعث ایجاد اعتماد شهروندان شوند. بسیار مهم است که درک کنید و بر عواملی که بیشترین تأثیر را بر نحوه اعتماد شهروندان بریتانیا به دولت بریتانیا دارند، و همچنین اثراتی که اعتماد بر فعالیتهای حیاتی مأموریت خاص دولت دارد، عمل کنید. هنگامی که پویاییهایی که بر اعتماد حاکم هستند روشن شوند، کارمندان دولت میتوانند به طور مؤثرتری استراتژیهایی را توسعه دهند که به طور خاص به «شکاف اعتماد» رسیدگی میکنند و به رشد و حفظ اعتماد شهروندان کمک میکنند.
اگر میخواهید اطلاعات بیشتری در مورد تحقیقات اعتماد دولت Forrester یا چارچوبهای قابل اعتماد هوش مصنوعی کسب کنید، لطفاً یک جلسه راهنمایی با ما برنامهریزی کنید.