سیاست جدید هوش مصنوعی فدرال ایالات متحده خواستار پذیرش هوش مصنوعی مسئولانه و قابل توضیح توسط رهبران فناوری دولتی و خصوصی است

امروزه، در زیر گزارش‌های پر سر و صدای بی‌ثباتی ژئوپلیتیکی و ژئواکونومیکی، یک تحول مهم و اساسی به آرامی در بخش دولتی در حال آشکار شدن است. تغییری که با تغییر در سیاست هوش مصنوعی فدرال ایالات متحده با نشان فرمان اجرایی 14179 و یادداشت‌های OMB بعدی (M-25-21 و M-25-22) تأکید شده است. این سیاست به طور قاطع از نوآوری هوش مصنوعی داخلی و دولتی به تکیه قابل توجه بر هوش مصنوعی توسعه یافته تجاری تغییر می‌کند و پدیده ظریف اما حیاتی "خصوصی‌سازی الگوریتمی" دولت را تسریع می‌کند.

از لحاظ تاریخی، خصوصی‌سازی به معنای انتقال وظایف و پرسنل از بخش دولتی به بخش خصوصی بود. اکنون، با واگذاری فزاینده خدمات و عملکردهای دولتی به عوامل غیرانسانی - الگوریتم‌های تجاری نگهداری و اداره شده، مدل‌های زبان بزرگ و به زودی عوامل هوش مصنوعی و سیستم‌های Agentic، رهبران دولتی باید خود را وفق دهند. بهترین روش‌هایی که از ده‌ها سال تحقیق در مورد اداره خصوصی‌سازی ناشی می‌شوند - جایی که خدمات عمومی عمدتاً از طریق پیمانکاران بخش خصوصی ارائه می‌شوند - بر یک فرض اساسی استوار است: همه عوامل درگیر انسان هستند. امروزه این فرض دیگر صادق نیست. و جهت جدید دولت فدرال ایالات متحده انبوهی از سؤالات و پیامدها را باز می‌کند که در حال حاضر پاسخی برای آنها نداریم. به عنوان مثال:

  • یک عامل هوش مصنوعی ارائه شده تجاری در یک رابطه اصلی-نمایندگی برای چه کسی بهینه‌سازی می‌کند؟ آژانس پیمانکار یا تأمین‌کننده هوش مصنوعی تجاری؟ یا برای مدل در حال تحول خود بهینه‌سازی می‌کند؟
  • آیا می‌توانید شبکه‌ای از عوامل هوش مصنوعی از تأمین‌کنندگان مختلف هوش مصنوعی در یک منطقه خدماتی داشته باشید؟ چه کسی مسئول حاکمیت هوش مصنوعی است؟ تأمین‌کننده هوش مصنوعی یا آژانس دولتی پیمانکار؟
  • وقتی نیاز به تجدید مناقصه رابطه تأمین عامل هوش مصنوعی داریم چه اتفاقی می‌افتد؟ آیا یک عامل هوش مصنوعی می‌تواند زمینه و حافظه خود را به تأمین‌کننده ورودی جدید منتقل کند؟ یا خطر از دست دادن دانش را داریم یا انحصارهای جدیدی ایجاد می‌کنیم و استخراج اجاره باعث افزایش هزینه‌هایی می‌شود که از طریق کاهش نیروهای ناشی از هوش مصنوعی پس‌انداز کرده‌ایم؟

خطرات برای خدمات دولتی مبتنی بر هوش مصنوعی بالا است

رهبران فناوری - هم در داخل سازمان‌های دولتی و هم در تأمین‌کنندگان تجاری - باید این خطرات را درک کنند. پیشنهادات مبتنی بر هوش مصنوعی تجاری با استفاده از فناوری‌هایی که کمتر از دو سال قدمت دارند، نوید بهره‌وری و نوآوری را می‌دهند، اما همچنین خطرات قابل توجهی از پیامدهای ناخواسته از جمله سوء مدیریت را به همراه دارند.

به این مثال‌ها از راه‌حل‌های هوش مصنوعی پیش‌بینی‌کننده که در 5 سال گذشته اشتباه از آب درآمدند، توجه کنید:

  • سیستم بیکاری MiDAS میشیگان: یک سیستم مزایای بیکاری مبتنی بر هوش مصنوعی که به صورت تجاری عرضه شده بود، به اشتباه هزاران مدعی را به تقلب متهم کرد، که منجر به تلاش‌های پرهزینه غرامت شد که توسط مالیات‌دهندگان پرداخت شد.
  • سیستم "تشخیص تقلب" تامسون رویترز: این هوش مصنوعی که به صورت خصوصی مدیریت می‌شد، به اشتباه ادعاهای بیکاری قانونی را در کالیفرنیا علامت‌گذاری کرد، مزایای ضروری را به حالت تعلیق درآورد و باعث شکایت پرهزینه طبقاتی و آسیب به شهرت دولت و ارائه‌دهنده تامسون رویترز شد.
  • طرح Robodebt استرالیا: یک ابتکار دولتی با استفاده از هوش مصنوعی خودکار بازیابی بدهی، به اشتباه از دریافت‌کنندگان رفاه پول پس گرفت، که منجر به جمع‌آوری غیرقانونی بازپرداخت، رسوایی‌های سیاسی قابل توجه و هزینه‌های مالی و اعتباری هنگفت شد. کمیسیون سلطنتی حاصل و بزرگترین پرداخت غرامت توسط هر حوزه قضایی استرالیا اکنون در روان ملت و سیاستمداران و کارمندان دولتی حک شده است.

این حوادث نتایج قابل پیش‌بینی را زمانی که نظارت از استقرار فناوری عقب می‌ماند، برجسته می‌کند. پذیرش سریع هوش مصنوعی خطر خطا، سوء استفاده و بهره‌برداری را افزایش می‌دهد.

رهبران فناوری دولتی باید ریسک هوش مصنوعی شخص ثالث را از نزدیک مدیریت کنند

برای رهبران فناوری دولتی، الزام واضح است، این تملک‌ها را به عنوان آنچه هستند مدیریت کنید: ترتیبات برون‌سپاری شخص ثالث که باید ریسک آن مدیریت شود، به طور مرتب تجدید مناقصه و جایگزین شوند. همانطور که این انتظارات سیاستی جدید را برآورده می‌کنید، باید:

  • شفافیت و مسئولیت‌پذیری را در تدارکات هوش مصنوعی در اولویت قرار دهید.
  • بر دیده‌شدن فرآیندهای الگوریتمی اصرار کنید، راه‌حل‌های "جعبه سیاه" مبهم را با راه‌حل‌هایی که قابلیت توضیح دارند رد کنید.
  • تخصص داخلی قوی را برای نظارت و تنظیم مؤثر این الگوریتم‌های تجاری حفظ کنید.
  • الزام کنید که تمام داده‌های جمع‌آوری‌شده توسط هر راه‌حل هوش مصنوعی متعلق به دولت باقی بماند.
  • اطمینان حاصل کنید که مکانیزمی برای آموزش یا انتقال داده برای هر ارائه‌دهنده راه‌حل بعدی که برای جایگزینی یک راه‌حل هوش مصنوعی موجود قرارداد بسته است، وجود دارد.
  • یک رویکرد "همسو با طراحی" را اتخاذ کنید تا اطمینان حاصل کنید که سیستم‌های هوش مصنوعی شما به اهداف مورد نظر خود دست می‌یابند در حالی که به ارزش‌ها و سیاست‌های شما پایبند هستند.

رهبران فناوری بخش خصوصی باید هوش مصنوعی مسئولانه را بپذیرند

برای تأمین‌کنندگان، موفقیت مستلزم مسئولیت اخلاقی فراتر از توانایی فنی است - با پذیرش اینکه خصوصی‌سازی مبتنی بر هوش مصنوعی شما یک اعطای دائمی فئود یا عنوان بر ارائه خدمات عمومی نیست، بنابراین باید:

  • مسئولیت‌پذیری را بپذیرید، راه‌حل‌های هوش مصنوعی را با ارزش‌های عمومی و استانداردهای حکمرانی همسو کنید.
  • به طور فعال به نگرانی‌های مربوط به شفافیت با طرح‌های باز و قابل حسابرسی رسیدگی کنید.
  • از نزدیک با سازمان‌ها برای ایجاد اعتماد همکاری کنید و از نظارت معنادار اطمینان حاصل کنید.
  • به صنعت کمک کنید تا به سمت استانداردهای قابلیت همکاری حرکت کند تا رقابت و نوآوری حفظ شود.

تنها رهبری مسئولانه از هر دو طرف - نه فقط هوش مصنوعی مسئولانه - می‌تواند این خطرات را کاهش دهد و اطمینان حاصل کند که هوش مصنوعی واقعاً حکمرانی عمومی را تقویت می‌کند نه اینکه آن را تهی کند.

هزینه شکست در این مقطع زمانی توسط غول‌های فناوری مانند X.AI، Meta، Microsoft، AWS یا Google پرداخت نخواهد شد، بلکه ناگزیر توسط مالیات‌دهندگان فردی پرداخت خواهد شد: همان افرادی که دولت برای خدمت به آنها در نظر گرفته شده است.

من می‌خواهم از براندون پورسل و فرد ژیرون برای کمک به چالش‌کشیدن تفکر من و سخت‌تر کردن استدلال‌ها در این زمان و فضای دشوار برای پرداختن به این مسائل مهم حزبی تشکر کنم.