امروزه، در زیر گزارشهای پر سر و صدای بیثباتی ژئوپلیتیکی و ژئواکونومیکی، یک تحول مهم و اساسی به آرامی در بخش دولتی در حال آشکار شدن است. تغییری که با تغییر در سیاست هوش مصنوعی فدرال ایالات متحده با نشان فرمان اجرایی 14179 و یادداشتهای OMB بعدی (M-25-21 و M-25-22) تأکید شده است. این سیاست به طور قاطع از نوآوری هوش مصنوعی داخلی و دولتی به تکیه قابل توجه بر هوش مصنوعی توسعه یافته تجاری تغییر میکند و پدیده ظریف اما حیاتی "خصوصیسازی الگوریتمی" دولت را تسریع میکند.
از لحاظ تاریخی، خصوصیسازی به معنای انتقال وظایف و پرسنل از بخش دولتی به بخش خصوصی بود. اکنون، با واگذاری فزاینده خدمات و عملکردهای دولتی به عوامل غیرانسانی - الگوریتمهای تجاری نگهداری و اداره شده، مدلهای زبان بزرگ و به زودی عوامل هوش مصنوعی و سیستمهای Agentic، رهبران دولتی باید خود را وفق دهند. بهترین روشهایی که از دهها سال تحقیق در مورد اداره خصوصیسازی ناشی میشوند - جایی که خدمات عمومی عمدتاً از طریق پیمانکاران بخش خصوصی ارائه میشوند - بر یک فرض اساسی استوار است: همه عوامل درگیر انسان هستند. امروزه این فرض دیگر صادق نیست. و جهت جدید دولت فدرال ایالات متحده انبوهی از سؤالات و پیامدها را باز میکند که در حال حاضر پاسخی برای آنها نداریم. به عنوان مثال:
- یک عامل هوش مصنوعی ارائه شده تجاری در یک رابطه اصلی-نمایندگی برای چه کسی بهینهسازی میکند؟ آژانس پیمانکار یا تأمینکننده هوش مصنوعی تجاری؟ یا برای مدل در حال تحول خود بهینهسازی میکند؟
- آیا میتوانید شبکهای از عوامل هوش مصنوعی از تأمینکنندگان مختلف هوش مصنوعی در یک منطقه خدماتی داشته باشید؟ چه کسی مسئول حاکمیت هوش مصنوعی است؟ تأمینکننده هوش مصنوعی یا آژانس دولتی پیمانکار؟
- وقتی نیاز به تجدید مناقصه رابطه تأمین عامل هوش مصنوعی داریم چه اتفاقی میافتد؟ آیا یک عامل هوش مصنوعی میتواند زمینه و حافظه خود را به تأمینکننده ورودی جدید منتقل کند؟ یا خطر از دست دادن دانش را داریم یا انحصارهای جدیدی ایجاد میکنیم و استخراج اجاره باعث افزایش هزینههایی میشود که از طریق کاهش نیروهای ناشی از هوش مصنوعی پسانداز کردهایم؟
خطرات برای خدمات دولتی مبتنی بر هوش مصنوعی بالا است
رهبران فناوری - هم در داخل سازمانهای دولتی و هم در تأمینکنندگان تجاری - باید این خطرات را درک کنند. پیشنهادات مبتنی بر هوش مصنوعی تجاری با استفاده از فناوریهایی که کمتر از دو سال قدمت دارند، نوید بهرهوری و نوآوری را میدهند، اما همچنین خطرات قابل توجهی از پیامدهای ناخواسته از جمله سوء مدیریت را به همراه دارند.
به این مثالها از راهحلهای هوش مصنوعی پیشبینیکننده که در 5 سال گذشته اشتباه از آب درآمدند، توجه کنید:
- سیستم بیکاری MiDAS میشیگان: یک سیستم مزایای بیکاری مبتنی بر هوش مصنوعی که به صورت تجاری عرضه شده بود، به اشتباه هزاران مدعی را به تقلب متهم کرد، که منجر به تلاشهای پرهزینه غرامت شد که توسط مالیاتدهندگان پرداخت شد.
- سیستم "تشخیص تقلب" تامسون رویترز: این هوش مصنوعی که به صورت خصوصی مدیریت میشد، به اشتباه ادعاهای بیکاری قانونی را در کالیفرنیا علامتگذاری کرد، مزایای ضروری را به حالت تعلیق درآورد و باعث شکایت پرهزینه طبقاتی و آسیب به شهرت دولت و ارائهدهنده تامسون رویترز شد.
- طرح Robodebt استرالیا: یک ابتکار دولتی با استفاده از هوش مصنوعی خودکار بازیابی بدهی، به اشتباه از دریافتکنندگان رفاه پول پس گرفت، که منجر به جمعآوری غیرقانونی بازپرداخت، رسواییهای سیاسی قابل توجه و هزینههای مالی و اعتباری هنگفت شد. کمیسیون سلطنتی حاصل و بزرگترین پرداخت غرامت توسط هر حوزه قضایی استرالیا اکنون در روان ملت و سیاستمداران و کارمندان دولتی حک شده است.
این حوادث نتایج قابل پیشبینی را زمانی که نظارت از استقرار فناوری عقب میماند، برجسته میکند. پذیرش سریع هوش مصنوعی خطر خطا، سوء استفاده و بهرهبرداری را افزایش میدهد.
رهبران فناوری دولتی باید ریسک هوش مصنوعی شخص ثالث را از نزدیک مدیریت کنند
برای رهبران فناوری دولتی، الزام واضح است، این تملکها را به عنوان آنچه هستند مدیریت کنید: ترتیبات برونسپاری شخص ثالث که باید ریسک آن مدیریت شود، به طور مرتب تجدید مناقصه و جایگزین شوند. همانطور که این انتظارات سیاستی جدید را برآورده میکنید، باید:
- شفافیت و مسئولیتپذیری را در تدارکات هوش مصنوعی در اولویت قرار دهید.
- بر دیدهشدن فرآیندهای الگوریتمی اصرار کنید، راهحلهای "جعبه سیاه" مبهم را با راهحلهایی که قابلیت توضیح دارند رد کنید.
- تخصص داخلی قوی را برای نظارت و تنظیم مؤثر این الگوریتمهای تجاری حفظ کنید.
- الزام کنید که تمام دادههای جمعآوریشده توسط هر راهحل هوش مصنوعی متعلق به دولت باقی بماند.
- اطمینان حاصل کنید که مکانیزمی برای آموزش یا انتقال داده برای هر ارائهدهنده راهحل بعدی که برای جایگزینی یک راهحل هوش مصنوعی موجود قرارداد بسته است، وجود دارد.
- یک رویکرد "همسو با طراحی" را اتخاذ کنید تا اطمینان حاصل کنید که سیستمهای هوش مصنوعی شما به اهداف مورد نظر خود دست مییابند در حالی که به ارزشها و سیاستهای شما پایبند هستند.
رهبران فناوری بخش خصوصی باید هوش مصنوعی مسئولانه را بپذیرند
برای تأمینکنندگان، موفقیت مستلزم مسئولیت اخلاقی فراتر از توانایی فنی است - با پذیرش اینکه خصوصیسازی مبتنی بر هوش مصنوعی شما یک اعطای دائمی فئود یا عنوان بر ارائه خدمات عمومی نیست، بنابراین باید:
- مسئولیتپذیری را بپذیرید، راهحلهای هوش مصنوعی را با ارزشهای عمومی و استانداردهای حکمرانی همسو کنید.
- به طور فعال به نگرانیهای مربوط به شفافیت با طرحهای باز و قابل حسابرسی رسیدگی کنید.
- از نزدیک با سازمانها برای ایجاد اعتماد همکاری کنید و از نظارت معنادار اطمینان حاصل کنید.
- به صنعت کمک کنید تا به سمت استانداردهای قابلیت همکاری حرکت کند تا رقابت و نوآوری حفظ شود.
تنها رهبری مسئولانه از هر دو طرف - نه فقط هوش مصنوعی مسئولانه - میتواند این خطرات را کاهش دهد و اطمینان حاصل کند که هوش مصنوعی واقعاً حکمرانی عمومی را تقویت میکند نه اینکه آن را تهی کند.
هزینه شکست در این مقطع زمانی توسط غولهای فناوری مانند X.AI، Meta، Microsoft، AWS یا Google پرداخت نخواهد شد، بلکه ناگزیر توسط مالیاتدهندگان فردی پرداخت خواهد شد: همان افرادی که دولت برای خدمت به آنها در نظر گرفته شده است.
من میخواهم از براندون پورسل و فرد ژیرون برای کمک به چالشکشیدن تفکر من و سختتر کردن استدلالها در این زمان و فضای دشوار برای پرداختن به این مسائل مهم حزبی تشکر کنم.