این داستان در اصل در خبرنامه هفتگی ما در مورد هوش مصنوعی، The Algorithm، منتشر شده است. برای دریافت داستان هایی مانند این در صندوق ورودی خود، اینجا ثبت نام کنید.
هیچ رهبر فناوری قبلاً نقشی را در یک دولت ریاست جمهوری جدید ایفا نکرده است که ایلان ماسک اکنون ایفا می کند. تحت رهبری او، DOGE وارد دفاتر در حدود نیم دوجین آژانس شده و شروع به ساخت مدل های هوش مصنوعی برای داده های دولتی کرده، به سیستم های مختلف پرداخت دسترسی پیدا کرده، دسترسی آن به خزانه داری توسط یک قاضی فدرال متوقف شده و باعث طرح دعوی هایی شده است که قانونی بودن فعالیت های این گروه را زیر سوال می برد.
هدف اعلام شده از اقدامات DOGE، طبق بیانیه سخنگوی کاخ سفید به نیویورک تایمز در روز پنجشنبه، "کاهش اتلاف، تقلب و سوء استفاده" است.
همانطور که در داستان من که روز جمعه منتشر شد، اشاره کردم، این سه اصطلاح در دنیای بودجه های فدرال معانی بسیار متفاوتی دارند، از اشتباهاتی که دولت هنگام خرج کردن پول مرتکب می شود تا هزینه های مبهمی که قانونی و تأیید شده هستند اما مورد پسند کسی در قدرت نیستند.
بسیاری از بلندترین و گسترده ترین اقدامات دولت جدید - مانند وعده ماسک برای پایان دادن به تمامیت فعالیت های متنوع USAID یا کاهش های شدید ترامپ در بودجه های علمی از موسسات ملی بهداشت - ممکن است گفته شود که دسته دوم را هدف قرار می دهند. اگر DOGE داده های دولتی را به مدل های زبانی بزرگ وارد کند، به راحتی می تواند هزینه های مرتبط با DEI یا سایر ابتکاراتی را که دولت آنها را اتلاف می داند، پیدا کند، زیرا برای 2 تریلیون دلار کاهش، تقریباً یک سوم بودجه فدرال، فشار می آورد.
اما این واقعیت که دستیاران DOGE گزارش شده است که در دفاتر Medicaid و حتی Medicare مشغول به کار هستند - جایی که کاهش بودجه برای دهه ها از نظر سیاسی غیرقابل دفاع بوده است - نشان می دهد که نیروی ضربت نیز تحت تأثیر شواهدی است که توسط دفتر پاسخگویی دولت منتشر شده است. گزارش های GAO همچنین سرنخی در مورد آنچه DOGE ممکن است امیدوار باشد هوش مصنوعی بتواند انجام دهد، ارائه می دهد.
این چیزی است که گزارش ها نشان می دهد: شش برنامه فدرال 85٪ از آنچه GAO پرداخت های نامناسب توسط دولت می نامد، یا حدود 200 میلیارد دلار در سال، را تشکیل می دهند و Medicare و Medicaid در صدر این فهرست قرار دارند. اینها بخش های کوچکی از هزینه های کلی را تشکیل می دهند اما تقریباً 14٪ از کسری بودجه فدرال را تشکیل می دهند. برآوردها از تقلب، که در آن دادگاه ها دریافتند که شخصی عمداً چیزی را برای منافع مالی نادرست جلوه داده است، سالانه بین 233 میلیارد دلار و 521 میلیارد دلار است.
بنابراین تقلب در کجا اتفاق می افتد، و آیا مدل های هوش مصنوعی می توانند آن را اصلاح کنند، همانطور که کارکنان DOGE امیدوارند؟ برای پاسخ به این سوال، با جتسون لدر-لوئیس، اقتصاددان دانشگاه بوستون که در مورد پرداخت های متقلبانه فدرال در مراقبت های بهداشتی و چگونگی کمک الگوریتم ها به جلوگیری از آنها تحقیق می کند، صحبت کردم.
او می گوید: «از نظر ارزش دلاری [اجرا]، بیشتر تقلب های مراقبت های بهداشتی توسط شرکت های دارویی انجام می شود.»
اغلب این شرکت ها داروهایی را برای مصارفی که تأیید نشده اند، تبلیغ می کنند که "تبلیغ خارج از برچسب" نامیده می شود، که وقتی Medicare یا Medicaid قبض را پرداخت می کنند، تقلب محسوب می شود. انواع دیگر تقلب شامل "کدگذاری بالا" است، جایی که ارائه دهنده قبض را برای خدمات گران تری نسبت به آنچه ارائه شده است، ارسال می کند، و تقلب در ضرورت پزشکی، جایی که بیماران خدماتی را دریافت می کنند که واجد شرایط آن نیستند یا نیازی به آن ندارند. همچنین مراقبت های نامناسب وجود دارد، جایی که شرکت ها پول می گیرند اما خدمات کافی ارائه نمی دهند.
روشی که دولت در حال حاضر با تقلب برخورد می کند، به عنوان "پرداخت و تعقیب" شناخته می شود. پرداخت های مشکوک رخ می دهد، و سپس مردم سعی می کنند آن را پس از واقعیت ردیابی کنند. روش موثرتر، همانطور که توسط لدر-لوئیس و دیگران حمایت می شود، این است که به دنبال الگوها باشید و از پرداخت های متقلبانه قبل از وقوع جلوگیری کنید.
اینجاست که هوش مصنوعی وارد می شود. ایده این است که از مدل های پیش بینی کننده برای یافتن ارائه دهندگانی استفاده شود که نشانه های پرداخت مشکوک را نشان می دهند. لدر-لوئیس می گوید: «شما می خواهید به دنبال ارائه دهندگانی باشید که درآمد بسیار بیشتری نسبت به بقیه دارند، یا ارائه دهندگانی که کد تخصصی را صورتحساب می کنند که هیچ کس دیگری صورتحساب نمی کند.» در یک مطالعه سال 2024 توسط لدر-لوئیس و همکارانش، مدل های یادگیری ماشین به هشت برابر بهبود نسبت به انتخاب تصادفی در شناسایی بیمارستان های مشکوک دست یافتند.
دولت در حال حاضر از برخی الگوریتم ها برای انجام این کار استفاده می کند، اما آنها به شدت مورد استفاده قرار نمی گیرند و موارد تقلب آشکار را از دست می دهند، لدر-لوئیس می گوید. تغییر به یک مدل پیشگیرانه مستلزم چیزی بیش از یک تغییر فن آوری است. تقلب در مراقبت های بهداشتی، مانند سایر تقلب ها، توسط اجرای قانون تحت الگوی "پرداخت و تعقیب" فعلی مورد بررسی قرار می گیرد. لدر-لوئیس می گوید: «بسیاری از انواع چیزهایی که من پیشنهاد می کنم، مستلزم این است که شما بیشتر شبیه یک دانشمند داده فکر کنید تا یک پلیس.»
یک نکته احتیاطی رویه ای است. ساخت مدل های هوش مصنوعی، آزمایش آنها و استقرار ایمن آنها در آژانس های مختلف دولتی یک شاهکار بزرگ است، که به دلیل ماهیت حساس داده های بهداشتی، پیچیده تر می شود.
منتقدان ماسک، مانند گروه فناوری و دموکراسی Tech Policy Press، استدلال می کنند که اشتیاق او برای هوش مصنوعی دولتی رویه های تثبیت شده را نادیده می گیرد و بر اساس ایده نادرستی است که "هدف بوروکراسی صرفاً آنچه تولید می کند (خدمات، اطلاعات، حکمرانی) است و می تواند از فرآیندی که دموکراسی از طریق آن به آن اهداف می رسد جدا شود: بحث، تبادل نظر و اجماع."
جنیفر پالکا، که به عنوان معاون ارشد فناوری ایالات متحده در دولت باراک اوباما خدمت می کرد، در یک مقاله اخیر در نیویورک تایمز استدلال کرد که رویه های ناکارآمد دولت ایالات متحده را از اتخاذ فناوری مفید باز داشته است. با این حال، او هشدار می دهد که کنار گذاشتن تقریباً تمام رویه ها یک اصلاح بیش از حد خواهد بود.
او نوشت: هدف دموکرات ها "باید یک دولت اداری قوی، چابک و موثر باشد که برای آمریکایی ها کار کند." "بی پروایی آقای ماسک ما را به آنجا نخواهد رساند، اما احتیاط بیش از حد و اعتیاد به رویه ای که دموکرات ها تحت رهبری رئیس جمهور جو بایدن از خود نشان دادند نیز ما را به آنجا نخواهد رساند."
نکته احتیاطی دیگر این است: مگر اینکه DOGE مشخص کند که در کجا و چگونه تلاش های خود را متمرکز می کند، بینش ما در مورد اهداف آن محدود است. ماسک تا چه حد فرصت های مبتنی بر شواهد را برای کاهش تقلب شناسایی می کند، در مقابل صرفاً کاهش آنچه او هزینه های "بیدار" می داند در تلاش برای کاهش چشمگیر اندازه دولت؟ مشخص نیست که DOGE تفاوتی قائل شود.