ستون توسط جفری ای. فاولر
سرویس DOGE ایالات متحده در حال پیگیری یک استراتژی "اول هوش مصنوعی" برای بازسازی دولت است.
من می فهمم چرا این ایده وسوسه انگیز است: یک تکنسین برجسته مانند ایلان ماسک را به واشنگتن بیاورید. هوش مصنوعی را آزاد کنید. بگذارید داده ها تعیین کنند چه چیزی بیهوده است.
مایک جانسون (جمهوری خواه از لوئیزیانا)، رئیس مجلس نمایندگان، ماه گذشته گفت: "او این الگوریتم ها را ایجاد کرده است که دائماً در حال خزیدن در داده ها هستند. و همانطور که او در دفترش به من گفت، داده ها دروغ نمی گویند."
اما وقتی با تکنسین هایی که مدت هاست از اتوماسیون دولتی حمایت می کنند صحبت می کنم، داستان دیگری می شنوم. دلیل کمی وجود دارد که باور کنیم هوش مصنوعی - با وجود پیشرفت های چشمگیرش - می تواند حتی کسری از آنچه DOGE ممکن است بخواهد ما باور کنیم را انجام دهد. داده ها به طور قطع می توانند دروغ بگویند.
شواهد اخیر زیادی نشان می دهد که تکیه صرف بر اتوماسیون برای تصمیم گیری های حیاتی می تواند منجر به اشتباهات بزرگ دولتی شود. فقط از شهر نیویورک بپرسید، جایی که سال گذشته یک چت بات هوش مصنوعی دولتی به مشاغل توصیه کرد قانون را نقض کنند. یا استرالیا، جایی که یک الگوریتم به شدت معیوب به نام Robodebt برعکس کارایی ایجاد کرد: دولت مجبور شد بیش از یک میلیارد دلار با شهروندان برای بازپس گیری نادرست مزایا تسویه کند.
لین اورمن، مدیر اجرایی مرکز Beeck دانشگاه جورج تاون، یک اتاق فکر برای متخصصان اتوماسیون دولتی، گفت: "اگر بتوانیم فقط یک ابزار را برداریم و تقلب را در دولت فدرال از بین ببریم، 1000 درصد از آن حمایت می کنم." فناوری می تواند ابزاری واقعاً قدرتمند برای مقابله با برخی از مشکلاتی باشد که آنها ادعا می کنند با آن مقابله می کنند. آنها فقط از آن به این شکل استفاده نمی کنند."
تقریباً همه موافق هستند که وضعیت موجود در سیستم های دولتی کار نمی کند. در اقتصاد همه چیز برنامه ما، انتظار برای اولین گذرنامه شش هفته است و وزارت امور خارجه ایالات متحده فقط چک و حواله می پذیرد. تمایل به استفاده از هوش مصنوعی و اتوماسیون برای رفع دولت از خطوط حزبی عبور می کند. در سال 2023، رئیس جمهور جو بایدن یک دستور اجرایی صادر کرد که از آژانس ها خواست راه های بیشتری برای استفاده از هوش مصنوعی پیدا کنند. قبل از اینکه DOGE حتی یک چیز باشد، دولت فدرال بیش از 1700 مورد استفاده گزارش کرده بود.
جنیفر پالکا، معاون سابق ارشد فناوری کاخ سفید که در سال 2014 به تأسیس سرویس دیجیتال ایالات متحده کمک کرد، سازمانی که اکنون به DOGE تبدیل شده است، گفت: "هوش مصنوعی با دولت فدرال کمک خواهد کرد. کار کم ارزش زیادی وجود دارد که می تواند خودکار شود."
اما او هشدار می دهد: "این بدان معنا نیست که ما در جای خوبی قرار داریم که این کار را خیلی سریع انجام دهیم."
آوردن هوش مصنوعی بیشتر به دولت مستلزم این است که در مورد آنچه می تواند انجام دهد، روشن باشیم. این امر مستلزم دسترسی به داده های با کیفیت بالا و محافظت از آن است. این امر مستلزم یک رویکرد متفکرانه برای آزمایش دقت و تعصب است. و مهمتر از همه، به گفته بسیاری از مدافعان آن، تخصص عمیق در مورد سیستم های دولتی و کار انسانی که جایگزین آن می شود، نیاز دارد.
DOGE با هوش مصنوعی چه می کند؟
کاخ سفید به سوالات من در مورد استفاده DOGE از هوش مصنوعی پاسخ نداد. اما برخی از آنچه که عمومی شده است، زیر ذره بین قرار نمی گیرد.
NBC News گزارش داد که DOGE قصد دارد ایمیل های کارگران فدرال در مورد آنچه انجام داده اند را به یک مدل زبان بزرگ هوش مصنوعی وارد کند - فناوری که زیربنای چت بات ها است. هدف آنها: استفاده از هوش مصنوعی برای تعیین اینکه کدام مشاغل "بحرانی ماموریت" هستند.
این روغن مار هوش مصنوعی است. فرد اسوالد، استاد روانشناسی صنعتی-سازمانی در دانشگاه رایس، که در مورد نحوه استفاده از هوش مصنوعی در محیط های مدیریت استعداد تحقیق می کند، گفت: "اعمال یک LLM برای خلاصه های کارمند از عملکرد هفته گذشته آنها به وضوح ناکافی است."
اسوالد، عضو کمیته مشورتی ملی هوش مصنوعی، که در اولین دولت ترامپ ایجاد شد و به دولت بایدن نیز مشاوره داد، گفت: "ارزیابی عملکرد مؤثر مستلزم درک گسترده ای از شغل کارمند و الزامات عملکرد آن، همراه با جمع آوری داده های گسترده تر برای مقایسه با این الزامات است."
DOGE همچنین ممکن است از هوش مصنوعی برای شناسایی اتلاف و تقلب استفاده کند. بنابراین بیایید یک مثال را بررسی کنیم: ماسک گفته است داده ها نشان می دهد ده ها میلیون نفر که بیش از 100 سال سن دارند، پرداخت های تامین اجتماعی دریافت می کنند. او در X آن را یک "مشکل بزرگ" خواند.
اما پس از اینکه او شروع به طرح این ادعا کرد، کمیسر موقت تامین اجتماعی، لی دودک، توضیح داد که این در واقع فقط یک سوء تفاهم از پایگاه داده است. وی گفت: "داده های گزارش شده افرادی در سوابق ما با شماره تامین اجتماعی هستند که تاریخ فوت مرتبط با سابقه خود ندارند. این افراد لزوماً مزایا دریافت نمی کنند."
این حادثه حداقل نشان می دهد که ماسک و خدمه اش پایگاه کد تامین اجتماعی را درک نمی کنند. این همچنین نشان می دهد که نمی توان لزوماً روی هوش مصنوعی حساب کرد تا پاسخ های صحیحی به سؤالات مربوط به تقلب و اتلاف بدهد، حتی زمانی که به داده ها دسترسی دارد.
اورمن از جورج تاون گفت: "من تصور می کنم این در واقع در نهایت باعث ایجاد ناکارآمدی بیشتر می شود، زیرا آنها به دنبال سوراخ های خرگوش می روند که در واقع آنها را به برنامه نویسی بهتر یا کشف تقلب نمی رساند."
دیدگاه بدبینانه: بیشتر صحبت های "اول هوش مصنوعی" از DOGE می تواند یک پوشش باشد - استفاده از زبان فنی که مردم کمتر احساس راحتی می کنند که آن را به عنوان بهانه ای برای از بین بردن دولت به چالش بکشند.
هفته گذشته، 21 کارمند دولتی از بخش فناوری کاخ سفید که به DOGE تبدیل شده بود استعفا دادند و در یک نامه مشترک گفتند که از استفاده از دانش فنی خود برای "برچیدن خدمات عمومی حیاتی" خودداری می کنند. ماسک در X گفت که این کارکنان "ماندگاران سیاسی دموکرات" بودند که "اگر استعفا نمی دادند، اخراج می شدند."
اواخر هفته گذشته، دولت ترامپ همچنین تیمی متشکل از 90 کارمند دولتی باهوش فناوری به نام 18F را اخراج کرد. این تیم قبلاً به آژانس های فدرال کمک می کرد تا خدمات دیجیتالی خود را بهبود بخشند. ماسک قبلاً آن را "دفتر رایانه ای گسترده دولتی چپ افراطی" خوانده بود.
چه چیزی کار می کند و چه چیزی کار نمی کند
کارشناسان می گویند، اتوماسیون دولتی زمانی بهترین کارایی را دارد که زمان افراد را از کارهای کم اهمیت آزاد کند تا انسان ها بتوانند تصمیمات مهم را بگیرند.
لازم نیست هوش مصنوعی باشد. یکی از ابتکارات اتوماسیون اخیر، به رهبری 18F، وب سایتی به نام DirectFile است که به بسیاری از آمریکایی ها اجازه می دهد مالیات خود را به راحتی و رایگان انجام دهند.
وقتی صحبت از هوش مصنوعی به میان می آید، آزمایش های زیادی حدود یک سال پیش با دستور اجرایی بایدن آغاز شد. اما اکنون برخی از افرادی که روی آنها کار می کردند، دولت را ترک کرده یا اخراج شده اند. حتی وب سایتی که اطلاعات مربوط به این پروژه های هوش مصنوعی را جمع آوری می کرد، از کار افتاده است.
الیزابت لیرد، که هوش مصنوعی را در دولت در مرکز غیرانتفاعی دموکراسی و فناوری ردیابی می کند، گفت: "بیشتر این پروژه ها امید و آرزو و پتانسیل هستند" - نه ثابت شده و آماده برای استفاده عمومی.
او گفت: بسیاری از تلاش های هوش مصنوعی دولت بر کاهش بارهای اداری مانند کاغذبازی و ورود داده ها متمرکز است.
تا کنون رایج ترین تلاش ها شامل چت بات ها می شود. آنها می توانند برای کمک به کارگران دولت برای درک قوانین و مقررات پیچیده و ساده سازی فرآیندهای خود استفاده شوند. ایالت پنسیلوانیا یک طرح آزمایشی را با OpenAI، سازنده ChatGPT، راه اندازی کرد و گفت که کارمندان دولت خود گزارش داده اند که به طور متوسط 105 دقیقه در روز در انجام وظایف با کمک ChatGPT صرفه جویی می کنند.
چت بات ها همچنین می توانند به روش های رو به روی عموم استفاده شوند. پارث شاه، مدیرعامل یک شرکت فناوری به نام Polimorphic، به من گفت که حدود 70 دولت بیشتر محلی را وادار کرده است تا چت بات هایی را در سایت های خود قرار دهند که به سوالات مربوط به خدمات پاسخ می دهند، مانند اینکه از کجا می توان در مورد جمع آوری زباله شکایت کرد. مزیت این است که 24 ساعته در روز، به چندین زبان، برای پاسخگویی بیشتر به سؤالات مربوط به چیزهایی که یافتن آنها در وب سایت ها دشوار است، در دسترس است. او گفت: "اگر شما یک مددکار اجتماعی هستید، امیدوارید که مددکاری انجام دهید و با این حال بیشتر مردم به پاسخگویی به تلفن ها کشیده می شوند."
اما چت بات های امروزی دارای برخی کاستی های قابل توجه هستند، به ویژه اینکه آنها گاهی اوقات "توهم می زنند" یا اطلاعات را جعل می کنند. ربات نیویورک به کارفرمایان گفت که می توانند نکات کارگران را بگیرند و موجران می توانند بر اساس منبع درآمد کسی تبعیض قائل شوند. مایکروسافت، که فناوری هوش مصنوعی ربات را ساخته است، گفت که با شهر برای بهبود آن همکاری می کند.
کارشناسان در مورد اینکه چه مقدار مشکل ایجاد می شود که ربات های دولتی برخی از حقایق را اشتباه می گیرند، توافق ندارند. آن لوئیس، که تا نوامبر گذشته دفتر خدمات تحول فناوری را در اداره خدمات عمومی اداره می کرد، گفت: "من مردد هستم." مانند موتورهای جستجو قبل از آنها، "مردم یاد می گیرند که به هر چیزی که هوش مصنوعی در جملات انسانی به شما می گوید اعتماد نکنند."
و اینها کاربردهای نسبتاً کم خطر هوش مصنوعی در دولت هستند.
لیرد گفت، نزدیکتر به ماموریت ذکر شده DOGE، تلاش هایی برای استفاده از هوش مصنوعی برای شناسایی تقلب صورت گرفته است. کارشناسان می گویند، هوش مصنوعی می تواند برای شناسایی الگوها یا ناهنجاری ها برای متخصصانی که سپس وارد عمل می شوند و بررسی می کنند، مفید باشد، اما هیچ نمونه قبلی از استفاده از آن با انواع خطراتی که در DOGE می بینیم وجود ندارد.
الگوریتم ها و هوش مصنوعی نیز برای تلاش برای تسریع در تعیین مزایا استفاده شده اند، در تئوری برای اینکه روند سریعتر و عادلانه تر شود. اما اشتباهات عواقبی وخیمی به همراه دارد. در میشیگان، سیستمی به نام MiDAS به دروغ شهروندان را به تقلب در بیکاری متهم کرد، به اشتباه پول آنها را توقیف کرد و باعث شد برخی اعلام ورشکستگی کنند. در سال 2022، این ایالت با بسیاری از قربانیان به مبلغ 20 میلیون دلار تسویه حساب کرد.
مشکلات زمانی ایجاد می شود که سیستم های خودکار تصمیم گیری انسانی را از حلقه خارج می کنند. با این حال، حذف انسان ها بخشی از چیزی است که هوش مصنوعی را بسیار جذاب می کند.
پالکا گفت: "من نگران این هستم که از جهاتی، یکی از اختلالات اساسی دولت این است که هیچ کس واقعاً نمی خواهد تصمیم بگیرد. بنابراین هوش مصنوعی راه مفیدی برای گفتن این است که "من تصمیم نگرفتم، هوش مصنوعی این کار را کرد."
او افزود: "من فکر نمی کنم این سالم باشد." "من فکر می کنم مردم باید تا حد زیادی تصمیم بگیرند."
رو خانا (نماینده دموکرات کالیفرنیا)، که نماینده سیلیکون ولی است و از استفاده بیشتر دولت از هوش مصنوعی حمایت کرده است، گفت: مشکل هوش مصنوعی نیست - بلکه استفاده از آن بدون محافظت است.
او به من گفت: "مشکل این است که اعتماد ایجاد نشده است و هیچ شفافیتی وجود ندارد. هیچ اصل روشنی وجود ندارد. و به همین دلیل است که مردم وحشت زده می شوند."