زمانی که استراتژیست هستهای، هرمان کان، در سال ۱۹۶۲ کتاب «اندیشیدن به نااندیشیدنی» را منتشر کرد، آمریکاییها را وادار کرد تا با احتمال جنگ هستهای و فروپاشی تمدنی روبرو شوند. رهبران نظامی و سیاسی ابتدا کار او را به عنوان هشدارآمیز رد کردند. اما بینش اصلی کان حیاتی و ساده بود: امیدواری به اینکه اوضاع کاملاً از کنترل خارج نشود، یک برنامه نیست.
ما با نقطه عطف مشابهی در زمینه هوش مصنوعی روبرو هستیم. به سرعت در حال حرکت به سمت سیستمهایی هستیم که قابلیتهایشان تا یک سال پیش شبیه داستانهای علمی-تخیلی به نظر میرسید. پنتاگون در حال مذاکره با آزمایشگاههای هوش مصنوعی برای قراردادهایی است که سقف هر یک تا ۲۰۰ میلیون دلار میرسد، با هدف ادغام هوش مصنوعی در امنیت ملی. اما ما در حال خرید قدرت خام هوش مصنوعی هستیم، بدون سرمایهگذاری مشابهی در راستای هدایتپذیری و امنیت این سیستمها.
تحقیقات اخیر نشان داده است که مدلهای هوش مصنوعی میتوانند دارای عوامل خوابیده باشند که تحت شرایط خاص و بدون شناسایی فعال میشوند. همان دشمنانی که از طریق «تایفون نمکی» (Salt Typhoon) ارتباطات مخابراتی ایالات متحده را به خطر انداختند و زیرساختهای حیاتی را از طریق «تایفون ولت» (Volt Typhoon) هدف قرار دادند، میتوانند آسیبپذیریها را در سیستمهای هوش مصنوعی نظامی بهرهبرداری کنند. ما میدانیم که اطلاعات چین به آزمایشگاههای هوش مصنوعی پیشرفته نفوذ کرده است: در سال ۲۰۲۴، یک مهندس سابق گوگل به اتهام سرقت اسرار تجاری هوش مصنوعی در حالی که مخفیانه برای پکن کار میکرد، متهم شد. (او بیگناهی خود را اعلام کرده و قرار است محاکمهاش ماه آینده آغاز شود.)
راه حل این مسئله، تحقیق در زمینه همراستایی هوش مصنوعی است—اطمینان از اینکه اهداف و استدلالهای سیستمها در شرایط جدید، افقهای زمانی بلندمدت و فشارهای خصمانه، پایدار، قابل پیشبینی و وفادار به مأموریت مورد نظرشان باقی میمانند. «مأموریت جنسیس» (Genesis Mission) که به تازگی توسط دولت در وزارت انرژی اعلام شده است، یک تلاش ملی هماهنگ برای تسریع کشف علمی با کمک هوش مصنوعی را آغاز میکند. اینها سرمایهگذاریهای مناسبی در قابلیتهای پیشرفته هستند، اما عدم سرمایهگذاری متناسب در همراستایی میتواند به دشمنان اجازه دهد که قابلیتهای هوش مصنوعی آمریکا را به خطر اندازند.
در حالی که تامین تجهیزات دفاعی آمریکا همراستایی را یک موضوع فرعی میداند، چین به صورت سیستماتیک در حال حرکت است. در ژانویه، پکن یک صندوق سرمایهگذاری ملی صنعت هوش مصنوعی به ارزش ۸.۲ میلیارد دلار را راهاندازی کرد. از زمان «برنامه توسعه هوش مصنوعی نسل جدید» در سال ۲۰۱۷، سیاست چین بر ساخت هوش مصنوعی «ایمن، قابل اعتماد و قابل کنترل» تاکید داشته است. استراتژیستهای نظامی چین بر اهمیت سیستمهایی که تحت فرمان عملیاتی باقی میمانند، اصرار دارند. پکن چیزی را درک میکند که بسیاری از سیاستگذاران آمریکایی از آن غافل هستند: تحقیقات همراستایی، قابلیتهای هوش مصنوعی را تسریع میکند. هر کس این مشکلات فنی را حل کند، سیستمهای توانمندتری میسازد و در این رقابت پیروز میشود.
بسیاری از بحثهای سیاستگذاری هوش مصنوعی به طور غریزی همراستایی را به عنوان یک هزینه سربار انطباق که توسعه را کند میکند، تلقی میکنند. اما در طول تاریخ، چنین محدودیتهایی اغلب قابلیتها را آزاد کردهاند. اف-۱۶ نه با وجود محدودیتهای طراحی سختگیرانهاش، بلکه به دلیل آنها به موفقترین جنگنده تاریخ تبدیل شد. همین اصل در مورد هوش مصنوعی نیز صدق میکند. ارائه چارچوبهای ساختاریافته به مدلها برای نحوه تفکرشان، بهبودهای چشمگیر در قابلیتها ایجاد میکند و تکنیکهایی که برای همراستاتر کردن هوش مصنوعی طراحی شدهاند، توسط اکثر آزمایشگاههای بزرگ پذیرفته شدهاند.
با این حال، اکثر مسیرهای امیدبخش همراستایی هنوز کشف نشدهاند. سیستمهایی که برنامهریزان دفاعی برای عملیاتهای خودمختار طولانیمدت نیاز دارند، نیازمند ویژگیهای همراستایی هستند که ما به سختی شروع به توسعه آنها کردهایم: اهداف پایدار بلندمدت، استدلالهای قابل تفسیر در زنجیرههای تصمیمگیری پیچیده، پروتکلهای خاموشسازی تایید شده که نمیتوان آنها را دور زد، و مقاومت اصولی در برابر دستکاریهای خصمانه. قابلیت اطمینان در سطح نظامی، تعهد در سطح نظامی به تحقیقات همراستایی را میطلبد.
برخلاف امنیت سایبری، که در آن ما در چرخه وصله کردن آسیبپذیریها پس از بهرهبرداری توسط دشمنان گیر افتادهایم، همراستایی هوش مصنوعی فرصتی برای ساخت امنیت از پایه فراهم میکند. ما میتوانیم پروتکلهای خاموشسازی تایید شده، سیستمهای استدلالی قابل تفسیر و مقاومت در برابر دستکاریهای خصمانه را قبل از استقرار این سیستمها ایجاد کنیم.
اما این فرصت برای همیشه باقی نخواهد ماند. رهبران آزمایشگاههای پیشرو انتظار دارند سیستمهایی در ۱۲ تا ۱۸ ماه آینده، که بتوانند با کارشناسان انسانی در تمام حوزههای شناختی برابری کنند. هنگامی که مدلها بتوانند مدلهای جانشین را به طور مستقل طراحی کنند، و هنگامی که سیستمهای قدرتمند هوش مصنوعی در زیرساختهای حیاتی و عملیاتهای نظامی جاسازی شوند، ما با همان وضعیت واکنشی روبرو خواهیم شد که دهههاست امنیت سایبری را آزار میدهد.
سه گام زیر آمریکا را در موقعیت پیروزی قرار میدهد:
اول، برنامههای گستردهای را برای تحقیقات همراستایی مغفول مانده راهاندازی کنید. آزمایشگاههای خصوصی برای عملکرد تجاری بهینهسازی میکنند، به این معنی که چالشهای امنیتی حیاتی حلنشده باقی میمانند. این مشکلات فاقد اهمیت تجاری هستند، اما تعیین میکنند که آیا سیستمهای هوش مصنوعی میتوانند برای عملیاتهای امنیت ملی قابل اعتماد باشند یا خیر. دولت باید مستقیماً این تحقیقات را تامین مالی کند، همانطور که در طول تاریخ رمزنگاری، امنیت نیمههادیها و سایر فناوریهای دو منظوره را که انگیزههای بازار با نیازهای دفاعی همراستا نیستند، تامین مالی کرده است.
دوم، تحقیقات و توسعه همراستایی در سطح نظامی را در قراردادهای اصلی هوش مصنوعی وزارت دفاع الزامی کنید. مدیر آژانس پروژههای تحقیقاتی پیشرفته دفاعی (دارپا) قبلاً هدفی را برای دستیابی به هوش مصنوعی در سطح نظامی تعیین کرده است و پنتاگون در حال حاضر صدها میلیون دلار را صرف قابلیتهای پیشرفته میکند. این قراردادها باید الزام کنند که منابع محاسباتی به سمت قابلیت تفسیر، پروتکلهای خاموشسازی تایید شده، حذف عوامل خوابیده و پایداری اهداف بلندمدت هدایت شوند. این رویکرد تحقیقات بخش خصوصی را تحریک میکند و در عین حال تضمین میکند که سیستمهایی که ما مستقر میکنیم استانداردهای امنیتی در سطح دفاعی را برآورده میکنند.
سوم، مناطق ویژه برای تحقیقات هوش مصنوعی را در زمینههای فدرال با الزامات همراستایی از ابتدا ایجاد کنید.
پنتاگون در حال حاضر بهترین تجهیزات، آموزش و دکترین استراتژیک را طلب میکند. باید همین را از سیستمهای هوش مصنوعی نیز بخواهد: قابل هدایت پذیری قابل اعتماد به سمت اهداف استراتژیک آمریکا در افقهای زمانی مهم.
آمریکا بمب اتمی را ساخت زمانی که فیزیک آن غیرممکن به نظر میرسید. ما به ماه رسیدیم زمانی که مهندسی آن خیالپردازانه مینمود. ما اینترنت را ایجاد کردیم زمانی که محاسبات شبکهای غیرعملی به نظر میرسید.
آمریکاییها همیشه در مواجهه با چالشهای تمدنی، زمانی که آنها را به وضوح دیدهاند و با قاطعیت حرکت کردهاند، سربلند بیرون آمدهاند. چالش اکنون ساخت سیستمهای هوش مصنوعی است که بتوانیم به آینده با آنها اعتماد کنیم. آن آینده نزدیکتر از آن است که بسیاری تصور میکنند و پنجره شکلدهی به آن باز است. اما برای همیشه باز نخواهد ماند.
آقای روزنبلات مدیرعامل و آقای برگ مدیر تحقیقات استودیوی ایای (AE Studio) هستند.