ریچارد میا
ریچارد میا

آیا آمریکا می‌تواند به هوش مصنوعی در امنیت ملی اعتماد کند؟

هیچ‌جا میزان اهمیت اطمینان از هم‌راستایی سیستم‌ها با اهداف سازندگانشان بالاتر از این نیست.

زمانی که استراتژیست هسته‌ای، هرمان کان، در سال ۱۹۶۲ کتاب «اندیشیدن به نااندیشیدنی» را منتشر کرد، آمریکایی‌ها را وادار کرد تا با احتمال جنگ هسته‌ای و فروپاشی تمدنی روبرو شوند. رهبران نظامی و سیاسی ابتدا کار او را به عنوان هشدارآمیز رد کردند. اما بینش اصلی کان حیاتی و ساده بود: امیدواری به اینکه اوضاع کاملاً از کنترل خارج نشود، یک برنامه نیست.

ما با نقطه عطف مشابهی در زمینه هوش مصنوعی روبرو هستیم. به سرعت در حال حرکت به سمت سیستم‌هایی هستیم که قابلیت‌هایشان تا یک سال پیش شبیه داستان‌های علمی-تخیلی به نظر می‌رسید. پنتاگون در حال مذاکره با آزمایشگاه‌های هوش مصنوعی برای قراردادهایی است که سقف هر یک تا ۲۰۰ میلیون دلار می‌رسد، با هدف ادغام هوش مصنوعی در امنیت ملی. اما ما در حال خرید قدرت خام هوش مصنوعی هستیم، بدون سرمایه‌گذاری مشابهی در راستای هدایت‌پذیری و امنیت این سیستم‌ها.

تحقیقات اخیر نشان داده است که مدل‌های هوش مصنوعی می‌توانند دارای عوامل خوابیده باشند که تحت شرایط خاص و بدون شناسایی فعال می‌شوند. همان دشمنانی که از طریق «تایفون نمکی» (Salt Typhoon) ارتباطات مخابراتی ایالات متحده را به خطر انداختند و زیرساخت‌های حیاتی را از طریق «تایفون ولت» (Volt Typhoon) هدف قرار دادند، می‌توانند آسیب‌پذیری‌ها را در سیستم‌های هوش مصنوعی نظامی بهره‌برداری کنند. ما می‌دانیم که اطلاعات چین به آزمایشگاه‌های هوش مصنوعی پیشرفته نفوذ کرده است: در سال ۲۰۲۴، یک مهندس سابق گوگل به اتهام سرقت اسرار تجاری هوش مصنوعی در حالی که مخفیانه برای پکن کار می‌کرد، متهم شد. (او بی‌گناهی خود را اعلام کرده و قرار است محاکمه‌اش ماه آینده آغاز شود.)

راه حل این مسئله، تحقیق در زمینه هم‌راستایی هوش مصنوعی است—اطمینان از اینکه اهداف و استدلال‌های سیستم‌ها در شرایط جدید، افق‌های زمانی بلندمدت و فشارهای خصمانه، پایدار، قابل پیش‌بینی و وفادار به مأموریت مورد نظرشان باقی می‌مانند. «مأموریت جنسیس» (Genesis Mission) که به تازگی توسط دولت در وزارت انرژی اعلام شده است، یک تلاش ملی هماهنگ برای تسریع کشف علمی با کمک هوش مصنوعی را آغاز می‌کند. این‌ها سرمایه‌گذاری‌های مناسبی در قابلیت‌های پیشرفته هستند، اما عدم سرمایه‌گذاری متناسب در هم‌راستایی می‌تواند به دشمنان اجازه دهد که قابلیت‌های هوش مصنوعی آمریکا را به خطر اندازند.

در حالی که تامین تجهیزات دفاعی آمریکا هم‌راستایی را یک موضوع فرعی می‌داند، چین به صورت سیستماتیک در حال حرکت است. در ژانویه، پکن یک صندوق سرمایه‌گذاری ملی صنعت هوش مصنوعی به ارزش ۸.۲ میلیارد دلار را راه‌اندازی کرد. از زمان «برنامه توسعه هوش مصنوعی نسل جدید» در سال ۲۰۱۷، سیاست چین بر ساخت هوش مصنوعی «ایمن، قابل اعتماد و قابل کنترل» تاکید داشته است. استراتژیست‌های نظامی چین بر اهمیت سیستم‌هایی که تحت فرمان عملیاتی باقی می‌مانند، اصرار دارند. پکن چیزی را درک می‌کند که بسیاری از سیاست‌گذاران آمریکایی از آن غافل هستند: تحقیقات هم‌راستایی، قابلیت‌های هوش مصنوعی را تسریع می‌کند. هر کس این مشکلات فنی را حل کند، سیستم‌های توانمندتری می‌سازد و در این رقابت پیروز می‌شود.

بسیاری از بحث‌های سیاست‌گذاری هوش مصنوعی به طور غریزی هم‌راستایی را به عنوان یک هزینه سربار انطباق که توسعه را کند می‌کند، تلقی می‌کنند. اما در طول تاریخ، چنین محدودیت‌هایی اغلب قابلیت‌ها را آزاد کرده‌اند. اف-۱۶ نه با وجود محدودیت‌های طراحی سخت‌گیرانه‌اش، بلکه به دلیل آن‌ها به موفق‌ترین جنگنده تاریخ تبدیل شد. همین اصل در مورد هوش مصنوعی نیز صدق می‌کند. ارائه چارچوب‌های ساختاریافته به مدل‌ها برای نحوه تفکرشان، بهبودهای چشمگیر در قابلیت‌ها ایجاد می‌کند و تکنیک‌هایی که برای هم‌راستاتر کردن هوش مصنوعی طراحی شده‌اند، توسط اکثر آزمایشگاه‌های بزرگ پذیرفته شده‌اند.

با این حال، اکثر مسیرهای امیدبخش هم‌راستایی هنوز کشف نشده‌اند. سیستم‌هایی که برنامه‌ریزان دفاعی برای عملیات‌های خودمختار طولانی‌مدت نیاز دارند، نیازمند ویژگی‌های هم‌راستایی هستند که ما به سختی شروع به توسعه آن‌ها کرده‌ایم: اهداف پایدار بلندمدت، استدلال‌های قابل تفسیر در زنجیره‌های تصمیم‌گیری پیچیده، پروتکل‌های خاموش‌سازی تایید شده که نمی‌توان آن‌ها را دور زد، و مقاومت اصولی در برابر دستکاری‌های خصمانه. قابلیت اطمینان در سطح نظامی، تعهد در سطح نظامی به تحقیقات هم‌راستایی را می‌طلبد.

برخلاف امنیت سایبری، که در آن ما در چرخه وصله کردن آسیب‌پذیری‌ها پس از بهره‌برداری توسط دشمنان گیر افتاده‌ایم، هم‌راستایی هوش مصنوعی فرصتی برای ساخت امنیت از پایه فراهم می‌کند. ما می‌توانیم پروتکل‌های خاموش‌سازی تایید شده، سیستم‌های استدلالی قابل تفسیر و مقاومت در برابر دستکاری‌های خصمانه را قبل از استقرار این سیستم‌ها ایجاد کنیم.

اما این فرصت برای همیشه باقی نخواهد ماند. رهبران آزمایشگاه‌های پیشرو انتظار دارند سیستم‌هایی در ۱۲ تا ۱۸ ماه آینده، که بتوانند با کارشناسان انسانی در تمام حوزه‌های شناختی برابری کنند. هنگامی که مدل‌ها بتوانند مدل‌های جانشین را به طور مستقل طراحی کنند، و هنگامی که سیستم‌های قدرتمند هوش مصنوعی در زیرساخت‌های حیاتی و عملیات‌های نظامی جاسازی شوند، ما با همان وضعیت واکنشی روبرو خواهیم شد که دهه‌هاست امنیت سایبری را آزار می‌دهد.

سه گام زیر آمریکا را در موقعیت پیروزی قرار می‌دهد:

اول، برنامه‌های گسترده‌ای را برای تحقیقات هم‌راستایی مغفول مانده راه‌اندازی کنید. آزمایشگاه‌های خصوصی برای عملکرد تجاری بهینه‌سازی می‌کنند، به این معنی که چالش‌های امنیتی حیاتی حل‌نشده باقی می‌مانند. این مشکلات فاقد اهمیت تجاری هستند، اما تعیین می‌کنند که آیا سیستم‌های هوش مصنوعی می‌توانند برای عملیات‌های امنیت ملی قابل اعتماد باشند یا خیر. دولت باید مستقیماً این تحقیقات را تامین مالی کند، همانطور که در طول تاریخ رمزنگاری، امنیت نیمه‌هادی‌ها و سایر فناوری‌های دو منظوره را که انگیزه‌های بازار با نیازهای دفاعی هم‌راستا نیستند، تامین مالی کرده است.

دوم، تحقیقات و توسعه هم‌راستایی در سطح نظامی را در قراردادهای اصلی هوش مصنوعی وزارت دفاع الزامی کنید. مدیر آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی (دارپا) قبلاً هدفی را برای دستیابی به هوش مصنوعی در سطح نظامی تعیین کرده است و پنتاگون در حال حاضر صدها میلیون دلار را صرف قابلیت‌های پیشرفته می‌کند. این قراردادها باید الزام کنند که منابع محاسباتی به سمت قابلیت تفسیر، پروتکل‌های خاموش‌سازی تایید شده، حذف عوامل خوابیده و پایداری اهداف بلندمدت هدایت شوند. این رویکرد تحقیقات بخش خصوصی را تحریک می‌کند و در عین حال تضمین می‌کند که سیستم‌هایی که ما مستقر می‌کنیم استانداردهای امنیتی در سطح دفاعی را برآورده می‌کنند.

سوم، مناطق ویژه برای تحقیقات هوش مصنوعی را در زمینه‌های فدرال با الزامات هم‌راستایی از ابتدا ایجاد کنید.

پنتاگون در حال حاضر بهترین تجهیزات، آموزش و دکترین استراتژیک را طلب می‌کند. باید همین را از سیستم‌های هوش مصنوعی نیز بخواهد: قابل هدایت پذیری قابل اعتماد به سمت اهداف استراتژیک آمریکا در افق‌های زمانی مهم.

آمریکا بمب اتمی را ساخت زمانی که فیزیک آن غیرممکن به نظر می‌رسید. ما به ماه رسیدیم زمانی که مهندسی آن خیال‌پردازانه می‌نمود. ما اینترنت را ایجاد کردیم زمانی که محاسبات شبکه‌ای غیرعملی به نظر می‌رسید.

آمریکایی‌ها همیشه در مواجهه با چالش‌های تمدنی، زمانی که آن‌ها را به وضوح دیده‌اند و با قاطعیت حرکت کرده‌اند، سربلند بیرون آمده‌اند. چالش اکنون ساخت سیستم‌های هوش مصنوعی است که بتوانیم به آینده با آن‌ها اعتماد کنیم. آن آینده نزدیک‌تر از آن است که بسیاری تصور می‌کنند و پنجره شکل‌دهی به آن باز است. اما برای همیشه باز نخواهد ماند.

آقای روزنبلات مدیرعامل و آقای برگ مدیر تحقیقات استودیوی ای‌ای (AE Studio) هستند.

تصویر کوچک ویدئو: تحلیلگر سث جونز درباره چگونگی مواجهه آمریکا با تهدیدات جهانی بحث می‌کند.
آمریکا در حال ساخت کشتی‌ها، موشک‌ها و پهپادهاست، حتی در حالی که جنگ در شرق اروپا ادامه دارد و تنش‌ها در آسیا رو به افزایش است. کیت اودل با تحلیلگر سث جونز درباره کتاب جدیدش «برتری آمریکایی» و چگونگی توانایی آمریکا برای مقابله با تهدیدات جهانی صحبت می‌کند.