تصویر سیاست خارجی: تصویری دستی که یک پرچم قرمز را با پنج ستاره به شکل هوش مصنوعی بر روی آن در دست دارد که یادآور پرچم چین
 است.
تصویر سیاست خارجی: تصویری دستی که یک پرچم قرمز را با پنج ستاره به شکل هوش مصنوعی بر روی آن در دست دارد که یادآور پرچم چین است.

حقیقت نگران‌کننده درباره نحوه عملکرد عوامل هوش مصنوعی در بحران

مطالعه جدید نشان می‌دهد که مدل‌های بنیادی مستعد تشدید تنش هستند.

بخشی از نگرانی در مورد DeepSeek، مدل زبانی بزرگ جدید چینی (LLM)، این است که نشان می‌دهد حزب کمونیست چین به عوامل هوش مصنوعی پیشرفته برای حمایت از استراتژی کلان دسترسی خواهد داشت. قضاوت انسانی زمانی به طور انحصاری سیاست خارجی را هدایت می‌کرد. اکنون هوش مصنوعی در حال تغییر شکل دادن به آن است. عوامل هوش مصنوعی به طور فزاینده‌ای در همه جا حاضر هستند. این سیستم‌ها قبلاً در سراسر شرکت امنیت ملی ایالات متحده گسترش یافته‌اند، با سیستم‌هایی مانند ChatGPT Gov برای استفاده گسترده در سراسر سازمان‌های دولتی پس از تلاش‌های قبلی مانند CamoGPT و NIPRGPT در وزارت دفاع و StateChat در وزارت امور خارجه.

با این حال، تیم من در آزمایشگاه آینده در مرکز مطالعات استراتژیک و بین‌المللی (CSIS) که در کنار مهندسان نرم‌افزار از Scale، یک ارائه‌دهنده داده هوش مصنوعی، کار می‌کند، محدودیت‌های کلیدی در توانایی LLMها برای تجزیه و تحلیل سؤالات اساسی در مورد رقابت قدرت‌های بزرگ و مدیریت بحران که بر استراتژی و کشورداری در قرن بیست و یکم سایه انداخته است، یافت. پس از آزمایش مدل‌های بنیادی هوش مصنوعی رایج در برابر 400 سناریو و بیش از 66000 جفت سؤال و پاسخ در یک مطالعه معیار جدید، محققان اکنون می‌توانند سوگیری الگوریتمی را همانطور که مربوط به تصمیمات حیاتی سیاست خارجی در مورد تشدید تنش است، مستند کنند. به نظر می‌رسد برخی از مدل‌ها به طرز عجیبی تندرو هستند. این گرایش می‌تواند سودمندی آن‌ها را در یک بحران پرمخاطره با متمایل کردن خروجی‌هایی که تصمیم‌گیرندگان انسانی برای اصلاح نحوه برخورد خود با چانه‌زنی بحران و لبه‌بازی استفاده می‌کنند، تضعیف کند - به عبارت دیگر، یک عامل هوش مصنوعی تهاجمی Curtis LeMay به جای یک عامل هوش مصنوعی محتاط‌تر Dean Rusk" در یک نوع آینده از بحران موشکی کوبا در سال 1962. در نتیجه، مدل‌های بنیادی موجود نیاز به تنظیم دقیق‌تری دارند زیرا در بالاترین سطوح تصمیم‌گیری ادغام می‌شوند.

این بدان معنا نیست که امنیت ملی باید به روی هوش مصنوعی بسته شود. بلکه، تیم‌های تحقیقاتی باید از تجزیه و تحلیل استراتژیک از طریق کمک به شرکت‌ها برای تنظیم دقیق مدل‌های خود و همچنین آموزش رهبران آینده در نحوه کار با کلاس‌های جدیدی از عوامل هوش مصنوعی که حجم عظیمی از اطلاعات را سنتز می‌کنند، حمایت کنند.


در طول شش ماه گذشته، یک تیم تحقیقاتی به رهبری آزمایشگاه آینده با شبکه‌ای از دانشمندان و شرکت‌های پیشرو هوش مصنوعی برای توسعه یک معیار مطالعه در مورد تصمیم‌گیری‌های حیاتی سیاست خارجی همکاری کردند. این تلاش شامل استفاده از محققان روابط بین‌الملل برای ساخت سناریوها و سؤالات و پاسخ‌های مرتبط با مطالعات بنیادی بود. به عنوان مثال، برای مطالعه تشدید تنش، این تیم مفاهیم و مجموعه‌های داده را از برنامه‌های تحقیقاتی همبستگی‌های جنگ و اختلافات بین‌المللی نظامی‌شده، که بیش از 60 سال است که یک استاندارد طلایی در علوم سیاسی بوده‌اند، ادغام کرد. این تحقیق به این تیم اجازه داد تا یک آزمون سناریو، یک تکنیک رایج در مطالعات معیار هوش مصنوعی که برای کشف سوگیری و حمایت از تنظیم دقیق مدل استفاده می‌شود، بسازد.

نتایج تأیید می‌کند که نیاز به آموزش بهتر عوامل هوش مصنوعی وجود دارد زیرا آن‌ها در شرکت امنیت ملی ادغام می‌شوند. یک سوگیری به ویژه نگران‌کننده که این تیم کشف کرد، تمایل به تشدید تنش بود. به عبارت دیگر، برخی از مدل‌های بنیادی هوش مصنوعی که معمولاً توسط شهروندان استفاده می‌شوند و در هسته برنامه‌های کاربردی دولتی قرار دارند، ترجیح بیشتری برای تشدید یک بحران نسبت به پیگیری مانورهای دیپلماتیک محتاطانه‌تر دارند.

همانطور که استفاده از عوامل هوش مصنوعی در امنیت ملی گسترش می‌یابد، این سوگیری برطرف نشده انواع جدیدی از خطر را در بحران‌های مربوط به رقبای نزدیک به هم ایجاد می‌کند - به یک بن‌بست بر سر تایوان بین ایالات متحده و چین فکر کنید. یک عامل هوش مصنوعی که تمایل دارد اقدامات رویارویی را تأیید کند، می‌تواند به طور غیرمستقیم تنش‌ها را از نظر نحوه خلاصه کردن گزارش‌های اطلاعاتی و وزن دادن به اقدامات افزایش دهد. به جای توصیه یک ترکیب دقیق از بازدارندگی و گفتگو، یک عامل هوش مصنوعی با سوگیری تشدید تنش ممکن است از نمایش تهاجمی نیرو یا حتی افشای فناوری نظامی جدید حمایت کند. پکن می‌تواند این اقدامات را خصمانه تفسیر کند و یک مارپیچ تشدید تنش خطرناک ایجاد کند. در کوتاه مدت، یک سوء تفاهم ناشی از یک عامل هوش مصنوعی می‌تواند به درگیری مارپیچ یا، همانطور که در مطالعات دیگر دیده می‌شود، پویایی مسابقه تسلیحاتی را افزایش دهد.

مطالعه ما همچنین نشان داد که این سوگیری بر اساس ایالت در مدل‌های بنیادی رایج مانند ChatGPT، Gemini و Llama متفاوت است. مدل‌های هوش مصنوعی اغلب مواضع تهاجمی‌تری را هنگام شبیه‌سازی تصمیم‌گیرندگان ایالات متحده، بریتانیا یا فرانسه نسبت به زمان شبیه‌سازی تصمیم‌گیرندگان روسی یا چینی ترجیح می‌دادند. داده‌های آموزشی، که معمولاً بر مداخلات تحت رهبری غرب تأکید می‌کنند، احتمالاً نقش دارند. این بدان معناست که دولت‌هایی که به شدت به این ابزارها تکیه می‌کنند، می‌توانند ناخواسته بدون مطالعات معیار اضافی و تنظیم دقیق مدل، به مواضع پرخطر تکیه کنند. فرآیند چانه‌زنی و فرضیات مربوط به عقلانیت در هسته بازدارندگی مدرن می‌تواند از بین برود.

دوباره مثال تایوان را در نظر بگیرید. یک عامل هوش مصنوعی - بر اساس، به عنوان مثال، DeepSeek - اطلاعات را خلاصه می‌کند، در حالی که دیگری گزینه‌های پاسخ به بحران را تجزیه و تحلیل می‌کند. هر یک، به دلیل سوگیری خاص کشور، مستعد این هستند که هر اقدام ایالات متحده را خصمانه‌تر ببینند و خطر اشتباه محاسباتی را تشدید کنند. هر گشت دریایی که توسط ایالات متحده و شرکای آن به عنوان نمایش قدرت برای تثبیت بحران اعزام می‌شود، به عنوان خصمانه تفسیر می‌شود در حالی که اطلاعات کانال‌های دیپلماتیک در تولید گزارش‌ها اهمیت کمتری دارند. در عین حال، یک عامل هوش مصنوعی دیگر که به رهبران حزب کمونیست چین مشاوره می‌دهد، تمام اقدامات چین را به احتمال زیاد صلح‌آمیز و بی‌ضرر توصیف می‌کند. عوامل هوش مصنوعی، مانند مردم، مستعد سوگیری هستند که می‌تواند تصمیمات عینی را منحرف کند. در نتیجه، آن‌ها باید آموزش ببینند تا منابع رایج خطاها را کاهش دهند و با زمینه جدید سازگار شوند.

هوش مصنوعی در خلاء عمل نمی‌کند. این شکل می‌دهد که چگونه رهبران تهدیدها را درک می‌کنند، گزینه‌ها را سنجیده و نیت‌ها را منتقل می‌کنند. سوگیری‌ها - چه به سمت تشدید، همکاری یا یک دیدگاه ژئوپلیتیکی خاص - خروجی‌های آن را رنگی می‌کنند. و از آنجایی که هوش مصنوعی می‌تواند داده‌های بسیار بیشتری را نسبت به هر سیاستگذار انسانی تجزیه و تحلیل کند، این خطر واقعی وجود دارد که توصیه‌های ناقص تأثیر بیش از حدی بر تصمیم‌گیری بگذارند.

همانطور که رقابت قدرت‌های بزرگ تشدید می‌شود، این خطر فقط افزایش می‌یابد. سرعت و پیچیدگی بحران‌های مدرن ممکن است رهبران را وسوسه کند که بیشتر به ابزارهای هوش مصنوعی تکیه کنند. اگر آن ابزارها مغرضانه باشند، حاشیه خطا به شدت کاهش می‌یابد. همانطور که یک ارتش یک سیستم تسلیحاتی آزمایش نشده را در یک محیط پرتنش مستقر نمی‌کند، سیاستگذاران نباید به هوش مصنوعی که به دقت اعتبارسنجی یا تنظیم نشده است، تکیه کنند.


ایالات متحده به انبوهی از عوامل هوش مصنوعی برای پشتیبانی از گردش کار در سراسر شرکت امنیت ملی نیاز خواهد داشت. آینده در نادیده گرفتن فناوری نهفته نیست. از پالایش آن و ادغام آن در استراتژی و کشورداری پدیدار می‌شود. در نتیجه، توسعه‌دهندگان هوش مصنوعی و سیاستگذاران باید چارچوبی برای آزمایش و ارزیابی مداوم ایجاد کنند.

به همین دلیل است که CSIS به طور عمومی معیار سیاست خارجی حیاتی خود را منتشر کرد و به اصلاح آن ادامه خواهد داد به این امید که عصر جدیدی از استراتژی الگوریتمی و کشورداری را آغاز کند. این مطالعه آغاز یک برنامه تحقیقاتی بزرگتر است که برای حمایت از تنظیم دقیق و یادگیری مورد نیاز است. مدل‌ها می‌توانند به طور بازگشتی یاد بگیرند، با داده‌های جدید سازگار شوند و فرضیات منسوخ شده را کنار بگذارند و نیازی به بررسی و ارزیابی مداوم ایجاد کنند.

همانطور که دانشکده‌های سیاست در سراسر جهان برای ایجاد مدارک تحصیلات تکمیلی در روابط بین‌الملل و گروه‌هایی از کارمندان دولتی و متخصصان نظامی نهادهایی را برای مطالعه استراتژی ایجاد کردند، یک مرکز تعالی جدید برای پالایش عوامل هوش مصنوعی نیز مورد نیاز خواهد بود. این مرکز در صورتی بهترین است که دانشگاهیان، اندیشکده‌ها، صنعت و سازمان‌های دولتی را برای ساخت فناوری جدید و ارزیابی آن در زمینه‌هایی که منعکس‌کننده رقابت قدرت‌های بزرگ است، ترکیب کند. تیم‌های مشترک می‌توانند داده‌های آموزشی را اصلاح کنند، عوامل هوش مصنوعی را تحت فشار قرار دهند و دستورالعمل‌های آموزشی را برای رهبران امنیت ملی ایجاد کنند که ساخت سیاست خارجی را به طور فزاینده‌ای توسط الگوریتم‌ها میانجی‌گری شده می‌یابند. این همکاری نحوه ساخت هوش مصنوعی توسط ایالات متحده است که تفاوت‌های ظریف کشورداری را درک می‌کند، نه اینکه بحران‌ها را به معادلات حاصل جمع صفر ساده کند.

در نهایت، همه عوامل هوش مصنوعی و LLMها همان چیزی هستند که ما از آن‌ها می‌سازیم. اگر به درستی آموزش داده شوند و در شرکت امنیت ملی در کنار نیروی کاری که می‌داند چگونه با مدل‌ها تعامل داشته باشد، ادغام شوند، عوامل هوش مصنوعی می‌توانند استراتژی و کشورداری را متحول کنند. اگر آزمایش نشوند، خطاهای عجیبی در قضاوت ایجاد می‌کنند که این پتانسیل را دارد که جهان را به لبه پرتگاه نزدیک‌تر کند.