بخشی از نگرانی در مورد DeepSeek، مدل زبانی بزرگ جدید چینی (LLM)، این است که نشان میدهد حزب کمونیست چین به عوامل هوش مصنوعی پیشرفته برای حمایت از استراتژی کلان دسترسی خواهد داشت. قضاوت انسانی زمانی به طور انحصاری سیاست خارجی را هدایت میکرد. اکنون هوش مصنوعی در حال تغییر شکل دادن به آن است. عوامل هوش مصنوعی به طور فزایندهای در همه جا حاضر هستند. این سیستمها قبلاً در سراسر شرکت امنیت ملی ایالات متحده گسترش یافتهاند، با سیستمهایی مانند ChatGPT Gov برای استفاده گسترده در سراسر سازمانهای دولتی پس از تلاشهای قبلی مانند CamoGPT و NIPRGPT در وزارت دفاع و StateChat در وزارت امور خارجه.
با این حال، تیم من در آزمایشگاه آینده در مرکز مطالعات استراتژیک و بینالمللی (CSIS) که در کنار مهندسان نرمافزار از Scale، یک ارائهدهنده داده هوش مصنوعی، کار میکند، محدودیتهای کلیدی در توانایی LLMها برای تجزیه و تحلیل سؤالات اساسی در مورد رقابت قدرتهای بزرگ و مدیریت بحران که بر استراتژی و کشورداری در قرن بیست و یکم سایه انداخته است، یافت. پس از آزمایش مدلهای بنیادی هوش مصنوعی رایج در برابر 400 سناریو و بیش از 66000 جفت سؤال و پاسخ در یک مطالعه معیار جدید، محققان اکنون میتوانند سوگیری الگوریتمی را همانطور که مربوط به تصمیمات حیاتی سیاست خارجی در مورد تشدید تنش است، مستند کنند. به نظر میرسد برخی از مدلها به طرز عجیبی تندرو هستند. این گرایش میتواند سودمندی آنها را در یک بحران پرمخاطره با متمایل کردن خروجیهایی که تصمیمگیرندگان انسانی برای اصلاح نحوه برخورد خود با چانهزنی بحران و لبهبازی استفاده میکنند، تضعیف کند - به عبارت دیگر، یک عامل هوش مصنوعی تهاجمی Curtis LeMay به جای یک عامل هوش مصنوعی محتاطتر Dean Rusk" در یک نوع آینده از بحران موشکی کوبا در سال 1962. در نتیجه، مدلهای بنیادی موجود نیاز به تنظیم دقیقتری دارند زیرا در بالاترین سطوح تصمیمگیری ادغام میشوند.
این بدان معنا نیست که امنیت ملی باید به روی هوش مصنوعی بسته شود. بلکه، تیمهای تحقیقاتی باید از تجزیه و تحلیل استراتژیک از طریق کمک به شرکتها برای تنظیم دقیق مدلهای خود و همچنین آموزش رهبران آینده در نحوه کار با کلاسهای جدیدی از عوامل هوش مصنوعی که حجم عظیمی از اطلاعات را سنتز میکنند، حمایت کنند.
در طول شش ماه گذشته، یک تیم تحقیقاتی به رهبری آزمایشگاه آینده با شبکهای از دانشمندان و شرکتهای پیشرو هوش مصنوعی برای توسعه یک معیار مطالعه در مورد تصمیمگیریهای حیاتی سیاست خارجی همکاری کردند. این تلاش شامل استفاده از محققان روابط بینالملل برای ساخت سناریوها و سؤالات و پاسخهای مرتبط با مطالعات بنیادی بود. به عنوان مثال، برای مطالعه تشدید تنش، این تیم مفاهیم و مجموعههای داده را از برنامههای تحقیقاتی همبستگیهای جنگ و اختلافات بینالمللی نظامیشده، که بیش از 60 سال است که یک استاندارد طلایی در علوم سیاسی بودهاند، ادغام کرد. این تحقیق به این تیم اجازه داد تا یک آزمون سناریو، یک تکنیک رایج در مطالعات معیار هوش مصنوعی که برای کشف سوگیری و حمایت از تنظیم دقیق مدل استفاده میشود، بسازد.
نتایج تأیید میکند که نیاز به آموزش بهتر عوامل هوش مصنوعی وجود دارد زیرا آنها در شرکت امنیت ملی ادغام میشوند. یک سوگیری به ویژه نگرانکننده که این تیم کشف کرد، تمایل به تشدید تنش بود. به عبارت دیگر، برخی از مدلهای بنیادی هوش مصنوعی که معمولاً توسط شهروندان استفاده میشوند و در هسته برنامههای کاربردی دولتی قرار دارند، ترجیح بیشتری برای تشدید یک بحران نسبت به پیگیری مانورهای دیپلماتیک محتاطانهتر دارند.
همانطور که استفاده از عوامل هوش مصنوعی در امنیت ملی گسترش مییابد، این سوگیری برطرف نشده انواع جدیدی از خطر را در بحرانهای مربوط به رقبای نزدیک به هم ایجاد میکند - به یک بنبست بر سر تایوان بین ایالات متحده و چین فکر کنید. یک عامل هوش مصنوعی که تمایل دارد اقدامات رویارویی را تأیید کند، میتواند به طور غیرمستقیم تنشها را از نظر نحوه خلاصه کردن گزارشهای اطلاعاتی و وزن دادن به اقدامات افزایش دهد. به جای توصیه یک ترکیب دقیق از بازدارندگی و گفتگو، یک عامل هوش مصنوعی با سوگیری تشدید تنش ممکن است از نمایش تهاجمی نیرو یا حتی افشای فناوری نظامی جدید حمایت کند. پکن میتواند این اقدامات را خصمانه تفسیر کند و یک مارپیچ تشدید تنش خطرناک ایجاد کند. در کوتاه مدت، یک سوء تفاهم ناشی از یک عامل هوش مصنوعی میتواند به درگیری مارپیچ یا، همانطور که در مطالعات دیگر دیده میشود، پویایی مسابقه تسلیحاتی را افزایش دهد.
مطالعه ما همچنین نشان داد که این سوگیری بر اساس ایالت در مدلهای بنیادی رایج مانند ChatGPT، Gemini و Llama متفاوت است. مدلهای هوش مصنوعی اغلب مواضع تهاجمیتری را هنگام شبیهسازی تصمیمگیرندگان ایالات متحده، بریتانیا یا فرانسه نسبت به زمان شبیهسازی تصمیمگیرندگان روسی یا چینی ترجیح میدادند. دادههای آموزشی، که معمولاً بر مداخلات تحت رهبری غرب تأکید میکنند، احتمالاً نقش دارند. این بدان معناست که دولتهایی که به شدت به این ابزارها تکیه میکنند، میتوانند ناخواسته بدون مطالعات معیار اضافی و تنظیم دقیق مدل، به مواضع پرخطر تکیه کنند. فرآیند چانهزنی و فرضیات مربوط به عقلانیت در هسته بازدارندگی مدرن میتواند از بین برود.
دوباره مثال تایوان را در نظر بگیرید. یک عامل هوش مصنوعی - بر اساس، به عنوان مثال، DeepSeek - اطلاعات را خلاصه میکند، در حالی که دیگری گزینههای پاسخ به بحران را تجزیه و تحلیل میکند. هر یک، به دلیل سوگیری خاص کشور، مستعد این هستند که هر اقدام ایالات متحده را خصمانهتر ببینند و خطر اشتباه محاسباتی را تشدید کنند. هر گشت دریایی که توسط ایالات متحده و شرکای آن به عنوان نمایش قدرت برای تثبیت بحران اعزام میشود، به عنوان خصمانه تفسیر میشود در حالی که اطلاعات کانالهای دیپلماتیک در تولید گزارشها اهمیت کمتری دارند. در عین حال، یک عامل هوش مصنوعی دیگر که به رهبران حزب کمونیست چین مشاوره میدهد، تمام اقدامات چین را به احتمال زیاد صلحآمیز و بیضرر توصیف میکند. عوامل هوش مصنوعی، مانند مردم، مستعد سوگیری هستند که میتواند تصمیمات عینی را منحرف کند. در نتیجه، آنها باید آموزش ببینند تا منابع رایج خطاها را کاهش دهند و با زمینه جدید سازگار شوند.
هوش مصنوعی در خلاء عمل نمیکند. این شکل میدهد که چگونه رهبران تهدیدها را درک میکنند، گزینهها را سنجیده و نیتها را منتقل میکنند. سوگیریها - چه به سمت تشدید، همکاری یا یک دیدگاه ژئوپلیتیکی خاص - خروجیهای آن را رنگی میکنند. و از آنجایی که هوش مصنوعی میتواند دادههای بسیار بیشتری را نسبت به هر سیاستگذار انسانی تجزیه و تحلیل کند، این خطر واقعی وجود دارد که توصیههای ناقص تأثیر بیش از حدی بر تصمیمگیری بگذارند.
همانطور که رقابت قدرتهای بزرگ تشدید میشود، این خطر فقط افزایش مییابد. سرعت و پیچیدگی بحرانهای مدرن ممکن است رهبران را وسوسه کند که بیشتر به ابزارهای هوش مصنوعی تکیه کنند. اگر آن ابزارها مغرضانه باشند، حاشیه خطا به شدت کاهش مییابد. همانطور که یک ارتش یک سیستم تسلیحاتی آزمایش نشده را در یک محیط پرتنش مستقر نمیکند، سیاستگذاران نباید به هوش مصنوعی که به دقت اعتبارسنجی یا تنظیم نشده است، تکیه کنند.
ایالات متحده به انبوهی از عوامل هوش مصنوعی برای پشتیبانی از گردش کار در سراسر شرکت امنیت ملی نیاز خواهد داشت. آینده در نادیده گرفتن فناوری نهفته نیست. از پالایش آن و ادغام آن در استراتژی و کشورداری پدیدار میشود. در نتیجه، توسعهدهندگان هوش مصنوعی و سیاستگذاران باید چارچوبی برای آزمایش و ارزیابی مداوم ایجاد کنند.
به همین دلیل است که CSIS به طور عمومی معیار سیاست خارجی حیاتی خود را منتشر کرد و به اصلاح آن ادامه خواهد داد به این امید که عصر جدیدی از استراتژی الگوریتمی و کشورداری را آغاز کند. این مطالعه آغاز یک برنامه تحقیقاتی بزرگتر است که برای حمایت از تنظیم دقیق و یادگیری مورد نیاز است. مدلها میتوانند به طور بازگشتی یاد بگیرند، با دادههای جدید سازگار شوند و فرضیات منسوخ شده را کنار بگذارند و نیازی به بررسی و ارزیابی مداوم ایجاد کنند.
همانطور که دانشکدههای سیاست در سراسر جهان برای ایجاد مدارک تحصیلات تکمیلی در روابط بینالملل و گروههایی از کارمندان دولتی و متخصصان نظامی نهادهایی را برای مطالعه استراتژی ایجاد کردند، یک مرکز تعالی جدید برای پالایش عوامل هوش مصنوعی نیز مورد نیاز خواهد بود. این مرکز در صورتی بهترین است که دانشگاهیان، اندیشکدهها، صنعت و سازمانهای دولتی را برای ساخت فناوری جدید و ارزیابی آن در زمینههایی که منعکسکننده رقابت قدرتهای بزرگ است، ترکیب کند. تیمهای مشترک میتوانند دادههای آموزشی را اصلاح کنند، عوامل هوش مصنوعی را تحت فشار قرار دهند و دستورالعملهای آموزشی را برای رهبران امنیت ملی ایجاد کنند که ساخت سیاست خارجی را به طور فزایندهای توسط الگوریتمها میانجیگری شده مییابند. این همکاری نحوه ساخت هوش مصنوعی توسط ایالات متحده است که تفاوتهای ظریف کشورداری را درک میکند، نه اینکه بحرانها را به معادلات حاصل جمع صفر ساده کند.
در نهایت، همه عوامل هوش مصنوعی و LLMها همان چیزی هستند که ما از آنها میسازیم. اگر به درستی آموزش داده شوند و در شرکت امنیت ملی در کنار نیروی کاری که میداند چگونه با مدلها تعامل داشته باشد، ادغام شوند، عوامل هوش مصنوعی میتوانند استراتژی و کشورداری را متحول کنند. اگر آزمایش نشوند، خطاهای عجیبی در قضاوت ایجاد میکنند که این پتانسیل را دارد که جهان را به لبه پرتگاه نزدیکتر کند.