هنگامی که شی جین پینگ و دونالد ترامپ در تاریخ ۱۴-۱۵ مه در پکن دیدار میکنند، ممکن است درباره مشکلات آزاردهندهای مانند جنگ در خاورمیانه، عدم تعادل تجاری و وضعیت تایوان گفتگو کنند. به این لیست مسرتبخش، هوش مصنوعی را نیز اضافه کنید. نخبگان در پکن و واشنگتن هر دو از پیشرفت سریع این فناوری نگران هستند. مدلهای هوش مصنوعی هر چه باهوشتر میشوند، برای رفاه داخلی و نفوذ ژئوپلیتیک خارجی حیاتیتر میگردند. اما خطراتی که آنها ایجاد میکنند نیز به همان نسبت افزایش مییابد. از زمان ساخت بمب اتم، قدرتهای بزرگ با چنین معضلی روبرو نبودهاند.
دولت ترامپ به طور فزایندهای این موضوع را درک میکند. پس از درگیریهای اخیر با آزمایشگاه آمریکایی آنتروپیک، رویکرد عدم مداخله خود را در مقررات فناوری کنار گذاشته و در حال بررسی دستور بررسی مدلهای جدید توسط دولت است. آنتروپیک در ماه آوریل اعلام کرد که مدل Mythos را ساخته است؛ مدلی که در یافتن حفرهها در دفاع سایبری چنان توانمند است که نمیتوان آن را به صورت عمومی منتشر کرد. آمریکا و رقبایش این موضوع را جدی گرفتند. پس از تردید اولیه، رسانههای دولتی چین به «قابلیتهای بیسابقه حمله سایبری» Mythos اشاره کردند، در حالی که یک شبکه تلویزیونی روسی آن را «بدتر از بمب هستهای» خواند.
ترس از اینکه مدلهای توانمندتر ممکن است حملات سایبری را آغاز کنند، سلاحهای بیولوژیکی طراحی کنند یا از کنترل انسان خارج شوند، دیپلماسی هوش مصنوعی را ضروری ساخته است. برخی در آمریکا و چین به طور پنهانی در حال بررسی این هستند که آیا میتوانند بر سر سازوکارهای حفاظتی برای فناوریای که هر یک آن را برای غلبه بر دیگری ضروری میدانند، به توافق برسند یا خیر. بیاعتمادی فراوان است. هیچ یک از طرفین نمیخواهند توسعه خود را کُند کنند و خطر واگذاری برتری به دیگری را بپذیرند.
برخی از کارشناسان فناوری آمریکایی این نظریه را مطرح میکنند که اولین بودن در ساخت یک مدل هوش مصنوعی خودبهبودبخش – و در نتیجه همواره قدرتمندتر – میتواند مزیت استراتژیک عظیمی ایجاد کند. کارشناسان چینی تمایل دارند هوش مصنوعی را کلید رشد اقتصادی بدانند: بیشتر شبیه انرژی هستهای تا سلاح هستهای.
شوئه لان، مشاور دولت چین، در اواخر ماه آوریل در رویدادی در کنگره ایالات متحده به حضار گفت: «آمریکا و چین در ایمنی هوش مصنوعی 'منافع مشترک' دارند.» او گفت: «اگر یک کشور امن نباشد، همه ما امن نیستیم.» آقای شوئه و یی زنگ، رئیس مؤسسه ایمنی هوش مصنوعی پکن، خواستار تلاشهای جهانی برای تنظیم و حتی کُند کردن توسعه هوش مصنوعی شدند.
این با سیاست چین همخوانی دارد. اندکی پس از ظهور چتجیپیتی در سال ۲۰۲۲، چین شروع به فشار برای همکاری بینالمللی در زمینه هوش مصنوعی و ایجاد یک نهاد در سازمان ملل کرد. دیپلماتهای چینی ایده «توقف» توسعه هوش مصنوعی را مطرح کردهاند و استدلال میکنند که باید استانداردهای جهانی برای اطمینان از کنترل انسان بر آن اتخاذ شود. طرح آنها از غرب میخواهد تا تجهیزات هوش مصنوعی خود را با کشورهای فقیر به اشتراک بگذارد تا جهان به دو دسته «دارا» و «ندار» تقسیم نشود.
رویکرد دوجانبه محتملتر است و مقامات در واشنگتن نیز آن را ترجیح میدهند. آمریکا و چین با هم ۹۰ درصد از قدرت محاسباتی پیشرفته جهان را در اختیار دارند و بنابراین تنها کشورهایی هستند که قدرت نظارتی واقعی دارند. مقامات آمریکایی همچنین اکوسیستم هوش مصنوعی چین را منبع خاصی از خطر میدانند. مدلهای چینی عمدتاً «متنباز» هستند، به این معنی که وزنهایی که به آنها امکان عملکرد میدهند آزادانه منتشر میشوند و به بازیگران بد دسترسی آسانی به ابزارهای قدرتمند هوش مصنوعی میدهند.
مذاکرات مستقیم کاملاً جدید نخواهد بود. آقایان ترامپ و شی در اکتبر در بوسان، کره جنوبی، توافق کردند که در زمینه هوش مصنوعی «با هم کار کنند». پیش از آن، در سال ۲۰۲۴، جو بایدن از آقای شی توافق گرفت که انسانها، نه هوش مصنوعی، کلاهکهای هستهای را کنترل کنند. اما سرعت خطرات نوظهور، رویکرد تکهتکه به همکاری را مجبور به بازنگری میکند.
محققان آمریکایی و چینی از قبل به روشهای کمتر علنی با هم کار میکنند. به عنوان مثال، برخی از بزرگترین آزمایشگاههای چین، از جمله بایدو، کدهای متنباز نوشته شده توسط توسعهدهندگان آنتروپیک را برای کنترل نحوه ارتباط عوامل هوش مصنوعی پذیرفتهاند. چندین گفتوگوی غیررسمی بین مدیران فناوری و مقامات بازنشسته آمریکا و چین در سالهای اخیر، گاهی به صورت محرمانه، برگزار شده است. با این حال، شرکتکنندگان میگویند که کارشناسان فنی مورد نیاز برای پیشرفت واقعی در تطبیق استانداردها اغلب در این اتاقها حضور ندارند.
سه نوع همکاری اکنون ممکن به نظر میرسد. اول، گفتگو. یک مقام غربی میگوید آمریکا و چین میتوانند در «تضمین استراتژیک» شرکت کنند. در مذاکرات تسلیحات هستهای، کشورها به طور معمول درباره برنامههای خود برای مدیریت ریسک، ایجاد اعتماد و کاهش احتمال سوءمحاسبه گفتگو میکنند. آمریکا و چین ممکن است قوانین هوش مصنوعی را به صورت موازی، اما نه هماهنگ، بنویسند. کارسون المگرن از موسسه سیاست و استراتژی هوش مصنوعی، یک اندیشکده آمریکایی، میگوید: «اگر آنها مقالات فنی یکسانی را بخوانند و واقعیت زمینهای مشابهی داشته باشند، ممکن است هر دو اقدامات معقولی در پاسخ انجام دهند.»
دوم، آمریکا و چین میتوانند در مورد نحوه آزمایش ایمنی مدلها توافق کنند. بدون به اشتراک گذاشتن یافتههای خود، هر دو طرف میتوانند به معیارهای مشترک رفتار خطرناک یا روشهایی برای شناسایی انگیزههایی که با انگیزههای سازندگان انسانی آنها مطابقت ندارند، پایبند باشند. جفری دینگ از دانشگاه جرج واشنگتن خاطرنشان میکند که تشخیص دادههای مورد استفاده برای نظارت بر ایمنی هوش مصنوعی از اطلاعات مهم برای توسعه هوش مصنوعی دشوار است. با مخفی نگه داشتن نتایج، هر دو طرف میتوانند نگرانیهای مربوط به نشت دادههای فنی را کاهش دهند.
سوم، اعتماد کنید اما راستیآزمایی کنید. اگر آقایان ترامپ و شی بلندپرواز بودند، میتوانستند به دنبال توافق رسمی برای توسعه آزمایشهای ایمنی مشترک و به اشتراک گذاشتن نتایج این ارزیابیها باشند. اما انجام این کار احتمالاً مستلزم ابزارهای تهاجمی برای بررسی رعایت توافق خواهد بود. این موارد میتواند شامل بازرسیها یا ارسال اطلاعات فعالیت مرکز داده به یک داور بینالمللی، مانند آژانس بینالمللی انرژی اتمی سازمان ملل، که بر مواد هستهای نظارت میکند، باشد.
همه این انواع همکاری هنوز فاصله زیادی دارند. محققان هوش مصنوعی آمریکایی به صداقت مقامات چینی تردید دارند. آزمایشگاههای هوش مصنوعی چین در زمینه ایمنی نسبتاً سهلانگار بودهاند، شاید به این دلیل که مدلهای آنها هنوز آنقدر قدرتمند نیستند که تهدیدهای وجودی ایجاد کنند، یا به این دلیل که زمان و پول کافی برای آزمایش آنها ندارند. اسناد همراه مدل v4 DeepSeek، که ماه گذشته منتشر شد، فاقد اقدامات حفاظتی رایج در آزمایشگاههای آمریکایی بود. رایان فداسیوک، یک مقام سابق دولت بایدن، اشاره میکند که نگرانیهای ابراز شده چین در مورد ایمنی هوش مصنوعی نمایشی است و «برای بد جلوه دادن آمریکاییها» انجام میشود.
علیرغم حمایت عمومی چین از حکمرانی جهانی هوش مصنوعی، این کشور تاکنون در برابر بحثهای مفصل با آمریکا در این زمینه مقاومت کرده است. در سال ۲۰۲۴، آمریکا مقامات ارشد امنیتی و کارشناسان فنی را برای دیدار با همتایان چینی خود به ژنو فرستاد. چین مقامات سیاسی را اعزام کرد که طبق گفته افراد مطلع از مذاکرات، حاضر به بحث درباره ایمنی هوش مصنوعی نشدند مگر اینکه آمریکا کنترلهای صادراتی بر تراشههای رایانهای پیشرفته را لغو کند. دیپلماتهای آمریکایی شکایت دارند که چین سابقه طولانی در دستکاری گفتگوها برای منافع سیاسی دارد: برای مثال، گفتگوهای تغییرات آب و هوایی را در سال ۲۰۲۲ به دلیل سفر نانسی پلوسی به تایوان متوقف کرد.
گفتمان هوش مصنوعی چین، از جمله صحبتهای اخیر درباره Mythos، میتواند نشاندهنده پارانویایی باشد که آزمایشگاههای آمریکایی از نگرانیهای ایمنی برای کنترل توسعه این فناوری استفاده میکنند. برخی نگرانند که به اشتراک گذاشتن دادههای ایمنی یک ترفند برای ربودن اسرار فناوری چین است. تانگ ژائو، کارشناس مذاکرات کنترل تسلیحات هستهای در «صندوق کارنگی»، یک اندیشکده آمریکایی، میگوید که استراتژیستهای چینی عموماً به توافقات با همتایان برتر از نظر فناوری بدبین هستند. تاریخ چین در ورود به «معاهدات نابرابر» در قرن نوزدهم، مقامات را نسبت به توافقاتی که ممکن است توسعه آنها را کُند کند یا آنها را در جایگاه ثانویه قرار دهد، محتاط کرده است.
همکاری به دلیل پیامدهای جدی آن دشوارتر است. وزیر خزانهداری آمریکا در ماه آوریل به وال استریت ژورنال گفت: «اگر در هوش مصنوعی پیروز نشویم، بازی تمام است.» آقای شی اخیراً از هوش مصنوعی به عنوان «تعیینکننده دوران» ستایش کرده است. با این حال، به زودی رهبران آمریکایی و چینی ممکن است هوش مصنوعی را به دلایل دیگری نیز حیاتی بدانند. آقای دینگ میگوید: «متأسفانه، شواهد تاریخی نشان میدهد که حرکت واقعی تنها پس از یک حادثه غمانگیز رخ میدهد»، و به استانداردهای جهانی تعیین شده پس از فاجعه شیمیایی بوپال در سال ۱۹۸۴ یا ذوب چرنوبیل در سال ۱۹۸۶ اشاره میکند. مذاکرات هوش مصنوعی همچنان یک آزمون واقعی برای هوش انسانی است. ¦