تصویر: آیدا امر/آکسیوس
تصویر: آیدا امر/آکسیوس

اطلاعات نادرست خارجی وارد عصر هوش مصنوعی می‌شود

دنیای اطلاعات نادرست خصمانه و تولید شده توسط هوش مصنوعی (AI) به سرعت در حال رشد است – و در حال حاضر غیرقابل تشخیص از پست‌های عادی شبکه‌های اجتماعی است.

چرا مهم است: اطلاعات نادرست خارجی به یک نیروی بسیار مخرب در ایالات متحده تبدیل شده است، با روسیه و دیگر قدرت‌های خارجی که به دنبال تأثیرگذاری بر انتخابات و دامن زدن به اختلافات هستند. اکنون هوش مصنوعی مولد (Generative AI) این عملیات را بسیار موثرتر و شناسایی آن‌ها را برای کاربران عادی دشوارتر می‌کند.

  • ژنرال پل ناکاسونه (Paul Nakasone)، رئیس سابق آژانس امنیت ملی (NSA) و اکنون مدیر موسسه واندربیلت، در اوایل این ماه در کنفرانس هکرها DEF CON به خبرنگاران گفت: «ما اکنون شاهد توانایی توسعه و تحویل با کارایی، سرعت و مقیاسی هستیم که قبلاً هرگز ندیده‌ایم.»
  • این شتاب در زمانی رخ می‌دهد که دولت ایالات متحده در حال کاهش تلاش‌ها برای افشای و آگاهی‌بخشی در مورد کمپین‌های نفوذ است.

موضوع خبر

طبق اسناد داخلی که به محققان موسسه امنیت ملی دانشگاه واندربیلت درز کرده است، حداقل یک شرکت فناوری چینی به نام GoLaxy ظاهراً از هوش مصنوعی مولد برای ساخت عملیات نفوذ در تایوان و هنگ کنگ استفاده می‌کند.

  • محققان در مقاله‌ای در نیویورک تایمز نوشتند، اسناد جزئیات چگونگی استفاده GoLaxy از هوش مصنوعی مولد برای کاوش در پروفایل‌های رسانه‌های اجتماعی و ایجاد محتوایی که «معتبر به نظر می‌رسد، در زمان واقعی تطبیق می‌یابد و از شناسایی جلوگیری می‌کند» را شرح می‌دهند.
  • GoLaxy با استفاده از ابزارهایی از جمله مدل استدلال متن‌باز DeepSeek، شخصیت‌های مصنوعی ایجاد کرده است که می‌توانند پیام‌های خود را برای مخاطبان خاص تنظیم کنند و همچنین از افراد واقعی تقلید نمایند.
  • GoLaxy – که در همسویی نزدیک با منافع دولت چین فعالیت می‌کند – ظاهراً از این شخصیت‌ها در آستانه انتخابات ریاست جمهوری تایوان در سال 2024 و برای رد مخالفت‌ها با قانون امنیت ملی 2020 که به خودمختاری هنگ کنگ پایان داد، استفاده کرده است.

نکته جالب

اسناد همچنین نشان می‌دهند که GoLaxy برای حداقل 117 عضو کنگره و بیش از 2000 چهره سیاسی و رهبر فکری آمریکایی پروفایل ایجاد کرده است.

  • آکسیوس نتوانست این اسناد را که به صورت عمومی منتشر نشده‌اند، به طور مستقل تأیید کند. GoLaxy این ادعاها را تکذیب کرده است.

در میان سطور

کارشناسان مدت‌هاست که در مورد پتانسیل مدل‌های زبان بزرگ (LLM) مانند ChatGPT برای تقویت و افزایش عملیات نفوذ بدخواهانه خارجی هشدار داده‌اند.

  • هوش مصنوعی مولد همچنین به دشمنان خارجی کمک می‌کند تا موانع زبانی را که قبلاً مردم را از نقشه‌های آن‌ها آگاه می‌کرد، پشت سر بگذارند.
  • برت گلدستین (Brett Goldstein)، محقق در واندربیلت و مدیر سابق سرویس دیجیتال دفاع، در DEF CON به خبرنگاران گفت: «این سطح کاملاً جدیدی از درگیری منطقه خاکستری است. ما باید بفهمیم که چگونه از آن پیشی بگیریم.»

مرور سریع

روسیه و چین دهه‌هاست که در دستگاه‌های عملیات نفوذ خود سرمایه‌گذاری کرده‌اند.

  • روسیه معمولاً در عملیات نفوذ فراتر از مرزهای خود موفقیت بیشتری داشته است. تاکتیک‌ها شامل استخدام شرکت‌ها برای راه‌اندازی مزارع ربات و نفوذ به شرکت‌های رسانه‌ای مشروع برای انتشار داستان‌های جعلی است.
  • چین در گذشته برای ایجاد تعامل برای بازوی تبلیغاتی خود در خارج از مرزهایش دچار مشکل بوده است، که بخشی از آن به دلیل پیچیدگی کمتر عملیات آن بوده است.

سطح تهدید

ناکسونه هشدار داد که هوش مصنوعی مولد ایجاد محتوای باورپذیر و جذاب را برای چین به طور فزاینده‌ای آسان‌تر می‌کند.

تصویر بزرگ

GoLaxy احتمالاً فقط نوک کوه یخ است.

  • دشمنان خارجی از زمان در دسترس عموم قرار گرفتن ChatGPT و سایر چت‌بات‌ها، در حال آزمایش با آن‌ها بوده‌اند.
  • یک گروه تبلیغاتی حامی روسیه در حال آزمایش با هوش مصنوعی است زیرا از سازمان‌های خبری معتبر غربی، از جمله ABC و Politico، تقلید می‌کند.
  • و چین، به ویژه، با یک شبکه قوی از پیمانکاران شخص ثالث برای حملات سایبری تهاجمی علیه ایالات متحده همکاری می‌کند.
  • سی. شاون ایب (C. Shawn Eib)، رئیس تحقیقات در شرکت شناسایی اطلاعات نادرست Alethea، به آکسیوس گفت: «هوش مصنوعی مولد قطعاً هزینه ورود به این صنعت را به اندازه‌ای کاهش می‌دهد که شرکت‌های بیشتری قادر به ارائه این نوع خدمات هستند.»

واقعیت‌سنجی

این پیشرفت‌ها در حالی رخ می‌دهد که دولت ترامپ چندین دفتر کلیدی که برای مقابله با اطلاعات نادرست خارجی طراحی شده‌اند را برچیده است.

  • CISA، اف‌بی‌آی (FBI) و وزارت امور خارجه هر یک دفاتر مربوطه خود را که با بخش خصوصی برای تبادل اطلاعات در مورد عملیات نفوذ با حمایت خارجی همکاری می‌کردند، تعطیل کرده‌اند.

چه باید کرد

محققان می‌گویند پیشرفت‌های تکنولوژیکی و سرمایه‌گذاری پرسنلی در بخش خصوصی تنها راه مقابله با افزایش اطلاعات نادرست باورپذیر و دشوار برای شناسایی است.

  • ناکسونه گفت: «این چیزی است که بخش خصوصی باید در آینده به ما کمک کند. ما به یک رویکرد جدید نیاز داریم که بتوانیم همچنان نوآوری کنیم و در عین حال از تهدید جلوتر باشیم.»
  • ایب گفت که فشار نظارتی از سوی کشورهای اروپایی نیز می‌تواند پلتفرم‌های رسانه‌های اجتماعی را وادار کند تا تیم‌های اعتماد و ایمنی خود را برای شناسایی اطلاعات نادرست تولید شده توسط هوش مصنوعی تقویت کنند.

برای اطلاعات بیشتر

مطالعه نشان می‌دهد: اطلاعات نادرست روسیه، چت‌بات‌های هوش مصنوعی را در بر می‌گیرد