دنیای اطلاعات نادرست خصمانه و تولید شده توسط هوش مصنوعی (AI) به سرعت در حال رشد است – و در حال حاضر غیرقابل تشخیص از پستهای عادی شبکههای اجتماعی است.
چرا مهم است: اطلاعات نادرست خارجی به یک نیروی بسیار مخرب در ایالات متحده تبدیل شده است، با روسیه و دیگر قدرتهای خارجی که به دنبال تأثیرگذاری بر انتخابات و دامن زدن به اختلافات هستند. اکنون هوش مصنوعی مولد (Generative AI) این عملیات را بسیار موثرتر و شناسایی آنها را برای کاربران عادی دشوارتر میکند.
- ژنرال پل ناکاسونه (Paul Nakasone)، رئیس سابق آژانس امنیت ملی (NSA) و اکنون مدیر موسسه واندربیلت، در اوایل این ماه در کنفرانس هکرها DEF CON به خبرنگاران گفت: «ما اکنون شاهد توانایی توسعه و تحویل با کارایی، سرعت و مقیاسی هستیم که قبلاً هرگز ندیدهایم.»
- این شتاب در زمانی رخ میدهد که دولت ایالات متحده در حال کاهش تلاشها برای افشای و آگاهیبخشی در مورد کمپینهای نفوذ است.
موضوع خبر
طبق اسناد داخلی که به محققان موسسه امنیت ملی دانشگاه واندربیلت درز کرده است، حداقل یک شرکت فناوری چینی به نام GoLaxy ظاهراً از هوش مصنوعی مولد برای ساخت عملیات نفوذ در تایوان و هنگ کنگ استفاده میکند.
- محققان در مقالهای در نیویورک تایمز نوشتند، اسناد جزئیات چگونگی استفاده GoLaxy از هوش مصنوعی مولد برای کاوش در پروفایلهای رسانههای اجتماعی و ایجاد محتوایی که «معتبر به نظر میرسد، در زمان واقعی تطبیق مییابد و از شناسایی جلوگیری میکند» را شرح میدهند.
- GoLaxy با استفاده از ابزارهایی از جمله مدل استدلال متنباز DeepSeek، شخصیتهای مصنوعی ایجاد کرده است که میتوانند پیامهای خود را برای مخاطبان خاص تنظیم کنند و همچنین از افراد واقعی تقلید نمایند.
- GoLaxy – که در همسویی نزدیک با منافع دولت چین فعالیت میکند – ظاهراً از این شخصیتها در آستانه انتخابات ریاست جمهوری تایوان در سال 2024 و برای رد مخالفتها با قانون امنیت ملی 2020 که به خودمختاری هنگ کنگ پایان داد، استفاده کرده است.
نکته جالب
اسناد همچنین نشان میدهند که GoLaxy برای حداقل 117 عضو کنگره و بیش از 2000 چهره سیاسی و رهبر فکری آمریکایی پروفایل ایجاد کرده است.
- آکسیوس نتوانست این اسناد را که به صورت عمومی منتشر نشدهاند، به طور مستقل تأیید کند. GoLaxy این ادعاها را تکذیب کرده است.
در میان سطور
کارشناسان مدتهاست که در مورد پتانسیل مدلهای زبان بزرگ (LLM) مانند ChatGPT برای تقویت و افزایش عملیات نفوذ بدخواهانه خارجی هشدار دادهاند.
- هوش مصنوعی مولد همچنین به دشمنان خارجی کمک میکند تا موانع زبانی را که قبلاً مردم را از نقشههای آنها آگاه میکرد، پشت سر بگذارند.
- برت گلدستین (Brett Goldstein)، محقق در واندربیلت و مدیر سابق سرویس دیجیتال دفاع، در DEF CON به خبرنگاران گفت: «این سطح کاملاً جدیدی از درگیری منطقه خاکستری است. ما باید بفهمیم که چگونه از آن پیشی بگیریم.»
مرور سریع
روسیه و چین دهههاست که در دستگاههای عملیات نفوذ خود سرمایهگذاری کردهاند.
- روسیه معمولاً در عملیات نفوذ فراتر از مرزهای خود موفقیت بیشتری داشته است. تاکتیکها شامل استخدام شرکتها برای راهاندازی مزارع ربات و نفوذ به شرکتهای رسانهای مشروع برای انتشار داستانهای جعلی است.
- چین در گذشته برای ایجاد تعامل برای بازوی تبلیغاتی خود در خارج از مرزهایش دچار مشکل بوده است، که بخشی از آن به دلیل پیچیدگی کمتر عملیات آن بوده است.
سطح تهدید
ناکسونه هشدار داد که هوش مصنوعی مولد ایجاد محتوای باورپذیر و جذاب را برای چین به طور فزایندهای آسانتر میکند.
تصویر بزرگ
GoLaxy احتمالاً فقط نوک کوه یخ است.
- دشمنان خارجی از زمان در دسترس عموم قرار گرفتن ChatGPT و سایر چتباتها، در حال آزمایش با آنها بودهاند.
- یک گروه تبلیغاتی حامی روسیه در حال آزمایش با هوش مصنوعی است زیرا از سازمانهای خبری معتبر غربی، از جمله ABC و Politico، تقلید میکند.
- و چین، به ویژه، با یک شبکه قوی از پیمانکاران شخص ثالث برای حملات سایبری تهاجمی علیه ایالات متحده همکاری میکند.
- سی. شاون ایب (C. Shawn Eib)، رئیس تحقیقات در شرکت شناسایی اطلاعات نادرست Alethea، به آکسیوس گفت: «هوش مصنوعی مولد قطعاً هزینه ورود به این صنعت را به اندازهای کاهش میدهد که شرکتهای بیشتری قادر به ارائه این نوع خدمات هستند.»
واقعیتسنجی
این پیشرفتها در حالی رخ میدهد که دولت ترامپ چندین دفتر کلیدی که برای مقابله با اطلاعات نادرست خارجی طراحی شدهاند را برچیده است.
- CISA، افبیآی (FBI) و وزارت امور خارجه هر یک دفاتر مربوطه خود را که با بخش خصوصی برای تبادل اطلاعات در مورد عملیات نفوذ با حمایت خارجی همکاری میکردند، تعطیل کردهاند.
چه باید کرد
محققان میگویند پیشرفتهای تکنولوژیکی و سرمایهگذاری پرسنلی در بخش خصوصی تنها راه مقابله با افزایش اطلاعات نادرست باورپذیر و دشوار برای شناسایی است.
- ناکسونه گفت: «این چیزی است که بخش خصوصی باید در آینده به ما کمک کند. ما به یک رویکرد جدید نیاز داریم که بتوانیم همچنان نوآوری کنیم و در عین حال از تهدید جلوتر باشیم.»
- ایب گفت که فشار نظارتی از سوی کشورهای اروپایی نیز میتواند پلتفرمهای رسانههای اجتماعی را وادار کند تا تیمهای اعتماد و ایمنی خود را برای شناسایی اطلاعات نادرست تولید شده توسط هوش مصنوعی تقویت کنند.