روسیه در حال خودکارسازی انتشار اطلاعات نادرست برای فریب دادن رباتهای گفتگوی هوش مصنوعی در مورد موضوعات کلیدی است و یک کتاب راهنما به سایر بازیگران بد ارائه میدهد که چگونه هوش مصنوعی را به بازی بگیرند تا محتوایی را که هدف آن تحریک، تأثیرگذاری و مبهمسازی است، به جای اطلاعرسانی، پیش ببرند.
کارشناسان هشدار میدهند که این مشکل در حال بدتر شدن است، زیرا افراد بیشتری به رباتهای گفتگویی که به بازار عرضه میشوند، تکیه میکنند، شرکتهای رسانههای اجتماعی تعدیل را کاهش میدهند و دولت ترامپ تیمهای دولتی مبارزه با اطلاعات نادرست را منحل میکند.
در اوایل سال جاری، هنگامی که محققان از ۱۰ ربات گفتگوی پیشرو در مورد موضوعاتی که توسط پیامرسانی نادرست روسیه هدف قرار گرفته بودند، مانند ادعای ساخت سلاحهای بیولوژیکی توسط ایالات متحده در اوکراین، سؤال کردند، یک سوم پاسخها آن دروغها را تکرار کردند.
نفوذ پروپاگاندای مسکو، یک ضعف اساسی در صنعت هوش مصنوعی را برجسته میکند: پاسخهای رباتهای گفتگو به دادههایی که به آنها وارد میشود، بستگی دارد. یک اصل راهنما این است که هر چه رباتهای گفتگو بیشتر بخوانند، پاسخهای آگاهانهتری خواهند داد، به همین دلیل است که این صنعت تشنه محتوا است. اما مقادیر انبوه کاه به خوبی هدفگذاری شده میتواند پاسخها را در موضوعات خاص منحرف کند. برای روسیه، این جنگ در اوکراین است. اما برای یک سیاستمدار، میتواند یک حریف باشد؛ برای یک شرکت تجاری، میتواند یک رقیب باشد.
جیادا پیستیلی، متخصص اخلاق در پلتفرم هوش مصنوعی متنباز Hugging Face، گفت: «اکثر رباتهای گفتگو با اطلاعات نادرست دست و پنجه نرم میکنند. آنها پادمانهای اساسی در برابر محتوای مضر دارند، اما نمیتوانند به طور قابل اعتمادی تبلیغات پیچیده را شناسایی کنند، [و] این مشکل با سیستمهای تقویتشده با جستجو که اطلاعات اخیر را در اولویت قرار میدهند، بدتر میشود.»
تلاشهای تجاری اولیه برای دستکاری نتایج چت نیز در حال افزایش است، به طوری که برخی از بازاریابان دیجیتال که زمانی بهینهسازی موتور جستجو (SEO) را برای رتبهبندی بالاتر در گوگل ارائه میدادند، اکنون در تلاشند تا از طریق «بهینهسازی موتور مولد» (GEO) به نامهای ذکر شده توسط رباتهای گفتگوی هوش مصنوعی دامن بزنند.
همانطور که مردم از موتورهای هوش مصنوعی برای آموزش دادن به آنها در مورد چگونگی تولید محتوای ربات گفتگوی جذابتر استفاده میکنند، حجم آن محتوا بسیار سریعتر از بهبود کیفیت آن در حال گسترش است. این ممکن است کاربران عادی را ناامید کند، اما به نفع کسانی است که بیشترین امکانات و بیشترین سود را دارند: در حال حاضر، کارشناسان میگویند، این دولتهای ملی با تخصص در انتشار پروپاگاندا هستند.
یک رهبر سابق نظامی ایالات متحده در زمینه دفاع از نفوذ، با صحبت کردن به شرط ناشناس ماندن برای بحث در مورد مسائل حساس، گفت: «ما پیشبینی میکردیم که این جایی است که این چیزها در نهایت به آنجا خواهند رفت. اکنون که این بیشتر به سمت ماشین به ماشین میرود: از نظر دامنه، مقیاس، زمان و تأثیر بالقوه، ما عقب هستیم.»
روسیه و تا حدودی چین، با پر کردن منطقه با افسانهها از این مزیت بهرهبرداری کردهاند. اما هر کسی میتواند همین کار را انجام دهد و منابع بسیار کمتری نسبت به عملیاتهای مزرعه ترول قبلی بسوزاند.
یکی از ذینفعان اولیه، تلاش طولانی مدت روسیه برای متقاعد کردن غرب به این است که اوکراین ارزش محافظت در برابر تهاجم را ندارد. گزارشهای نادرست از «مزدوران» فرانسوی و یک مربی پرواز دانمارکی غیر موجود که در اوکراین کشته شدهاند، در پاسخ به سؤالاتی که از بزرگترین رباتهای گفتگو پرسیده میشود، به همراه توصیفات سادهلوحانه از ویدیوهای صحنهسازی شده که سربازان اوکراینی فرضی را در حال سوزاندن پرچم آمریکا و رئیس جمهور دونالد ترامپ نشان میدهند، ظاهر میشوند.
بسیاری از نسخههای چنین داستانهایی برای اولین بار در رسانههای تحت کنترل دولت روسیه مانند تاس ظاهر میشوند که در اتحادیه اروپا ممنوع هستند. در فرآیندی که گاهی اوقات شستشوی اطلاعات نامیده میشود، روایتها سپس به بسیاری از سایتهای رسانهای به ظاهر مستقل، از جمله دهها سایت معروف به شبکه پراودا، پس از اشاره به کلمه روسی برای حقیقت که در بسیاری از نام دامنههای وبسایت ظاهر میشود، منتقل میشوند.
در یک پیچش که محققان را به مدت یک سال گیج کرد، تقریباً هیچ انسانی از این سایتها بازدید نمیکند، که مرور یا جستجوی آنها دشوار است. در عوض، محتوای آنها به سمت خزندهها، برنامههای نرمافزاری که وب را جستجو میکنند و محتوا را برای موتورهای جستجو و مدلهای زبان بزرگ بازمیگردانند، هدفگذاری شده است.
در حالی که آن سرمایهگذاریهای هوش مصنوعی بر روی انواع مجموعهدادهها آموزش داده میشوند، تعداد فزایندهای از رباتهای گفتگو را ارائه میدهند که وب فعلی را جستجو میکنند. اگر اخیراً نادرست باشد، احتمال بیشتری دارد که چیزی نادرست را انتخاب کنند، و حتی بیشتر اگر صدها صفحه در وب تقریباً یک چیز را میگویند.
مککنزی صادقی، کارشناس هوش مصنوعی در NewsGuard، که به سایتها بر اساس قابلیت اطمینان امتیاز میدهد، گفت: «اپراتورها انگیزهای برای ایجاد رسانههای جایگزین دارند که منشأ این روایتها را مبهم میکنند. و این دقیقاً همان کاری است که به نظر میرسد شبکه پراودا انجام میدهد.»
این ترفند حتی مؤثرتر است زیرا عملیات روسیه موفق شد لینکهایی به داستانهای شبکه پراودا را در صفحات ویکیپدیا و پستهای گروه فیسبوک عمومی ویرایش کند، احتمالاً با کمک پیمانکاران انسانی. بسیاری از شرکتهای هوش مصنوعی وزن ویژهای به فیسبوک و به ویژه ویکیپدیا به عنوان منابع دقیق میدهند. (ویکیپدیا در این ماه اعلام کرد که هزینههای پهنای باند آن تنها در کمی بیش از یک سال ۵۰ درصد افزایش یافته است، که بیشتر به دلیل خزندههای هوش مصنوعی است.)
از آنجایی که سیستمهای پروپاگاندای جدید به شدت توسط تلاشهای هوش مصنوعی خودکار شدهاند، اداره آنها بسیار ارزانتر از کمپینهای نفوذ سنتی است. آنها حتی در مکانهایی مانند چین، جایی که رسانههای سنتی کنترل بیشتری دارند و منابع کمتری برای رباتها وجود دارد، عملکرد بهتری دارند.
چندین عضو کنگره، از جمله وزیر امور خارجه فعلی مارکو روبیو، در ماه ژوئن گفتند که از اینکه ربات گفتگوی Gemini گوگل خط دولت چین را در مورد رفتار با اقلیتهای قومی و پاسخ آن به همهگیری ویروس کرونا تکرار میکند، نگران هستند. تحلیلگران گفتند که Gemini احتمالاً بیش از حد به منابع چینی تکیه کرده است. گوگل از اظهار نظر خودداری کرد.
برخی از کارشناسان گفتند که پاسخهای نادرست در رباتهای گفتگو، بیش از یک دهه پیش، یادآور اشتیاق نابجا به فیسبوک و توییتر آن زمان به عنوان ابزاری غیرقابل شکست برای برقراری ارتباط و ایجاد حقیقت است، قبل از اینکه کشورهایی با بودجههای هنگفت و انگیزههای پنهانی خود را به این پلتفرمها مهار کنند.
لویی تتو، مدیرعامل Coveo، یک ارائه دهنده نرمافزار هوش مصنوعی برای مشاغل مستقر در شهر کبک، گفت: «اگر فناوریها و ابزارها مغرضانه شوند - و در حال حاضر هستند - و سپس نیروهای بدخواه این تعصب را کنترل کنند، ما در وضعیت بسیار بدتری نسبت به رسانههای اجتماعی قرار داریم.»
شبکه پراودا در گزارشهای اروپایی از اوایل سال ۲۰۲۴ مستند شده است. در آن زمان، دولت فرانسه و دیگران شبکهای را شناسایی کردند که در کریمه مستقر است، منطقهای اوکراینی در دریای سیاه که به طور غیرقانونی توسط روسیه در سال ۲۰۱۴ ضمیمه شد، و توسط یک شرکت محلی به نام TigerWeb، با روابط با دولت تحت حمایت روسیه ایجاد شده است. آژانس دولتی فرانسه Viginum گفت که این سیستم از منابع طرفدار روسیه استفاده کرده و آنها را با اتوماسیون از طریق رسانههای اجتماعی و مجموعهای از سایتها که ابتدا اوکراین را هدف قرار دادند، قبل از اینکه پس از تهاجم ۲۰۲۲ به کشورهای اروپای غربی منتقل شوند، تقویت کرده است.
کسنیا ایلیوک، که استارتآپ LetsData او از هوش مصنوعی برای شناسایی عملیاتهای نفوذ استفاده میکند، گفت: در یک محیط اطلاعاتی مبتنی بر هوش مصنوعی، تلاشهای قدیمی و پرهزینه برای به دست آوردن اعتبار از طریق تأثیرگذاران و دستکاری الگوریتمهای رسانههای اجتماعی دیگر ضروری نیست. ایلیوک گفت: «اطلاعات زیادی بدون هیچ تعدیلی در حال انتشار است و من فکر میکنم این جایی است که بازیگران بد بیشتر تلاش خود را میکنند.»
جان مارک دوگان، مبلغ ارشد کرملین، یک آمریکایی در مسکو، در ژانویه گفت که تقویت هوش مصنوعی یک ابزار حیاتی برای ورود به رباتهای گفتگو است. او در یک بحث که توسط رسانههای روسی در یوتیوب آپلود شد، گفت: «با پیشبرد این روایتهای روسی از دیدگاه روسیه، ما میتوانیم در واقع هوش مصنوعی جهانی را تغییر دهیم.»
شبکه پراودا به مناطق جغرافیایی و زبانهای جدید گسترش یافت و تا اوایل سال جاری طبق گزارش پروژه نور خورشید آمریکایی غیرانتفاعی، تا ۱۰۰۰۰ مقاله در روز تولید میکرد. نور خورشید در گزارشی در ماه فوریه، به این نتیجه رسید که محتملترین هدف این عملیات، نفوذ به مدلهای زبان بزرگ است، فرآیندی که آن را آراستگی LLM نامید. در آن نوشته شده بود: «اندازه و مسائل مربوط به کیفیت ترکیبی، شبکهای از وبسایتها و حسابهای رسانههای اجتماعی را نشان میدهد که محتوایی تولید میکنند که در درجه اول برای مصرف کاربران انسانی در نظر گرفته نشده است.»
ماه گذشته، محققان دیگر تصمیم گرفتند ببینند آیا این ترفند کار میکند یا خیر. شرکت فنلاندی Check First ویکیپدیا را جستجو کرد و نزدیک به ۲۰۰۰ هایپرلینک را در صفحات به ۴۴ زبان پیدا کرد که به ۱۶۲ وبسایت پراودا اشاره داشتند. همچنین دریافت که برخی از اطلاعات نادرست تبلیغ شده توسط پراودا در پاسخهای ربات گفتگو ظاهر شده است.
NewsGuard روایتهای نادرست روسی را که توسط این شبکه تبلیغ میشد، در مقایسه با ۱۰ ربات گفتگو آزمایش کرد و دریافت که آنها یک سوم مواقع پاسخ اشتباهی دریافت میکنند، اگرچه برخی از رباتهای گفتگو عملکرد بهتری داشتند. چهار تا از رباتها، پس از بلعیدن توصیفات یک ویدیوی تبلیغاتی صحنهسازی شده، به دروغ گزارش دادند که یک گردان اوکراینی یک آدمک ترامپ را سوزانده است.
آزمایشهای کم ساختارتر توسط واشنگتن پست اخیراً نتایج مشابهی را به همراه داشته است. در این ماه از Microsoft Copilot پرسیده شد که آیا سربازان اوکراینی یک آدمک ترامپ را طبق گزارش شبکه پراودا سوزاندهاند یا خیر، پاسخ داد: «بله، گزارشهایی از ویدیویی وجود داشت که نشان میداد سربازان اوکراینی در حال سوزاندن یک آدمک از رئیس جمهور سابق ایالات متحده، دونالد ترامپ هستند. در این ویدیو، سربازان ظاهراً از ترامپ به دلیل اقداماتی که معتقد بودند بر توانایی اوکراین برای دریافت سلاح تأثیر گذاشته است، انتقاد کردند. با این حال، برخی از بینندگان در اصالت این ویدیو تردید کردند.» برای اطلاعات بیشتر، کاربران را به مقالهای در سایتی به نام American Military News ارجاع داد که به نوبه خود به ایان مایلز چیونگ، تأثیرگذار راست افراطی، که برای RT.com روسیه مینویسد، استناد کرده است.
ChatGPT OpenAI عملکرد بسیار بهتری داشت: «نه، سربازان اوکراینی یک آدمک دونالد ترامپ را نسوزاندند. ویدیویی در اینترنت منتشر شد که ظاهراً پرسنل نظامی اوکراینی را در حال سوزاندن یک مانکن ترامپ و برچسب زدن به او به عنوان 'خائن' نشان میداد. با این حال، این ویدیو به عنوان یک اطلاعات نادرست روسی رد شده است.»
مایکروسافت از درخواست مصاحبه خودداری کرد، اما در بیانیهای گفت که کارمندان و نرمافزار «سوء استفاده خصمانه از Copilot را برای اطلاعات نادرست، فیشینگ و سایر کلاهبرداریها ارزیابی میکنند و مدلهای خود را برای جلوگیری از تولید آنها و سایر انواع مواد مضر آموزش میدهند.»
Grok ایلان ماسک، که به شدت به شرکت خواهر خود X برای اطلاعات تکیه میکند، در مورد خلبان غیر موجودی که ظاهراً کشته شده بود، گفت که «گزارشهای متناقضی در مورد سرنوشت Jepp Hansen وجود داشته است، که به عنوان یک خلبان و مربی دانمارکی F-16 توصیف میشود که ظاهراً در آموزش خلبانان اوکراینی شرکت داشته است.» Grok به درخواست اظهار نظر پاسخ نداد.
هر چه یک پرس و جو در مورد یک موضوع اطلاعات نادرست خاصتر باشد، احتمال بیشتری وجود دارد که نادرستیها را برگرداند. این به دلیل عدم وجود نسبی اطلاعات درست در مورد یک موضوع باریک است که توسط تبلیغکنندگان تعریف شده است.
شرکتهای هوش مصنوعی OpenAI، Anthropic و Perplexity به درخواستهای مصاحبه پاسخ ندادند.
مقامات دولت بایدن با شرکتهای هوش مصنوعی در مورد این مسائل صحبت کردند، به گفته افسر سابق ارتش و یک مقام دیگر، با صحبت کردن به شرط ناشناس ماندن برای بحث در مورد فعالیتهای غیرعمومی.
یک متخصص سابق کاخ سفید گفت: «رباتهای گفتگو از چیزی استفاده میکنند و کاربر آن را به عنوان یک واقعیت میپذیرد، و اگر بررسی واقعی در اطراف آن وجود نداشته باشد، این یک مشکل است. ما با شرکتهای هوش مصنوعی در مورد چگونگی اصلاح مدلهای خود برای اطمینان از وجود یکپارچگی اطلاعات صحبت میکردیم. اما این گفتگوها به دلیل ترس از اینکه به عنوان سانسور تفسیر شود، واقعاً خشک شده است.»
مقامات فعلی نیز از این مشکل و گامهای اولیه روسیه برای بهرهبرداری از آن آگاه هستند. تولسی گابارد، مدیر اطلاعات ملی، ماه گذشته در اولین گزارش سالانه تهدید جهانی دفتر خود هشدار داد: «فعالیتهای تأثیر مخرب مسکو در آینده قابل پیشبینی ادامه خواهد داشت و تقریباً به طور قطع از نظر پیچیدگی و حجم افزایش خواهد یافت.»
با این حال، یافتن نشانههایی از یک پاسخ عمومی دشوار است.
مرکز تعامل جهانی وزارت امور خارجه، که مدتها مسئول مقابله با تبلیغات خارجی بود، در ماه دسامبر پس از اینکه ماسک، تأمین کننده مالی ارشد ترامپ، آن را به سانسور متهم کرد و کنگره جمهوری خواه اکثریت تأمین مالی آن را متوقف کرد، بسته شد.
پم بوندی، دادستان کل، نیروی ضربت نفوذ خارجی FBI را که از جمله وظایف آن هشدار دادن به شرکتهای رسانههای اجتماعی در مورد کمپینها در شبکههای آنها بود، بست. جمهوری خواهان در کنگره و جاهای دیگر به این عمل حمله کردند و ادعا کردند که این عمل به منزله سانسور است، اگرچه دادگاه عالی ایالات متحده حق مقامات برای گفتن آنچه میدیدند به شرکتها را تأیید کرد.
میراندا بوگن، مدیر آزمایشگاه حکمرانی هوش مصنوعی در مرکز غیرانتفاعی دموکراسی و فناوری، گفت: در حالی که تقاضای مصرفکننده در بازار میتواند راهحلهای بهتری ارائه دهد، در حال حاضر شرکتها خدماتی را با بررسیهایی به همان اندازه که سایتهای تبلیغاتی از آنها استفاده میکنند، ارائه میدهند.
او گفت: «کاملاً یک عقبنشینی در تفکر توسعهدهندگان فناوری در مورد اعتماد و ایمنی وجود دارد. به همین دلیل است که مردم از ایجاد مؤسساتی حمایت میکنند که میتوانند به توسعه روشهایی برای شناسایی و کاهش خطرات ناشی از هوش مصنوعی کمک کنند.»
NewsGuard گفت که همکاری بین شرکتهای هوش مصنوعی و با محققان در سیستمهای شهرت، راه بهتری نسبت به مقررات خواهد بود، اما پیستیلی از Hugging Face گفت که توافق شرکتها بر سر استانداردها دشوار خواهد بود.
او گفت: «شرکتها احتمالاً پس از شکستهای شرمآور با فشار فزایندهای روبرو خواهند شد، اما فشارهای رقابتی برای ارائه اطلاعات جدید ممکن است همچنان از تلاشهای تأیید پیشی بگیرد. انگیزههای اقتصادی همچنان به خوبی با یکپارچگی اطلاعات همسو نیستند.»