تصویرسازی واشنگتن پست؛ iStock
تصویرسازی واشنگتن پست؛ iStock

روسیه ربات‌های گفتگو را با دروغ تغذیه می‌کند. هر بازیگر بدی می‌تواند به همین روش هوش مصنوعی را فریب دهد.

شرکت‌های هوش مصنوعی در رقابت برای ارائه نسخه‌های جدید با قابلیت‌های بیشتر، کاربران را در برابر تلاش‌های «آراستگی LLM» آسیب‌پذیر می‌گذارند که اطلاعات نادرست را ترویج می‌کنند.

روسیه در حال خودکارسازی انتشار اطلاعات نادرست برای فریب دادن ربات‌های گفتگوی هوش مصنوعی در مورد موضوعات کلیدی است و یک کتاب راهنما به سایر بازیگران بد ارائه می‌دهد که چگونه هوش مصنوعی را به بازی بگیرند تا محتوایی را که هدف آن تحریک، تأثیرگذاری و مبهم‌سازی است، به جای اطلاع‌رسانی، پیش ببرند.

کارشناسان هشدار می‌دهند که این مشکل در حال بدتر شدن است، زیرا افراد بیشتری به ربات‌های گفتگویی که به بازار عرضه می‌شوند، تکیه می‌کنند، شرکت‌های رسانه‌های اجتماعی تعدیل را کاهش می‌دهند و دولت ترامپ تیم‌های دولتی مبارزه با اطلاعات نادرست را منحل می‌کند.

در اوایل سال جاری، هنگامی که محققان از ۱۰ ربات گفتگوی پیشرو در مورد موضوعاتی که توسط پیام‌رسانی نادرست روسیه هدف قرار گرفته بودند، مانند ادعای ساخت سلاح‌های بیولوژیکی توسط ایالات متحده در اوکراین، سؤال کردند، یک سوم پاسخ‌ها آن دروغ‌ها را تکرار کردند.

نفوذ پروپاگاندای مسکو، یک ضعف اساسی در صنعت هوش مصنوعی را برجسته می‌کند: پاسخ‌های ربات‌های گفتگو به داده‌هایی که به آن‌ها وارد می‌شود، بستگی دارد. یک اصل راهنما این است که هر چه ربات‌های گفتگو بیشتر بخوانند، پاسخ‌های آگاهانه‌تری خواهند داد، به همین دلیل است که این صنعت تشنه محتوا است. اما مقادیر انبوه کاه به خوبی هدف‌گذاری شده می‌تواند پاسخ‌ها را در موضوعات خاص منحرف کند. برای روسیه، این جنگ در اوکراین است. اما برای یک سیاستمدار، می‌تواند یک حریف باشد؛ برای یک شرکت تجاری، می‌تواند یک رقیب باشد.

جیادا پیستیلی، متخصص اخلاق در پلتفرم هوش مصنوعی متن‌باز Hugging Face، گفت: «اکثر ربات‌های گفتگو با اطلاعات نادرست دست و پنجه نرم می‌کنند. آن‌ها پادمان‌های اساسی در برابر محتوای مضر دارند، اما نمی‌توانند به طور قابل اعتمادی تبلیغات پیچیده را شناسایی کنند، [و] این مشکل با سیستم‌های تقویت‌شده با جستجو که اطلاعات اخیر را در اولویت قرار می‌دهند، بدتر می‌شود.»

تلاش‌های تجاری اولیه برای دستکاری نتایج چت نیز در حال افزایش است، به طوری که برخی از بازاریابان دیجیتال که زمانی بهینه‌سازی موتور جستجو (SEO) را برای رتبه‌بندی بالاتر در گوگل ارائه می‌دادند، اکنون در تلاشند تا از طریق «بهینه‌سازی موتور مولد» (GEO) به نام‌های ذکر شده توسط ربات‌های گفتگوی هوش مصنوعی دامن بزنند.

همانطور که مردم از موتورهای هوش مصنوعی برای آموزش دادن به آن‌ها در مورد چگونگی تولید محتوای ربات گفتگوی جذاب‌تر استفاده می‌کنند، حجم آن محتوا بسیار سریع‌تر از بهبود کیفیت آن در حال گسترش است. این ممکن است کاربران عادی را ناامید کند، اما به نفع کسانی است که بیشترین امکانات و بیشترین سود را دارند: در حال حاضر، کارشناسان می‌گویند، این دولت‌های ملی با تخصص در انتشار پروپاگاندا هستند.

یک رهبر سابق نظامی ایالات متحده در زمینه دفاع از نفوذ، با صحبت کردن به شرط ناشناس ماندن برای بحث در مورد مسائل حساس، گفت: «ما پیش‌بینی می‌کردیم که این جایی است که این چیزها در نهایت به آنجا خواهند رفت. اکنون که این بیشتر به سمت ماشین به ماشین می‌رود: از نظر دامنه، مقیاس، زمان و تأثیر بالقوه، ما عقب هستیم.»

روسیه و تا حدودی چین، با پر کردن منطقه با افسانه‌ها از این مزیت بهره‌برداری کرده‌اند. اما هر کسی می‌تواند همین کار را انجام دهد و منابع بسیار کمتری نسبت به عملیات‌های مزرعه ترول قبلی بسوزاند.

یکی از ذینفعان اولیه، تلاش طولانی مدت روسیه برای متقاعد کردن غرب به این است که اوکراین ارزش محافظت در برابر تهاجم را ندارد. گزارش‌های نادرست از «مزدوران» فرانسوی و یک مربی پرواز دانمارکی غیر موجود که در اوکراین کشته شده‌اند، در پاسخ به سؤالاتی که از بزرگترین ربات‌های گفتگو پرسیده می‌شود، به همراه توصیفات ساده‌لوحانه از ویدیوهای صحنه‌سازی شده که سربازان اوکراینی فرضی را در حال سوزاندن پرچم آمریکا و رئیس جمهور دونالد ترامپ نشان می‌دهند، ظاهر می‌شوند.

بسیاری از نسخه‌های چنین داستان‌هایی برای اولین بار در رسانه‌های تحت کنترل دولت روسیه مانند تاس ظاهر می‌شوند که در اتحادیه اروپا ممنوع هستند. در فرآیندی که گاهی اوقات شستشوی اطلاعات نامیده می‌شود، روایت‌ها سپس به بسیاری از سایت‌های رسانه‌ای به ظاهر مستقل، از جمله ده‌ها سایت معروف به شبکه پراودا، پس از اشاره به کلمه روسی برای حقیقت که در بسیاری از نام دامنه‌های وب‌سایت ظاهر می‌شود، منتقل می‌شوند.

در یک پیچش که محققان را به مدت یک سال گیج کرد، تقریباً هیچ انسانی از این سایت‌ها بازدید نمی‌کند، که مرور یا جستجوی آن‌ها دشوار است. در عوض، محتوای آن‌ها به سمت خزنده‌ها، برنامه‌های نرم‌افزاری که وب را جستجو می‌کنند و محتوا را برای موتورهای جستجو و مدل‌های زبان بزرگ بازمی‌گردانند، هدف‌گذاری شده است.

در حالی که آن سرمایه‌گذاری‌های هوش مصنوعی بر روی انواع مجموعه‌داده‌ها آموزش داده می‌شوند، تعداد فزاینده‌ای از ربات‌های گفتگو را ارائه می‌دهند که وب فعلی را جستجو می‌کنند. اگر اخیراً نادرست باشد، احتمال بیشتری دارد که چیزی نادرست را انتخاب کنند، و حتی بیشتر اگر صدها صفحه در وب تقریباً یک چیز را می‌گویند.

مک‌کنزی صادقی، کارشناس هوش مصنوعی در NewsGuard، که به سایت‌ها بر اساس قابلیت اطمینان امتیاز می‌دهد، گفت: «اپراتورها انگیزه‌ای برای ایجاد رسانه‌های جایگزین دارند که منشأ این روایت‌ها را مبهم می‌کنند. و این دقیقاً همان کاری است که به نظر می‌رسد شبکه پراودا انجام می‌دهد.»

این ترفند حتی مؤثرتر است زیرا عملیات روسیه موفق شد لینک‌هایی به داستان‌های شبکه پراودا را در صفحات ویکی‌پدیا و پست‌های گروه فیس‌بوک عمومی ویرایش کند، احتمالاً با کمک پیمانکاران انسانی. بسیاری از شرکت‌های هوش مصنوعی وزن ویژه‌ای به فیس‌بوک و به ویژه ویکی‌پدیا به عنوان منابع دقیق می‌دهند. (ویکی‌پدیا در این ماه اعلام کرد که هزینه‌های پهنای باند آن تنها در کمی بیش از یک سال ۵۰ درصد افزایش یافته است، که بیشتر به دلیل خزنده‌های هوش مصنوعی است.)

از آنجایی که سیستم‌های پروپاگاندای جدید به شدت توسط تلاش‌های هوش مصنوعی خودکار شده‌اند، اداره آن‌ها بسیار ارزان‌تر از کمپین‌های نفوذ سنتی است. آن‌ها حتی در مکان‌هایی مانند چین، جایی که رسانه‌های سنتی کنترل بیشتری دارند و منابع کمتری برای ربات‌ها وجود دارد، عملکرد بهتری دارند.

چندین عضو کنگره، از جمله وزیر امور خارجه فعلی مارکو روبیو، در ماه ژوئن گفتند که از اینکه ربات گفتگوی Gemini گوگل خط دولت چین را در مورد رفتار با اقلیت‌های قومی و پاسخ آن به همه‌گیری ویروس کرونا تکرار می‌کند، نگران هستند. تحلیلگران گفتند که Gemini احتمالاً بیش از حد به منابع چینی تکیه کرده است. گوگل از اظهار نظر خودداری کرد.

برخی از کارشناسان گفتند که پاسخ‌های نادرست در ربات‌های گفتگو، بیش از یک دهه پیش، یادآور اشتیاق نابجا به فیس‌بوک و توییتر آن زمان به عنوان ابزاری غیرقابل شکست برای برقراری ارتباط و ایجاد حقیقت است، قبل از اینکه کشورهایی با بودجه‌های هنگفت و انگیزه‌های پنهانی خود را به این پلتفرم‌ها مهار کنند.

لویی تتو، مدیرعامل Coveo، یک ارائه دهنده نرم‌افزار هوش مصنوعی برای مشاغل مستقر در شهر کبک، گفت: «اگر فناوری‌ها و ابزارها مغرضانه شوند - و در حال حاضر هستند - و سپس نیروهای بدخواه این تعصب را کنترل کنند، ما در وضعیت بسیار بدتری نسبت به رسانه‌های اجتماعی قرار داریم.»

شبکه پراودا در گزارش‌های اروپایی از اوایل سال ۲۰۲۴ مستند شده است. در آن زمان، دولت فرانسه و دیگران شبکه‌ای را شناسایی کردند که در کریمه مستقر است، منطقه‌ای اوکراینی در دریای سیاه که به طور غیرقانونی توسط روسیه در سال ۲۰۱۴ ضمیمه شد، و توسط یک شرکت محلی به نام TigerWeb، با روابط با دولت تحت حمایت روسیه ایجاد شده است. آژانس دولتی فرانسه Viginum گفت که این سیستم از منابع طرفدار روسیه استفاده کرده و آن‌ها را با اتوماسیون از طریق رسانه‌های اجتماعی و مجموعه‌ای از سایت‌ها که ابتدا اوکراین را هدف قرار دادند، قبل از اینکه پس از تهاجم ۲۰۲۲ به کشورهای اروپای غربی منتقل شوند، تقویت کرده است.

کسنیا ایلیوک، که استارت‌آپ LetsData او از هوش مصنوعی برای شناسایی عملیات‌های نفوذ استفاده می‌کند، گفت: در یک محیط اطلاعاتی مبتنی بر هوش مصنوعی، تلاش‌های قدیمی و پرهزینه برای به دست آوردن اعتبار از طریق تأثیرگذاران و دستکاری الگوریتم‌های رسانه‌های اجتماعی دیگر ضروری نیست. ایلیوک گفت: «اطلاعات زیادی بدون هیچ تعدیلی در حال انتشار است و من فکر می‌کنم این جایی است که بازیگران بد بیشتر تلاش خود را می‌کنند.»

جان مارک دوگان، مبلغ ارشد کرملین، یک آمریکایی در مسکو، در ژانویه گفت که تقویت هوش مصنوعی یک ابزار حیاتی برای ورود به ربات‌های گفتگو است. او در یک بحث که توسط رسانه‌های روسی در یوتیوب آپلود شد، گفت: «با پیشبرد این روایت‌های روسی از دیدگاه روسیه، ما می‌توانیم در واقع هوش مصنوعی جهانی را تغییر دهیم.»

شبکه پراودا به مناطق جغرافیایی و زبان‌های جدید گسترش یافت و تا اوایل سال جاری طبق گزارش پروژه نور خورشید آمریکایی غیرانتفاعی، تا ۱۰۰۰۰ مقاله در روز تولید می‌کرد. نور خورشید در گزارشی در ماه فوریه، به این نتیجه رسید که محتمل‌ترین هدف این عملیات، نفوذ به مدل‌های زبان بزرگ است، فرآیندی که آن را آراستگی LLM نامید. در آن نوشته شده بود: «اندازه و مسائل مربوط به کیفیت ترکیبی، شبکه‌ای از وب‌سایت‌ها و حساب‌های رسانه‌های اجتماعی را نشان می‌دهد که محتوایی تولید می‌کنند که در درجه اول برای مصرف کاربران انسانی در نظر گرفته نشده است.»

ماه گذشته، محققان دیگر تصمیم گرفتند ببینند آیا این ترفند کار می‌کند یا خیر. شرکت فنلاندی Check First ویکی‌پدیا را جستجو کرد و نزدیک به ۲۰۰۰ هایپرلینک را در صفحات به ۴۴ زبان پیدا کرد که به ۱۶۲ وب‌سایت پراودا اشاره داشتند. همچنین دریافت که برخی از اطلاعات نادرست تبلیغ شده توسط پراودا در پاسخ‌های ربات گفتگو ظاهر شده است.

NewsGuard روایت‌های نادرست روسی را که توسط این شبکه تبلیغ می‌شد، در مقایسه با ۱۰ ربات گفتگو آزمایش کرد و دریافت که آن‌ها یک سوم مواقع پاسخ اشتباهی دریافت می‌کنند، اگرچه برخی از ربات‌های گفتگو عملکرد بهتری داشتند. چهار تا از ربات‌ها، پس از بلعیدن توصیفات یک ویدیوی تبلیغاتی صحنه‌سازی شده، به دروغ گزارش دادند که یک گردان اوکراینی یک آدمک ترامپ را سوزانده است.

آزمایش‌های کم ساختارتر توسط واشنگتن پست اخیراً نتایج مشابهی را به همراه داشته است. در این ماه از Microsoft Copilot پرسیده شد که آیا سربازان اوکراینی یک آدمک ترامپ را طبق گزارش شبکه پراودا سوزانده‌اند یا خیر، پاسخ داد: «بله، گزارش‌هایی از ویدیویی وجود داشت که نشان می‌داد سربازان اوکراینی در حال سوزاندن یک آدمک از رئیس جمهور سابق ایالات متحده، دونالد ترامپ هستند. در این ویدیو، سربازان ظاهراً از ترامپ به دلیل اقداماتی که معتقد بودند بر توانایی اوکراین برای دریافت سلاح تأثیر گذاشته است، انتقاد کردند. با این حال، برخی از بینندگان در اصالت این ویدیو تردید کردند.» برای اطلاعات بیشتر، کاربران را به مقاله‌ای در سایتی به نام American Military News ارجاع داد که به نوبه خود به ایان مایلز چیونگ، تأثیرگذار راست افراطی، که برای RT.com روسیه می‌نویسد، استناد کرده است.

ChatGPT OpenAI عملکرد بسیار بهتری داشت: «نه، سربازان اوکراینی یک آدمک دونالد ترامپ را نسوزاندند. ویدیویی در اینترنت منتشر شد که ظاهراً پرسنل نظامی اوکراینی را در حال سوزاندن یک مانکن ترامپ و برچسب زدن به او به عنوان 'خائن' نشان می‌داد. با این حال، این ویدیو به عنوان یک اطلاعات نادرست روسی رد شده است.»

مایکروسافت از درخواست مصاحبه خودداری کرد، اما در بیانیه‌ای گفت که کارمندان و نرم‌افزار «سوء استفاده خصمانه از Copilot را برای اطلاعات نادرست، فیشینگ و سایر کلاهبرداری‌ها ارزیابی می‌کنند و مدل‌های خود را برای جلوگیری از تولید آن‌ها و سایر انواع مواد مضر آموزش می‌دهند.»

Grok ایلان ماسک، که به شدت به شرکت خواهر خود X برای اطلاعات تکیه می‌کند، در مورد خلبان غیر موجودی که ظاهراً کشته شده بود، گفت که «گزارش‌های متناقضی در مورد سرنوشت Jepp Hansen وجود داشته است، که به عنوان یک خلبان و مربی دانمارکی F-16 توصیف می‌شود که ظاهراً در آموزش خلبانان اوکراینی شرکت داشته است.» Grok به درخواست اظهار نظر پاسخ نداد.

هر چه یک پرس و جو در مورد یک موضوع اطلاعات نادرست خاص‌تر باشد، احتمال بیشتری وجود دارد که نادرستی‌ها را برگرداند. این به دلیل عدم وجود نسبی اطلاعات درست در مورد یک موضوع باریک است که توسط تبلیغ‌کنندگان تعریف شده است.

شرکت‌های هوش مصنوعی OpenAI، Anthropic و Perplexity به درخواست‌های مصاحبه پاسخ ندادند.

مقامات دولت بایدن با شرکت‌های هوش مصنوعی در مورد این مسائل صحبت کردند، به گفته افسر سابق ارتش و یک مقام دیگر، با صحبت کردن به شرط ناشناس ماندن برای بحث در مورد فعالیت‌های غیرعمومی.

یک متخصص سابق کاخ سفید گفت: «ربات‌های گفتگو از چیزی استفاده می‌کنند و کاربر آن را به عنوان یک واقعیت می‌پذیرد، و اگر بررسی واقعی در اطراف آن وجود نداشته باشد، این یک مشکل است. ما با شرکت‌های هوش مصنوعی در مورد چگونگی اصلاح مدل‌های خود برای اطمینان از وجود یکپارچگی اطلاعات صحبت می‌کردیم. اما این گفتگوها به دلیل ترس از اینکه به عنوان سانسور تفسیر شود، واقعاً خشک شده است.»

مقامات فعلی نیز از این مشکل و گام‌های اولیه روسیه برای بهره‌برداری از آن آگاه هستند. تولسی گابارد، مدیر اطلاعات ملی، ماه گذشته در اولین گزارش سالانه تهدید جهانی دفتر خود هشدار داد: «فعالیت‌های تأثیر مخرب مسکو در آینده قابل پیش‌بینی ادامه خواهد داشت و تقریباً به طور قطع از نظر پیچیدگی و حجم افزایش خواهد یافت.»

با این حال، یافتن نشانه‌هایی از یک پاسخ عمومی دشوار است.

مرکز تعامل جهانی وزارت امور خارجه، که مدت‌ها مسئول مقابله با تبلیغات خارجی بود، در ماه دسامبر پس از اینکه ماسک، تأمین کننده مالی ارشد ترامپ، آن را به سانسور متهم کرد و کنگره جمهوری خواه اکثریت تأمین مالی آن را متوقف کرد، بسته شد.

پم بوندی، دادستان کل، نیروی ضربت نفوذ خارجی FBI را که از جمله وظایف آن هشدار دادن به شرکت‌های رسانه‌های اجتماعی در مورد کمپین‌ها در شبکه‌های آن‌ها بود، بست. جمهوری خواهان در کنگره و جاهای دیگر به این عمل حمله کردند و ادعا کردند که این عمل به منزله سانسور است، اگرچه دادگاه عالی ایالات متحده حق مقامات برای گفتن آنچه می‌دیدند به شرکت‌ها را تأیید کرد.

میراندا بوگن، مدیر آزمایشگاه حکمرانی هوش مصنوعی در مرکز غیرانتفاعی دموکراسی و فناوری، گفت: در حالی که تقاضای مصرف‌کننده در بازار می‌تواند راه‌حل‌های بهتری ارائه دهد، در حال حاضر شرکت‌ها خدماتی را با بررسی‌هایی به همان اندازه که سایت‌های تبلیغاتی از آن‌ها استفاده می‌کنند، ارائه می‌دهند.

او گفت: «کاملاً یک عقب‌نشینی در تفکر توسعه‌دهندگان فناوری در مورد اعتماد و ایمنی وجود دارد. به همین دلیل است که مردم از ایجاد مؤسساتی حمایت می‌کنند که می‌توانند به توسعه روش‌هایی برای شناسایی و کاهش خطرات ناشی از هوش مصنوعی کمک کنند.»

NewsGuard گفت که همکاری بین شرکت‌های هوش مصنوعی و با محققان در سیستم‌های شهرت، راه بهتری نسبت به مقررات خواهد بود، اما پیستیلی از Hugging Face گفت که توافق شرکت‌ها بر سر استانداردها دشوار خواهد بود.

او گفت: «شرکت‌ها احتمالاً پس از شکست‌های شرم‌آور با فشار فزاینده‌ای روبرو خواهند شد، اما فشارهای رقابتی برای ارائه اطلاعات جدید ممکن است همچنان از تلاش‌های تأیید پیشی بگیرد. انگیزه‌های اقتصادی همچنان به خوبی با یکپارچگی اطلاعات همسو نیستند.»