(تصویرسازی واشنگتن پست; iStock, Getty)
(تصویرسازی واشنگتن پست; iStock, Getty)

بالاخره، چیزی در حال سوراخ کردن تئوری‌های توطئه است

مایکل پروتزمن، پیمانکار سابق تخریب در سیاتل، پیروانی از باورمندان به تئوری توطئه QAnon را به خود جذب کرد که آنقدر به پیشگویی‌های او وفادار بودند که صدها نفر از آن‌ها در ۱ نوامبر ۲۰۲۱ به دالاس سفر کردند تا جان اف. کندی و جان اف. کندی جونیور را در تپه‌ای چمن‌زار مجاور محل ترور JFK ببینند و دونالد ترامپ را «پادشاه پادشاهان» بنامند.

وقتی کندی‌های درگذشته ظاهر نشدند، حامیان پروتزمن او را به کنسرت رولینگ استونز در همان نزدیکی دنبال کردند، جایی که او پیش‌بینی کرد کیت ریچاردز، میک جگر و استیو جردن ماسک‌های خود را برمی‌دارند و هویت واقعی خود را آشکار می‌کنند: JFK، مایکل جکسون و پرینس، به ترتیب. هنگامی که این پرده‌برداری رخ نداد، بسیاری از اعضای گروه ماه‌ها در دالاس منتظر ماندند و برای پرداخت قبوض خود در Hyatt Regency از حامیان آنلاین پول جمع‌آوری کردند.

شکست دالاس باعث شد پروتزمن تعدادی از پیروان خود را از دست بدهد، اما عزم بقیه را راسخ‌تر کرد. وفادارترین باورمندان او حتی حاضر نشدند باور کنند که پروتزمن در سال ۲۰۲۳ درگذشت.

پرونده پروتزمن و پیروان QAnon او بی‌سابقه نیست. محققان دهه‌هاست که تلاش می‌کنند تا تکنیک‌هایی برای تضعیف نفوذ تئوری‌های توطئه و ایدئولوژی‌های فرقه‌ای بر پیروان آن‌ها توسعه دهند.

به همین دلیل است که مقاله جدیدی در مجله Science توسط توماس کاستلو از دانشکده مدیریت اسلون MIT، گوردون پنی‌کوک از دانشگاه کرنل و دیوید رند، همچنین از اسلون، بسیار هیجان‌انگیز است. این مقاله به فناوری جدید امید می‌بندد: یک شریک مکالمه که توسط هوش مصنوعی تغذیه می‌شود.

در یک جفت مطالعه با مشارکت بیش از ۲۰۰۰ شرکت‌کننده، محققان پس از تعامل شرکت‌کنندگان با یک GPT-4 Turbo قدرتمند، انعطاف‌پذیر و شخصی‌سازی‌شده، ۲۰ درصد کاهش در اعتقاد به تئوری‌های توطئه مشاهده کردند. محققان هوش مصنوعی را آموزش دادند تا با رد شواهد خاصی که شرکت‌کنندگان برای حمایت از تئوری توطئه مورد علاقه خود ارائه می‌کردند، شرکت‌کنندگان را متقاعد کند تا اعتقاد خود به توطئه‌ها را کاهش دهند.

این کاهش در اعتقاد در طیف وسیعی از موضوعات، از جمله کووید-۱۹ و نتیجه انتخابات ریاست‌جمهوری سال ۲۰۲۰، مشاهده شد. حتی تشویق‌کننده‌تر اینکه، شرکت‌کنندگان تمایل بیشتری برای نادیده گرفتن یا لغو دنبال کردن حساب‌های رسانه‌های اجتماعی که این توطئه‌ها را ترویج می‌کنند، نشان دادند و تمایل قابل توجهی برای نادیده گرفتن یا مخالفت با سایر باورمندان به توطئه از خود نشان دادند.

و به نظر می‌رسد نتایج ماندگار هستند و در ارزیابی‌های ۱۰ روز و دو ماه بعد نیز پابرجا هستند.

این نتیجه شگفت‌انگیزی است، به ویژه با توجه به شکست‌های قبلی مداخلات علمی برای کاهش قابل توجه اعتقاد. با توجه به ناکارآمدی رویدادهای واقعی در تغییر ذهنیت، مانند پرونده پروتزمن، و این واقعیت که به نظر نمی‌رسد هیچ مقدار بحث و جدل در روز شکرگزاری اهمیتی داشته باشد، تصویر تا به امروز تیره و تار بوده است.

چرا هوش مصنوعی توانست افراد را متقاعد کند تا ذهن خود را تغییر دهند؟ نویسندگان این فرضیه را مطرح می‌کنند که برای ایجاد تغییر در باور، «فقط شواهد درست» متناسب با فرد، لازم است، و خاطرنشان می‌کنند: «از دیدگاه نظری، این تصویر شگفت‌انگیزی خوش‌بینانه از استدلال انسانی ترسیم می‌کند: ممکن است سوراخ‌های خرگوش توطئه‌آمیز واقعاً خروجی داشته باشند. نیازها و انگیزه‌های روان‌شناختی ذاتاً توطئه‌گران را نسبت به شواهد کور نمی‌کند.»

این نتیجه‌گیری این سوال را مطرح می‌کند: چرا عدم حضور کندی و پسرش - شواهدی که به نظر می‌رسد کاملاً متناسب با توطئه‌گران باشد - این باورهای نادرست را از بین نبرد، اما به نظر می‌رسد استدلال‌های هوش مصنوعی متناسب با فرد کارساز است؟ من گمان می‌کنم تفاوت در نحوه درک شرکت‌کنندگان از این فناوری نهفته است. با توجه به اینکه غیرانسانی است، شرکت‌کنندگان احتمالاً آن را به عنوان یک منبع بی‌طرف و نه تهدیدی برای هویت خود می‌دیدند.

وقتی کسی موضعی افراطی اتخاذ می‌کند، فاصله بین خود و گروه را افزایش می‌دهد. این فاصله باعث می‌شود که این موضع برای هویت یکپارچه‌تر شود، بخشی از روشی که یک فرد خود را متمایز از سایر افراد تعریف می‌کند. هنگامی که باوری برای هویت یکپارچه شد، ماندگار می‌شود.

هفتاد سال پیش، لئون فستینگر، که مفهوم ناهماهنگی شناختی را ابداع کرد، ماه‌ها به مشاهده اعضای یک فرقه آخرالزمانی پرداخت در حالی که آن‌ها منتظر ورود بیگانگانی بودند که بشریت را نابود می‌کنند اما باورمندان واقعی را در ۲۰ دسامبر ۱۹۵۴ در امان نگه می‌دارند. هنگامی که هیچ سفینه فضایی بیگانه از راه نرسید و زمین در سیل نابود نشد، بیشتر پیروان همان کاری را انجام دادند که بسیاری از باورمندان QAnon در دالاس انجام دادند. به طور متناقضی، آن‌ها به اعتقاد خود به این پیشگویی پایبند بودند و تعهد خود را به گروه افزایش دادند. هویت بر واقعیت‌ها پیروز شد، حتی واقعیت‌هایی که کاملاً متناسب با رد این پیشگویی بودند.

شهود ما نیز به ما می‌گوید که مشوق‌های درست باید افراد را به سمت واقعیت سوق دهند. با این حال، حتی مشوق‌های مالی نیز برای غلبه بر هویت کافی نیستند. جان بسیرز، که اکنون در دانشکده تجارت هاروارد است، و کیتی میلکمن، استاد دانشکده وارتون دانشگاه پنسیلوانیا و نویسنده کتاب پرفروش «چگونه تغییر کنیم» در سال ۲۰۲۱، ۱۸ سال برآوردهای درآمد شرکت‌ها و به‌روزرسانی‌های بیش از ۶۰۰۰ تحلیلگر سهام را بررسی کردند. آن‌ها می‌خواستند بدانند که آیا تحلیلگرانی که برآوردهای درآمدی ارائه کرده‌اند که با اجماع فاصله زیادی داشته است، هنگامی که بعداً نتایج واقعی پیش‌بینی‌های آن‌ها را تأیید نکرد، مواضع خود را تغییر داده‌اند یا خیر.

تحلیلگران ذهن خود را تغییر ندادند. و فقط این نیست که تحلیلگران سهام لجباز هستند، زیرا هنگامی که همان تحلیلگران برآوردهای درآمدی مبتنی بر اجماع ارائه کردند، در صورت مغایرت درآمدهای واقعی با آن‌ها، پیش‌بینی‌های خود را به‌روز کردند. فقط زمانی بود که آن‌ها از جمع متمایز شدند که به باورهای خود پایبند ماندند.

تحلیلگران سهام هیچ انگیزه مالی برای پایبندی به برآوردهای نادرست ندارند. در واقع، کاملاً برعکس است. آن‌ها هنگامی که پیش‌بینی‌های نادرست درآمدی ارائه می‌کردند، به دلیل لجبازی خود مجازات می‌شدند. از این نظر، تحلیلگران رفتاری مشابه اعضای فرقه‌ای داشتند که موضعی افراطی و تعیین‌کننده هویت اتخاذ کرده بودند.

دوری کردن از کسی که هستید دشوار است، خواه شما یک باورمند QAnon، یک تخت‌گرا، یک حقیقت‌جو از هر نوع، یا فقط یک تحلیلگر سهام باشید که موضعی اتخاذ کرده است که شما را از جمع متمایز می‌کند.

و به همین دلیل است که رویکرد هوش مصنوعی می‌تواند بسیار خوب عمل کند. شرکت‌کنندگان با یک انسان تعامل نداشتند، که من گمان می‌کنم هویت را به همان روش تحریک نمی‌کرد و به شرکت‌کنندگان اجازه می‌داد تا ذهنی بازتر داشته باشند. هویت بخش بزرگی از این تئوری‌های توطئه از نظر متمایز بودن، ایجاد فاصله بین شما و سایر افراد است. هنگامی که با هوش مصنوعی تعامل می‌کنید، با یک انسان که ممکن است در تقابل با او باشید بحث نمی‌کنید، که می‌تواند باعث شود ذهن شما کمتر باز باشد.

حدود ۷۰ سال ناامیدکننده برای علم تغییر باور از زمانی که فستینگر برای اولین بار ناهماهنگی شناختی را شناسایی کرد، گذشته است. و این چیزی است که وعده هوش مصنوعی در کاهش اعتقاد به توطئه‌ها را بسیار هیجان‌انگیز می‌کند.