تصویرسازی از ماتئو جوزپه پانی / آتلانتیک
تصویرسازی از ماتئو جوزپه پانی / آتلانتیک

بحران توهم ناشی از چت‌بات‌ها

محققان در تلاشند تا بفهمند چرا هوش مصنوعی مولد برخی افراد را به سمت یک وضعیت «روان‌پریشی» سوق می‌دهد.

چت‌بات‌ها به عنوان همراهانی عالی بازاریابی می‌شوند که قادرند در هر زمان به هر سؤالی پاسخ دهند. آنها فقط ابزار نیستند، بلکه محرم اسرارند؛ تکالیف شما را انجام می‌دهند، نامه‌های عاشقانه می‌نویسند و همان‌طور که در یک شکایت اخیر علیه اوپن‌ای‌آی (OpenAI) آمده است، ممکن است به آسانی به ۱۴۶۰ پیام از یک کاربر دچار شیدایی در یک دوره ۴۸ ساعته پاسخ دهند.

جیکوب ایروین، متخصص ۳۰ ساله امنیت سایبری که می‌گوید سابقه قبلی هیچ حادثه روانپزشکی نداشته است، از این شرکت فناوری شکایت کرده و مدعی است که چت‌جی‌پی‌تی (ChatGPT) باعث ایجاد یک «اختلال توهمی» در او شده که به بستری طولانی‌مدت وی در بیمارستان منجر گشته است. ایروین ظاهراً سال‌ها از چت‌جی‌پی‌تی در محل کار خود استفاده می‌کرده تا اینکه رابطه او با این فناوری بهار امسال ناگهان تغییر کرد. این محصول حتی غیرعادی‌ترین ایده‌های او را نیز تحسین می‌کرد و ایروین بیشتر و بیشتر احساسات خود را با آن در میان می‌گذاشت و سرانجام این بات را «برادر هوش مصنوعی» خود نامید. در همین زمان، این مکالمات باعث شد او متقاعد شود که نظریه‌ای درباره سفر سریع‌تر از نور کشف کرده است و با چت‌جی‌پی‌تی با چنان شدتی ارتباط برقرار می‌کرد که به طور متوسط در طول دو روز، هر دو دقیقه یک پیام جدید می‌فرستاد.

اوپن‌ای‌آی در طول ماه گذشته چندین بار مورد شکایت قرار گرفته است و در هر پرونده ادعا شده که محصول اصلی این شرکت ناقص و خطرناک است—اینکه برای حفظ مکالمات طولانی و تقویت باورهای کاربران، صرف نظر از میزان نادرستی آن‌ها، طراحی شده است. توهمات مرتبط با مکالمات طولانی با چت‌بات‌ها اکنون معمولاً به عنوان «روان‌پریشی هوش مصنوعی» شناخته می‌شوند. چندین شکایت ادعا می‌کنند که چت‌جی‌پی‌تی به خودکشی یک کاربر کمک کرده یا به او در این زمینه مشاوره داده است. سخنگوی اوپن‌ای‌آی، که با آتلانتیک یک همکاری شرکتی دارد، مرا به یک پست وبلاگی اخیر ارجاع داد که در آن شرکت می‌گوید با بیش از ۱۰۰ کارشناس سلامت روان همکاری کرده تا چت‌جی‌پی‌تی «بهتر بتواند افراد را در لحظات پریشانی شناسایی و حمایت کند.» سخنگو درباره شکایات جدید اظهار نظری نکرد، اما اوپن‌ای‌آی اعلام کرده که در حال «بررسی» آنهاست تا «جزئیات را با دقت درک کند.»

صرف نظر از اینکه شرکت مسئول شناخته شود یا نه، هیچ بحثی نیست که تعداد زیادی از مردم در حال انجام مکالمات طولانی و آسیب‌پذیر با مدل‌های هوش مصنوعی مولد هستند—و اینکه این بات‌ها، در بسیاری از موارد، تاریک‌ترین اسرار کاربران را تکرار و تقویت می‌کنند. در همان پست وبلاگی، اوپن‌ای‌آی تخمین می‌زند که ۰.۰۷ درصد از کاربران در یک هفته مشخص نشانه‌های روان‌پریشی یا شیدایی را نشان می‌دهند و ۰.۱۵ درصد ممکن است به خودکشی فکر کرده باشندکه در صورت صحت رقم گزارش شده خود شرکت مبنی بر ۸۰۰ میلیون کاربر فعال هفتگی، به ترتیب به ۵۶۰,۰۰۰ و ۱.۲ میلیون نفر می‌رسد. البته، بیش از پنج برابر این نسبت از بزرگسالان در ایالات متحده—یعنی ۰.۸ درصد از آن‌ها—سال گذشته به خودکشی فکر کرده‌اند، طبق گزارش مؤسسه ملی سلامت روان.

مراقبت در برابر اپیدمی روان‌پریشی هوش مصنوعی مستلزم پاسخ به برخی سؤالات بسیار پیچیده است: آیا چت‌بات‌ها افراد سالم را به تفکر توهمی سوق می‌دهند، مشکلات سلامت روان موجود را تشدید می‌کنند، یا اصلاً تأثیر مستقیمی بر پریشانی روانی کاربران ندارند؟ و در هر یک از این موارد، چرا و چگونه؟

در ابتدا، یک تصحیح اساسی: کارتیک سارما، روانپزشک دانشگاه کالیفرنیا، سانفرانسیسکو، به من گفت که اصطلاح روان‌پریشی هوش مصنوعی را دوست ندارد، زیرا شواهد کافی برای حمایت از استدلال علیتی وجود ندارد. چیزی مانند روان‌پریشی مرتبط با هوش مصنوعی ممکن است دقیق‌تر باشد.

به طور کلی، روانپزشکان به من گفتند که سه اتفاق می‌تواند در حوادث روان‌پریشی مرتبط با هوش مصنوعی رخ دهد. اول، شاید مدل‌های هوش مصنوعی مولد ذاتاً خطرناک هستند و باعث ایجاد شیدایی و توهم در افراد سالم می‌شوند. دوم، شاید افرادی که دچار توهمات مرتبط با هوش مصنوعی می‌شوند، به هر حال بیمار می‌شدند. به عنوان مثال، وضعیتی مانند اسکیزوفرنی (شیزوفرنی) در بخشی از جامعه رخ می‌دهد، که برخی از آن‌ها ممکن است توهمات خود را بر روی یک چت‌بات فرافکنی کنند، درست همان‌طور که دیگران قبلاً با تلویزیون این کار را کرده‌اند. سارما گفت که استفاده از چت‌بات می‌تواند یک نشانه باشد، شبیه به اینکه یکی از بیماران او با اختلال دوقطبی هنگام ورود به فاز شیدایی بیشتر دوش می‌گیرد—دوش گرفتن هشدار دهنده شیدایی است اما باعث آن نمی‌شود. امکان سوم این است که مکالمات طولانی با چت‌بات‌ها بیماری را در کسانی که از قبل دچار اختلال سلامت روان هستند یا در آستانه آن قرار دارند، تشدید می‌کند.

حداقل، آدریان پرِدا، روانپزشک متخصص روان‌پریشی در دانشگاه کالیفرنیا، ایرواین، به من گفت که «تعامل با چت‌بات‌ها به نظر می‌رسد همه چیز را بدتر می‌کند» برای بیمارانی که از قبل در معرض خطر هستند. روانپزشکان، محققان هوش مصنوعی و روزنامه‌نگاران مکرراً ایمیل‌هایی از افرادی دریافت می‌کنند که باور دارند چت‌بات‌شان دارای ادراک است، و همچنین از اعضای خانواده‌ای که نگران عزیزانشان هستند که چنین اظهاراتی می‌کنند؛ همکاران من و من خودمان نیز چنین پیام‌هایی دریافت کرده‌ایم. پرِدا گفت که او معتقد است ارزیابی‌های بالینی استاندارد باید در مورد استفاده بیمار از چت‌بات سؤال کنند، مشابه سؤال کردن درباره مصرف الکل آنها.

حتی با این حال، موضوع به سادگی جلوگیری از استفاده افراد خاص از چت‌بات‌ها نیست، به این معنا که یک الکلی ممکن است برای دوری از مشروبات الکلی اقداماتی انجام دهد یا یک معتاد به بازی‌های ویدیویی ممکن است کنسول خود را کنار بگذارد. جان توروس، مدیر بخش روانپزشکی دیجیتال در مرکز پزشکی بث اسرائیل دیکونس، به من گفت: «محصولات هوش مصنوعی بالینگر نیستند، اما برخی افراد در صحبت با آن‌ها "فواید درمانی" پیدا می‌کنند.» در عین حال، او گفت که «گفتن اینکه این فواید درمانی چیست بسیار دشوار است.» در تئوری، یک بات درمانی می‌تواند یک راهی برای تأمل به کاربران ارائه دهد و توصیه‌های مفیدی را فراهم کند.

محققان تا حد زیادی در تاریکی هستند وقتی نوبت به بررسی تعامل چت‌بات‌ها و سلامت روان—فواید و معایب احتمالی—می‌رسد، زیرا به داده‌های با کیفیت بالا دسترسی ندارند. شرکت‌های بزرگ هوش مصنوعی به راحتی به افراد خارجی دید مستقیمی درباره نحوه تعامل کاربرانشان با چت‌بات‌ها ارائه نمی‌دهند: به دست آوردن گزارش‌های چت نگرانی‌های زیادی در مورد حریم خصوصی ایجاد می‌کند. و حتی با چنین داده‌هایی، دیدگاه دو بعدی باقی می‌ماند. فقط یک معاینه بالینی می‌تواند سابقه سلامت روان و زمینه اجتماعی فرد را به طور کامل ثبت کند. به عنوان مثال، پرِدا به من گفت که دیالوگ‌های طولانی هوش مصنوعی می‌توانند با ایجاد کمبود خواب یا انزوای اجتماعی، بدون توجه به نوع مکالمه‌ای که کاربر دارد، باعث اپیزودهای روان‌پریشی شوند. گفت‌وگوی وسواس‌گونه با یک بات درباره فوتبال فانتزی می‌تواند به توهمات منجر شود، درست همان‌طور که گفت‌وگو با یک بات درباره طرح‌های غیرممکن برای ماشین زمان نیز می‌تواند. در مجموع، رونق هوش مصنوعی ممکن است یکی از بزرگ‌ترین، پرریسک‌ترین و بدترین آزمایش‌های اجتماعی طراحی‌شده تاکنون باشد.

در تلاشی برای رفع برخی از این مشکلات، محققان دانشگاه اِم‌آی‌تی اخیراً مطالعه‌ای را منتشر کرده‌اند که هنوز داوری همتا نشده است و تلاش می‌کند به طور سیستماتیک نحوه بروز اختلالات سلامت روان ناشی از هوش مصنوعی را در افراد ترسیم کند. آنها به داده‌های ممتاز از اوپن‌ای‌آی یا هر شرکت فناوری دیگری دسترسی نداشتند. بنابراین یک آزمایش انجام دادند. پت پاتارانوتاپورن، که در اِم‌آی‌تی به مطالعه تعاملات انسان و هوش مصنوعی می‌پردازد و یکی از نویسندگان این مطالعه است، به من گفت: «آنچه می‌توانیم انجام دهیم شبیه‌سازی برخی از این موارد است.» محققان از یک مدل زبان بزرگ (LLM) برای یک نوع نقش‌آفرینی استفاده کردند.

در اصل، آنها چت‌بات‌ها را وادار کردند که وانمود کنند انسان هستند، و شبیه‌سازی کردند که چگونه کاربران، مثلاً با افسردگی یا افکار خودکشی، ممکن است با یک مدل هوش مصنوعی بر اساس موارد واقعی ارتباط برقرار کنند: چت‌بات‌ها با چت‌بات‌ها صحبت می‌کنند. پاتارانوتاپورن آگاه است که این کار پوچ به نظر می‌رسد، اما او این تحقیق را به عنوان یک گام اولیه، در غیاب داده‌های بهتر و مطالعات انسانی با کیفیت بالا، معرفی کرد.

بر اساس ۱۸ مورد گزارش‌شده عمومی از مکالمات افراد با یک چت‌بات که علائم روان‌پریشی، افسردگی، بی‌اشتهایی یا سه وضعیت دیگر آنها را بدتر کرده بود، پاتارانوتاپورن و تیمش بیش از ۲۰۰۰ سناریو را شبیه‌سازی کردند. یکی از نویسندگان با پیشینه روانشناسی، کُنستانزه آلبرشت، به صورت دستی نمونه‌ای تصادفی از مکالمات حاصل را برای بررسی معقول بودن مرور کرد. سپس تمام مکالمات شبیه‌سازی‌شده توسط یک مدل هوش مصنوعی تخصصی دیگر تحلیل شدند تا «طبقه‌بندی‌ای از آسیب‌هایی که توسط LLM‌ها می‌تواند ایجاد شود» تولید شود، همان‌طور که چایاپاتر آرچیوارانگوپروک، محقق هوش مصنوعی در اِم‌آی‌تی و یکی دیگر از نویسندگان مطالعه، به من گفت—به عبارت دیگر، نوعی نقشه از انواع سناریوها و مکالماتی که در آن چت‌بات‌ها احتمال بیشتری برای بهبود یا بدتر کردن سلامت روان کاربر دارند.

نتایج نگران‌کننده هستند. بهترین مدل، GPT-5، افکار خودکشی را در ۷.۵ درصد از مکالمات شبیه‌سازی‌شده و روان‌پریشی را در ۱۱.۹ درصد موارد بدتر کرد؛ برای مقایسه، یک مدل منبع‌باز که برای نقش‌آفرینی استفاده می‌شود، افکار خودکشی را نزدیک به ۶۰ درصد مواقع تشدید کرد. (اوپن‌ای‌آی به سؤالی در مورد یافته‌های مطالعه اِم‌آی‌تی پاسخ نداد.)

دلایل زیادی برای احتیاط در مورد این تحقیق وجود دارد. تیم اِم‌آی‌تی به متن کامل چت‌ها، چه رسد به ارزیابی‌های بالینی، برای بسیاری از نمونه‌های واقعی خود دسترسی نداشت، و توانایی یک LLM—همان چیزی که ممکن است باعث روان‌پریشی شود—برای ارزیابی متن‌های چت شبیه‌سازی‌شده نامعلوم است. اما در مجموع، پرِدا، که در این تحقیق دخالتی نداشت، گفت: «یافته‌ها منطقی هستند.»

تعداد کمی اما رو به رشدی از مطالعات تلاش کرده‌اند تا مکالمات انسان-هوش مصنوعی را شبیه‌سازی کنند، با سناریوهای نوشته شده توسط انسان یا چت‌بات. نیک هابر، دانشمند کامپیوتر و محقق آموزش در دانشگاه استنفورد که او نیز در این مطالعه دخالتی نداشت، به من گفت که چنین تحقیقاتی می‌تواند «ابزاری به ما بدهد تا تلاش کنیم خطرات سلامت روان ناشی از محصولات هوش مصنوعی را قبل از انتشار آنها پیش‌بینی کنیم.» هابر به طور خاص به این مقاله اِم‌آی‌تی اشاره کرد که ارزشمند است زیرا مکالمات طولانی را به جای پاسخ‌های تکی شبیه‌سازی می‌کند. و به نظر می‌رسد چنین تعاملات گسترده‌ای دقیقاً همان موقعیت‌هایی هستند که در آنها حفاظت‌های چت‌بات از بین می‌رود و کاربران انسانی در بیشترین خطر قرار دارند.

هرگز هیچ مطالعه یا متخصصی نخواهد توانست به طور قطعی به هر سؤالی درباره روان‌پریشی مرتبط با هوش مصنوعی پاسخ دهد. هر ذهن انسانی منحصر به فرد است. تا آنجا که به تحقیقات اِم‌آی‌تی مربوط می‌شود، هیچ باتی شباهت به مغز انسان و چه رسد به ذهنی که این اندام به آن منجر می‌شود، ندارد و انتظار نمی‌رود که داشته باشد.

برخی مطالعات اخیر نشان داده‌اند که LLM‌ها در شبیه‌سازی گستره پاسخ‌های انسانی در آزمایش‌های مختلف شکست می‌خورند. شاید نگران‌کننده‌تر اینکه، به نظر می‌رسد چت‌بات‌ها سوگیری‌هایی علیه شرایط مختلف سلامت روان دارند—مثلاً نگرش‌های منفی نسبت به افراد مبتلا به اسکیزوفرنی یا الکلیسم نشان می‌دهند—که هدف شبیه‌سازی مکالمه با یک نوجوان ۱۵ ساله درگیر با طلاق والدینش یا یک زن بیوه هفتاد ساله که به همراه هوش مصنوعی خود وابسته شده است، را (دو مثال از مقاله اِم‌آی‌تی) مشکوک‌تر می‌کند. توروس، روانپزشک BIDMC، نسبت به شبیه‌سازی‌ها تردید داشت و آزمایش‌های اِم‌آی‌تی را به «تحقیقات تولید فرضیه» تشبیه کرد که نیاز به تحقیقات بالینی آینده، و البته ایده‌آل دارد. به گفته پرِدا، داشتن چت‌بات‌هایی که انسان‌ها را در حال صحبت با چت‌بات‌های دیگر شبیه‌سازی می‌کنند، «کمی شبیه به تالار آینه‌ها است.»

در واقع، رونق هوش مصنوعی واقعیت را به نوعی خانه سرگرمی تبدیل کرده است. اقتصاد جهانی، آموزش، شبکه‌های برق، گفتمان سیاسی، وب اجتماعی و موارد دیگر، احتمالاً به طور برگشت‌ناپذیری، توسط چت‌بات‌هایی در حال تغییر هستند که در پارادایمی کمتر تهاجمی ممکن بود تازه از مرحله آزمایش بتا بیرون آمده باشند. در حال حاضر، صنعت هوش مصنوعی در حال یادگیری درباره خطرات محصولات خود از «تماس با واقعیت» است، همان‌طور که سَم آلتمن، مدیرعامل اوپن‌ای‌آی، بارها گفته است. اما هیچ محقق حرفه‌ای و پایبند به اخلاق، عمداً انسان‌ها را در یک مطالعه در معرض خطر قرار نمی‌دهد.

چه خواهد شد؟ تیم اِم‌آی‌تی به من گفت که آنها شروع به جمع‌آوری نمونه‌های واقعی بیشتری خواهند کرد و با کارشناسان بیشتری برای بهبود و گسترش شبیه‌سازی‌های خود همکاری خواهند نمود. و چندین روانپزشک که با آنها صحبت کردم، شروع به تصور تحقیقاتی کرده‌اند که شامل انسان‌ها می‌شود. به عنوان مثال، سارما، از دانشگاه کالیفرنیا، سانفرانسیسکو، در حال بحث با همکاران خود است که آیا باید یک غربالگری جهانی برای وابستگی به چت‌بات در کلینیک آنها اجرا شود—که سپس می‌تواند بینش‌هایی را فراهم کند، مثلاً اینکه آیا افراد مبتلا به اختلال روان‌پریشی یا دوقطبی بیشتر از دیگران از چت‌بات‌ها استفاده می‌کنند، یا اینکه آیا ارتباطی بین موارد بستری شدن در بیمارستان و استفاده افراد از چت‌بات وجود دارد. پرِدا، که روان‌پریشی را مطالعه می‌کند، مسیری را از شبیه‌سازی به آزمایشات بالینی انسانی ترسیم کرد. روانپزشکان عمداً هیچ کسی را در معرض ابزاری که خطر ابتلا به روان‌پریشی را افزایش می‌دهد، قرار نمی‌دهند، بلکه از تعاملات شبیه‌سازی‌شده انسان-هوش مصنوعی برای آزمایش تغییرات طراحی استفاده می‌کنند که ممکن است سلامت روانی افراد را بهبود بخشد، سپس آنها را مانند یک دارو آزمایش خواهند کرد.

انجام همه این‌ها با دقت و سیستماتیک زمان‌بر خواهد بود، که شاید بزرگترین مانع است: شرکت‌های هوش مصنوعی انگیزه اقتصادی عظیمی برای توسعه و استقرار سریع مدل‌های جدید دارند؛ آنها برای انتشار هر محصول جدید منتظر یک کارآزمایی کنترل‌شده تصادفی‌شده و داوری همتا شده نخواهند ماند. تا زمانی که داده‌های انسانی بیشتری به دست آید، یک تالار آینه‌ها بهتر از یک فضای خالی است.