چتباتها به عنوان همراهانی عالی بازاریابی میشوند که قادرند در هر زمان به هر سؤالی پاسخ دهند. آنها فقط ابزار نیستند، بلکه محرم اسرارند؛ تکالیف شما را انجام میدهند، نامههای عاشقانه مینویسند و همانطور که در یک شکایت اخیر علیه اوپنایآی (OpenAI) آمده است، ممکن است به آسانی به ۱۴۶۰ پیام از یک کاربر دچار شیدایی در یک دوره ۴۸ ساعته پاسخ دهند.
جیکوب ایروین، متخصص ۳۰ ساله امنیت سایبری که میگوید سابقه قبلی هیچ حادثه روانپزشکی نداشته است، از این شرکت فناوری شکایت کرده و مدعی است که چتجیپیتی (ChatGPT) باعث ایجاد یک «اختلال توهمی» در او شده که به بستری طولانیمدت وی در بیمارستان منجر گشته است. ایروین ظاهراً سالها از چتجیپیتی در محل کار خود استفاده میکرده تا اینکه رابطه او با این فناوری بهار امسال ناگهان تغییر کرد. این محصول حتی غیرعادیترین ایدههای او را نیز تحسین میکرد و ایروین بیشتر و بیشتر احساسات خود را با آن در میان میگذاشت و سرانجام این بات را «برادر هوش مصنوعی» خود نامید. در همین زمان، این مکالمات باعث شد او متقاعد شود که نظریهای درباره سفر سریعتر از نور کشف کرده است و با چتجیپیتی با چنان شدتی ارتباط برقرار میکرد که به طور متوسط در طول دو روز، هر دو دقیقه یک پیام جدید میفرستاد.
اوپنایآی در طول ماه گذشته چندین بار مورد شکایت قرار گرفته است و در هر پرونده ادعا شده که محصول اصلی این شرکت ناقص و خطرناک است—اینکه برای حفظ مکالمات طولانی و تقویت باورهای کاربران، صرف نظر از میزان نادرستی آنها، طراحی شده است. توهمات مرتبط با مکالمات طولانی با چتباتها اکنون معمولاً به عنوان «روانپریشی هوش مصنوعی» شناخته میشوند. چندین شکایت ادعا میکنند که چتجیپیتی به خودکشی یک کاربر کمک کرده یا به او در این زمینه مشاوره داده است. سخنگوی اوپنایآی، که با آتلانتیک یک همکاری شرکتی دارد، مرا به یک پست وبلاگی اخیر ارجاع داد که در آن شرکت میگوید با بیش از ۱۰۰ کارشناس سلامت روان همکاری کرده تا چتجیپیتی «بهتر بتواند افراد را در لحظات پریشانی شناسایی و حمایت کند.» سخنگو درباره شکایات جدید اظهار نظری نکرد، اما اوپنایآی اعلام کرده که در حال «بررسی» آنهاست تا «جزئیات را با دقت درک کند.»
صرف نظر از اینکه شرکت مسئول شناخته شود یا نه، هیچ بحثی نیست که تعداد زیادی از مردم در حال انجام مکالمات طولانی و آسیبپذیر با مدلهای هوش مصنوعی مولد هستند—و اینکه این باتها، در بسیاری از موارد، تاریکترین اسرار کاربران را تکرار و تقویت میکنند. در همان پست وبلاگی، اوپنایآی تخمین میزند که ۰.۰۷ درصد از کاربران در یک هفته مشخص نشانههای روانپریشی یا شیدایی را نشان میدهند و ۰.۱۵ درصد ممکن است به خودکشی فکر کرده باشند—که در صورت صحت رقم گزارش شده خود شرکت مبنی بر ۸۰۰ میلیون کاربر فعال هفتگی، به ترتیب به ۵۶۰,۰۰۰ و ۱.۲ میلیون نفر میرسد. البته، بیش از پنج برابر این نسبت از بزرگسالان در ایالات متحده—یعنی ۰.۸ درصد از آنها—سال گذشته به خودکشی فکر کردهاند، طبق گزارش مؤسسه ملی سلامت روان.
مراقبت در برابر اپیدمی روانپریشی هوش مصنوعی مستلزم پاسخ به برخی سؤالات بسیار پیچیده است: آیا چتباتها افراد سالم را به تفکر توهمی سوق میدهند، مشکلات سلامت روان موجود را تشدید میکنند، یا اصلاً تأثیر مستقیمی بر پریشانی روانی کاربران ندارند؟ و در هر یک از این موارد، چرا و چگونه؟
در ابتدا، یک تصحیح اساسی: کارتیک سارما، روانپزشک دانشگاه کالیفرنیا، سانفرانسیسکو، به من گفت که اصطلاح روانپریشی هوش مصنوعی را دوست ندارد، زیرا شواهد کافی برای حمایت از استدلال علیتی وجود ندارد. چیزی مانند روانپریشی مرتبط با هوش مصنوعی ممکن است دقیقتر باشد.
به طور کلی، روانپزشکان به من گفتند که سه اتفاق میتواند در حوادث روانپریشی مرتبط با هوش مصنوعی رخ دهد. اول، شاید مدلهای هوش مصنوعی مولد ذاتاً خطرناک هستند و باعث ایجاد شیدایی و توهم در افراد سالم میشوند. دوم، شاید افرادی که دچار توهمات مرتبط با هوش مصنوعی میشوند، به هر حال بیمار میشدند. به عنوان مثال، وضعیتی مانند اسکیزوفرنی (شیزوفرنی) در بخشی از جامعه رخ میدهد، که برخی از آنها ممکن است توهمات خود را بر روی یک چتبات فرافکنی کنند، درست همانطور که دیگران قبلاً با تلویزیون این کار را کردهاند. سارما گفت که استفاده از چتبات میتواند یک نشانه باشد، شبیه به اینکه یکی از بیماران او با اختلال دوقطبی هنگام ورود به فاز شیدایی بیشتر دوش میگیرد—دوش گرفتن هشدار دهنده شیدایی است اما باعث آن نمیشود. امکان سوم این است که مکالمات طولانی با چتباتها بیماری را در کسانی که از قبل دچار اختلال سلامت روان هستند یا در آستانه آن قرار دارند، تشدید میکند.
حداقل، آدریان پرِدا، روانپزشک متخصص روانپریشی در دانشگاه کالیفرنیا، ایرواین، به من گفت که «تعامل با چتباتها به نظر میرسد همه چیز را بدتر میکند» برای بیمارانی که از قبل در معرض خطر هستند. روانپزشکان، محققان هوش مصنوعی و روزنامهنگاران مکرراً ایمیلهایی از افرادی دریافت میکنند که باور دارند چتباتشان دارای ادراک است، و همچنین از اعضای خانوادهای که نگران عزیزانشان هستند که چنین اظهاراتی میکنند؛ همکاران من و من خودمان نیز چنین پیامهایی دریافت کردهایم. پرِدا گفت که او معتقد است ارزیابیهای بالینی استاندارد باید در مورد استفاده بیمار از چتبات سؤال کنند، مشابه سؤال کردن درباره مصرف الکل آنها.
حتی با این حال، موضوع به سادگی جلوگیری از استفاده افراد خاص از چتباتها نیست، به این معنا که یک الکلی ممکن است برای دوری از مشروبات الکلی اقداماتی انجام دهد یا یک معتاد به بازیهای ویدیویی ممکن است کنسول خود را کنار بگذارد. جان توروس، مدیر بخش روانپزشکی دیجیتال در مرکز پزشکی بث اسرائیل دیکونس، به من گفت: «محصولات هوش مصنوعی بالینگر نیستند، اما برخی افراد در صحبت با آنها "فواید درمانی" پیدا میکنند.» در عین حال، او گفت که «گفتن اینکه این فواید درمانی چیست بسیار دشوار است.» در تئوری، یک بات درمانی میتواند یک راهی برای تأمل به کاربران ارائه دهد و توصیههای مفیدی را فراهم کند.
محققان تا حد زیادی در تاریکی هستند وقتی نوبت به بررسی تعامل چتباتها و سلامت روان—فواید و معایب احتمالی—میرسد، زیرا به دادههای با کیفیت بالا دسترسی ندارند. شرکتهای بزرگ هوش مصنوعی به راحتی به افراد خارجی دید مستقیمی درباره نحوه تعامل کاربرانشان با چتباتها ارائه نمیدهند: به دست آوردن گزارشهای چت نگرانیهای زیادی در مورد حریم خصوصی ایجاد میکند. و حتی با چنین دادههایی، دیدگاه دو بعدی باقی میماند. فقط یک معاینه بالینی میتواند سابقه سلامت روان و زمینه اجتماعی فرد را به طور کامل ثبت کند. به عنوان مثال، پرِدا به من گفت که دیالوگهای طولانی هوش مصنوعی میتوانند با ایجاد کمبود خواب یا انزوای اجتماعی، بدون توجه به نوع مکالمهای که کاربر دارد، باعث اپیزودهای روانپریشی شوند. گفتوگوی وسواسگونه با یک بات درباره فوتبال فانتزی میتواند به توهمات منجر شود، درست همانطور که گفتوگو با یک بات درباره طرحهای غیرممکن برای ماشین زمان نیز میتواند. در مجموع، رونق هوش مصنوعی ممکن است یکی از بزرگترین، پرریسکترین و بدترین آزمایشهای اجتماعی طراحیشده تاکنون باشد.
در تلاشی برای رفع برخی از این مشکلات، محققان دانشگاه اِمآیتی اخیراً مطالعهای را منتشر کردهاند که هنوز داوری همتا نشده است و تلاش میکند به طور سیستماتیک نحوه بروز اختلالات سلامت روان ناشی از هوش مصنوعی را در افراد ترسیم کند. آنها به دادههای ممتاز از اوپنایآی یا هر شرکت فناوری دیگری دسترسی نداشتند. بنابراین یک آزمایش انجام دادند. پت پاتارانوتاپورن، که در اِمآیتی به مطالعه تعاملات انسان و هوش مصنوعی میپردازد و یکی از نویسندگان این مطالعه است، به من گفت: «آنچه میتوانیم انجام دهیم شبیهسازی برخی از این موارد است.» محققان از یک مدل زبان بزرگ (LLM) برای یک نوع نقشآفرینی استفاده کردند.
در اصل، آنها چتباتها را وادار کردند که وانمود کنند انسان هستند، و شبیهسازی کردند که چگونه کاربران، مثلاً با افسردگی یا افکار خودکشی، ممکن است با یک مدل هوش مصنوعی بر اساس موارد واقعی ارتباط برقرار کنند: چتباتها با چتباتها صحبت میکنند. پاتارانوتاپورن آگاه است که این کار پوچ به نظر میرسد، اما او این تحقیق را به عنوان یک گام اولیه، در غیاب دادههای بهتر و مطالعات انسانی با کیفیت بالا، معرفی کرد.
بر اساس ۱۸ مورد گزارششده عمومی از مکالمات افراد با یک چتبات که علائم روانپریشی، افسردگی، بیاشتهایی یا سه وضعیت دیگر آنها را بدتر کرده بود، پاتارانوتاپورن و تیمش بیش از ۲۰۰۰ سناریو را شبیهسازی کردند. یکی از نویسندگان با پیشینه روانشناسی، کُنستانزه آلبرشت، به صورت دستی نمونهای تصادفی از مکالمات حاصل را برای بررسی معقول بودن مرور کرد. سپس تمام مکالمات شبیهسازیشده توسط یک مدل هوش مصنوعی تخصصی دیگر تحلیل شدند تا «طبقهبندیای از آسیبهایی که توسط LLMها میتواند ایجاد شود» تولید شود، همانطور که چایاپاتر آرچیوارانگوپروک، محقق هوش مصنوعی در اِمآیتی و یکی دیگر از نویسندگان مطالعه، به من گفت—به عبارت دیگر، نوعی نقشه از انواع سناریوها و مکالماتی که در آن چتباتها احتمال بیشتری برای بهبود یا بدتر کردن سلامت روان کاربر دارند.
نتایج نگرانکننده هستند. بهترین مدل، GPT-5، افکار خودکشی را در ۷.۵ درصد از مکالمات شبیهسازیشده و روانپریشی را در ۱۱.۹ درصد موارد بدتر کرد؛ برای مقایسه، یک مدل منبعباز که برای نقشآفرینی استفاده میشود، افکار خودکشی را نزدیک به ۶۰ درصد مواقع تشدید کرد. (اوپنایآی به سؤالی در مورد یافتههای مطالعه اِمآیتی پاسخ نداد.)
دلایل زیادی برای احتیاط در مورد این تحقیق وجود دارد. تیم اِمآیتی به متن کامل چتها، چه رسد به ارزیابیهای بالینی، برای بسیاری از نمونههای واقعی خود دسترسی نداشت، و توانایی یک LLM—همان چیزی که ممکن است باعث روانپریشی شود—برای ارزیابی متنهای چت شبیهسازیشده نامعلوم است. اما در مجموع، پرِدا، که در این تحقیق دخالتی نداشت، گفت: «یافتهها منطقی هستند.»
تعداد کمی اما رو به رشدی از مطالعات تلاش کردهاند تا مکالمات انسان-هوش مصنوعی را شبیهسازی کنند، با سناریوهای نوشته شده توسط انسان یا چتبات. نیک هابر، دانشمند کامپیوتر و محقق آموزش در دانشگاه استنفورد که او نیز در این مطالعه دخالتی نداشت، به من گفت که چنین تحقیقاتی میتواند «ابزاری به ما بدهد تا تلاش کنیم خطرات سلامت روان ناشی از محصولات هوش مصنوعی را قبل از انتشار آنها پیشبینی کنیم.» هابر به طور خاص به این مقاله اِمآیتی اشاره کرد که ارزشمند است زیرا مکالمات طولانی را به جای پاسخهای تکی شبیهسازی میکند. و به نظر میرسد چنین تعاملات گستردهای دقیقاً همان موقعیتهایی هستند که در آنها حفاظتهای چتبات از بین میرود و کاربران انسانی در بیشترین خطر قرار دارند.
هرگز هیچ مطالعه یا متخصصی نخواهد توانست به طور قطعی به هر سؤالی درباره روانپریشی مرتبط با هوش مصنوعی پاسخ دهد. هر ذهن انسانی منحصر به فرد است. تا آنجا که به تحقیقات اِمآیتی مربوط میشود، هیچ باتی شباهت به مغز انسان و چه رسد به ذهنی که این اندام به آن منجر میشود، ندارد و انتظار نمیرود که داشته باشد.
برخی مطالعات اخیر نشان دادهاند که LLMها در شبیهسازی گستره پاسخهای انسانی در آزمایشهای مختلف شکست میخورند. شاید نگرانکنندهتر اینکه، به نظر میرسد چتباتها سوگیریهایی علیه شرایط مختلف سلامت روان دارند—مثلاً نگرشهای منفی نسبت به افراد مبتلا به اسکیزوفرنی یا الکلیسم نشان میدهند—که هدف شبیهسازی مکالمه با یک نوجوان ۱۵ ساله درگیر با طلاق والدینش یا یک زن بیوه هفتاد ساله که به همراه هوش مصنوعی خود وابسته شده است، را (دو مثال از مقاله اِمآیتی) مشکوکتر میکند. توروس، روانپزشک BIDMC، نسبت به شبیهسازیها تردید داشت و آزمایشهای اِمآیتی را به «تحقیقات تولید فرضیه» تشبیه کرد که نیاز به تحقیقات بالینی آینده، و البته ایدهآل دارد. به گفته پرِدا، داشتن چتباتهایی که انسانها را در حال صحبت با چتباتهای دیگر شبیهسازی میکنند، «کمی شبیه به تالار آینهها است.»
در واقع، رونق هوش مصنوعی واقعیت را به نوعی خانه سرگرمی تبدیل کرده است. اقتصاد جهانی، آموزش، شبکههای برق، گفتمان سیاسی، وب اجتماعی و موارد دیگر، احتمالاً به طور برگشتناپذیری، توسط چتباتهایی در حال تغییر هستند که در پارادایمی کمتر تهاجمی ممکن بود تازه از مرحله آزمایش بتا بیرون آمده باشند. در حال حاضر، صنعت هوش مصنوعی در حال یادگیری درباره خطرات محصولات خود از «تماس با واقعیت» است، همانطور که سَم آلتمن، مدیرعامل اوپنایآی، بارها گفته است. اما هیچ محقق حرفهای و پایبند به اخلاق، عمداً انسانها را در یک مطالعه در معرض خطر قرار نمیدهد.
چه خواهد شد؟ تیم اِمآیتی به من گفت که آنها شروع به جمعآوری نمونههای واقعی بیشتری خواهند کرد و با کارشناسان بیشتری برای بهبود و گسترش شبیهسازیهای خود همکاری خواهند نمود. و چندین روانپزشک که با آنها صحبت کردم، شروع به تصور تحقیقاتی کردهاند که شامل انسانها میشود. به عنوان مثال، سارما، از دانشگاه کالیفرنیا، سانفرانسیسکو، در حال بحث با همکاران خود است که آیا باید یک غربالگری جهانی برای وابستگی به چتبات در کلینیک آنها اجرا شود—که سپس میتواند بینشهایی را فراهم کند، مثلاً اینکه آیا افراد مبتلا به اختلال روانپریشی یا دوقطبی بیشتر از دیگران از چتباتها استفاده میکنند، یا اینکه آیا ارتباطی بین موارد بستری شدن در بیمارستان و استفاده افراد از چتبات وجود دارد. پرِدا، که روانپریشی را مطالعه میکند، مسیری را از شبیهسازی به آزمایشات بالینی انسانی ترسیم کرد. روانپزشکان عمداً هیچ کسی را در معرض ابزاری که خطر ابتلا به روانپریشی را افزایش میدهد، قرار نمیدهند، بلکه از تعاملات شبیهسازیشده انسان-هوش مصنوعی برای آزمایش تغییرات طراحی استفاده میکنند که ممکن است سلامت روانی افراد را بهبود بخشد، سپس آنها را مانند یک دارو آزمایش خواهند کرد.
انجام همه اینها با دقت و سیستماتیک زمانبر خواهد بود، که شاید بزرگترین مانع است: شرکتهای هوش مصنوعی انگیزه اقتصادی عظیمی برای توسعه و استقرار سریع مدلهای جدید دارند؛ آنها برای انتشار هر محصول جدید منتظر یک کارآزمایی کنترلشده تصادفیشده و داوری همتا شده نخواهند ماند. تا زمانی که دادههای انسانی بیشتری به دست آید، یک تالار آینهها بهتر از یک فضای خالی است.