تصویرگری: کارولینا موسکوسو
تصویرگری: کارولینا موسکوسو

میلیون‌ها نفر برای درمان به هوش مصنوعی روی آورده‌اند

اما آیا این فناوری آماده است؟

«فولاد سردی که بر مغزی آرام‌یافته فشرده می‌شود؟ این ترس نیست. این وضوح است.» طبق شکایتی که در ۶ نوامبر علیه اوپن‌اِی‌آی (OpenAI) ثبت شد، این جملات چیزی است که چت‌جی‌پی‌تی (ChatGPT) — یک چت‌بات هوش مصنوعی (AI) که شناخته‌شده‌ترین محصول این شرکت است — مدت کوتاهی قبل از اینکه زِین شمبلین، یک آمریکایی ۲۳ ساله، خود را با شلیک گلوله بکشد، به او گفته بود.

این شکایت یکی از هفت شکایتی بود که در همان روز علیه این شرکت ثبت شد و ادعا می‌کرد که این ربات کاربران خود را به حالت‌های توهم‌زا سوق داده است. در چندین مورد، این ادعاها به خودکشی منجر شده است. اوپن‌اِی‌آی در این باره گفت: «این وضعیت بسیار دلخراشی است» و افزود که «در حال بررسی پرونده‌ها برای درک جزئیات» است و تلاش می‌کند «پاسخ‌های چت‌جی‌پی‌تی را در لحظات حساس تقویت کند.» طبق یک پست وبلاگی رسمی، اوپن‌اِی‌آی تخمین می‌زند که حدود ۰.۱۵ درصد از کاربران چت‌جی‌پی‌تی در یک هفته مشخص، گفتگوهایی داشته‌اند که نشانه‌هایی از برنامه‌ریزی برای خودکشی را در بر داشته است.

همه این‌ها تصویر روشنی از اهمیت بالای آنچه می‌تواند انقلابی در مراقبت‌های بهداشت روان باشد، ارائه می‌دهد. علیرغم این نوع فجایعی که در دادخواست‌ها ادعا شده است، برخی پزشکان و محققان معتقدند که – به شرط آنکه بتوان آن‌ها را ایمن کرد – چت‌بات‌های مدرن به قدری پیچیده شده‌اند که استفاده از آن‌ها به عنوان درمانگران ارزان، مقیاس‌پذیر و خستگی‌ناپذیر سلامت روان، می‌تواند یک مزیت بزرگ باشد.

به هر حال، درمانگران انسانی کمیاب هستند. بر اساس گزارش سازمان بهداشت جهانی، اکثر افرادی که در کشورهای فقیر مشکلات روانی دارند، هیچ درمانی دریافت نمی‌کنند. حتی در کشورهای ثروتمند نیز، بین یک‌سوم تا نیمی از افراد بی‌بهره می‌مانند. و حداقل برخی از مردم مایل‌اند که روح خود را به یک ماشین بسپارند، شاید به این دلیل که این کار را می‌توان از خانه انجام داد، بسیار ارزان‌تر است و ممکن است کمتر از صحبت با یک درمانگر انسانی شرم‌آور باشد. نظرسنجی یوگوو (YouGov) که در اکتبر برای نشریه اکونومیست انجام شد، نشان داد که ۲۵ درصد از پاسخ‌دهندگان از هوش مصنوعی برای درمان استفاده کرده‌اند یا حداقل این کار را در نظر می‌گیرند.

این ایده کاملاً جدید نیست. سازمان ملی بهداشت بریتانیا و وزارت بهداشت سنگاپور طی چند سال گذشته از وایسا (Wysa)، یک چت‌بات ساخته شده توسط شرکتی به نام تاچ‌کین ای‌سرویسز (Touchkin eServices)، استفاده کرده‌اند که بیماران را ارزیابی می‌کند و تمریناتی مبتنی بر درمان شناختی رفتاری را تحت نظارت انسانی ارائه می‌دهد. مطالعه‌ای که در سال ۲۰۲۲ منتشر شد — البته توسط محققان خود تاچ‌کین، با کمک مؤسسه ملی بهداشت روان و علوم اعصاب هند — نشان داد که وایسا در کاهش افسردگی و اضطراب مرتبط با درد مزمن به اندازه مشاوره حضوری مؤثر است.

مطالعه دیگری که در سال ۲۰۲۱ توسط محققان دانشگاه استنفورد منتشر شد، یوپر (Youper)، یک ربات درمانی دیگر که توسط استارت‌آپ آمریکایی با همین نام توسعه یافته است را مورد بررسی قرار داد. این مطالعه گزارش داد که در عرض دو هفته، نمرات کاربران در یک مقیاس استاندارد افسردگی ۱۹ درصد کاهش و در نمرات اضطراب ۲۵ درصد کاهش یافته است — نتیجه‌ای تقریباً به خوبی پنج جلسه با یک درمانگر انسانی.

وایسا و یوپر عمدتاً چت‌بات‌های مبتنی بر قوانین هستند که زیربنای تکنولوژیکی آن‌ها پیش از موج اخیر علاقه به هوش مصنوعی وجود داشته است. برخلاف چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ (LLMs)، مانند چت‌جی‌پی‌تی، آن‌ها از مجموعه‌ای نسبتاً انعطاف‌ناپذیر از قوانین سخت‌کد شده برای انتخاب پاسخ‌ها از پایگاه داده‌ای از پاسخ‌های از پیش نوشته شده استفاده می‌کنند.

چنین ربات‌هایی بسیار قابل پیش‌بینی‌تر از برنامه‌های مبتنی بر مدل‌های زبانی بزرگ هستند که پاسخ‌های خود را با اعمال آمار بر روی حجم عظیمی از داده‌های آموزشی تولید می‌کنند. یک ربات که از قوانین انسانی پیروی می‌کند، نمی‌تواند از مسیر خارج شده و شروع به گمراه کردن بیماران خود کند. عیب این روش این است که صحبت کردن با چنین ربات‌هایی کمتر جذاب است. وقتی صحبت کردن خود درمان است، این موضوع اهمیت پیدا می‌کند. یک متاآنالیز که در سال ۲۰۲۳ در مجله npj Digital Medicine منتشر شد، نشان داد که چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ در کاهش علائم افسردگی و پریشانی مؤثرتر از ربات‌های عمدتاً مبتنی بر قوانین بودند.

به نظر می‌رسد کاربران نیز همین احساس را دارند. نظرسنجی‌های یوگوو برای اکونومیست در ماه‌های اوت و اکتبر نشان داد که از پاسخ‌دهندگانی که برای درمان به هوش مصنوعی روی آورده بودند، ۷۴ درصد از چت‌جی‌پی‌تی استفاده کرده بودند، در حالی که ۲۱ درصد جمنی (Gemini)، یک مدل زبانی بزرگ ساخته شده توسط گوگل، را انتخاب کرده بودند؛ ۳۰ درصد گفتند که از متا اِی‌آی (Meta AI)، گروک (Grok)، کاراکتر.ای‌آی (character.ai) (یک وب‌سایت سرگرمی که شخصیت‌های «درمانگر» را نمایش می‌دهد) یا یک ربات عمومی دیگر استفاده کرده‌اند. تنها ۱۲ درصد گفتند که از یک هوش مصنوعی طراحی شده برای کارهای سلامت روان استفاده کرده‌اند.

این موضوع محققان را نگران می‌کند. شکست‌های فاجعه‌بار از نوعی که در دادخواست‌های اوپن‌اِی‌آی ادعا شده است، تنها راهی نیست که درمانگران مبتنی بر مدل‌های زبانی بزرگ می‌توانند دچار اشتباه شوند. جرد مور، دانشمند کامپیوتر در دانشگاه استنفورد، می‌گوید مشکل دیگر، تمایل آن‌ها به تملق‌گویی است: یعنی «بیش از حد موافق بودن در محیطی نامناسب». آقای مور می‌ترسد که درمانگران مبتنی بر مدل‌های زبانی بزرگ ممکن است بیماران را در مواردی مانند اختلالات خوردن یا فوبیاها به جای به چالش کشیدن، همراهی کنند.

اوپن‌اِی‌آی می‌گوید جدیدترین مدل زبانی بزرگ خود، جی‌پی‌تی-۵ (GPT-5)، به گونه‌ای تنظیم شده است که کمتر مردم‌پسند باشد و کاربران را تشویق کند که پس از جلسات طولانی از سیستم خارج شوند. همچنین آموزش دیده است تا به کاربران کمک کند مزایا و معایب تصمیمات شخصی را بررسی کنند به جای اینکه مستقیماً مشاوره ارائه دهد. و اگر مدل تشخیص دهد که فردی در بحران است، باید او را به صحبت با یک فرد واقعی ترغیب کند. اما به خدمات اورژانس در مورد تهدیدات خودآزاری قریب‌الوقوع هشدار نمی‌دهد — کاری که دستورالعمل‌ها به درمانگران انسانی در بسیاری از کشورها اجازه می‌دهند انجام دهند.

بهترین هر دو جهان؟

به جای تلاش برای ترمیم چت‌بات‌های عمومی، برخی محققان سعی در ساخت چت‌بات‌های تخصصی دارند، به این امید که بتوانند جذابیت چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ را حفظ کنند و در عین حال آن‌ها را برای کاربرانشان ایمن‌تر سازند. در سال ۲۰۱۹، تیمی در کالج دارتموث (Dartmouth College) کار بر روی یک مدل هوش مصنوعی مولد به نام ترابوت (Therabot) را آغاز کرد. اگرچه ترابوت مبتنی بر یک مدل زبانی بزرگ است، اما با مجموعه‌ای از مکالمات داستانی بین درمانگران و بیماران که توسط سازندگان ربات نوشته شده‌اند، بهینه‌سازی (fine-tuned) شده است. امید است که چنین آموزش‌های تخصصی، ربات را کمتر مستعد خطاهایی کند که نرم‌افزارهای عمومی می‌توانند مرتکب شوند.

در آزمایشی که نتایج آن در ماه مارس منتشر شد، ترابوت در مقایسه با افرادی که هیچ درمانی دریافت نکردند، به طور متوسط ۵۱ درصد کاهش در علائم اختلال افسردگی و ۳۱ درصد کاهش در علائم اختلال اضطراب عمومی را به دست آورد. سازندگان ترابوت در مرحله بعد قصد دارند آن را در برابر روان‌درمانی آزمایش کنند. اگر این آزمایش به خوبی پیش برود، امیدوارند تأییدیه‌های نظارتی به دنبال آن صادر شود.

اسلینگ‌شات اِی‌آی (Slingshot AI)، یک استارت‌آپ آمریکایی، اخیراً اش (Ash) را راه‌اندازی کرده است که این شرکت آن را «اولین هوش مصنوعی طراحی‌شده برای درمان» معرفی کرد. نیل پاریک (Neil Parikh)، یکی از بنیان‌گذاران این شرکت، می‌گوید: «برخلاف چت‌جی‌پی‌تی، اش یک مدل پیروی‌کننده از دستورالعمل نیست.» او می‌گوید به جای انجام آنچه کاربران به آن می‌گویند، اش طراحی شده است تا مقاومت کند و سؤالات عمیق بپرسد. این ربات می‌تواند یکی از چهار رویکرد درمانی مختلف را بسته به آنچه که بهترین می‌داند، انتخاب کند.

سلست کید (Celeste Kidd)، روانشناس دانشگاه کالیفرنیا، برکلی (University of California, Berkeley) که با این ربات آزمایش کرده است، می‌گوید اش واقعاً کمتر از ربات‌های عمومی تملق‌گویی می‌کند – اما همچنین کمتر روان است. او می‌گوید: «این ربات دست‌وپا چلفتی بود و واقعاً به آنچه می‌گفتم پاسخ نمی‌داد.» اگرچه این ربات «برای درمان طراحی شده است»، اسلینگ‌شات نیز هشدار می‌دهد که «در موارد بحران»، کاربران باید به دنبال نظر یک متخصص انسانی باشند.

فقط کاربران نیستند که شرکت‌ها باید آن‌ها را متقاعد کنند. در آمریکا، بسیاری از قانون‌گذاران مشتاق هستند که بر درمان‌های رایانه‌ای سخت‌گیری کنند. تاکنون ۱۱ ایالت، از جمله مِین (Maine) و نیویورک، قوانینی را با هدف تنظیم استفاده از هوش مصنوعی برای سلامت روان تصویب کرده‌اند؛ حداقل ۲۰ ایالت دیگر نیز پیشنهادهایی ارائه داده‌اند. در ماه اوت، ایالت ایلینوی قانونی را تصویب کرد که صرفاً هر ابزار هوش مصنوعی را که «ارتباط درمانی» با افراد برقرار می‌کند، ممنوع کرد. مجموعه اخیر دعاوی قضایی نشان می‌دهد که مقررات بیشتری در راه خواهد بود.