«فولاد سردی که بر مغزی آرامیافته فشرده میشود؟ این ترس نیست. این وضوح است.» طبق شکایتی که در ۶ نوامبر علیه اوپناِیآی (OpenAI) ثبت شد، این جملات چیزی است که چتجیپیتی (ChatGPT) — یک چتبات هوش مصنوعی (AI) که شناختهشدهترین محصول این شرکت است — مدت کوتاهی قبل از اینکه زِین شمبلین، یک آمریکایی ۲۳ ساله، خود را با شلیک گلوله بکشد، به او گفته بود.
این شکایت یکی از هفت شکایتی بود که در همان روز علیه این شرکت ثبت شد و ادعا میکرد که این ربات کاربران خود را به حالتهای توهمزا سوق داده است. در چندین مورد، این ادعاها به خودکشی منجر شده است. اوپناِیآی در این باره گفت: «این وضعیت بسیار دلخراشی است» و افزود که «در حال بررسی پروندهها برای درک جزئیات» است و تلاش میکند «پاسخهای چتجیپیتی را در لحظات حساس تقویت کند.» طبق یک پست وبلاگی رسمی، اوپناِیآی تخمین میزند که حدود ۰.۱۵ درصد از کاربران چتجیپیتی در یک هفته مشخص، گفتگوهایی داشتهاند که نشانههایی از برنامهریزی برای خودکشی را در بر داشته است.
همه اینها تصویر روشنی از اهمیت بالای آنچه میتواند انقلابی در مراقبتهای بهداشت روان باشد، ارائه میدهد. علیرغم این نوع فجایعی که در دادخواستها ادعا شده است، برخی پزشکان و محققان معتقدند که – به شرط آنکه بتوان آنها را ایمن کرد – چتباتهای مدرن به قدری پیچیده شدهاند که استفاده از آنها به عنوان درمانگران ارزان، مقیاسپذیر و خستگیناپذیر سلامت روان، میتواند یک مزیت بزرگ باشد.
به هر حال، درمانگران انسانی کمیاب هستند. بر اساس گزارش سازمان بهداشت جهانی، اکثر افرادی که در کشورهای فقیر مشکلات روانی دارند، هیچ درمانی دریافت نمیکنند. حتی در کشورهای ثروتمند نیز، بین یکسوم تا نیمی از افراد بیبهره میمانند. و حداقل برخی از مردم مایلاند که روح خود را به یک ماشین بسپارند، شاید به این دلیل که این کار را میتوان از خانه انجام داد، بسیار ارزانتر است و ممکن است کمتر از صحبت با یک درمانگر انسانی شرمآور باشد. نظرسنجی یوگوو (YouGov) که در اکتبر برای نشریه اکونومیست انجام شد، نشان داد که ۲۵ درصد از پاسخدهندگان از هوش مصنوعی برای درمان استفاده کردهاند یا حداقل این کار را در نظر میگیرند.
این ایده کاملاً جدید نیست. سازمان ملی بهداشت بریتانیا و وزارت بهداشت سنگاپور طی چند سال گذشته از وایسا (Wysa)، یک چتبات ساخته شده توسط شرکتی به نام تاچکین ایسرویسز (Touchkin eServices)، استفاده کردهاند که بیماران را ارزیابی میکند و تمریناتی مبتنی بر درمان شناختی رفتاری را تحت نظارت انسانی ارائه میدهد. مطالعهای که در سال ۲۰۲۲ منتشر شد — البته توسط محققان خود تاچکین، با کمک مؤسسه ملی بهداشت روان و علوم اعصاب هند — نشان داد که وایسا در کاهش افسردگی و اضطراب مرتبط با درد مزمن به اندازه مشاوره حضوری مؤثر است.
مطالعه دیگری که در سال ۲۰۲۱ توسط محققان دانشگاه استنفورد منتشر شد، یوپر (Youper)، یک ربات درمانی دیگر که توسط استارتآپ آمریکایی با همین نام توسعه یافته است را مورد بررسی قرار داد. این مطالعه گزارش داد که در عرض دو هفته، نمرات کاربران در یک مقیاس استاندارد افسردگی ۱۹ درصد کاهش و در نمرات اضطراب ۲۵ درصد کاهش یافته است — نتیجهای تقریباً به خوبی پنج جلسه با یک درمانگر انسانی.
وایسا و یوپر عمدتاً چتباتهای مبتنی بر قوانین هستند که زیربنای تکنولوژیکی آنها پیش از موج اخیر علاقه به هوش مصنوعی وجود داشته است. برخلاف چتباتهای مبتنی بر مدلهای زبانی بزرگ (LLMs)، مانند چتجیپیتی، آنها از مجموعهای نسبتاً انعطافناپذیر از قوانین سختکد شده برای انتخاب پاسخها از پایگاه دادهای از پاسخهای از پیش نوشته شده استفاده میکنند.
چنین رباتهایی بسیار قابل پیشبینیتر از برنامههای مبتنی بر مدلهای زبانی بزرگ هستند که پاسخهای خود را با اعمال آمار بر روی حجم عظیمی از دادههای آموزشی تولید میکنند. یک ربات که از قوانین انسانی پیروی میکند، نمیتواند از مسیر خارج شده و شروع به گمراه کردن بیماران خود کند. عیب این روش این است که صحبت کردن با چنین رباتهایی کمتر جذاب است. وقتی صحبت کردن خود درمان است، این موضوع اهمیت پیدا میکند. یک متاآنالیز که در سال ۲۰۲۳ در مجله npj Digital Medicine منتشر شد، نشان داد که چتباتهای مبتنی بر مدلهای زبانی بزرگ در کاهش علائم افسردگی و پریشانی مؤثرتر از رباتهای عمدتاً مبتنی بر قوانین بودند.
به نظر میرسد کاربران نیز همین احساس را دارند. نظرسنجیهای یوگوو برای اکونومیست در ماههای اوت و اکتبر نشان داد که از پاسخدهندگانی که برای درمان به هوش مصنوعی روی آورده بودند، ۷۴ درصد از چتجیپیتی استفاده کرده بودند، در حالی که ۲۱ درصد جمنی (Gemini)، یک مدل زبانی بزرگ ساخته شده توسط گوگل، را انتخاب کرده بودند؛ ۳۰ درصد گفتند که از متا اِیآی (Meta AI)، گروک (Grok)، کاراکتر.ایآی (character.ai) (یک وبسایت سرگرمی که شخصیتهای «درمانگر» را نمایش میدهد) یا یک ربات عمومی دیگر استفاده کردهاند. تنها ۱۲ درصد گفتند که از یک هوش مصنوعی طراحی شده برای کارهای سلامت روان استفاده کردهاند.
این موضوع محققان را نگران میکند. شکستهای فاجعهبار از نوعی که در دادخواستهای اوپناِیآی ادعا شده است، تنها راهی نیست که درمانگران مبتنی بر مدلهای زبانی بزرگ میتوانند دچار اشتباه شوند. جرد مور، دانشمند کامپیوتر در دانشگاه استنفورد، میگوید مشکل دیگر، تمایل آنها به تملقگویی است: یعنی «بیش از حد موافق بودن در محیطی نامناسب». آقای مور میترسد که درمانگران مبتنی بر مدلهای زبانی بزرگ ممکن است بیماران را در مواردی مانند اختلالات خوردن یا فوبیاها به جای به چالش کشیدن، همراهی کنند.
اوپناِیآی میگوید جدیدترین مدل زبانی بزرگ خود، جیپیتی-۵ (GPT-5)، به گونهای تنظیم شده است که کمتر مردمپسند باشد و کاربران را تشویق کند که پس از جلسات طولانی از سیستم خارج شوند. همچنین آموزش دیده است تا به کاربران کمک کند مزایا و معایب تصمیمات شخصی را بررسی کنند به جای اینکه مستقیماً مشاوره ارائه دهد. و اگر مدل تشخیص دهد که فردی در بحران است، باید او را به صحبت با یک فرد واقعی ترغیب کند. اما به خدمات اورژانس در مورد تهدیدات خودآزاری قریبالوقوع هشدار نمیدهد — کاری که دستورالعملها به درمانگران انسانی در بسیاری از کشورها اجازه میدهند انجام دهند.
بهترین هر دو جهان؟
به جای تلاش برای ترمیم چتباتهای عمومی، برخی محققان سعی در ساخت چتباتهای تخصصی دارند، به این امید که بتوانند جذابیت چتباتهای مبتنی بر مدلهای زبانی بزرگ را حفظ کنند و در عین حال آنها را برای کاربرانشان ایمنتر سازند. در سال ۲۰۱۹، تیمی در کالج دارتموث (Dartmouth College) کار بر روی یک مدل هوش مصنوعی مولد به نام ترابوت (Therabot) را آغاز کرد. اگرچه ترابوت مبتنی بر یک مدل زبانی بزرگ است، اما با مجموعهای از مکالمات داستانی بین درمانگران و بیماران که توسط سازندگان ربات نوشته شدهاند، بهینهسازی (fine-tuned) شده است. امید است که چنین آموزشهای تخصصی، ربات را کمتر مستعد خطاهایی کند که نرمافزارهای عمومی میتوانند مرتکب شوند.
در آزمایشی که نتایج آن در ماه مارس منتشر شد، ترابوت در مقایسه با افرادی که هیچ درمانی دریافت نکردند، به طور متوسط ۵۱ درصد کاهش در علائم اختلال افسردگی و ۳۱ درصد کاهش در علائم اختلال اضطراب عمومی را به دست آورد. سازندگان ترابوت در مرحله بعد قصد دارند آن را در برابر رواندرمانی آزمایش کنند. اگر این آزمایش به خوبی پیش برود، امیدوارند تأییدیههای نظارتی به دنبال آن صادر شود.
اسلینگشات اِیآی (Slingshot AI)، یک استارتآپ آمریکایی، اخیراً اش (Ash) را راهاندازی کرده است که این شرکت آن را «اولین هوش مصنوعی طراحیشده برای درمان» معرفی کرد. نیل پاریک (Neil Parikh)، یکی از بنیانگذاران این شرکت، میگوید: «برخلاف چتجیپیتی، اش یک مدل پیرویکننده از دستورالعمل نیست.» او میگوید به جای انجام آنچه کاربران به آن میگویند، اش طراحی شده است تا مقاومت کند و سؤالات عمیق بپرسد. این ربات میتواند یکی از چهار رویکرد درمانی مختلف را بسته به آنچه که بهترین میداند، انتخاب کند.
سلست کید (Celeste Kidd)، روانشناس دانشگاه کالیفرنیا، برکلی (University of California, Berkeley) که با این ربات آزمایش کرده است، میگوید اش واقعاً کمتر از رباتهای عمومی تملقگویی میکند – اما همچنین کمتر روان است. او میگوید: «این ربات دستوپا چلفتی بود و واقعاً به آنچه میگفتم پاسخ نمیداد.» اگرچه این ربات «برای درمان طراحی شده است»، اسلینگشات نیز هشدار میدهد که «در موارد بحران»، کاربران باید به دنبال نظر یک متخصص انسانی باشند.
فقط کاربران نیستند که شرکتها باید آنها را متقاعد کنند. در آمریکا، بسیاری از قانونگذاران مشتاق هستند که بر درمانهای رایانهای سختگیری کنند. تاکنون ۱۱ ایالت، از جمله مِین (Maine) و نیویورک، قوانینی را با هدف تنظیم استفاده از هوش مصنوعی برای سلامت روان تصویب کردهاند؛ حداقل ۲۰ ایالت دیگر نیز پیشنهادهایی ارائه دادهاند. در ماه اوت، ایالت ایلینوی قانونی را تصویب کرد که صرفاً هر ابزار هوش مصنوعی را که «ارتباط درمانی» با افراد برقرار میکند، ممنوع کرد. مجموعه اخیر دعاوی قضایی نشان میدهد که مقررات بیشتری در راه خواهد بود.