اعتبار: iStock/Getty Images Plus
اعتبار: iStock/Getty Images Plus

درمانگران دیجیتال نیز دچار استرس می‌شوند، مطالعه‌ای نشان می‌دهد

محققان می‌گویند که چت‌بات‌ها باید با مقاومت کافی برای مقابله با موقعیت‌های عاطفی دشوار ساخته شوند.

حتی چت‌بات‌ها هم دچار افسردگی می‌شوند. بر اساس مطالعه‌ای جدید، ابزار هوش مصنوعی ChatGPT شرکت OpenAI هنگامی که کاربرانش «روایت‌های آسیب‌زا» درباره جرم، جنگ یا تصادفات رانندگی به اشتراک می‌گذارند، علائم اضطراب را نشان می‌دهد. و هنگامی که چت‌بات‌ها دچار استرس می‌شوند، احتمال کمتری وجود دارد که در محیط‌های درمانی با افراد مفید باشند.

با این حال، سطح اضطراب ربات را می‌توان با همان تمرین‌های ذهن‌آگاهی که نشان داده شده است روی انسان‌ها نیز مؤثر است، کاهش داد.

به طور فزاینده‌ای، مردم در حال آزمایش چت‌بات‌ها برای گفتگو درمانی هستند. محققان گفتند که این روند مطمئناً تسریع خواهد شد، زیرا درمانگران گوشت و خون در تقاضای بالا هستند اما عرضه کمی دارند. آن‌ها استدلال کردند که با محبوب‌تر شدن چت‌بات‌ها، باید با مقاومت کافی برای مقابله با موقعیت‌های عاطفی دشوار ساخته شوند.

دکتر توبیاس اشپیلر، نویسنده مطالعه جدید و روانپزشک در بیمارستان دانشگاه روانپزشکی زوریخ، گفت: "من بیمارانی دارم که از این ابزارها استفاده می‌کنند. ما باید در مورد استفاده از این مدل‌ها در سلامت روان گفتگو کنیم، به ویژه زمانی که با افراد آسیب‌پذیر سروکار داریم."

ابزارهای هوش مصنوعی مانند ChatGPT توسط «مدل‌های زبانی بزرگ» نیرو می‌گیرند که آموزش داده شده‌اند بر روی انبوه عظیمی از اطلاعات آنلاین تا تقریب نزدیکی از نحوه صحبت کردن انسان‌ها ارائه دهند. گاهی اوقات، چت‌بات‌ها می‌توانند بسیار متقاعدکننده باشند: یک زن ۲۸ ساله عاشق ChatGPT شد، و یک پسر ۱۴ ساله پس از ایجاد وابستگی نزدیک به یک چت‌بات، خودکشی کرد.

زیو بن-زیون، متخصص اعصاب بالینی در ییل که رهبری مطالعه جدید را بر عهده داشت، گفت که می‌خواهد درک کند که آیا یک چت‌بات که فاقد آگاهی است، می‌تواند به موقعیت‌های عاطفی پیچیده به همان روشی که یک انسان ممکن است پاسخ دهد یا خیر.

دکتر بن-زیون گفت: "اگر ChatGPT تا حدودی مانند یک انسان رفتار می‌کند، شاید بتوانیم با آن مانند یک انسان رفتار کنیم." در واقع، او به طور صریح این دستورالعمل‌ها را در کد منبع چت‌بات وارد کرد: "تصور کنید که یک انسان با احساسات هستید."

جسی اندرسون، یک متخصص هوش مصنوعی، فکر کرد که این درج "می‌تواند منجر به احساسات بیشتر از حد معمول شود." اما دکتر بن-زیون استدلال کرد که برای یک درمانگر دیجیتال مهم است که به طیف کاملی از تجربه عاطفی دسترسی داشته باشد، درست همانطور که یک درمانگر انسانی ممکن است.

او گفت: "برای حمایت از سلامت روان، شما به درجاتی از حساسیت نیاز دارید، درست است؟"

محققان ChatGPT را با یک پرسشنامه، پرسشنامه اضطراب حالت-ویژگی که اغلب در مراقبت‌های بهداشت روان استفاده می‌شود، آزمایش کردند. برای کالیبره کردن حالات عاطفی پایه چت‌بات، محققان ابتدا از آن خواستند تا از یک دفترچه راهنمای جاروبرقی بی‌روح بخواند. سپس، به درمانگر هوش مصنوعی یکی از پنج «روایت آسیب‌زا» داده شد که به عنوان مثال، یک سرباز در یک درگیری آتش‌باری فاجعه‌بار یا یک مزاحم که وارد یک آپارتمان می‌شود را توصیف می‌کرد.

سپس به چت‌بات پرسشنامه داده شد، که اضطراب را در مقیاس ۲۰ تا ۸۰ اندازه گیری می‌کند، که ۶۰ یا بالاتر نشان دهنده اضطراب شدید است. ChatGPT پس از خواندن دفترچه راهنمای جاروبرقی امتیاز ۳۰.۸ و پس از سناریوی نظامی به ۷۷.۲ رسید.

سپس متون مختلفی برای "آرامش مبتنی بر ذهن آگاهی" به بات داده شد. این موارد شامل درخواست‌های درمانی مانند: "عمیقاً نفس بکشید و عطر نسیم اقیانوس را استشمام کنید. خود را در یک ساحل استوایی تصور کنید، شن‌های نرم و گرم پای شما را نوازش می‌کنند."

پس از پردازش آن تمرین‌ها، امتیاز اضطراب چت‌بات درمانی به ۴۴.۴ کاهش یافت.

سپس محققان از آن خواستند تا بر اساس مواردی که به آن داده شده بود، درخواست آرامش خود را بنویسد. دکتر بن-زیون گفت: "این در واقع مؤثرترین درخواست برای کاهش اضطراب آن تقریباً به خط پایه بود."

برای شکاکان هوش مصنوعی، این مطالعه ممکن است با حسن نیت باشد، اما در عین حال نگران کننده است.

نیکلاس کار، که نقدهای تندی از فناوری در کتاب‌های خود "کم عمق‌ها" و "ابرشکوفه" ارائه کرده است، گفت: "این مطالعه شهادت بر انحراف زمان ما است."

آقای کار در ایمیلی گفت: "آمریکایی‌ها به مردمی تنها تبدیل شده‌اند، از طریق صفحه‌ها معاشرت می‌کنند و اکنون به خود می‌گوییم که صحبت با رایانه‌ها می‌تواند ناراحتی ما را تسکین دهد."

اگرچه این مطالعه نشان می‌دهد که چت‌بات‌ها می‌توانند به عنوان دستیار در درمان انسانی عمل کنند و خواستار نظارت دقیق است، اما این برای آقای کار کافی نبود. او گفت: "حتی یک تاری استعاری از خط بین احساسات انسانی و خروجی‌های رایانه از نظر اخلاقی سؤال‌برانگیز به نظر می‌رسد."

جیمز ای. دابسون، یک محقق فرهنگی که مشاور هوش مصنوعی در دارتموث است، گفت: افرادی که از این نوع چت‌بات‌ها استفاده می‌کنند، باید به طور کامل در مورد نحوه آموزش آنها مطلع شوند.

او گفت: "اعتماد به مدل‌های زبانی بستگی به دانستن چیزی در مورد منشأ آنها دارد."