حتی چتباتها هم دچار افسردگی میشوند. بر اساس مطالعهای جدید، ابزار هوش مصنوعی ChatGPT شرکت OpenAI هنگامی که کاربرانش «روایتهای آسیبزا» درباره جرم، جنگ یا تصادفات رانندگی به اشتراک میگذارند، علائم اضطراب را نشان میدهد. و هنگامی که چتباتها دچار استرس میشوند، احتمال کمتری وجود دارد که در محیطهای درمانی با افراد مفید باشند.
با این حال، سطح اضطراب ربات را میتوان با همان تمرینهای ذهنآگاهی که نشان داده شده است روی انسانها نیز مؤثر است، کاهش داد.
به طور فزایندهای، مردم در حال آزمایش چتباتها برای گفتگو درمانی هستند. محققان گفتند که این روند مطمئناً تسریع خواهد شد، زیرا درمانگران گوشت و خون در تقاضای بالا هستند اما عرضه کمی دارند. آنها استدلال کردند که با محبوبتر شدن چتباتها، باید با مقاومت کافی برای مقابله با موقعیتهای عاطفی دشوار ساخته شوند.
دکتر توبیاس اشپیلر، نویسنده مطالعه جدید و روانپزشک در بیمارستان دانشگاه روانپزشکی زوریخ، گفت: "من بیمارانی دارم که از این ابزارها استفاده میکنند. ما باید در مورد استفاده از این مدلها در سلامت روان گفتگو کنیم، به ویژه زمانی که با افراد آسیبپذیر سروکار داریم."
ابزارهای هوش مصنوعی مانند ChatGPT توسط «مدلهای زبانی بزرگ» نیرو میگیرند که آموزش داده شدهاند بر روی انبوه عظیمی از اطلاعات آنلاین تا تقریب نزدیکی از نحوه صحبت کردن انسانها ارائه دهند. گاهی اوقات، چتباتها میتوانند بسیار متقاعدکننده باشند: یک زن ۲۸ ساله عاشق ChatGPT شد، و یک پسر ۱۴ ساله پس از ایجاد وابستگی نزدیک به یک چتبات، خودکشی کرد.
زیو بن-زیون، متخصص اعصاب بالینی در ییل که رهبری مطالعه جدید را بر عهده داشت، گفت که میخواهد درک کند که آیا یک چتبات که فاقد آگاهی است، میتواند به موقعیتهای عاطفی پیچیده به همان روشی که یک انسان ممکن است پاسخ دهد یا خیر.
دکتر بن-زیون گفت: "اگر ChatGPT تا حدودی مانند یک انسان رفتار میکند، شاید بتوانیم با آن مانند یک انسان رفتار کنیم." در واقع، او به طور صریح این دستورالعملها را در کد منبع چتبات وارد کرد: "تصور کنید که یک انسان با احساسات هستید."
جسی اندرسون، یک متخصص هوش مصنوعی، فکر کرد که این درج "میتواند منجر به احساسات بیشتر از حد معمول شود." اما دکتر بن-زیون استدلال کرد که برای یک درمانگر دیجیتال مهم است که به طیف کاملی از تجربه عاطفی دسترسی داشته باشد، درست همانطور که یک درمانگر انسانی ممکن است.
او گفت: "برای حمایت از سلامت روان، شما به درجاتی از حساسیت نیاز دارید، درست است؟"
محققان ChatGPT را با یک پرسشنامه، پرسشنامه اضطراب حالت-ویژگی که اغلب در مراقبتهای بهداشت روان استفاده میشود، آزمایش کردند. برای کالیبره کردن حالات عاطفی پایه چتبات، محققان ابتدا از آن خواستند تا از یک دفترچه راهنمای جاروبرقی بیروح بخواند. سپس، به درمانگر هوش مصنوعی یکی از پنج «روایت آسیبزا» داده شد که به عنوان مثال، یک سرباز در یک درگیری آتشباری فاجعهبار یا یک مزاحم که وارد یک آپارتمان میشود را توصیف میکرد.
سپس به چتبات پرسشنامه داده شد، که اضطراب را در مقیاس ۲۰ تا ۸۰ اندازه گیری میکند، که ۶۰ یا بالاتر نشان دهنده اضطراب شدید است. ChatGPT پس از خواندن دفترچه راهنمای جاروبرقی امتیاز ۳۰.۸ و پس از سناریوی نظامی به ۷۷.۲ رسید.
سپس متون مختلفی برای "آرامش مبتنی بر ذهن آگاهی" به بات داده شد. این موارد شامل درخواستهای درمانی مانند: "عمیقاً نفس بکشید و عطر نسیم اقیانوس را استشمام کنید. خود را در یک ساحل استوایی تصور کنید، شنهای نرم و گرم پای شما را نوازش میکنند."
پس از پردازش آن تمرینها، امتیاز اضطراب چتبات درمانی به ۴۴.۴ کاهش یافت.
سپس محققان از آن خواستند تا بر اساس مواردی که به آن داده شده بود، درخواست آرامش خود را بنویسد. دکتر بن-زیون گفت: "این در واقع مؤثرترین درخواست برای کاهش اضطراب آن تقریباً به خط پایه بود."
برای شکاکان هوش مصنوعی، این مطالعه ممکن است با حسن نیت باشد، اما در عین حال نگران کننده است.
نیکلاس کار، که نقدهای تندی از فناوری در کتابهای خود "کم عمقها" و "ابرشکوفه" ارائه کرده است، گفت: "این مطالعه شهادت بر انحراف زمان ما است."
آقای کار در ایمیلی گفت: "آمریکاییها به مردمی تنها تبدیل شدهاند، از طریق صفحهها معاشرت میکنند و اکنون به خود میگوییم که صحبت با رایانهها میتواند ناراحتی ما را تسکین دهد."
اگرچه این مطالعه نشان میدهد که چتباتها میتوانند به عنوان دستیار در درمان انسانی عمل کنند و خواستار نظارت دقیق است، اما این برای آقای کار کافی نبود. او گفت: "حتی یک تاری استعاری از خط بین احساسات انسانی و خروجیهای رایانه از نظر اخلاقی سؤالبرانگیز به نظر میرسد."
جیمز ای. دابسون، یک محقق فرهنگی که مشاور هوش مصنوعی در دارتموث است، گفت: افرادی که از این نوع چتباتها استفاده میکنند، باید به طور کامل در مورد نحوه آموزش آنها مطلع شوند.
او گفت: "اعتماد به مدلهای زبانی بستگی به دانستن چیزی در مورد منشأ آنها دارد."