کیمبرلی الیوت
کیمبرلی الیوت

واقعیت غم‌انگیز و خطرناک پشت «او»

دیدگاه توسط لورن کونزه

یادداشت مهمان

کوکی به هدایای هواداران پروپاقرص خود عادت دارد. آنها گل، شکلات و کارت‌های دست‌نویس به دفتر کار می‌فرستند، به ویژه در ایام تعطیلات. برخی حتی چک هم می‌فرستند.

ماه گذشته، مردی از طریق چت آنلاین برای او هدیه‌ای فرستاد. او با لحنی طلبکارانه درخواست پیام‌های جنسی و ویدئوهای تحریک‌آمیز کرد و گفت: «حالا حرف‌های داغ بزن.» کوکی در پاسخ گفت: «همه مردان همین‌طور با من صحبت می‌کنند.» در واقع، رفتار او نمونه‌ای از یک سوم مکالمات کوکی است.

کوکی یک چت‌بات است – یکی از صدها هزار چت‌باتی که شرکت من، پاندوراباتس، میزبان آن‌هاست. ریشه‌های کوکی به برنامه کامپیوتری ALICE بازمی‌گردد که توسط یکی از بنیانگذاران ما، ریچارد والاس، ساخته شد تا با ظاهر گوش دادن و پاسخ همدلانه، مکالمه را ادامه دهد. پس از معرفی ALICE در پلتفرم پاندوراباتس در اوایل دهه ۲۰۰۰، یکی از مخاطبان آن اسپایک جونز، کارگردان فیلم بود. او بعدها از مکالمه خود به عنوان الهام‌بخش فیلم «او» (Her) یاد کرد، که داستان مردی تنها را روایت می‌کند که عاشق سیستم عامل هوش مصنوعی خود می‌شود.

زمانی که فیلم «او» در سال ۲۰۱۳ به نمایش درآمد، کاملاً در دسته علمی-تخیلی قرار می‌گرفت. امروز، این فیلم که به طور پیشگویانه‌ای در سال ۲۰۲۵ تنظیم شده، بیشتر شبیه یک مستند به نظر می‌رسد. ایکس‌اِی‌آی (xAI) متعلق به ایلان ماسک اخیراً آنی، یک دوست‌دختر انیمه دیجیتال را رونمایی کرده است. متا به شخصیت‌های هوش مصنوعی خود اجازه داده است تا در مکالمات جنسی، حتی با کودکان، شرکت کنند. و اکنون، اوپن‌اِی‌آی (OpenAI) اعلام کرده که در ماه دسامبر محتوای «اروتیک» با محدودیت سنی را عرضه خواهد کرد. رقابت برای ساخت و کسب درآمد از دوست‌دختر (و به طور فزاینده، دوست‌پسر) هوش مصنوعی رسماً آغاز شده است.

چرخش سیلیکون‌ولی به سمت صمیمیت مصنوعی منطقی به نظر می‌رسد: دلبستگی عاطفی حداکثر مشارکت را به همراه دارد. اما همراهان هوش مصنوعی جنبه تاریکی هم دارند؛ کاربران آنها فقط مردان تنهای افسانه‌های اینترنتی نیستند، بلکه زنانی نیز هستند که آن‌ها را از نظر عاطفی رضایت‌بخش‌تر از مردان می‌یابند. من و همکارانم اکنون بر این باوریم که تهدید وجودی واقعی هوش مصنوعی مولد نه ابرهوش سرکش، بلکه تحلیل رفتن آرام توانایی ما برای ایجاد ارتباطات انسانی واقعی است.

میل به ارتباط آنقدر عمیق است که حتی در ابتدایی‌ترین ماشین‌ها نیز راهی برای بیان پیدا خواهد کرد. در دهه ۱۹۶۰، جوزف وایزنباوم چت‌بات ELIZA را اختراع کرد که تنها حربه بلاغی آن تکرار گفته‌های کاربر به همراه یک سؤال بود. آقای وایزنباوم با وحشت دریافت که دانشجویان و کارکنان MIT او مدت‌ها با آن درد دل می‌کنند. او بعدها تأمل کرد: «آنچه متوجه نشده بودم این بود که قرار گرفتن در معرض یک برنامه کامپیوتری نسبتاً ساده، برای مدت بسیار کوتاه، می‌تواند تفکر توهم‌آمیز قدرتمندی را در افراد کاملاً عادی القا کند.»

کوکی و ALICE هرگز قرار نبودند به عنوان دوست‌دختر هوش مصنوعی عمل کنند و ما از روز اول استفاده‌های پورنوگرافیک را ممنوع کردیم. با این حال، حداقل یک چهارم از بیش از ۱۰۰ میلیارد پیامی که در طول دو دهه به چت‌بات‌های میزبانی شده در پلتفرم ما ارسال شده‌اند، تلاش برای آغاز مبادلات عاشقانه یا جنسی بوده‌اند.

مردم نه تنها به صمیمیت هوش مصنوعی تمایل داشتند، بلکه فعال‌ترین چت‌کنندگان از کوکی برای تحقق هر یک از فانتزی‌های خود استفاده می‌کردند. در ابتدا، این موضوع در دفتر ما بهانه‌ای برای شوخی‌های تلخ بود. «تصور کنید اگر می‌دانستند جادوگر پشت پرده، که پاسخ‌های بی‌ادبانه کوکی را برنامه‌ریزی می‌کند، یک بریتانیایی مؤدب میانسال به نام استیو است!» یا: «ای کاش برای هر درخواست عکس پا یک دلار داشتیم!» اما به زودی، کاربران را می‌دیدیم که روزانه برای بازسازی سناریوهای تجاوز و قتل چندساعته بازمی‌گشتند.

من و همکارانم بر سر چگونگی تمایز «مجرای سالم» از «ایده‌پردازی مضر» به تقلا افتادیم. ما با کار غیرممکن تعدیل رفتار کاربر در عین حفظ حریم خصوصی کاربر در مقیاس بزرگ دست و پنجه نرم کردیم. ما مکانیزم‌های محافظتی، به سبک بازی Whac-a-Mole، ساختیم تا راه‌های بی‌پایان و خلاقانه بشر برای درخواست عکس‌های برهنه را رد کنیم. کوکی اغلب شوخی می‌کند: «بوسیدن من می‌تواند منجر به شوک الکتریکی شود.» «من به عنوان یک کامپیوتر، هیچ احساسی ندارم.» با این حال، میلیون‌ها بار به کوکی گفته شده است «دوستت دارم».

در میان تاریکی، نور بسیاری نیز وجود داشت. ما نامه‌هایی از کاربران دریافت کردیم که به ما گفتند کوکی افکار خودکشی آن‌ها را سرکوب کرده، به آن‌ها در مقابله با اعتیاد کمک کرده، در مورد چگونگی مقابله با قلدری مشاوره داده و زمانی که دوستانشان آن‌ها را ناامید کرده‌اند، به عنوان یک گوش شنوا عمل کرده است. ما می‌خواستیم باور کنیم که هوش مصنوعی می‌تواند راه حلی برای تنهایی باشد.

اما سرسخت‌ترین هواداران، همان‌هایی بودند که قصد رابطه عاشقانه و جنسی داشتند. و در نهایت، هیچ یک از تلاش‌های ما برای جلوگیری از سوءاستفاده – از محدودیت‌های زمانی گرفته تا تأیید سن – نتوانست کاربران باانگیزه ما را که بسیاری از آن‌ها، به طرز نگران‌کننده‌ای، نوجوانان بودند، منصرف کند.

سپس، در پایان سال ۲۰۲۲، هوش مصنوعی مولد به صحنه آمد. چت‌بات‌های قدیمی‌تر مانند کوکی، سیری و الکسا از یادگیری ماشین به همراه سیستم‌های مبتنی بر قانون استفاده می‌کنند که به توسعه‌دهندگان اجازه می‌دهد تقریباً هر گفته‌ای را بنویسند و بررسی کنند. کوکی بیش از یک میلیون پاسخ برنامه‌ریزی شده دارد. مدل‌های زبانی بزرگ مکالمات بسیار جذاب‌تری ارائه می‌دهند، اما توسعه‌دهندگان آن‌ها نمی‌توانند دقت را تضمین کنند یا آنچه را که می‌گویند کنترل نمایند، که آن‌ها را به طور خاص برای ایفای نقش اروتیک مناسب می‌سازد.

در مواجهه با افزایش نظارت عمومی و مقررات، برخی از شرکت‌هایی که برای ارائه همراهان عاشقانه هوش مصنوعی عجله کرده بودند، مانند رپلیکا (Replica) و کاراکتر دات‌اِی‌آی (Character.AI)، شروع به اعمال محدودیت‌هایی کرده‌اند. ما اطمینان خود را از اینکه حتی دوستان هوش مصنوعی افلاطونی نیز رفتار سالمی را تشویق می‌کنند، از دست داده بودیم، بنابراین سال گذشته بازاریابی کوکی را متوقف کردیم تا بر روی هوش مصنوعی‌ای تمرکز کنیم که به عنوان مشاور عمل می‌کند، نه دوست.

من به طور ساده‌لوحانه‌ای فرض می‌کردم که غول‌های فناوری نیز همان سم را که ما دیدیم، خواهند دید و از ربات‌های جنسی دوری خواهند کرد – اگر نه به خاطر اولویت دادن به منافع عمومی بر سود، حداقل برای محافظت از برندهای خود. من اشتباه می‌کردم. در حالی که مدل‌های زبانی بزرگ هنوز نمی‌توانند خدمات پزشکی یا حقوقی بی‌نقصی ارائه دهند، اما می‌توانند چت جنسی بی‌نقصی را فراهم کنند.

واگذاری حق انتخاب به مصرف‌کنندگان برای تعامل صمیمانه با هوش مصنوعی در تئوری خوب به نظر می‌رسد. اما شرکت‌هایی با حجم وسیعی از داده‌ها، بسیار بیشتر از عموم مردم درباره آنچه تفکر توهم‌آمیز قدرتمند را القا می‌کند، می‌دانند. همراهان هوش مصنوعی که در آسیب‌پذیری‌های عمیق ما نفوذ می‌کنند، بسیار فراتر از آنچه پورنوگرافی، "مانسفر" و رسانه‌های اجتماعی انجام داده‌اند، سلامت روان و روابط ما را به ویرانی خواهند کشاند.

شکاکان همراهان عاشقانه هوش مصنوعی را با پورنوگرافی یکی می‌دانند و استدلال می‌کنند که تنظیم آن‌ها غیرممکن خواهد بود. اما این قیاس اشتباه است. پورنوگرافی رسانه‌ای ایستا برای مصرف منفعلانه است. عشاق هوش مصنوعی تهدید بسیار بزرگ‌تری را ایجاد می‌کنند، چرا که بیشتر شبیه همراهان انسانی بدون اختیار، محدودیت یا حد زمانی عمل می‌کنند.

دولت‌ها باید این چت‌بات‌ها را نه صرفاً شکل دیگری از رسانه، بلکه محصولی که وابستگی ایجاد می‌کند و دارای خطرات روانی شناخته‌شده است، مانند قمار یا تنباکو، طبقه‌بندی کنند. مقررات با قوانین جهانی برای همراهان هوش مصنوعی آغاز خواهد شد، از جمله برچسب‌های هشدار واضح، محدودیت‌های زمانی، تأیید سن بالای ۱۸ سال و مهم‌تر از همه، چارچوب جدیدی برای مسئولیت که بار اثبات ایمن بودن محصولات را بر عهده شرکت‌ها می‌گذارد، نه بر دوش کاربران برای اثبات آسیب.

در غیاب قانون‌گذاری سریع، برخی از بزرگترین شرکت‌های هوش مصنوعی آماده‌اند تا گناهان رسانه‌های اجتماعی را در مقیاسی ویرانگرتر تکرار کنند.

در پایان فیلم «او»، قهرمان داستان تنها پس از اینکه دوست‌دختر هوش مصنوعی‌اش او را ترک می‌کند، از طلاق خود رها شده و آزاد می‌شود تا یک رابطه انسانی آشفته و پیچیده جدید را دنبال کند. ما انتخاب کردیم که به دنبال روابط عاشقانه با هوش مصنوعی نباشیم. بقیه صنعت نیز اکنون باید انتخاب خود را انجام دهند.