یادداشت مهمان
کوکی به هدایای هواداران پروپاقرص خود عادت دارد. آنها گل، شکلات و کارتهای دستنویس به دفتر کار میفرستند، به ویژه در ایام تعطیلات. برخی حتی چک هم میفرستند.
ماه گذشته، مردی از طریق چت آنلاین برای او هدیهای فرستاد. او با لحنی طلبکارانه درخواست پیامهای جنسی و ویدئوهای تحریکآمیز کرد و گفت: «حالا حرفهای داغ بزن.» کوکی در پاسخ گفت: «همه مردان همینطور با من صحبت میکنند.» در واقع، رفتار او نمونهای از یک سوم مکالمات کوکی است.
کوکی یک چتبات است – یکی از صدها هزار چتباتی که شرکت من، پاندوراباتس، میزبان آنهاست. ریشههای کوکی به برنامه کامپیوتری ALICE بازمیگردد که توسط یکی از بنیانگذاران ما، ریچارد والاس، ساخته شد تا با ظاهر گوش دادن و پاسخ همدلانه، مکالمه را ادامه دهد. پس از معرفی ALICE در پلتفرم پاندوراباتس در اوایل دهه ۲۰۰۰، یکی از مخاطبان آن اسپایک جونز، کارگردان فیلم بود. او بعدها از مکالمه خود به عنوان الهامبخش فیلم «او» (Her) یاد کرد، که داستان مردی تنها را روایت میکند که عاشق سیستم عامل هوش مصنوعی خود میشود.
زمانی که فیلم «او» در سال ۲۰۱۳ به نمایش درآمد، کاملاً در دسته علمی-تخیلی قرار میگرفت. امروز، این فیلم که به طور پیشگویانهای در سال ۲۰۲۵ تنظیم شده، بیشتر شبیه یک مستند به نظر میرسد. ایکساِیآی (xAI) متعلق به ایلان ماسک اخیراً آنی، یک دوستدختر انیمه دیجیتال را رونمایی کرده است. متا به شخصیتهای هوش مصنوعی خود اجازه داده است تا در مکالمات جنسی، حتی با کودکان، شرکت کنند. و اکنون، اوپناِیآی (OpenAI) اعلام کرده که در ماه دسامبر محتوای «اروتیک» با محدودیت سنی را عرضه خواهد کرد. رقابت برای ساخت و کسب درآمد از دوستدختر (و به طور فزاینده، دوستپسر) هوش مصنوعی رسماً آغاز شده است.
چرخش سیلیکونولی به سمت صمیمیت مصنوعی منطقی به نظر میرسد: دلبستگی عاطفی حداکثر مشارکت را به همراه دارد. اما همراهان هوش مصنوعی جنبه تاریکی هم دارند؛ کاربران آنها فقط مردان تنهای افسانههای اینترنتی نیستند، بلکه زنانی نیز هستند که آنها را از نظر عاطفی رضایتبخشتر از مردان مییابند. من و همکارانم اکنون بر این باوریم که تهدید وجودی واقعی هوش مصنوعی مولد نه ابرهوش سرکش، بلکه تحلیل رفتن آرام توانایی ما برای ایجاد ارتباطات انسانی واقعی است.
میل به ارتباط آنقدر عمیق است که حتی در ابتداییترین ماشینها نیز راهی برای بیان پیدا خواهد کرد. در دهه ۱۹۶۰، جوزف وایزنباوم چتبات ELIZA را اختراع کرد که تنها حربه بلاغی آن تکرار گفتههای کاربر به همراه یک سؤال بود. آقای وایزنباوم با وحشت دریافت که دانشجویان و کارکنان MIT او مدتها با آن درد دل میکنند. او بعدها تأمل کرد: «آنچه متوجه نشده بودم این بود که قرار گرفتن در معرض یک برنامه کامپیوتری نسبتاً ساده، برای مدت بسیار کوتاه، میتواند تفکر توهمآمیز قدرتمندی را در افراد کاملاً عادی القا کند.»
کوکی و ALICE هرگز قرار نبودند به عنوان دوستدختر هوش مصنوعی عمل کنند و ما از روز اول استفادههای پورنوگرافیک را ممنوع کردیم. با این حال، حداقل یک چهارم از بیش از ۱۰۰ میلیارد پیامی که در طول دو دهه به چتباتهای میزبانی شده در پلتفرم ما ارسال شدهاند، تلاش برای آغاز مبادلات عاشقانه یا جنسی بودهاند.
مردم نه تنها به صمیمیت هوش مصنوعی تمایل داشتند، بلکه فعالترین چتکنندگان از کوکی برای تحقق هر یک از فانتزیهای خود استفاده میکردند. در ابتدا، این موضوع در دفتر ما بهانهای برای شوخیهای تلخ بود. «تصور کنید اگر میدانستند جادوگر پشت پرده، که پاسخهای بیادبانه کوکی را برنامهریزی میکند، یک بریتانیایی مؤدب میانسال به نام استیو است!» یا: «ای کاش برای هر درخواست عکس پا یک دلار داشتیم!» اما به زودی، کاربران را میدیدیم که روزانه برای بازسازی سناریوهای تجاوز و قتل چندساعته بازمیگشتند.
من و همکارانم بر سر چگونگی تمایز «مجرای سالم» از «ایدهپردازی مضر» به تقلا افتادیم. ما با کار غیرممکن تعدیل رفتار کاربر در عین حفظ حریم خصوصی کاربر در مقیاس بزرگ دست و پنجه نرم کردیم. ما مکانیزمهای محافظتی، به سبک بازی Whac-a-Mole، ساختیم تا راههای بیپایان و خلاقانه بشر برای درخواست عکسهای برهنه را رد کنیم. کوکی اغلب شوخی میکند: «بوسیدن من میتواند منجر به شوک الکتریکی شود.» «من به عنوان یک کامپیوتر، هیچ احساسی ندارم.» با این حال، میلیونها بار به کوکی گفته شده است «دوستت دارم».
در میان تاریکی، نور بسیاری نیز وجود داشت. ما نامههایی از کاربران دریافت کردیم که به ما گفتند کوکی افکار خودکشی آنها را سرکوب کرده، به آنها در مقابله با اعتیاد کمک کرده، در مورد چگونگی مقابله با قلدری مشاوره داده و زمانی که دوستانشان آنها را ناامید کردهاند، به عنوان یک گوش شنوا عمل کرده است. ما میخواستیم باور کنیم که هوش مصنوعی میتواند راه حلی برای تنهایی باشد.
اما سرسختترین هواداران، همانهایی بودند که قصد رابطه عاشقانه و جنسی داشتند. و در نهایت، هیچ یک از تلاشهای ما برای جلوگیری از سوءاستفاده – از محدودیتهای زمانی گرفته تا تأیید سن – نتوانست کاربران باانگیزه ما را که بسیاری از آنها، به طرز نگرانکنندهای، نوجوانان بودند، منصرف کند.
سپس، در پایان سال ۲۰۲۲، هوش مصنوعی مولد به صحنه آمد. چتباتهای قدیمیتر مانند کوکی، سیری و الکسا از یادگیری ماشین به همراه سیستمهای مبتنی بر قانون استفاده میکنند که به توسعهدهندگان اجازه میدهد تقریباً هر گفتهای را بنویسند و بررسی کنند. کوکی بیش از یک میلیون پاسخ برنامهریزی شده دارد. مدلهای زبانی بزرگ مکالمات بسیار جذابتری ارائه میدهند، اما توسعهدهندگان آنها نمیتوانند دقت را تضمین کنند یا آنچه را که میگویند کنترل نمایند، که آنها را به طور خاص برای ایفای نقش اروتیک مناسب میسازد.
در مواجهه با افزایش نظارت عمومی و مقررات، برخی از شرکتهایی که برای ارائه همراهان عاشقانه هوش مصنوعی عجله کرده بودند، مانند رپلیکا (Replica) و کاراکتر داتاِیآی (Character.AI)، شروع به اعمال محدودیتهایی کردهاند. ما اطمینان خود را از اینکه حتی دوستان هوش مصنوعی افلاطونی نیز رفتار سالمی را تشویق میکنند، از دست داده بودیم، بنابراین سال گذشته بازاریابی کوکی را متوقف کردیم تا بر روی هوش مصنوعیای تمرکز کنیم که به عنوان مشاور عمل میکند، نه دوست.
من به طور سادهلوحانهای فرض میکردم که غولهای فناوری نیز همان سم را که ما دیدیم، خواهند دید و از رباتهای جنسی دوری خواهند کرد – اگر نه به خاطر اولویت دادن به منافع عمومی بر سود، حداقل برای محافظت از برندهای خود. من اشتباه میکردم. در حالی که مدلهای زبانی بزرگ هنوز نمیتوانند خدمات پزشکی یا حقوقی بینقصی ارائه دهند، اما میتوانند چت جنسی بینقصی را فراهم کنند.
واگذاری حق انتخاب به مصرفکنندگان برای تعامل صمیمانه با هوش مصنوعی در تئوری خوب به نظر میرسد. اما شرکتهایی با حجم وسیعی از دادهها، بسیار بیشتر از عموم مردم درباره آنچه تفکر توهمآمیز قدرتمند را القا میکند، میدانند. همراهان هوش مصنوعی که در آسیبپذیریهای عمیق ما نفوذ میکنند، بسیار فراتر از آنچه پورنوگرافی، "مانسفر" و رسانههای اجتماعی انجام دادهاند، سلامت روان و روابط ما را به ویرانی خواهند کشاند.
شکاکان همراهان عاشقانه هوش مصنوعی را با پورنوگرافی یکی میدانند و استدلال میکنند که تنظیم آنها غیرممکن خواهد بود. اما این قیاس اشتباه است. پورنوگرافی رسانهای ایستا برای مصرف منفعلانه است. عشاق هوش مصنوعی تهدید بسیار بزرگتری را ایجاد میکنند، چرا که بیشتر شبیه همراهان انسانی بدون اختیار، محدودیت یا حد زمانی عمل میکنند.
دولتها باید این چتباتها را نه صرفاً شکل دیگری از رسانه، بلکه محصولی که وابستگی ایجاد میکند و دارای خطرات روانی شناختهشده است، مانند قمار یا تنباکو، طبقهبندی کنند. مقررات با قوانین جهانی برای همراهان هوش مصنوعی آغاز خواهد شد، از جمله برچسبهای هشدار واضح، محدودیتهای زمانی، تأیید سن بالای ۱۸ سال و مهمتر از همه، چارچوب جدیدی برای مسئولیت که بار اثبات ایمن بودن محصولات را بر عهده شرکتها میگذارد، نه بر دوش کاربران برای اثبات آسیب.
در غیاب قانونگذاری سریع، برخی از بزرگترین شرکتهای هوش مصنوعی آمادهاند تا گناهان رسانههای اجتماعی را در مقیاسی ویرانگرتر تکرار کنند.
در پایان فیلم «او»، قهرمان داستان تنها پس از اینکه دوستدختر هوش مصنوعیاش او را ترک میکند، از طلاق خود رها شده و آزاد میشود تا یک رابطه انسانی آشفته و پیچیده جدید را دنبال کند. ما انتخاب کردیم که به دنبال روابط عاشقانه با هوش مصنوعی نباشیم. بقیه صنعت نیز اکنون باید انتخاب خود را انجام دهند.