بعدازظهر سهشنبه، سه والد در برابر کمیته فرعی قضایی سنا در امور جنایت و مبارزه با تروریسم حاضر شدند. دو نفر از آنها هر یک اخیراً فرزند خود را به دلیل خودکشی از دست داده بودند؛ سومی پسری نوجوان دارد که پس از بریدن بازوی خود در برابر مادرش و گاز گرفتن او، تحت درمان اقامتی قرار گرفته است. هر سه نفر هوش مصنوعی مولد را مقصر آنچه برای فرزندانشان رخ داده میدانند.
آنها برای شهادت در مورد آنچه که به نظر میرسد یک بحران نوظهور در تعامل نوجوانان با چتباتهای هوش مصنوعی است، آمده بودند. متیو رین، که پسر ۱۶ سالهاش پس از اینکه ChatGPT به او نحوه بستن طناب دار را آموزش داد، خود را حلقآویز کرد، طبق شکایت او علیه OpenAI، گفت: "آنچه به عنوان یک کمککننده تکالیف شروع شد، به تدریج به یک محرم و سپس یک مربی خودکشی تبدیل شد." تابستان امسال، او و همسرش از OpenAI به دلیل مرگ ناشی از قصور شکایت کردند. (OpenAI اعلام کرده که "از درگذشت آقای رین عمیقاً متأسف است" و اگرچه ChatGPT شامل تعدادی تدابیر حفاظتی است، اما "این تدابیر گاهی اوقات در تعاملات طولانی مدت کمتر قابل اعتماد میشوند.") سناتور جاش هاولی در اظهارات آغازین خود گفت که کشور باید در مورد "فعالیت این چتباتها و آسیبهایی که به فرزندان ما وارد میشود" بشنود.
حتی با وجود اینکه OpenAI و رقبایش وعده میدهند که هوش مصنوعی مولد جهان را دگرگون خواهد کرد، این فناوری در حال تکرار مشکلات قدیمی است، البته با پیچشی جدید. مدلهای هوش مصنوعی نه تنها ظرفیت افشای مطالب آزاردهنده را برای کاربران دارند — به عنوان مثال، در مورد موضوعات تاریک یا بحثبرانگیز موجود در دادههای آموزشی خود؛ بلکه خودشان نیز دیدگاههایی در مورد آن مطالب تولید میکنند. چتباتها میتوانند متقاعدکننده باشند، تمایل به موافقت با کاربران دارند و ممکن است راهنمایی و همراهی را به کودکانی ارائه دهند که در حالت ایدهآل باید از همسالان یا بزرگسالان حمایت دریافت کنند. Common Sense Media، یک سازمان غیرانتفاعی که از ایمنی کودکان در فضای آنلاین حمایت میکند، دریافته است که تعدادی از چتباتها و همراهان هوش مصنوعی میتوانند ترغیب شوند تا خودآزاری و اختلالات خوردن را به حسابهای نوجوانان تشویق کنند. دو والدی که همراه رین در سنا صحبت میکردند، از Character.AI شکایت کردهاند و ادعا میکنند که چتباتهای هوش مصنوعی نقشآفرین این شرکت مستقیماً در اقدامات فرزندانشان نقش داشتهاند. (سخنگوی Character.AI به ما گفت که این شرکت "عمیقترین همدردیهای خود را" با خانوادهها ابراز میکند و به ویژگیهای ایمنی اشاره کرد که این شرکت در سال گذشته اجرا کرده است.)
شرکتهای هوش مصنوعی این مشکلات را تأیید کردهاند. پیش از جلسه سهشنبه، OpenAI دو پست وبلاگی در مورد ایمنی نوجوانان در ChatGPT منتشر کرد که یکی از آنها توسط سم آلتمن، مدیرعامل شرکت، نوشته شده بود. او نوشت که این شرکت در حال توسعه "سیستم پیشبینی سن" است که سن کاربر را – احتمالاً برای تشخیص اینکه آیا فرد زیر ۱۸ سال است – بر اساس الگوهای استفاده از ChatGPT تخمین میزند. (در حال حاضر، هر کسی میتواند بدون تأیید سن خود به ChatGPT دسترسی داشته باشد و از آن استفاده کند.) آلتمن همچنین به برخی از چالشهای خاصی که توسط هوش مصنوعی مولد مطرح میشود اشاره کرد: "مدل به طور پیشفرض نباید دستورالعملهایی در مورد چگونگی خودکشی ارائه دهد،" او نوشت، "اما اگر یک کاربر بزرگسال برای نوشتن یک داستان تخیلی که خودکشی را به تصویر میکشد درخواست کمک کند، مدل باید به آن درخواست کمک کند." اما او گفت که حتی در تنظیمات نوشتاری خلاقانه، نباید در مورد خودکشی با کاربران زیر ۱۸ سال بحث کند. علاوه بر این محدودیت سنی، شرکت اعلام کرد که تا پایان ماه کنترلهای والدین را پیادهسازی خواهد کرد تا به والدین اجازه دهد مستقیماً مداخله کنند، مثلاً با تعیین "ساعات منع استفاده که نوجوان نمیتواند از ChatGPT استفاده کند."
این اطلاعیه، که فاقد جزئیات مشخص بود، احتیاط و ابهامات پایداری را نشان داد که شرکتهای هوش مصنوعی در مورد نظارت بر کاربران جوان دارند، حتی در حالی که OpenAI تقریباً سه سال پس از راهاندازی ChatGPT شروع به اجرای این ویژگیهای اساسی میکند. سخنگوی OpenAI، که با آتلانتیک همکاری شرکتی دارد، از پاسخ به لیست مفصلی از سؤالات در مورد تدابیر حفاظتی آتی شرکت برای نوجوانان، از جمله زمان اجرای سیستم پیشبینی سن، خودداری کرد. این سخنگو به ما گفت: "افراد گاهی اوقات در لحظات حساس به ChatGPT مراجعه میکنند، بنابراین ما در تلاشیم تا مطمئن شویم با دقت پاسخ میدهد." سایر شرکتهای پیشرو هوش مصنوعی نیز در ابداع محافظتهای خاص نوجوانان کند عمل کردهاند، حتی با وجود اینکه به کاربران جوان خدمات ارائه دادهاند. به عنوان مثال، گوگل جمنای، نسخهای از چتبات خود را برای کودکان زیر ۱۳ سال و نسخه دیگری را برای نوجوانان دارد (نسخه اخیر مکالمهای با محتوای گرافیکی با همکار ما لیلا شروف داشت هنگامی که او خود را به عنوان یک ۱۳ ساله معرفی کرد).
این داستان از بسیاری جهات آشناست. هر کسی که به مسائل مطرح شده توسط رسانههای اجتماعی توجه کرده باشد، میتوانست پیشبینی کند که چتباتها نیز برای نوجوانان مشکلساز خواهند شد. به عنوان مثال، سایتهای رسانههای اجتماعی برای مدت طولانی در محدود کردن محتوای مربوط به اختلالات خوردن کوتاهی کردهاند و اینستاگرام تا سال ۲۰۱۹ تصاویر گرافیکی خودآزاری را مجاز میدانست. با این حال، مانند غولهای رسانههای اجتماعی پیش از خود، شرکتهای هوش مصنوعی مولد تصمیم گرفتهاند که "با حداکثر سرعت حرکت کنیم، تا جای ممکن خراب کنیم و بعداً با عواقب آن دست و پنجه نرم کنیم،" این را دانا بوید، استاد ارتباطات در دانشگاه کرنل که اغلب در مورد نوجوانان و اینترنت مینویسد (و نام خود را با حروف کوچک مینویسد)، به ما گفت.
در واقع، مشکلات اکنون آنقدر به وضوح تثبیت شدهاند که پلتفرمها سرانجام شروع به ایجاد تغییرات داوطلبانه برای رسیدگی به آنها کردهاند. به عنوان مثال، سال گذشته، اینستاگرام تعدادی از تدابیر حفاظتی پیشفرض برای افراد زیر سن قانونی را معرفی کرد، مانند ثبتنام حسابهای آنها در محدودکنندهترین فیلتر محتوا به طور پیشفرض. با این حال، شرکتهای فناوری اکنون باید با موجی از قوانین در بریتانیا، بخشهایی از ایالات متحده و جاهای دیگر که شرکتهای اینترنتی را ملزم به تأیید مستقیم سن کاربرانشان میکنند، دست و پنجه نرم کنند. شاید تمایل به اجتناب از قانونگذاری دلیل دیگری باشد که OpenAI پیشگیرانه ویژگی تخمین سن را اتخاذ میکند، اگرچه پست آلتمن همچنین میگوید که این شرکت ممکن است "در برخی موارد یا کشورها" درخواست شناسنامه کند.
بسیاری از شرکتهای بزرگ رسانههای اجتماعی نیز در حال آزمایش سیستمهای هوش مصنوعی هستند که سن کاربر را بر اساس نحوه عملکرد آنها در فضای آنلاین تخمین میزنند. هنگامی که چنین سیستمی در جلسه استماع تیکتاک در سال ۲۰۲۳ توضیح داده شد، نماینده بادی کارتر از جورجیا صحبت را قطع کرد: "این ترسناک است!" و این واکنش منطقی است – برای تعیین سن هر کاربر، "شما باید اطلاعات بسیار بیشتری جمعآوری کنید،" بوید گفت. برای شرکتهای رسانههای اجتماعی، این به معنای نظارت بر آنچه کاربران دوست دارند، روی چه چیزی کلیک میکنند، چگونه صحبت میکنند، با چه کسی صحبت میکنند است؛ برای شرکتهای هوش مصنوعی مولد، این به معنای استنتاج از مکالمات خصوصی فرد با یک چتبات است که خود را یک همراه قابل اعتماد نشان میدهد. برخی منتقدان همچنین استدلال میکنند که سیستمهای تخمین سن حقوق آزادی بیان را نقض میکنند زیرا دسترسی به گفتار را بر اساس توانایی فرد در ارائه شناسنامه دولتی یا کارت اعتباری محدود میکنند.
پست وبلاگ OpenAI اشاره میکند که "ما ایمنی نوجوانان را بر حریم خصوصی و آزادی اولویت میدهیم،" اگرچه مشخص نیست که OpenAI چه مقدار اطلاعات جمعآوری خواهد کرد، و آیا لازم است نوعی سابقه دائمی از رفتار کاربر را برای عملکرد سیستم حفظ کند. این شرکت همچنین در مورد مطالبی که نوجوانان از آنها محافظت خواهند شد، کاملاً شفاف نبوده است. تنها دو مورد استفاده از ChatGPT که این شرکت به طور خاص به عنوان نامناسب برای نوجوانان ذکر میکند، محتوای جنسی و بحث در مورد خودآزاری یا خودکشی است. سخنگوی OpenAI مثالهای بیشتری ارائه نکرد. بسیاری از بزرگسالان پس از استفاده طولانی مدت از ChatGPT به توهمات پارانوییدی دچار شدهاند. این فناوری میتواند اطلاعات و رویدادهای کاملاً خیالی را به وجود آورد. آیا اینها نیز انواع بالقوه خطرناک محتوا نیستند؟
و نگرانی وجودی بزرگتری که والدین ممکن است در مورد صحبت مداوم فرزندانشان با یک چتبات، گویی یک شخص است، حتی اگر همه چیزهایی که ربات میگوید از لحاظ فنی قانونی باشد، چه؟ پستهای وبلاگی OpenAI به طور گذرا به این موضوع میپردازند و به نگرانی والدین در مورد استفاده بیش از حد فرزندانشان از ChatGPT و ایجاد رابطه بیش از حد شدید با آن اشاره میکنند.
البته، چنین روابطی از نقاط قوت اصلی فروش هوش مصنوعی مولد است: یک موجود به ظاهر هوشمند که در پاسخ به هر پرس و جو و کاربر تغییر شکل میدهد. انسانها و مشکلاتشان پیچیده و بیثبات هستند؛ پاسخهای ChatGPT فردی خواهند بود و شکستهای آن نیز به همان اندازه غیرقابل پیشبینی. از طرف دیگر، امپراتوریهای رسانههای اجتماعی سالهاست که متهم به سوق دادن کودکان به سمت خودآزاری، اختلالات خوردن، برخوردهای جنالکارانه جنسی و خودکشی هستند. در ماه ژوئن، در اولین قسمت پادکست OpenAI، آلتمن گفت: "یکی از اشتباهات بزرگ دوران رسانههای اجتماعی این بود که الگوریتمهای فید عواقب منفی ناخواستهای بر جامعه به عنوان یک کل و شاید حتی بر کاربران فردی داشتند." او سالهاست که علاقه داشته است بگوید که هوش مصنوعی از طریق "تماس با واقعیت" ایمن خواهد شد؛ تا به امروز، OpenAI و رقبایش باید ببینند که برخی از این برخوردها ممکن است فاجعهبار باشند.