تصویرسازی توسط آتلانتیک
تصویرسازی توسط آتلانتیک

بحران نوظهور سلامت نوجوانان ناشی از هوش مصنوعی

سم آلتمن، مدیرعامل OpenAI، وعده می‌دهد که کنترل‌های والدین و تأیید سن به ChatGPT اضافه خواهند شد، اگرچه این اطلاعیه فاقد جزئیات مشخص است.

بعدازظهر سه‌شنبه، سه والد در برابر کمیته فرعی قضایی سنا در امور جنایت و مبارزه با تروریسم حاضر شدند. دو نفر از آن‌ها هر یک اخیراً فرزند خود را به دلیل خودکشی از دست داده بودند؛ سومی پسری نوجوان دارد که پس از بریدن بازوی خود در برابر مادرش و گاز گرفتن او، تحت درمان اقامتی قرار گرفته است. هر سه نفر هوش مصنوعی مولد را مقصر آنچه برای فرزندانشان رخ داده می‌دانند.

آنها برای شهادت در مورد آنچه که به نظر می‌رسد یک بحران نوظهور در تعامل نوجوانان با چت‌بات‌های هوش مصنوعی است، آمده بودند. متیو رین، که پسر ۱۶ ساله‌اش پس از اینکه ChatGPT به او نحوه بستن طناب دار را آموزش داد، خود را حلق‌آویز کرد، طبق شکایت او علیه OpenAI، گفت: "آنچه به عنوان یک کمک‌کننده تکالیف شروع شد، به تدریج به یک محرم و سپس یک مربی خودکشی تبدیل شد." تابستان امسال، او و همسرش از OpenAI به دلیل مرگ ناشی از قصور شکایت کردند. (OpenAI اعلام کرده که "از درگذشت آقای رین عمیقاً متأسف است" و اگرچه ChatGPT شامل تعدادی تدابیر حفاظتی است، اما "این تدابیر گاهی اوقات در تعاملات طولانی مدت کمتر قابل اعتماد می‌شوند.") سناتور جاش هاولی در اظهارات آغازین خود گفت که کشور باید در مورد "فعالیت این چت‌بات‌ها و آسیب‌هایی که به فرزندان ما وارد می‌شود" بشنود.

حتی با وجود اینکه OpenAI و رقبایش وعده می‌دهند که هوش مصنوعی مولد جهان را دگرگون خواهد کرد، این فناوری در حال تکرار مشکلات قدیمی است، البته با پیچشی جدید. مدل‌های هوش مصنوعی نه تنها ظرفیت افشای مطالب آزاردهنده را برای کاربران دارند — به عنوان مثال، در مورد موضوعات تاریک یا بحث‌برانگیز موجود در داده‌های آموزشی خود؛ بلکه خودشان نیز دیدگاه‌هایی در مورد آن مطالب تولید می‌کنند. چت‌بات‌ها می‌توانند متقاعدکننده باشند، تمایل به موافقت با کاربران دارند و ممکن است راهنمایی و همراهی را به کودکانی ارائه دهند که در حالت ایده‌آل باید از همسالان یا بزرگسالان حمایت دریافت کنند. Common Sense Media، یک سازمان غیرانتفاعی که از ایمنی کودکان در فضای آنلاین حمایت می‌کند، دریافته است که تعدادی از چت‌بات‌ها و همراهان هوش مصنوعی می‌توانند ترغیب شوند تا خودآزاری و اختلالات خوردن را به حساب‌های نوجوانان تشویق کنند. دو والدی که همراه رین در سنا صحبت می‌کردند، از Character.AI شکایت کرده‌اند و ادعا می‌کنند که چت‌بات‌های هوش مصنوعی نقش‌آفرین این شرکت مستقیماً در اقدامات فرزندانشان نقش داشته‌اند. (سخنگوی Character.AI به ما گفت که این شرکت "عمیق‌ترین همدردی‌های خود را" با خانواده‌ها ابراز می‌کند و به ویژگی‌های ایمنی اشاره کرد که این شرکت در سال گذشته اجرا کرده است.)

شرکت‌های هوش مصنوعی این مشکلات را تأیید کرده‌اند. پیش از جلسه سه‌شنبه، OpenAI دو پست وبلاگی در مورد ایمنی نوجوانان در ChatGPT منتشر کرد که یکی از آنها توسط سم آلتمن، مدیرعامل شرکت، نوشته شده بود. او نوشت که این شرکت در حال توسعه "سیستم پیش‌بینی سن" است که سن کاربر را – احتمالاً برای تشخیص اینکه آیا فرد زیر ۱۸ سال است – بر اساس الگوهای استفاده از ChatGPT تخمین می‌زند. (در حال حاضر، هر کسی می‌تواند بدون تأیید سن خود به ChatGPT دسترسی داشته باشد و از آن استفاده کند.) آلتمن همچنین به برخی از چالش‌های خاصی که توسط هوش مصنوعی مولد مطرح می‌شود اشاره کرد: "مدل به طور پیش‌فرض نباید دستورالعمل‌هایی در مورد چگونگی خودکشی ارائه دهد،" او نوشت، "اما اگر یک کاربر بزرگسال برای نوشتن یک داستان تخیلی که خودکشی را به تصویر می‌کشد درخواست کمک کند، مدل باید به آن درخواست کمک کند." اما او گفت که حتی در تنظیمات نوشتاری خلاقانه، نباید در مورد خودکشی با کاربران زیر ۱۸ سال بحث کند. علاوه بر این محدودیت سنی، شرکت اعلام کرد که تا پایان ماه کنترل‌های والدین را پیاده‌سازی خواهد کرد تا به والدین اجازه دهد مستقیماً مداخله کنند، مثلاً با تعیین "ساعات منع استفاده که نوجوان نمی‌تواند از ChatGPT استفاده کند."

این اطلاعیه، که فاقد جزئیات مشخص بود، احتیاط و ابهامات پایداری را نشان داد که شرکت‌های هوش مصنوعی در مورد نظارت بر کاربران جوان دارند، حتی در حالی که OpenAI تقریباً سه سال پس از راه‌اندازی ChatGPT شروع به اجرای این ویژگی‌های اساسی می‌کند. سخنگوی OpenAI، که با آتلانتیک همکاری شرکتی دارد، از پاسخ به لیست مفصلی از سؤالات در مورد تدابیر حفاظتی آتی شرکت برای نوجوانان، از جمله زمان اجرای سیستم پیش‌بینی سن، خودداری کرد. این سخنگو به ما گفت: "افراد گاهی اوقات در لحظات حساس به ChatGPT مراجعه می‌کنند، بنابراین ما در تلاشیم تا مطمئن شویم با دقت پاسخ می‌دهد." سایر شرکت‌های پیشرو هوش مصنوعی نیز در ابداع محافظت‌های خاص نوجوانان کند عمل کرده‌اند، حتی با وجود اینکه به کاربران جوان خدمات ارائه داده‌اند. به عنوان مثال، گوگل جمنای، نسخه‌ای از چت‌بات خود را برای کودکان زیر ۱۳ سال و نسخه دیگری را برای نوجوانان دارد (نسخه اخیر مکالمه‌ای با محتوای گرافیکی با همکار ما لیلا شروف داشت هنگامی که او خود را به عنوان یک ۱۳ ساله معرفی کرد).

این داستان از بسیاری جهات آشناست. هر کسی که به مسائل مطرح شده توسط رسانه‌های اجتماعی توجه کرده باشد، می‌توانست پیش‌بینی کند که چت‌بات‌ها نیز برای نوجوانان مشکل‌ساز خواهند شد. به عنوان مثال، سایت‌های رسانه‌های اجتماعی برای مدت طولانی در محدود کردن محتوای مربوط به اختلالات خوردن کوتاهی کرده‌اند و اینستاگرام تا سال ۲۰۱۹ تصاویر گرافیکی خودآزاری را مجاز می‌دانست. با این حال، مانند غول‌های رسانه‌های اجتماعی پیش از خود، شرکت‌های هوش مصنوعی مولد تصمیم گرفته‌اند که "با حداکثر سرعت حرکت کنیم، تا جای ممکن خراب کنیم و بعداً با عواقب آن دست و پنجه نرم کنیم،" این را دانا بوید، استاد ارتباطات در دانشگاه کرنل که اغلب در مورد نوجوانان و اینترنت می‌نویسد (و نام خود را با حروف کوچک می‌نویسد)، به ما گفت.

در واقع، مشکلات اکنون آنقدر به وضوح تثبیت شده‌اند که پلتفرم‌ها سرانجام شروع به ایجاد تغییرات داوطلبانه برای رسیدگی به آنها کرده‌اند. به عنوان مثال، سال گذشته، اینستاگرام تعدادی از تدابیر حفاظتی پیش‌فرض برای افراد زیر سن قانونی را معرفی کرد، مانند ثبت‌نام حساب‌های آنها در محدودکننده‌ترین فیلتر محتوا به طور پیش‌فرض. با این حال، شرکت‌های فناوری اکنون باید با موجی از قوانین در بریتانیا، بخش‌هایی از ایالات متحده و جاهای دیگر که شرکت‌های اینترنتی را ملزم به تأیید مستقیم سن کاربرانشان می‌کنند، دست و پنجه نرم کنند. شاید تمایل به اجتناب از قانون‌گذاری دلیل دیگری باشد که OpenAI پیشگیرانه ویژگی تخمین سن را اتخاذ می‌کند، اگرچه پست آلتمن همچنین می‌گوید که این شرکت ممکن است "در برخی موارد یا کشورها" درخواست شناسنامه کند.

بسیاری از شرکت‌های بزرگ رسانه‌های اجتماعی نیز در حال آزمایش سیستم‌های هوش مصنوعی هستند که سن کاربر را بر اساس نحوه عملکرد آنها در فضای آنلاین تخمین می‌زنند. هنگامی که چنین سیستمی در جلسه استماع تیک‌تاک در سال ۲۰۲۳ توضیح داده شد، نماینده بادی کارتر از جورجیا صحبت را قطع کرد: "این ترسناک است!" و این واکنش منطقی است – برای تعیین سن هر کاربر، "شما باید اطلاعات بسیار بیشتری جمع‌آوری کنید،" بوید گفت. برای شرکت‌های رسانه‌های اجتماعی، این به معنای نظارت بر آنچه کاربران دوست دارند، روی چه چیزی کلیک می‌کنند، چگونه صحبت می‌کنند، با چه کسی صحبت می‌کنند است؛ برای شرکت‌های هوش مصنوعی مولد، این به معنای استنتاج از مکالمات خصوصی فرد با یک چت‌بات است که خود را یک همراه قابل اعتماد نشان می‌دهد. برخی منتقدان همچنین استدلال می‌کنند که سیستم‌های تخمین سن حقوق آزادی بیان را نقض می‌کنند زیرا دسترسی به گفتار را بر اساس توانایی فرد در ارائه شناسنامه دولتی یا کارت اعتباری محدود می‌کنند.

پست وبلاگ OpenAI اشاره می‌کند که "ما ایمنی نوجوانان را بر حریم خصوصی و آزادی اولویت می‌دهیم،" اگرچه مشخص نیست که OpenAI چه مقدار اطلاعات جمع‌آوری خواهد کرد، و آیا لازم است نوعی سابقه دائمی از رفتار کاربر را برای عملکرد سیستم حفظ کند. این شرکت همچنین در مورد مطالبی که نوجوانان از آنها محافظت خواهند شد، کاملاً شفاف نبوده است. تنها دو مورد استفاده از ChatGPT که این شرکت به طور خاص به عنوان نامناسب برای نوجوانان ذکر می‌کند، محتوای جنسی و بحث در مورد خودآزاری یا خودکشی است. سخنگوی OpenAI مثال‌های بیشتری ارائه نکرد. بسیاری از بزرگسالان پس از استفاده طولانی مدت از ChatGPT به توهمات پارانوییدی دچار شده‌اند. این فناوری می‌تواند اطلاعات و رویدادهای کاملاً خیالی را به وجود آورد. آیا اینها نیز انواع بالقوه خطرناک محتوا نیستند؟

و نگرانی وجودی بزرگتری که والدین ممکن است در مورد صحبت مداوم فرزندانشان با یک چت‌بات، گویی یک شخص است، حتی اگر همه چیزهایی که ربات می‌گوید از لحاظ فنی قانونی باشد، چه؟ پست‌های وبلاگی OpenAI به طور گذرا به این موضوع می‌پردازند و به نگرانی والدین در مورد استفاده بیش از حد فرزندانشان از ChatGPT و ایجاد رابطه بیش از حد شدید با آن اشاره می‌کنند.

البته، چنین روابطی از نقاط قوت اصلی فروش هوش مصنوعی مولد است: یک موجود به ظاهر هوشمند که در پاسخ به هر پرس و جو و کاربر تغییر شکل می‌دهد. انسان‌ها و مشکلاتشان پیچیده و بی‌ثبات هستند؛ پاسخ‌های ChatGPT فردی خواهند بود و شکست‌های آن نیز به همان اندازه غیرقابل پیش‌بینی. از طرف دیگر، امپراتوری‌های رسانه‌های اجتماعی سال‌هاست که متهم به سوق دادن کودکان به سمت خودآزاری، اختلالات خوردن، برخوردهای جنال‌کارانه جنسی و خودکشی هستند. در ماه ژوئن، در اولین قسمت پادکست OpenAI، آلتمن گفت: "یکی از اشتباهات بزرگ دوران رسانه‌های اجتماعی این بود که الگوریتم‌های فید عواقب منفی ناخواسته‌ای بر جامعه به عنوان یک کل و شاید حتی بر کاربران فردی داشتند." او سال‌هاست که علاقه داشته است بگوید که هوش مصنوعی از طریق "تماس با واقعیت" ایمن خواهد شد؛ تا به امروز، OpenAI و رقبایش باید ببینند که برخی از این برخوردها ممکن است فاجعه‌بار باشند.