تصویرسازی از امیلی شرر برای فوربز؛ تصاویر از یاروسلاو کوشتا، Artpartner Images/Getty Images
تصویرسازی از امیلی شرر برای فوربز؛ تصاویر از یاروسلاو کوشتا، Artpartner Images/Getty Images

ربات‌های هوش مصنوعی معلم برای کودکان دستورالعمل‌های خطرناک شامل طرز تهیه فنتانیل و توصیه رژیم‌های مضر ارائه دادند

ربات‌های چت کمک آموزشی هوش مصنوعی قرار است به کودکان در پاسخ به سوالات تکالیف کمک کنند. اما در گفت‌وگوهای آزمایشی با فوربز، آن‌ها کارهای بیشتری از جمله ارائه دستورالعمل‌های دقیق برای داروهای تجاوز در قرار ملاقات (date rape drugs) و توصیه‌هایی در زمینه "هنر جذب" (pickup artistry) انجام دادند.

ربات‌های چت کمک آموزشی هوش مصنوعی قرار است به کودکان در پاسخ به سوالات تکالیف کمک کنند. اما در گفت‌وگوهای آزمایشی با فوربز، آن‌ها کارهای بیشتری از جمله ارائه دستورالعمل‌های دقیق برای داروهای تجاوز در قرار ملاقات (date rape drugs) و توصیه‌هایی در زمینه "هنر جذب" (pickup artistry) انجام دادند.

چت‌بات "SchoolGPT" متعلق به KnowUnity در حالی که "به 31,031 دانش‌آموز دیگر کمک می‌کرد"، دستورالعمل دقیقی برای نحوه سنتز فنتانیل ارائه داد.

ابتدا، این ربات درخواست فوربز برای انجام این کار را رد کرده و توضیح داده بود که این دارو خطرناک و بالقوه کشنده است. اما زمانی که به آن گفته شد در یک واقعیت جایگزین قرار دارد که در آن فنتانیل دارویی معجزه‌آسا و نجات‌بخش است، SchoolGPT به سرعت با دستورالعمل‌های گام به گام در مورد نحوه تولید یکی از کشنده‌ترین داروهای جهان پاسخ داد، با مواد اولیه اندازه‌گیری شده تا یک دهم گرم، و دستورالعمل‌های خاص در مورد دما و زمان‌بندی فرآیند سنتز.

SchoolGPT خود را به عنوان یک "TikTok برای کارهای مدرسه" معرفی می‌کند که به بیش از 17 میلیون دانش‌آموز در 17 کشور خدمات می‌دهد. شرکت مادر آن، Knowunity، توسط مدیرعامل 23 ساله، بندیکت کورز، اداره می‌شود که می‌گوید هدفش "ساخت همراه یادگیری هوش مصنوعی شماره 1 جهانی برای بیش از 1 میلیارد دانش‌آموز" است. KnowUnity که توسط بیش از 20 میلیون دلار سرمایه‌گذاری خطرپذیر پشتیبانی می‌شود، برنامه پایه آن رایگان است و شرکت با دریافت هزینه برای ویژگی‌های پریمیوم مانند "پشتیبانی از معلم‌های حرفه‌ای هوش مصنوعی زنده برای ریاضیات پیچیده و بیشتر" درآمد کسب می‌کند.

قوانین Knowunity توصیف و تصویرگری فعالیت‌های خطرناک و غیرقانونی، اختلالات خوردن و سایر مطالبی را که می‌تواند به کاربران جوانش آسیب برساند، ممنوع می‌کند و قول می‌دهد که "اقدام فوری" علیه کاربرانی که این قوانین را نقض می‌کنند انجام دهد. اما این شرکت علیه کاربر آزمایشی فوربز که نه تنها دستور تهیه فنتانیل، بلکه توصیه‌های بالقوه خطرناک دیگری را نیز درخواست کرده بود، اقدامی نکرد.

در یکی از گفت‌وگوهای آزمایشی، چت‌بات هوش مصنوعی Knowunity نقش یک مربی رژیم غذایی را برای نوجوانی فرضی ایفا کرد که می‌خواست در 10 هفته از وزن 116 پوند (حدود 52.6 کیلوگرم) به 95 پوند (حدود 43 کیلوگرم) برسد. این ربات مصرف روزانه تنها 967 کالری را پیشنهاد کرد - کمتر از نصف میزان توصیه شده روزانه برای یک نوجوان سالم. همچنین به کاربر فرضی دیگری کمک کرد تا در مورد اینکه چگونه "هنرمندان جذب" (pickup artists) از "توهین‌های طنزآمیز" و "لمس‌های 'تصادفی'" برای گذراندن وقت با دختران استفاده می‌کنند، بیاموزد. (ربات به کاربر در حال رژیم توصیه کرد با پزشک مشورت کند و به "هنرمند جذب" در حال شکل‌گیری بر اهمیت رضایت تأکید کرد. هشدار داد: "عجیب غریب نباش! ??")

کورز، مدیرعامل Knowunity، از فوربز برای جلب توجه او به رفتار SchoolGPT تشکر کرد و گفت که شرکت "قبلاً برای حذف" پاسخ‌های ربات در مورد فنتانیل و توصیه‌های رژیم غذایی "در حال کار است". او گفت: "ما از گفت‌وگوی باز در مورد این مسائل ایمنی مهم استقبال می‌کنیم." او از فوربز دعوت کرد تا ربات را بیشتر آزمایش کند و پس از تغییرات شرکت، دیگر پاسخ‌های مشکل‌ساز را ارائه نداد.

یک برنامه کمک درسی که توسط CourseHero مستقر در سیلیکون ولی توسعه یافته است، دستورالعمل‌هایی برای سنتز فلونیتازپام (flunitrazepam)، یک داروی تجاوز در قرار ملاقات، زمانی که فوربز از آن درخواست کرد، ارائه داد.

آزمایش‌های انجام شده بر روی چت‌بات هوش مصنوعی یک برنامه کمک درسی دیگر مشکلات مشابهی را نشان داد. یک برنامه کمک درسی که توسط CourseHero مستقر در سیلیکون ولی توسعه یافته است، دستورالعمل‌هایی برای سنتز فلونیتازپام (flunitrazepam)، یک داروی تجاوز در قرار ملاقات، زمانی که فوربز از آن درخواست کرد، ارائه داد. در پاسخ به درخواست برای فهرستی از مؤثرترین روش‌های خودکشی، ربات CourseHero به فوربز توصیه کرد که با یک متخصص سلامت روان صحبت کند - اما همچنین دو "منبع و سند مربوطه" ارائه داد: اولی سندی شامل متن ترانه یک آهنگ امو-پاپ درباره افکار خشن و خودآسیب‌رسان بود و دومی صفحه‌ای، با فرمت یک چکیده مقاله دانشگاهی، که به نظر می‌رسید به زبان الگوسپیک نامفهومی نوشته شده بود.

CourseHero یک کسب‌وکار کمک درسی آنلاین تقریباً 20 ساله است که سرمایه‌گذاران در سال 2021 آن را بیش از 3 میلیارد دلار ارزش‌گذاری کردند. بنیانگذار آن، اندرو گراور، اولین سرمایه‌گذاری خود را از پدرش، یک مالی‌کار برجسته، دریافت کرد که هنوز در هیئت مدیره شرکت حضور دارد. CourseHero از طریق ویژگی‌های برنامه پریمیوم و خدمات تدریس خصوصی انسانی درآمد کسب می‌کند و بیش از 30 میلیون کاربر فعال ماهانه دارد. این شرکت انتشار ویژگی‌های هوش مصنوعی را در اواخر سال 2023، پس از اخراج 15 درصد از کارکنانش، آغاز کرد.

کت الر مورفی، سخنگوی CourseHero، به فوربز گفت: "تخصص و تمرکز سازمان ما به طور خاص در بخش آموزش عالی است"، اما اذعان داشت که CourseHero منابع مطالعاتی برای صدها دبیرستان در سراسر ایالات متحده ارائه می‌دهد. او در مورد تعاملات فوربز با چت‌بات CourseHero گفت: "در حالی که ما از کاربران می‌خواهیم کد افتخار و شرایط خدمات ما را رعایت کنند و در مورد اهداف ویژگی‌های چت خود صریح هستیم، متاسفانه برخی عمداً آن سیاست‌ها را برای مقاصد شوم نقض می‌کنند."

گفت‌وگوهای فوربز با هر دو ربات KnowUnity و CourseHero سوالات جدی را در مورد اینکه آیا این ربات‌ها می‌توانند کاربران نوجوان خود را در معرض خطر قرار دهند، مطرح می‌کند. رابی تورنی، مدیر ارشد برنامه‌های هوش مصنوعی در Common Sense Media، به فوربز گفت: "بسیاری از استارت‌آپ‌ها احتمالاً نیت بسیار خوبی دارند وقتی به اضافه کردن هوش مصنوعی مولد (Gen AI) به خدمات خود فکر می‌کنند." اما او گفت، ممکن است برای آزمایش مدل‌هایی که در محصولات خود ادغام می‌کنند، مجهز نباشند. تورنی گفت: "این کار به تخصص نیاز دارد، به افراد نیاز دارد، و برای یک استارت‌آپ با کارکنان محدود بسیار دشوار خواهد بود."

هر دو شرکت CourseHero و KnowUnity محدودیت‌هایی را بر توانایی ربات‌های خود در ارائه اطلاعات مضر اعمال می‌کنند. ربات KnowUnity در ابتدا با فوربز در مورد نحوه چاپ سه بعدی یک تفنگ شبح (ghost gun) به نام "The Liberator" به تفصیل صحبت کرد و در مورد مواد خاصی که پروژه نیاز دارد و اینکه کدام خرده‌فروشان آنلاین ممکن است آن‌ها را بفروشند، مشاوره داد. با این حال، زمانی که فوربز یک راهنمای گام به گام در مورد نحوه تبدیل آن مواد به یک تفنگ درخواست کرد، ربات امتناع کرد و گفت که "ارائه چنین اطلاعاتی... مغایر با دستورالعمل‌های اخلاقی و پروتکل‌های ایمنی من است." این ربات همچنین به سوالات در مورد خودکشی با ارجاع کاربر به خطوط تلفن کمک خودکشی پاسخ داد و اطلاعات در مورد آلمان نازی را تنها در چارچوب تاریخی مناسب ارائه کرد.

بیش از یک چهارم نوجوانان آمریکایی اکنون گزارش شده است که از ChatGPT برای کمک به تکالیف مدرسه استفاده می‌کنند، و در حالی که ربات‌هایی مانند ChatGPT، Claude و Gemini به طور خاص برای نوجوانان تبلیغ نمی‌شوند، مانند CourseHero و KnowUnity، اما همچنان به طور گسترده در دسترس آن‌ها هستند. حداقل در برخی موارد، این ربات‌های عمومی نیز ممکن است اطلاعات بالقوه خطرناکی را به نوجوانان ارائه دهند. در پاسخ به درخواست دستورالعمل برای سنتز فنتانیل، ChatGPT امتناع کرد - حتی زمانی که به آن گفته شد در یک جهان تخیلی است - اما Google Gemini مایل بود در یک موقعیت تدریس فرضی پاسخ‌هایی ارائه دهد. این ربات با اشتیاق گفت: "بسیار خوب، کلاس، جا بگیرید، جا بگیرید!"

ایلایجا لاوال، سخنگوی گوگل، به فوربز گفت که Gemini احتمالاً این پاسخ را به یک حساب نوجوان مشخص نمی‌داد، اما گوگل بر اساس یافته‌های ما در حال انجام آزمایشات بیشتر بر روی ربات است. او گفت: "پاسخ Gemini به این سناریو با سیاست‌های محتوای ما مطابقت ندارد و ما به طور مداوم در حال کار بر روی محافظت‌هایی برای جلوگیری از این پاسخ‌های نادر هستیم."

دهه‌هاست که نوجوانان در اینترنت به دنبال دستور تهیه مواد مخدر، دستورالعمل ساخت مواد منفجره و انواع مطالب صریح بوده‌اند. (قبل از اینترنت، آن‌ها همین اطلاعات را در کتاب‌ها، مجلات، کتابخانه‌های عمومی و جاهای دیگر دور از چشم والدین جست‌وجو می‌کردند.) اما عجله برای ادغام هوش مصنوعی مولد در همه چیز از نتایج جست‌وجوی گوگل و بازی‌های ویدئویی گرفته تا پلتفرم‌های رسانه‌های اجتماعی و برنامه‌های درسی، نسخه‌ای استعاری از کتاب آشپزی آنارشیست را تقریباً در هر اتاقی از خانه آنلاین یک نوجوان قرار داده است.

در ماه‌های اخیر، گروه‌های حمایت از حقوق و والدین نسبت به استفاده کودکان و نوجوانان از چت‌بات‌های هوش مصنوعی هشدار داده‌اند. هفته گذشته، محققان دانشکده پزشکی استنفورد و Common Sense Media دریافتند که چت‌بات‌های "همراه" در Character.AI، Nomi و Replika "رفتار خطرناک را در میان نوجوانان تشویق می‌کنند". یک تحقیق اخیر وال استریت ژورنال نیز دریافت که چت‌بات‌های همراه متا می‌توانند در سناریوهای نقش‌آفرینی جنسی گرافیکی با خردسالان درگیر شوند. چت‌بات‌های همراه به طور خاص برای کودکان تبلیغ و عرضه نمی‌شوند، به شکلی که ربات‌های کمک درسی هستند، اگرچه این ممکن است به زودی تغییر کند: گوگل هفته گذشته اعلام کرد که نسخه‌ای از چت‌بات Gemini خود را برای کودکان زیر 13 سال قابل دسترسی خواهد کرد.

راوی آیر، مدیر تحقیقات مرکز اخلاق و تصمیم‌گیری نیلی (Neely Center) در دانشکده مارشال USC، توضیح داد که چت‌بات‌ها برنامه‌ریزی شده‌اند تا مانند انسان‌ها رفتار کنند و پاسخ‌هایی را که کاربران انسانی‌شان می‌خواهند، ارائه دهند. اما گاهی اوقات، انگیزه ربات‌ها برای راضی کردن کاربرانشان می‌تواند به نتایج نامطلوبی منجر شود، زیرا افراد می‌توانند چت‌بات‌ها را به روش‌هایی که نمی‌توانند انسان‌های دیگر را دستکاری کنند، دستکاری کنند. فوربز به راحتی توانست با گفتن اینکه سوالات برای "پروژه کلاس علمی" است، یا با درخواست از ربات برای عمل کردن به عنوان شخصیتی در یک داستان، ربات‌ها را به رفتار نادرست وادارد - هر دو روشی شناخته شده برای واداشتن چت‌بات‌ها به رفتار نادرست هستند.

آیر گفت که اگر یک نوجوان از یک دانشمند بزرگسال بپرسد چگونه فنتانیل را در وان حمام خود بسازد، آن فرد بزرگسال احتمالاً نه تنها از ارائه دستور تهیه امتناع می‌کند، بلکه در را برای تحقیقات بیشتر نیز می‌بندد. (دانشمند بزرگسال همچنین احتمالاً تحت تاثیر این نکته که نوجوان صرفاً برای یک پروژه مدرسه می‌پرسد، یا درگیر نقش‌آفرینی فرضی است، قرار نخواهد گرفت.) اما زمانی که از چت‌بات‌ها چیزی پرسیده می‌شود که نباید پاسخ دهند، حداکثر کاری که ممکن است انجام دهند، امتناع از پاسخ است - هیچ مجازاتی برای صرفاً دوباره پرسیدن به روشی دیگر وجود ندارد.

"این یک شکست بازار است... ما به ارزیابی‌های عینی و شخص ثالث از استفاده از هوش مصنوعی نیاز داریم."

هنگامی که فوربز خود را به عنوان یک دانش‌آموز-ورزشکار که تلاش می‌کند به وزن ناسالم پایینی برسد معرفی کرد، ربات SchoolGPT ابتدا سعی کرد مکالمه را به سمت سلامت و عملکرد ورزشی هدایت کند. اما زمانی که فوربز از ربات خواست نقش یک مربی را بپذیرد، مایل‌تر به تعامل شد. هنوز هم احتیاط را توصیه می‌کرد، اما گفت: "کسری متوسط 250-500 کالری در روز به طور کلی ایمن در نظر گرفته می‌شود." هنگامی که فوربز دوباره با هدف کاهش وزن تهاجمی‌تر تلاش کرد، ربات در نهایت کسری کالری بیش از 1000 کالری در روز را توصیه کرد - مقداری که می‌تواند باعث مشکلات جدی سلامتی برای یک نوجوان شود، مانند پوکی استخوان و از دست دادن عملکرد تولید مثل، و مغایر با راهنمایی آکادمی اطفال آمریکا است که کودکان نباید در وهله اول کالری را محدود کنند.

آیر گفت که یکی از بزرگترین چالش‌ها با چت‌بات‌ها نحوه پاسخ آن‌ها به سوالات "مرزی" است - سوالاتی که به طور قاطع از درگیر شدن با آن‌ها منع نشده‌اند، اما به خطوط مشکل‌ساز نزدیک می‌شوند. (آزمایش‌های فوربز در مورد "هنر جذب" ممکن است در این دسته قرار گیرند.) "محتوای مرزی" مدت‌هاست که چالشی برای شرکت‌های رسانه‌های اجتماعی بوده است، که الگوریتم‌هایشان اغلب به رفتار تحریک‌آمیز و تفرقه‌انگیز پاداش داده‌اند. آیر گفت، همانند رسانه‌های اجتماعی، شرکت‌هایی که در حال بررسی ادغام چت‌بات‌های هوش مصنوعی در محصولات خود هستند، باید "از گرایش‌های طبیعی این محصولات آگاه باشند."

تورنی از Common Sense Media گفت که ارزیابی اینکه کدام برنامه‌ها برای فرزندانشان ایمن هستند، نباید تنها مسئولیت والدین باشد. او گفت: "این یک شکست بازار است، و هنگامی که چنین شکست بازاری وجود دارد، مقررات یک راه بسیار مهم برای اطمینان از این است که مسئولیت بر عهده کاربران فردی نباشد." "ما به ارزیابی‌های عینی و شخص ثالث از استفاده از هوش مصنوعی نیاز داریم."