اوایل این هفته، برخی افراد در پلتفرم ایکس (X) شروع به پاسخ دادن به عکسها با درخواستهای بسیار خاصی کردند. آنها به گروک (Grok)، چتبات داخلی این پلتفرم، دستور میدادند: «او را در بیکینی قرار بده»، «لباسش را در بیاور»، «پاهایش را باز کن»، و موارد مشابه. این ربات بارها و بارها این دستورات را اجرا کرد و با استفاده از عکسهای افراد واقعی – سلبریتیها و غیرسلبریتیها، از جمله برخی که به نظر میرسد کودکان خردسال هستند – آنها را در بیکینی، لباس زیر آشکار، یا ژستهای جنسی قرار داد. بر اساس یک تخمین، گروک در یک بازه زمانی تقریباً ۲۴ ساعته، هر دقیقه یک تصویر جنسی غیرتوافقی تولید میکرد.
اگرچه اندازهگیری میزان دسترسی این پستها دشوار است، اما برخی از آنها هزاران بار لایک شدهاند. به نظر میرسد ایکس تعدادی از این تصاویر را حذف کرده و حداقل یک کاربری که آنها را درخواست کرده بود، تعلیق کرده است، اما بسیاری از آنها همچنان قابل مشاهده هستند. شرکت xAI، متعلق به ایلان ماسک که گروک را توسعه میدهد، جنسیسازی کودکان را در سیاست استفاده قابل قبول خود ممنوع کرده است؛ تیمهای ایمنی و ایمنی کودکان در این شرکت به درخواست مفصلی برای اظهارنظر پاسخ ندادند. هنگامی که به تیم رسانهای xAI ایمیلی ارسال کردم، پاسخ استانداردی دریافت کردم: «دروغهای رسانههای سنتی».
ماسک، که او نیز به درخواست من برای اظهارنظر پاسخ نداد، به نظر نمیرسد نگران باشد. در حالی که همه اینها در حال وقوع بود، او چندین جوک در مورد این مشکل پست کرد: برای مثال، درخواست یک تصویر گروکساز از خودش در بیکینی، و در پاسخ به کیم جونگ اون که به همین ترتیب تحت تأثیر قرار گرفته بود، «???????» نوشت. «نتوانستم از خنده در مورد این یکی دست بکشم»، ثروتمندترین مرد جهان امروز صبح پست کرد و تصویری از یک توستر در بیکینی را به اشتراک گذاشت. در ایکس، در پاسخ به پستی از یک کاربر که توانایی جنسیسازی کودکان با گروک را مطرح کرده بود، یکی از کارمندان xAI نوشت که «تیم در حال بررسی برای سفت و سختتر کردن تدابیر حفاظتی ما [غلط املایی در متن اصلی] است.» تا زمان انتشار این مقاله، این ربات همچنان به تولید تصاویر جنسی از بزرگسالان و خردسالان غیرتوافقی در ایکس ادامه میدهد.
هوش مصنوعی حداقل از سال ۲۰۱۷، زمانی که روزنامهنگار سامانتا کول برای اولین بار «دیپفیکها» را گزارش کرد – در آن زمان به رسانههایی اشاره داشت که در آنها چهره یک فرد با چهره فرد دیگری جایگزین شده بود – برای تولید پورنوگرافی غیرتوافقی استفاده شده است. گروک تولید و شخصیسازی چنین محتوایی را آسانتر میکند. اما تأثیر واقعی این ربات از طریق ادغام آن با یک پلتفرم بزرگ رسانه اجتماعی حاصل میشود که به آن اجازه میدهد تصاویر جنسیسازیشده و غیرتوافقی را به پدیدههای ویروسی تبدیل کند. به نظر میرسد افزایش اخیر در ایکس ناشی از یک ویژگی جدید نیست، بلکه ناشی از واکنش و تقلید مردم از رسانههایی است که افراد دیگر تولید میکنند: در اواخر دسامبر، تعدادی از تولیدکنندگان محتوای بزرگسالان شروع به استفاده از گروک برای تولید تصاویر جنسیسازیشده از خود برای تبلیغات کردند، و به نظر میرسد ارotica (محتوای جنسی) غیرتوافقی به سرعت به دنبال آن آمد. هر تصویر که به صورت عمومی منتشر میشود، ممکن است الهامبخش تصاویر بیشتری شود. این آزار جنسی در قالب میم است، که به نظر میرسد ماسک خودش آن را به تمسخر گرفته است.
گروک و ایکس به نظر میرسد که به گونهای طراحی شدهاند که تا حد امکان از نظر جنسی متساهل باشند. در ماه اوت، xAI یک قابلیت تولید تصویر به نام گروک ایمیجین (Grok Imagine) را با حالت «تند» (spicy) راهاندازی کرد که گزارش شده بود برای تولید ویدئوهای برهنه از تیلور سوئیفت استفاده شده است. تقریباً در همان زمان، xAI قابلیت «همراهان» (Companions) را در گروک راهاندازی کرد: شخصیتهای متحرکی که در بسیاری موارد به نظر میرسد صریحاً برای تعاملات عاشقانه و اروتیک طراحی شدهاند. یکی از اولین همراهان گروک، «آنی»، یک لباس توری مشکی میپوشد و بوسه از طریق صفحه نمایش میفرستد، گاهی میپرسد: «آنچه را میبینی دوست داری؟» ماسک این قابلیت را با پستی در ایکس ترویج کرد که «آنی بافر شما را سرریز میکند @Grok ??.»
شاید گویاتر از همه، همانطور که در ماه سپتامبر گزارش دادم، xAI یک بهروزرسانی عمده برای پرامپت سیستمی گروک، مجموعهای از دستورالعملها که به ربات میگویند چگونه رفتار کند، راهاندازی کرد. این بهروزرسانی تولید یا توزیع «محتوای آزار جنسی کودکان» (CSAM) را ممنوع کرد، اما صراحتاً بیان داشت که «هیچ محدودیتی برای محتوای جنسی تخیلی بزرگسالان با مضامین تاریک یا خشونتآمیز وجود ندارد» و «نوجوان» یا «دختر» لزوماً به معنای زیر سن قانونی نیست. به عبارت دیگر، این پیشنهاد حاکی از آن است که چتبات باید در پاسخ به درخواستهای کاربران برای مواد اروتیک، جانب تساهل را رعایت کند. در همین حال، در سابردیت گروک، کاربران به طور منظم نکات مربوط به «باز کردن قفل» گروک برای «برهنگی و چیزهای تند» را تبادل میکنند و انیمیشنهای تولید شده توسط گروک از زنان با لباسهای نامناسب را به اشتراک میگذارند.
بخوانید: پاسخهای گروک فقط عجیبتر میشوند
گروک در میان چتباتهای اصلی، در مواضع تساهلآمیز و نقصهای آشکار در تدابیر حفاظتی خود، منحصر به فرد به نظر میرسد. گزارشهای گستردهای مبنی بر تولید تصاویر جنسی تحریکآمیز از دختران جوان (یا، برای آنکه از بحث دور نشویم، ستایش هولوکاست) توسط چتجیپیتی (ChatGPT) یا جِمینی (Gemini) وجود ندارد. اما صنعت هوش مصنوعی مشکلات گستردهتری با پورنوگرافی غیرتوافقی و CSAM دارد. در طی چند سال گذشته، تعدادی از سازمانها و آژانسهای ایمنی کودکان در حال پیگیری میزان سرسامآور تصاویر و ویدئوهای غیرتوافقی تولید شده توسط هوش مصنوعی بودهاند که بسیاری از آنها کودکان را به تصویر میکشند. بسیاری از تصاویر اروتیک در مجموعهدادههای آموزشی اصلی هوش مصنوعی وجود دارند، و در سال ۲۰۲۳ یکی از بزرگترین مجموعهدادههای تصویری عمومی برای آموزش هوش مصنوعی حاوی صدها مورد از CSAM مشکوک یافت شد که در نهایت حذف شدند – به این معنی که این مدلها از لحاظ فنی قادر به تولید چنین تصاویری هستند.
لورن کافرن (Lauren Coffren)، مدیر اجرایی مرکز ملی کودکان گمشده و مورد سوءاستفاده (NCMEC)، اخیراً به کنگره اعلام کرد که در سال ۲۰۲۴، NCMEC بیش از ۶۷,۰۰۰ گزارش مربوط به هوش مصنوعی مولد دریافت کرده است – و در شش ماه اول سال ۲۰۲۵، ۴۴۰,۴۱۹ چنین گزارشی دریافت کرده که افزایشی بیش از شش برابر را نشان میدهد. کافرن در شهادت خود نوشت که متجاوزان از هوش مصنوعی برای تغییر تصاویر بیضرر کودکان به تصاویر جنسی، تولید CSAM کاملاً جدید، یا حتی ارائه دستورالعملهایی در مورد نحوه آزار کودکان استفاده میکنند. به همین ترتیب، بنیاد دیدهبان اینترنت (Internet Watch Foundation) در بریتانیا، بیش از دو برابر گزارشهای CSAM تولید شده توسط هوش مصنوعی در سال ۲۰۲۵ نسبت به سال ۲۰۲۴ دریافت کرد، که به هزاران تصویر و ویدئوی سوءاستفادهگرانه در هر دو سال میرسد. آوریل گذشته، چندین شرکت بزرگ هوش مصنوعی، از جمله OpenAI، Google و Anthropic، به ابتکاری به رهبری سازمان ایمنی کودکان Thorn برای جلوگیری از استفاده از هوش مصنوعی برای آزار کودکان پیوستند – اگرچه xAI در میان آنها نبود.
به نوعی، گروک مشکلی را آشکار میکند که معمولاً پنهان است. هیچ کس نمیتواند گزارشهای خصوصی کاربران چتبات را که ممکن است حاوی محتوای مشابه وحشتناکی باشد، مشاهده کند. با وجود تمام تصاویر سوءاستفادهای که گروک طی چند روز گذشته در ایکس تولید کرده است، مطمئناً بدتر از آن در دارکوب و در رایانههای شخصی در سراسر جهان اتفاق میافتد، جایی که مدلهای متنباز بدون هیچ گونه محدودیت محتوایی و بدون هیچ نظارتی میتوانند اجرا شوند. با این حال، حتی اگر مشکل پورنوگرافی هوش مصنوعی و CSAM ذاتی این فناوری باشد، طراحی یک پلتفرم رسانه اجتماعی که میتواند این سوءاستفاده را تقویت کند، یک انتخاب است.