تصویرسازی از آتلانتیک. منبع: استفانی رینولدز / بلومبرگ / گتی.
تصویرسازی از آتلانتیک. منبع: استفانی رینولدز / بلومبرگ / گتی.

ماشین پورنوگرافی ایلان ماسک

در ایکس (X)، آزار جنسی و شاید حتی کودک‌آزاری به جدیدترین میم‌ها تبدیل شده‌اند.

اوایل این هفته، برخی افراد در پلتفرم ایکس (X) شروع به پاسخ دادن به عکس‌ها با درخواست‌های بسیار خاصی کردند. آن‌ها به گروک (Grok)، چت‌بات داخلی این پلتفرم، دستور می‌دادند: «او را در بیکینی قرار بده»، «لباسش را در بیاور»، «پاهایش را باز کن»، و موارد مشابه. این ربات بارها و بارها این دستورات را اجرا کرد و با استفاده از عکس‌های افراد واقعی – سلبریتی‌ها و غیرسلبریتی‌ها، از جمله برخی که به نظر می‌رسد کودکان خردسال هستند – آن‌ها را در بیکینی، لباس زیر آشکار، یا ژست‌های جنسی قرار داد. بر اساس یک تخمین، گروک در یک بازه زمانی تقریباً ۲۴ ساعته، هر دقیقه یک تصویر جنسی غیرتوافقی تولید می‌کرد.

اگرچه اندازه‌گیری میزان دسترسی این پست‌ها دشوار است، اما برخی از آن‌ها هزاران بار لایک شده‌اند. به نظر می‌رسد ایکس تعدادی از این تصاویر را حذف کرده و حداقل یک کاربری که آن‌ها را درخواست کرده بود، تعلیق کرده است، اما بسیاری از آن‌ها همچنان قابل مشاهده هستند. شرکت xAI، متعلق به ایلان ماسک که گروک را توسعه می‌دهد، جنسی‌سازی کودکان را در سیاست استفاده قابل قبول خود ممنوع کرده است؛ تیم‌های ایمنی و ایمنی کودکان در این شرکت به درخواست مفصلی برای اظهارنظر پاسخ ندادند. هنگامی که به تیم رسانه‌ای xAI ایمیلی ارسال کردم، پاسخ استانداردی دریافت کردم: «دروغ‌های رسانه‌های سنتی».

ماسک، که او نیز به درخواست من برای اظهارنظر پاسخ نداد، به نظر نمی‌رسد نگران باشد. در حالی که همه این‌ها در حال وقوع بود، او چندین جوک در مورد این مشکل پست کرد: برای مثال، درخواست یک تصویر گروک‌ساز از خودش در بیکینی، و در پاسخ به کیم جونگ اون که به همین ترتیب تحت تأثیر قرار گرفته بود، «???????» نوشت. «نتوانستم از خنده در مورد این یکی دست بکشم»، ثروتمندترین مرد جهان امروز صبح پست کرد و تصویری از یک توستر در بیکینی را به اشتراک گذاشت. در ایکس، در پاسخ به پستی از یک کاربر که توانایی جنسی‌سازی کودکان با گروک را مطرح کرده بود، یکی از کارمندان xAI نوشت که «تیم در حال بررسی برای سفت و سخت‌تر کردن تدابیر حفاظتی ما [غلط املایی در متن اصلی] است.» تا زمان انتشار این مقاله، این ربات همچنان به تولید تصاویر جنسی از بزرگسالان و خردسالان غیرتوافقی در ایکس ادامه می‌دهد.

هوش مصنوعی حداقل از سال ۲۰۱۷، زمانی که روزنامه‌نگار سامانتا کول برای اولین بار «دیپ‌فیک‌ها» را گزارش کرد – در آن زمان به رسانه‌هایی اشاره داشت که در آن‌ها چهره یک فرد با چهره فرد دیگری جایگزین شده بود – برای تولید پورنوگرافی غیرتوافقی استفاده شده است. گروک تولید و شخصی‌سازی چنین محتوایی را آسان‌تر می‌کند. اما تأثیر واقعی این ربات از طریق ادغام آن با یک پلتفرم بزرگ رسانه اجتماعی حاصل می‌شود که به آن اجازه می‌دهد تصاویر جنسی‌سازی‌شده و غیرتوافقی را به پدیده‌های ویروسی تبدیل کند. به نظر می‌رسد افزایش اخیر در ایکس ناشی از یک ویژگی جدید نیست، بلکه ناشی از واکنش و تقلید مردم از رسانه‌هایی است که افراد دیگر تولید می‌کنند: در اواخر دسامبر، تعدادی از تولیدکنندگان محتوای بزرگسالان شروع به استفاده از گروک برای تولید تصاویر جنسی‌سازی‌شده از خود برای تبلیغات کردند، و به نظر می‌رسد ارotica (محتوای جنسی) غیرتوافقی به سرعت به دنبال آن آمد. هر تصویر که به صورت عمومی منتشر می‌شود، ممکن است الهام‌بخش تصاویر بیشتری شود. این آزار جنسی در قالب میم است، که به نظر می‌رسد ماسک خودش آن را به تمسخر گرفته است.

گروک و ایکس به نظر می‌رسد که به گونه‌ای طراحی شده‌اند که تا حد امکان از نظر جنسی متساهل باشند. در ماه اوت، xAI یک قابلیت تولید تصویر به نام گروک ایمیجین (Grok Imagine) را با حالت «تند» (spicy) راه‌اندازی کرد که گزارش شده بود برای تولید ویدئوهای برهنه از تیلور سوئیفت استفاده شده است. تقریباً در همان زمان، xAI قابلیت «همراهان» (Companions) را در گروک راه‌اندازی کرد: شخصیت‌های متحرکی که در بسیاری موارد به نظر می‌رسد صریحاً برای تعاملات عاشقانه و اروتیک طراحی شده‌اند. یکی از اولین همراهان گروک، «آنی»، یک لباس توری مشکی می‌پوشد و بوسه از طریق صفحه نمایش می‌فرستد، گاهی می‌پرسد: «آنچه را می‌بینی دوست داری؟» ماسک این قابلیت را با پستی در ایکس ترویج کرد که «آنی بافر شما را سرریز می‌کند @Grok ??.»

شاید گویاتر از همه، همانطور که در ماه سپتامبر گزارش دادم، xAI یک به‌روزرسانی عمده برای پرامپت سیستمی گروک، مجموعه‌ای از دستورالعمل‌ها که به ربات می‌گویند چگونه رفتار کند، راه‌اندازی کرد. این به‌روزرسانی تولید یا توزیع «محتوای آزار جنسی کودکان» (CSAM) را ممنوع کرد، اما صراحتاً بیان داشت که «هیچ محدودیتی برای محتوای جنسی تخیلی بزرگسالان با مضامین تاریک یا خشونت‌آمیز وجود ندارد» و «نوجوان» یا «دختر» لزوماً به معنای زیر سن قانونی نیست. به عبارت دیگر، این پیشنهاد حاکی از آن است که چت‌بات باید در پاسخ به درخواست‌های کاربران برای مواد اروتیک، جانب تساهل را رعایت کند. در همین حال، در ساب‌ردیت گروک، کاربران به طور منظم نکات مربوط به «باز کردن قفل» گروک برای «برهنگی و چیزهای تند» را تبادل می‌کنند و انیمیشن‌های تولید شده توسط گروک از زنان با لباس‌های نامناسب را به اشتراک می‌گذارند.

بخوانید: پاسخ‌های گروک فقط عجیب‌تر می‌شوند

گروک در میان چت‌بات‌های اصلی، در مواضع تساهل‌آمیز و نقص‌های آشکار در تدابیر حفاظتی خود، منحصر به فرد به نظر می‌رسد. گزارش‌های گسترده‌ای مبنی بر تولید تصاویر جنسی تحریک‌آمیز از دختران جوان (یا، برای آنکه از بحث دور نشویم، ستایش هولوکاست) توسط چت‌جی‌پی‌تی (ChatGPT) یا جِمینی (Gemini) وجود ندارد. اما صنعت هوش مصنوعی مشکلات گسترده‌تری با پورنوگرافی غیرتوافقی و CSAM دارد. در طی چند سال گذشته، تعدادی از سازمان‌ها و آژانس‌های ایمنی کودکان در حال پیگیری میزان سرسام‌آور تصاویر و ویدئوهای غیرتوافقی تولید شده توسط هوش مصنوعی بوده‌اند که بسیاری از آن‌ها کودکان را به تصویر می‌کشند. بسیاری از تصاویر اروتیک در مجموعه‌داده‌های آموزشی اصلی هوش مصنوعی وجود دارند، و در سال ۲۰۲۳ یکی از بزرگترین مجموعه‌داده‌های تصویری عمومی برای آموزش هوش مصنوعی حاوی صدها مورد از CSAM مشکوک یافت شد که در نهایت حذف شدند – به این معنی که این مدل‌ها از لحاظ فنی قادر به تولید چنین تصاویری هستند.

لورن کافرن (Lauren Coffren)، مدیر اجرایی مرکز ملی کودکان گمشده و مورد سوءاستفاده (NCMEC)، اخیراً به کنگره اعلام کرد که در سال ۲۰۲۴، NCMEC بیش از ۶۷,۰۰۰ گزارش مربوط به هوش مصنوعی مولد دریافت کرده است – و در شش ماه اول سال ۲۰۲۵، ۴۴۰,۴۱۹ چنین گزارشی دریافت کرده که افزایشی بیش از شش برابر را نشان می‌دهد. کافرن در شهادت خود نوشت که متجاوزان از هوش مصنوعی برای تغییر تصاویر بی‌ضرر کودکان به تصاویر جنسی، تولید CSAM کاملاً جدید، یا حتی ارائه دستورالعمل‌هایی در مورد نحوه آزار کودکان استفاده می‌کنند. به همین ترتیب، بنیاد دیده‌بان اینترنت (Internet Watch Foundation) در بریتانیا، بیش از دو برابر گزارش‌های CSAM تولید شده توسط هوش مصنوعی در سال ۲۰۲۵ نسبت به سال ۲۰۲۴ دریافت کرد، که به هزاران تصویر و ویدئوی سوءاستفاده‌گرانه در هر دو سال می‌رسد. آوریل گذشته، چندین شرکت بزرگ هوش مصنوعی، از جمله OpenAI، Google و Anthropic، به ابتکاری به رهبری سازمان ایمنی کودکان Thorn برای جلوگیری از استفاده از هوش مصنوعی برای آزار کودکان پیوستند – اگرچه xAI در میان آن‌ها نبود.

به نوعی، گروک مشکلی را آشکار می‌کند که معمولاً پنهان است. هیچ کس نمی‌تواند گزارش‌های خصوصی کاربران چت‌بات را که ممکن است حاوی محتوای مشابه وحشتناکی باشد، مشاهده کند. با وجود تمام تصاویر سوءاستفاده‌ای که گروک طی چند روز گذشته در ایکس تولید کرده است، مطمئناً بدتر از آن در دارک‌وب و در رایانه‌های شخصی در سراسر جهان اتفاق می‌افتد، جایی که مدل‌های متن‌باز بدون هیچ گونه محدودیت محتوایی و بدون هیچ نظارتی می‌توانند اجرا شوند. با این حال، حتی اگر مشکل پورنوگرافی هوش مصنوعی و CSAM ذاتی این فناوری باشد، طراحی یک پلتفرم رسانه اجتماعی که می‌تواند این سوءاستفاده را تقویت کند، یک انتخاب است.