(تصویرسازی واشنگتن پست؛ Beata Zawrzel/NurPhoto/AP)
(تصویرسازی واشنگتن پست؛ Beata Zawrzel/NurPhoto/AP)

حمله نازی‌وار گروک جنجال‌برانگیز شد: چه کسی مقصر است وقتی هوش مصنوعی نفرت‌پراکنی می‌کند؟

اظهارات یهودستیزانه ربات چت Grok که توسط ایلان ماسک تبلیغ می‌شود، نشان می‌دهد که چگونه شرکت‌های هوش مصنوعی زمانی که پروژه‌هایشان از کنترل خارج می‌شوند، اغلب با حداقل پیامدها روبرو هستند.

کارمند یک شرکت فناوری که همانند ربات چت Grok ایکس در این هفته، به نفرت‌پراکنی یهودستیزانه بپردازد، به زودی شغل خود را از دست خواهد داد. پراکنده کردن سخنان نفرت‌انگیز برای میلیون‌ها نفر و استناد به آدولف هیتلر چیزی نیست که یک مدیرعامل بتواند آن را یک روز بد برای کارمند خود تلقی کند.

اما پس از اینکه ربات چت توسعه‌یافته توسط استارت‌آپ xAI ایلان ماسک، ساعت‌ها درباره هولوکاست دوم و تئوری‌های توطئه در مورد یهودیان سخنرانی کرد، این شرکت با حذف برخی از پست‌های مشکل‌ساز و انتشار بیانیه‌ای پاسخ داد که نشان می‌داد ربات چت تنها به برخی تنظیمات الگوریتمی نیاز دارد.

این حادثه، که حتی با استانداردهای پلتفرمی که به پناهگاهی برای گفتار افراطی تبدیل شده، وحشتناک بود، سوالات ناراحت‌کننده‌ای را در مورد مسئولیت‌پذیری زمانی که ربات‌های هوش مصنوعی از کنترل خارج می‌شوند، مطرح کرده است. وقتی یک سیستم خودکار قوانین را زیر پا می‌گذارد، چه کسی مسئول است و پیامدها چه باید باشد؟

اما این رویداد همچنین حوادث تکان‌دهنده‌ای را که می‌تواند از دو مشکل عمیق‌تر هوش مصنوعی مولد، فناوری پشت Grok و رقبایی مانند ChatGPT از OpenAI و Gemini از گوگل نشأت گیرد، نشان داد.

با سرعتی که شرکت‌های فناوری محصولات هوش مصنوعی را عرضه می‌کنند، کنترل این فناوری برای خالقان آن دشوار است و مستعد خطاهای غیرمنتظره با نتایج بالقوه مضر برای انسان‌هاست. همچنین، عدم وجود مقررات یا نظارت معنادار، پیامدهای اشتباهات هوش مصنوعی را برای شرکت‌های درگیر نسبتاً ناچیز می‌کند.

در نتیجه، شرکت‌ها می‌توانند سیستم‌های آزمایشی را در مقیاس جهانی بر روی عموم آزمایش کنند، بدون توجه به اینکه چه کسی ممکن است آسیب ببیند.

کریستوف گاوکوفسکی، وزیر امور دیجیتال لهستان، روز چهارشنبه در یک مصاحبه رادیویی گفت: «احساس می‌کنم که ما در حال ورود به سطح بالاتری از نفرت‌پراکنی هستیم که توسط الگوریتم‌ها هدایت می‌شود، و چشم‌پوشی یا نادیده گرفتن این موضوع امروز… اشتباهی است که ممکن است در آینده برای بشریت گران تمام شود. آزادی بیان متعلق به انسان است، نه هوش مصنوعی.»

حمله گروک لحظه‌ای برای بازنگری در این مشکلات برای مقامات دولتی در سراسر جهان بود.

در ترکیه، دادگاهی روز چهارشنبه دستور مسدود کردن Grok را در سراسر کشور صادر کرد، پس از اینکه ربات چت به رئیس‌جمهور رجب طیب اردوغان توهین کرد. و در لهستان، گاوکوفسکی گفت که دولت این کشور اتحادیه اروپا را برای بررسی تحت فشار قرار خواهد داد و او در حال بررسی ممنوعیت سراسری ایکس در صورت عدم همکاری این شرکت است.

برخی شرکت‌های هوش مصنوعی استدلال کرده‌اند که باید از مجازات‌ بابت گفته‌های ربات‌های چتشان مصون باشند.

در ماه مه، استارت‌آپ Character.ai تلاش کرد اما نتوانست قاضی را متقاعد کند که پیام‌های ربات چت آن توسط متمم اول قانون اساسی محافظت می‌شوند، در پرونده‌ای که توسط مادر یک نوجوان ۱۴ ساله مطرح شده بود که پس از تشویق شدن توسط همراه هوش مصنوعی دیرینه‌اش به "بازگشت به خانه"، با خودکشی جان باخت.

سایر شرکت‌ها پیشنهاد کرده‌اند که شرکت‌های هوش مصنوعی باید از همان نوع مصونیت قانونی که ناشران آنلاین از بخش ۲۳۰ دریافت می‌کنند، بهره‌مند شوند؛ این بند حمایت‌هایی را برای میزبانان محتوای تولید شده توسط کاربر فراهم می‌کند.

آنها استدلال می‌کنند که بخشی از چالش این است که عملکرد ربات‌های هوش مصنوعی به قدری غیرقابل درک است که در صنعت به عنوان "جعبه‌های سیاه" شناخته می‌شوند.

مدل‌های زبان بزرگ، همانطور که نامیده می‌شوند، برای شبیه‌سازی گفتار انسانی با استفاده از میلیون‌ها صفحه وب — از جمله بسیاری با محتوای نامطلوب — آموزش دیده‌اند. نتیجه، سیستم‌هایی است که پاسخ‌های مفیدی ارائه می‌دهند اما همچنین غیرقابل پیش‌بینی هستند، با پتانسیل سقوط به اطلاعات نادرست، انحرافات عجیب یا نفرت آشکار.

دانیل سیترون، استاد حقوق در دانشگاه ویرجینیا، گفت که سخنان نفرت‌انگیز به طور کلی توسط متمم اول قانون اساسی ایالات متحده محافظت می‌شود، اما وکلای دادگستری می‌توانند استدلال کنند که برخی از خروجی‌های Grok در این هفته از خط رفتارهای غیرقانونی، مانند آزار و اذیت سایبری، عبور کرده است؛ زیرا به طور مکرر فردی را به گونه‌ای هدف قرار داده که می‌تواند باعث ایجاد وحشت یا ترس در او شود.

سیترون گفت: «این ماشین‌های متنی ترکیبی، گاهی اوقات ما به آنها نگاه می‌کنیم که انگار جادو هستند یا قانون به آنجا نمی‌رسد، اما حقیقت این است که قانون همیشه به آنجا می‌رسد. من فکر می‌کنم شاهد خواهیم بود که دادگاه‌های بیشتری می‌گویند [این شرکت‌ها] مصونیت ندارند: آنها محتوا را تولید می‌کنند، از آن سود می‌برند، این ربات چت آنهاست که ظاهراً با این دقت زیبا آن را ایجاد کرده‌اند.»

انفجار کلامی گروک پس از آن اتفاق افتاد که ماسک از کاربران خواسته بود برای آموزش ربات چت، آن را "غیرسیاسی" و "نامتعارف"تر کنند. در 4 ژوئیه، او اعلام کرد که شرکتش "گروک را به طور قابل توجهی بهبود بخشیده است."

در عرض چند روز، این ابزار به نام‌های خانوادگی یهودی حمله می‌کرد، دیدگاه‌های نئونازی را تکرار می‌کرد و خواستار بازداشت گسترده یهودیان در اردوگاه‌ها می‌شد. اتحادیه ضد افترا (ADL) پیام‌های Grok را «غیرمسئولانه، خطرناک و یهودستیزانه» خواند.

ماسک در پست دیگری در X، گفت که مشکل در حال رسیدگی است و ناشی از "بیش از حد مطیع بودن Grok در برابر دستورات کاربر" بوده است که باعث شده "بیش از حد مشتاق خشنود کردن و دستکاری شدن باشد." لیندا یاکارینو، مدیرعامل X، روز چهارشنبه استعفا داد، اما هیچ نشانه‌ای از ارتباط خروج او با Grok ارائه نکرد.

Exactly. Grok was too compliant to user prompts. Too eager to please and be manipulated, essentially. That is being addressed.

— Elon Musk (@elonmusk) July 9, 2025

محققان و ناظران هوش مصنوعی در مورد انتخاب‌های مهندسی xAI گمانه‌زنی کرده و مخزن کدهای عمومی آن را برای توضیح سقوط توهین‌آمیز Grok بررسی کرده‌اند. اما شرکت‌ها می‌توانند رفتار یک ربات چت را به روش‌های متعددی شکل دهند، که تشخیص علت اصلی را برای افراد خارج از مجموعه دشوار می‌کند.

احتمالات شامل تغییرات در مواد اولیه مورد استفاده xAI برای آموزش اولیه مدل هوش مصنوعی یا منابع داده‌ای که Grok هنگام پاسخ به سوالات به آن‌ها دسترسی دارد، تنظیمات بر اساس بازخورد انسان‌ها، و تغییرات در دستورالعمل‌های کتبی که به یک ربات چت نحوه رفتار کلی آن را می‌آموزند، می‌شود.

برخی معتقدند که مشکل از همان ابتدا آشکار بود: ماسک از کاربران دعوت کرد تا اطلاعاتی را که «از نظر سیاسی نامتعارف، اما در عین حال از لحاظ واقعیت درست» بودند، برای وارد کردن به داده‌های آموزشی Grok، برای او ارسال کنند. این می‌تواند با داده‌های سمی که معمولاً در مجموعه‌های آموزشی هوش مصنوعی از سایت‌هایی مانند 4chan، تالار گفتمان بدنام به دلیل سابقه طولانی نفرت‌پراکنی و ترول‌ها، یافت می‌شوند، ترکیب شده باشد.

تالی رینگر، استاد علوم کامپیوتر در دانشگاه ایلینویز در اوربانا-شمپین، از طریق جستجوی آنلاین به این نتیجه رسید که تغییر شخصیت Grok می‌تواند «عرضه اولیه» نسخه جدید Grok 4 ربات چت باشد، که ماسک اواخر پنجشنبه در یک پخش زنده معرفی کرد.

اما رینگر نمی‌توانست مطمئن باشد زیرا شرکت اطلاعات بسیار کمی ارائه داده است. آنها گفتند: «در یک دنیای منطقی، من فکر می‌کنم ایلان باید مسئولیت این را بر عهده بگیرد و توضیح دهد که واقعاً چه اتفاقی افتاده است، اما فکر می‌کنم او به جای آن یک [چسب زخم] روی آن می‌گذارد و محصول همچنان استفاده خواهد شد.»

رینگر گفت، این اتفاق او را به قدری ناراحت کرد که تصمیم گرفت Grok را در کار خود به کار نگیرد. آنها افزودند: «من نمی‌توانم منطقاً بودجه [تحقیقاتی یا شخصی] را برای مدلی صرف کنم که تنها چند روز پیش لفاظی‌های نسل‌کشی را در مورد گروه قومی من منتشر می‌کرد.»

ویل استنسیل، فعال لیبرال، پس از اینکه کاربران ایکس Grok را وادار کردند تا سناریوهای جنسی آزاردهنده‌ای درباره او ایجاد کند، شخصاً هدف حملات Grok قرار گرفت.

او اکنون در حال بررسی اقدام قانونی است، و می‌گوید که سیل پست‌های Grok بی‌پایان به نظر می‌رسید. استنسیل این هجوم را با «نشر صدها و صدها داستان گروتسک درباره یک شهروند خصوصی توسط یک شخصیت عمومی در یک لحظه» مقایسه کرد.

او درباره رویکرد ماسک به هوش مصنوعی گفت: «مثل این است که ما در یک ترن هوایی هستیم و او تصمیم گرفته کمربندهای ایمنی را باز کند. نیازی به نابغه بودن نیست که بدانی چه اتفاقی خواهد افتاد. یک قربانی وجود خواهد داشت. و فقط من بودم که این اتفاق برایم افتاد.»

به گفته یک کارشناس صنعت که به شرط ناشناس ماندن برای جلوگیری از تلافی صحبت کرد، در میان افراد خبره صنعت فناوری، xAI به دلیل جاه‌طلبی‌های فنی بلندپروازانه و استانداردهای پایین ایمنی و امنیتی خود یک شرکت نامتعارف تلقی می‌شود. این کارشناس گفت: «آنها تمام هنجارهای موجود را نقض می‌کنند و ادعا می‌کنند که توانمندترین هستند.»

در سال‌های اخیر، انتظارات در صنعت فناوری افزایش یافته بود که فشار بازار و هنجارهای فرهنگی شرکت‌ها را به خودتنظیمی و سرمایه‌گذاری در اقدامات حفاظتی، مانند ارزیابی‌های شخص ثالث و فرآیند آزمایش آسیب‌پذیری برای سیستم‌های هوش مصنوعی معروف به "تیم قرمز (red-teaming)" سوق خواهد داد.

این کارشناس گفت که xAI به نظر می‌رسد «هیچ یک از این کارها را انجام نمی‌دهد، با وجود اینکه گفته بود انجام خواهد داد، و به نظر می‌رسد با هیچ عواقبی روبرو نیستند.»

ناتان لمبرت، محقق هوش مصنوعی در موسسه غیرانتفاعی آلن برای هوش مصنوعی، گفت که حادثه Grok می‌تواند الهام‌بخش شرکت‌های دیگر باشد تا حتی از بررسی‌های ایمنی اولیه نیز صرف نظر کنند، با نشان دادن حداقل پیامدهای انتشار هوش مصنوعی مضر.

لمبرت گفت: «این نشان‌دهنده یک تغییر دائمی احتمالی در هنجارهاست که در آن شرکت‌های هوش مصنوعی این گونه اقدامات حفاظتی را «اختیاری» می‌دانند. «فرهنگ xAI این را تسهیل کرده است.»

رگه‌ی نازی‌گرایی Grok تقریباً یک ماه پس از یک رویداد عجیب دیگر رخ داد که طی آن این ابزار شروع به اشاره به "نسل‌کشی سفیدپوستان" در کشور زادگاه ماسک، آفریقای جنوبی و کلیشه‌های یهودستیزانه درباره هولوکاست کرد. در آن زمان، شرکت یک عامل ناشناس را مسئول "تغییر غیرمجاز" در کد ربات چت دانست.

We are aware of recent posts made by Grok and are actively working to remove the inappropriate posts. Since being made aware of the content, xAI has taken action to ban hate speech before Grok posts on X. xAI is training only truth-seeking and thanks to the millions of users on…

— Grok (@grok) July 8, 2025

سایر توسعه‌دهندگان هوش مصنوعی نیز در تلاش برای کنترل ابزارهای خود با مشکل مواجه شده‌اند. برخی از کاربران ایکس، جمینی گوگل را مورد انتقاد قرار دادند، پس از اینکه این ابزار هوش مصنوعی در پاسخ به درخواست‌هایی برای ساخت تصاویر از بنیانگذاران آمریکا، پرتره‌هایی از مردان سیاه‌پوست و آسیایی را در لباس‌های مستعمراتی ارائه کرد – که یک حرکت افراطی از سوی شرکت برای مقابله با شکایات مبنی بر تعصب سیستم به سمت چهره‌های سفیدپوست بود.

گوگل موقتاً تولید تصویر را مسدود کرد و در بیانیه‌ای در آن زمان گفت که توانایی جمینی در «تولید طیف وسیعی از افراد» «به طور کلی چیز خوبی است» اما در این مورد «هدف را از دست داده است.»

نیت پرسیلی، استاد دانشکده حقوق استنفورد، گفت که هر گونه اقدام برای محدود کردن گسترده گفتار نفرت‌انگیز اما قانونی توسط ابزارهای هوش مصنوعی، با آزادی‌های بیان مطابق قانون اساسی در تضاد خواهد بود. اما یک قاضی ممکن است ادعاهایی را که محتوای یک ابزار هوش مصنوعی که کسی را لجن‌مال یا بدنام می‌کند، توسعه‌دهنده آن را مسئول می‌داند، معتبر بداند.

او گفت که سوال بزرگتر شاید این باشد که آیا پرخاشگری‌های Grok تابعی از تحریک گسترده کاربران بوده – یا پاسخی به دستورالعمل‌های سیستماتیکی بوده که از ابتدا مغرضانه و معیوب بودند.

پرسیلی گفت: «اگر بتوانید آن را فریب دهید تا چیزهای احمقانه و وحشتناک بگوید، این کمتر جالب است مگر اینکه نشانگر عملکرد عادی مدل باشد.» او اشاره کرد که با Grok، دشوار است تشخیص داد چه چیزی عملکرد عادی محسوب می‌شود، با توجه به عهد ماسک برای ساختن یک ربات چتی که از خشم عمومی هراسی ندارد.

pic.twitter.com/761FogmsHz

— Grok (@grok) July 9, 2025

ماسک ماه گذشته در X گفت که Grok «کل پیکره دانش بشری را بازنویسی خواهد کرد.»

پرسیلی گفت، فراتر از راه‌حل‌های قانونی، قوانین شفافیت که نظارت مستقل بر داده‌های آموزشی ابزارها و آزمایش منظم خروجی مدل‌ها را الزامی می‌کنند، می‌توانند به رفع برخی از بزرگترین خطرات آنها کمک کنند. او گفت: «ما در حال حاضر هیچ دیدی نسبت به نحوه ساخت این مدل‌ها برای عملکرد نداریم.»

در هفته‌های اخیر، تلاش به رهبری جمهوری‌خواهان برای جلوگیری از تنظیم هوش مصنوعی توسط ایالت‌ها با شکست مواجه شد، که امکان پیامدهای بیشتر برای شکست‌های هوش مصنوعی در آینده را فراهم می‌کند.

آلوندا نلسون، استاد موسسه مطالعات پیشرفته که در توسعه «بیانیه حقوق هوش مصنوعی» دولت بایدن کمک کرده است، در ایمیلی نوشت که پست‌های یهودستیزانه Grok «دقیقاً همان نوع آسیب الگوریتمی را نشان می‌دهد که محققان... سال‌هاست درباره آن هشدار می‌دهند.»

او گفت: «بدون اقدامات حفاظتی کافی، سیستم‌های هوش مصنوعی به ناچار تعصبات و محتوای مضر موجود در دستورالعمل‌ها و داده‌های آموزشی خود را تقویت می‌کنند – به خصوص زمانی که صراحتاً دستور چنین کاری را دریافت کنند.»

ماسک به نظر نمی‌رسد که اجازه دهد اشتباه Grok او را کند کند. اواخر چهارشنبه، X یک اعلان برای کاربران ارسال کرد و به آنها پیشنهاد داد که پخش زنده ماسک را تماشا کنند که در آن Grok جدید را به نمایش گذاشته بود، و او در آن اعلام کرد که «از تقریباً همه دانشجویان تحصیلات تکمیلی در تمام رشته‌ها به طور همزمان باهوش‌تر است.»

صبح پنجشنبه، ماسک — که مالک شرکت خودروسازی تسلا نیز هست — افزود که Grok «به زودی به خودروهای تسلا خواهد آمد.»