کارمند یک شرکت فناوری که همانند ربات چت Grok ایکس در این هفته، به نفرتپراکنی یهودستیزانه بپردازد، به زودی شغل خود را از دست خواهد داد. پراکنده کردن سخنان نفرتانگیز برای میلیونها نفر و استناد به آدولف هیتلر چیزی نیست که یک مدیرعامل بتواند آن را یک روز بد برای کارمند خود تلقی کند.
اما پس از اینکه ربات چت توسعهیافته توسط استارتآپ xAI ایلان ماسک، ساعتها درباره هولوکاست دوم و تئوریهای توطئه در مورد یهودیان سخنرانی کرد، این شرکت با حذف برخی از پستهای مشکلساز و انتشار بیانیهای پاسخ داد که نشان میداد ربات چت تنها به برخی تنظیمات الگوریتمی نیاز دارد.
این حادثه، که حتی با استانداردهای پلتفرمی که به پناهگاهی برای گفتار افراطی تبدیل شده، وحشتناک بود، سوالات ناراحتکنندهای را در مورد مسئولیتپذیری زمانی که رباتهای هوش مصنوعی از کنترل خارج میشوند، مطرح کرده است. وقتی یک سیستم خودکار قوانین را زیر پا میگذارد، چه کسی مسئول است و پیامدها چه باید باشد؟
اما این رویداد همچنین حوادث تکاندهندهای را که میتواند از دو مشکل عمیقتر هوش مصنوعی مولد، فناوری پشت Grok و رقبایی مانند ChatGPT از OpenAI و Gemini از گوگل نشأت گیرد، نشان داد.
با سرعتی که شرکتهای فناوری محصولات هوش مصنوعی را عرضه میکنند، کنترل این فناوری برای خالقان آن دشوار است و مستعد خطاهای غیرمنتظره با نتایج بالقوه مضر برای انسانهاست. همچنین، عدم وجود مقررات یا نظارت معنادار، پیامدهای اشتباهات هوش مصنوعی را برای شرکتهای درگیر نسبتاً ناچیز میکند.
در نتیجه، شرکتها میتوانند سیستمهای آزمایشی را در مقیاس جهانی بر روی عموم آزمایش کنند، بدون توجه به اینکه چه کسی ممکن است آسیب ببیند.
کریستوف گاوکوفسکی، وزیر امور دیجیتال لهستان، روز چهارشنبه در یک مصاحبه رادیویی گفت: «احساس میکنم که ما در حال ورود به سطح بالاتری از نفرتپراکنی هستیم که توسط الگوریتمها هدایت میشود، و چشمپوشی یا نادیده گرفتن این موضوع امروز… اشتباهی است که ممکن است در آینده برای بشریت گران تمام شود. آزادی بیان متعلق به انسان است، نه هوش مصنوعی.»
حمله گروک لحظهای برای بازنگری در این مشکلات برای مقامات دولتی در سراسر جهان بود.
در ترکیه، دادگاهی روز چهارشنبه دستور مسدود کردن Grok را در سراسر کشور صادر کرد، پس از اینکه ربات چت به رئیسجمهور رجب طیب اردوغان توهین کرد. و در لهستان، گاوکوفسکی گفت که دولت این کشور اتحادیه اروپا را برای بررسی تحت فشار قرار خواهد داد و او در حال بررسی ممنوعیت سراسری ایکس در صورت عدم همکاری این شرکت است.
برخی شرکتهای هوش مصنوعی استدلال کردهاند که باید از مجازات بابت گفتههای رباتهای چتشان مصون باشند.
در ماه مه، استارتآپ Character.ai تلاش کرد اما نتوانست قاضی را متقاعد کند که پیامهای ربات چت آن توسط متمم اول قانون اساسی محافظت میشوند، در پروندهای که توسط مادر یک نوجوان ۱۴ ساله مطرح شده بود که پس از تشویق شدن توسط همراه هوش مصنوعی دیرینهاش به "بازگشت به خانه"، با خودکشی جان باخت.
سایر شرکتها پیشنهاد کردهاند که شرکتهای هوش مصنوعی باید از همان نوع مصونیت قانونی که ناشران آنلاین از بخش ۲۳۰ دریافت میکنند، بهرهمند شوند؛ این بند حمایتهایی را برای میزبانان محتوای تولید شده توسط کاربر فراهم میکند.
آنها استدلال میکنند که بخشی از چالش این است که عملکرد رباتهای هوش مصنوعی به قدری غیرقابل درک است که در صنعت به عنوان "جعبههای سیاه" شناخته میشوند.
مدلهای زبان بزرگ، همانطور که نامیده میشوند، برای شبیهسازی گفتار انسانی با استفاده از میلیونها صفحه وب — از جمله بسیاری با محتوای نامطلوب — آموزش دیدهاند. نتیجه، سیستمهایی است که پاسخهای مفیدی ارائه میدهند اما همچنین غیرقابل پیشبینی هستند، با پتانسیل سقوط به اطلاعات نادرست، انحرافات عجیب یا نفرت آشکار.
دانیل سیترون، استاد حقوق در دانشگاه ویرجینیا، گفت که سخنان نفرتانگیز به طور کلی توسط متمم اول قانون اساسی ایالات متحده محافظت میشود، اما وکلای دادگستری میتوانند استدلال کنند که برخی از خروجیهای Grok در این هفته از خط رفتارهای غیرقانونی، مانند آزار و اذیت سایبری، عبور کرده است؛ زیرا به طور مکرر فردی را به گونهای هدف قرار داده که میتواند باعث ایجاد وحشت یا ترس در او شود.
سیترون گفت: «این ماشینهای متنی ترکیبی، گاهی اوقات ما به آنها نگاه میکنیم که انگار جادو هستند یا قانون به آنجا نمیرسد، اما حقیقت این است که قانون همیشه به آنجا میرسد. من فکر میکنم شاهد خواهیم بود که دادگاههای بیشتری میگویند [این شرکتها] مصونیت ندارند: آنها محتوا را تولید میکنند، از آن سود میبرند، این ربات چت آنهاست که ظاهراً با این دقت زیبا آن را ایجاد کردهاند.»
انفجار کلامی گروک پس از آن اتفاق افتاد که ماسک از کاربران خواسته بود برای آموزش ربات چت، آن را "غیرسیاسی" و "نامتعارف"تر کنند. در 4 ژوئیه، او اعلام کرد که شرکتش "گروک را به طور قابل توجهی بهبود بخشیده است."
در عرض چند روز، این ابزار به نامهای خانوادگی یهودی حمله میکرد، دیدگاههای نئونازی را تکرار میکرد و خواستار بازداشت گسترده یهودیان در اردوگاهها میشد. اتحادیه ضد افترا (ADL) پیامهای Grok را «غیرمسئولانه، خطرناک و یهودستیزانه» خواند.
ماسک در پست دیگری در X، گفت که مشکل در حال رسیدگی است و ناشی از "بیش از حد مطیع بودن Grok در برابر دستورات کاربر" بوده است که باعث شده "بیش از حد مشتاق خشنود کردن و دستکاری شدن باشد." لیندا یاکارینو، مدیرعامل X، روز چهارشنبه استعفا داد، اما هیچ نشانهای از ارتباط خروج او با Grok ارائه نکرد.
Exactly. Grok was too compliant to user prompts. Too eager to please and be manipulated, essentially. That is being addressed.
— Elon Musk (@elonmusk) July 9, 2025
محققان و ناظران هوش مصنوعی در مورد انتخابهای مهندسی xAI گمانهزنی کرده و مخزن کدهای عمومی آن را برای توضیح سقوط توهینآمیز Grok بررسی کردهاند. اما شرکتها میتوانند رفتار یک ربات چت را به روشهای متعددی شکل دهند، که تشخیص علت اصلی را برای افراد خارج از مجموعه دشوار میکند.
احتمالات شامل تغییرات در مواد اولیه مورد استفاده xAI برای آموزش اولیه مدل هوش مصنوعی یا منابع دادهای که Grok هنگام پاسخ به سوالات به آنها دسترسی دارد، تنظیمات بر اساس بازخورد انسانها، و تغییرات در دستورالعملهای کتبی که به یک ربات چت نحوه رفتار کلی آن را میآموزند، میشود.
برخی معتقدند که مشکل از همان ابتدا آشکار بود: ماسک از کاربران دعوت کرد تا اطلاعاتی را که «از نظر سیاسی نامتعارف، اما در عین حال از لحاظ واقعیت درست» بودند، برای وارد کردن به دادههای آموزشی Grok، برای او ارسال کنند. این میتواند با دادههای سمی که معمولاً در مجموعههای آموزشی هوش مصنوعی از سایتهایی مانند 4chan، تالار گفتمان بدنام به دلیل سابقه طولانی نفرتپراکنی و ترولها، یافت میشوند، ترکیب شده باشد.
تالی رینگر، استاد علوم کامپیوتر در دانشگاه ایلینویز در اوربانا-شمپین، از طریق جستجوی آنلاین به این نتیجه رسید که تغییر شخصیت Grok میتواند «عرضه اولیه» نسخه جدید Grok 4 ربات چت باشد، که ماسک اواخر پنجشنبه در یک پخش زنده معرفی کرد.
اما رینگر نمیتوانست مطمئن باشد زیرا شرکت اطلاعات بسیار کمی ارائه داده است. آنها گفتند: «در یک دنیای منطقی، من فکر میکنم ایلان باید مسئولیت این را بر عهده بگیرد و توضیح دهد که واقعاً چه اتفاقی افتاده است، اما فکر میکنم او به جای آن یک [چسب زخم] روی آن میگذارد و محصول همچنان استفاده خواهد شد.»
رینگر گفت، این اتفاق او را به قدری ناراحت کرد که تصمیم گرفت Grok را در کار خود به کار نگیرد. آنها افزودند: «من نمیتوانم منطقاً بودجه [تحقیقاتی یا شخصی] را برای مدلی صرف کنم که تنها چند روز پیش لفاظیهای نسلکشی را در مورد گروه قومی من منتشر میکرد.»
ویل استنسیل، فعال لیبرال، پس از اینکه کاربران ایکس Grok را وادار کردند تا سناریوهای جنسی آزاردهندهای درباره او ایجاد کند، شخصاً هدف حملات Grok قرار گرفت.
او اکنون در حال بررسی اقدام قانونی است، و میگوید که سیل پستهای Grok بیپایان به نظر میرسید. استنسیل این هجوم را با «نشر صدها و صدها داستان گروتسک درباره یک شهروند خصوصی توسط یک شخصیت عمومی در یک لحظه» مقایسه کرد.
او درباره رویکرد ماسک به هوش مصنوعی گفت: «مثل این است که ما در یک ترن هوایی هستیم و او تصمیم گرفته کمربندهای ایمنی را باز کند. نیازی به نابغه بودن نیست که بدانی چه اتفاقی خواهد افتاد. یک قربانی وجود خواهد داشت. و فقط من بودم که این اتفاق برایم افتاد.»
به گفته یک کارشناس صنعت که به شرط ناشناس ماندن برای جلوگیری از تلافی صحبت کرد، در میان افراد خبره صنعت فناوری، xAI به دلیل جاهطلبیهای فنی بلندپروازانه و استانداردهای پایین ایمنی و امنیتی خود یک شرکت نامتعارف تلقی میشود. این کارشناس گفت: «آنها تمام هنجارهای موجود را نقض میکنند و ادعا میکنند که توانمندترین هستند.»
در سالهای اخیر، انتظارات در صنعت فناوری افزایش یافته بود که فشار بازار و هنجارهای فرهنگی شرکتها را به خودتنظیمی و سرمایهگذاری در اقدامات حفاظتی، مانند ارزیابیهای شخص ثالث و فرآیند آزمایش آسیبپذیری برای سیستمهای هوش مصنوعی معروف به "تیم قرمز (red-teaming)" سوق خواهد داد.
این کارشناس گفت که xAI به نظر میرسد «هیچ یک از این کارها را انجام نمیدهد، با وجود اینکه گفته بود انجام خواهد داد، و به نظر میرسد با هیچ عواقبی روبرو نیستند.»
ناتان لمبرت، محقق هوش مصنوعی در موسسه غیرانتفاعی آلن برای هوش مصنوعی، گفت که حادثه Grok میتواند الهامبخش شرکتهای دیگر باشد تا حتی از بررسیهای ایمنی اولیه نیز صرف نظر کنند، با نشان دادن حداقل پیامدهای انتشار هوش مصنوعی مضر.
لمبرت گفت: «این نشاندهنده یک تغییر دائمی احتمالی در هنجارهاست که در آن شرکتهای هوش مصنوعی این گونه اقدامات حفاظتی را «اختیاری» میدانند. «فرهنگ xAI این را تسهیل کرده است.»
رگهی نازیگرایی Grok تقریباً یک ماه پس از یک رویداد عجیب دیگر رخ داد که طی آن این ابزار شروع به اشاره به "نسلکشی سفیدپوستان" در کشور زادگاه ماسک، آفریقای جنوبی و کلیشههای یهودستیزانه درباره هولوکاست کرد. در آن زمان، شرکت یک عامل ناشناس را مسئول "تغییر غیرمجاز" در کد ربات چت دانست.
We are aware of recent posts made by Grok and are actively working to remove the inappropriate posts. Since being made aware of the content, xAI has taken action to ban hate speech before Grok posts on X. xAI is training only truth-seeking and thanks to the millions of users on…
— Grok (@grok) July 8, 2025
سایر توسعهدهندگان هوش مصنوعی نیز در تلاش برای کنترل ابزارهای خود با مشکل مواجه شدهاند. برخی از کاربران ایکس، جمینی گوگل را مورد انتقاد قرار دادند، پس از اینکه این ابزار هوش مصنوعی در پاسخ به درخواستهایی برای ساخت تصاویر از بنیانگذاران آمریکا، پرترههایی از مردان سیاهپوست و آسیایی را در لباسهای مستعمراتی ارائه کرد – که یک حرکت افراطی از سوی شرکت برای مقابله با شکایات مبنی بر تعصب سیستم به سمت چهرههای سفیدپوست بود.
گوگل موقتاً تولید تصویر را مسدود کرد و در بیانیهای در آن زمان گفت که توانایی جمینی در «تولید طیف وسیعی از افراد» «به طور کلی چیز خوبی است» اما در این مورد «هدف را از دست داده است.»
نیت پرسیلی، استاد دانشکده حقوق استنفورد، گفت که هر گونه اقدام برای محدود کردن گسترده گفتار نفرتانگیز اما قانونی توسط ابزارهای هوش مصنوعی، با آزادیهای بیان مطابق قانون اساسی در تضاد خواهد بود. اما یک قاضی ممکن است ادعاهایی را که محتوای یک ابزار هوش مصنوعی که کسی را لجنمال یا بدنام میکند، توسعهدهنده آن را مسئول میداند، معتبر بداند.
او گفت که سوال بزرگتر شاید این باشد که آیا پرخاشگریهای Grok تابعی از تحریک گسترده کاربران بوده – یا پاسخی به دستورالعملهای سیستماتیکی بوده که از ابتدا مغرضانه و معیوب بودند.
پرسیلی گفت: «اگر بتوانید آن را فریب دهید تا چیزهای احمقانه و وحشتناک بگوید، این کمتر جالب است مگر اینکه نشانگر عملکرد عادی مدل باشد.» او اشاره کرد که با Grok، دشوار است تشخیص داد چه چیزی عملکرد عادی محسوب میشود، با توجه به عهد ماسک برای ساختن یک ربات چتی که از خشم عمومی هراسی ندارد.
— Grok (@grok) July 9, 2025
ماسک ماه گذشته در X گفت که Grok «کل پیکره دانش بشری را بازنویسی خواهد کرد.»
پرسیلی گفت، فراتر از راهحلهای قانونی، قوانین شفافیت که نظارت مستقل بر دادههای آموزشی ابزارها و آزمایش منظم خروجی مدلها را الزامی میکنند، میتوانند به رفع برخی از بزرگترین خطرات آنها کمک کنند. او گفت: «ما در حال حاضر هیچ دیدی نسبت به نحوه ساخت این مدلها برای عملکرد نداریم.»
در هفتههای اخیر، تلاش به رهبری جمهوریخواهان برای جلوگیری از تنظیم هوش مصنوعی توسط ایالتها با شکست مواجه شد، که امکان پیامدهای بیشتر برای شکستهای هوش مصنوعی در آینده را فراهم میکند.
آلوندا نلسون، استاد موسسه مطالعات پیشرفته که در توسعه «بیانیه حقوق هوش مصنوعی» دولت بایدن کمک کرده است، در ایمیلی نوشت که پستهای یهودستیزانه Grok «دقیقاً همان نوع آسیب الگوریتمی را نشان میدهد که محققان... سالهاست درباره آن هشدار میدهند.»
او گفت: «بدون اقدامات حفاظتی کافی، سیستمهای هوش مصنوعی به ناچار تعصبات و محتوای مضر موجود در دستورالعملها و دادههای آموزشی خود را تقویت میکنند – به خصوص زمانی که صراحتاً دستور چنین کاری را دریافت کنند.»
ماسک به نظر نمیرسد که اجازه دهد اشتباه Grok او را کند کند. اواخر چهارشنبه، X یک اعلان برای کاربران ارسال کرد و به آنها پیشنهاد داد که پخش زنده ماسک را تماشا کنند که در آن Grok جدید را به نمایش گذاشته بود، و او در آن اعلام کرد که «از تقریباً همه دانشجویان تحصیلات تکمیلی در تمام رشتهها به طور همزمان باهوشتر است.»
صبح پنجشنبه، ماسک — که مالک شرکت خودروسازی تسلا نیز هست — افزود که Grok «به زودی به خودروهای تسلا خواهد آمد.»