
هنگامی که قصد ساخت یک چتبات مبتنی بر مدل زبانی بزرگ را دارید، با مجموعهای از انتخابهای حیاتی شروع میکنید: شما تصمیم میگیرید که مدل شما چه اطلاعاتی را جذب کند، مدل تا چه حد به آن اطلاعات وزن دهد، و مدل چگونه آن را تفسیر کند - به خصوص زمانی که منابع مختلف چیزهای متفاوتی میگویند. ممکن است تصمیم بگیرید برخی منابع محتوا (مانند وبسایتهای پورن) را حذف کنید یا به حقایق و منابعی که از صحت آنها مطمئن هستید (مانند ۲+۲=۴) اولویت بالایی دهید.
تمام این انتخابها در کنار هم، نحوه رفتار چتبات شما در گفتگو و دیدگاههایی را که در نهایت به کاربران ارائه میدهد، تعیین میکنند. معمولاً این فرآیند در پسزمینه اتفاق میافتد. اما این هفته، تصمیمات سازندگان چتبات به موضوع بحث عمومی تبدیل شد، هنگامی که چتبات گرک ایلان ماسک ناگهان شروع به پاسخدهی به صدها پرسش نامرتبط با تأکید بر خشونت علیه سفیدپوستان در آفریقای جنوبی کرد. یکی از کاربران عکسی منتشر کرد و گفت: «فکر میکنم امروز قشنگ به نظر میرسم.» وقتی کاربر دیگری پرسید «@grok، آیا این درست است؟»، ربات پاسخ داد: «ادعای نسلکشی سفیدپوستان در آفریقای جنوبی به شدت مورد بحث است...»
پاسخهای عجیب گرک پس از آنکه آریک تولر، روزنامهنگار نیویورک تایمز و مدیر سابق بلینگکت، آنها را مورد توجه قرار داد، وایرال شدند. حتی سم آلتمن، شاید شناختهشدهترین سازنده چتبات، در X درباره آنها شوخی کرد. این اشکال ظاهری (که اکنون برطرف شده است) منجر به بحث گستردهای شد در مورد اینکه آیا خود ماسک، مردی سفیدپوست از آفریقای جنوبی با سابقهای از ادعای اینکه کشور علیه سفیدپوستان «نژادپرست» است، به نحوی با تغییر دادن ربات برای هماهنگی بیشتر با دیدگاههای سیاسی خود، این باگ را ایجاد کرده است.
پال گراهام، بنیانگذار شتابدهنده افسانهای سیلیکون ولی Y Combinator، در X نوشت: «خیلی بد خواهد بود اگر هوش مصنوعیهای پرکاربرد به صورت لحظهای توسط کسانی که آنها را کنترل میکنند، جهتدار شوند.» شرکت مادر گرک، xAI، بعداً تأیید کرد که این مشکل ناشی از «اصلاحات غیرمجاز» بوده که «خطمشیها و ارزشهای اصلی xAI را نقض کرده است.»
ماسک قبلاً هم در شرکتهای خود الگوریتمها را دستکاری کرده است – در X، او به طرز مشهوری توییتهای خود را هزار برابر بیشتر از سایر توییتها تقویت کرد تا افراد بیشتری آنها را ببینند. اما این ایده که پاسخ گرک میتواند بدون سوگیری، اصیل یا به نحوی در امان از تصمیمات سردبیری سازندگانش باشد، اساساً درک اشتباهی از چتباتها و نحوه انتخاب آنها برای نمایش چیزها به شماست.
چتباتها توسط شرکتها ساخته میشوند تا اهداف آن شرکتها را تأمین کنند. الگوریتمها، از آنهایی که چتباتها را هدایت میکنند تا آنهایی که توصیهها را در گوگل، تیکتاک و اینستاگرام ارائه میدهند، ترکیبی بزرگ از اولویتها هستند که توسط سازندگانشان کدگذاری شدهاند تا انگیزههای خاصی را اولویتبندی کنند. اگر هدف یک شرکت نگهداشتن شما در اپلیکیشن باشد، پاسخهای آن برای افزایش تعامل بهینهسازی میشوند. اگر هدف آن درآمد تجارت الکترونیک باشد، پاسخهای آن شما را به سمت خرید سوق خواهند داد. انگیزه اصلی شرکتهای فناوری ارائه دقیقترین و مستندترین اطلاعات ممکن به شما نیست. اگر به دنبال این هستید، به کتابخانه بروید – یا شاید ویکیپدیا را امتحان کنید، که مانند کتابخانه، مأموریت آن کمک به شما در یافتن اطلاعات دقیق مورد نظرتان بدون انگیزه سود است.
شرکتها محصولات هوش مصنوعی را از هر دو طرف طیف سیاسی، سیاسی کردهاند: محافظهکاران سال گذشته گوگل را مورد انتقاد قرار دادند، زمانی که مدل هوش مصنوعی جمینی تصاویر نازیهای با تنوع نژادی و دیگر چهرههای تاریخی نادرست را تولید کرد. (این شرکت قابلیت تولید تصویر افراد در این مدل را متوقف کرد و بابت این اشتباه عذرخواهی کرد.)
گرک بازتابی از X و xAI است، که برای پیشبرد جهانبینی ماسک و کسب درآمد برای او وجود دارند - و بنابراین تعجبآور نیست که فکر کنیم این ربات درباره مسائل نژادی در آفریقای جنوبی چیزهایی میگوید که عمدتاً با نظرات سیاسی ماسک همسو هستند. این موضوع قطعاً به موقع است: درست همین هفته، رئیسجمهور ترامپ دههها سیاست پناهندگی آمریکا را معکوس کرد و اجازه داد سفیدپوستان آفریقای جنوبی به عنوان «پناهنده» به ایالات متحده بیایند، در تأییدی آشکار بر دیدگاه ماسک نسبت به سیاست آفریقای جنوبی. این ربات به طرق دیگری نیز دیدگاه او را منعکس کرده است: در فرآیند آموزش، به «معلمان» (tutors) ربات گرک دستور داده شد تا آن را برای یافتن «ایدئولوژی بیدارشده» (woke ideology) و «فرهنگ حذف» (cancel culture) بررسی کنند.
آنچه بیشتر گیجکننده است این است که ربات به تمام پیامها با صحبت کردن درباره «نسلکشی سفیدپوستان» پاسخ میداد. کارشناسان گفتهاند که این احتمالاً نشاندهنده ویرایش «اعلان سیستمی» (system prompt) گرک است؛ این مجموعهای از دستورالعملهاست که به ورودی کاربر اضافه میشود تا شکل پاسخ ربات را تعیین کند. xAI بلافاصله به درخواست برای اظهار نظر پاسخ نداد.
اما اینکه آیا ماسک با تلاش برای کدگذاری سخت چیزی، باعث اشکال آفریقای جنوبی گرک شده یا نه، واقعاً مهم نیست. هرچه مردم بیشتر و بیشتر به چتباتها برای کسب اطلاعات و جایگزینی تحقیق روی میآورند، فراموش کردن اینکه چتباتها انسان نیستند، بلکه محصولات هستند، میتواند آسان باشد. سازندگان آنها میخواهند شما فکر کنید که آنها «خنثی» هستند و پاسخهایشان «اصیل» و «بدون سوگیری» است – اما اینطور نیست. آنها از انبوهی از دادهها استخراج میشوند، که از ابتدا مملو از نظرات انسانی هستند، و سپس توسط سازندگان ربات بر اساس میزان تمایل آنها به گنجاندن یک منبع خاص، وزنهای متفاوتی به آنها داده میشود.
رباتها زمانی قانعکنندهترین حالت را دارند که شما آنها را خنثی و مفید ببینید، تصویری که سازندگانشان با دقت پرورش دادهاند. این ظاهر خنثی زمانی فرو میریزد که کاری آشکارا اشتباه انجام میدهند. اما ارزش دارد به یاد داشته باشید که آنها فقط رایانههایی هستند که توسط انسانها ساخته شدهاند – حتی مدتها پس از متوقف شدن اظهارات درباره نسلکشی سفیدپوستان.