به گفتهی فیلسوف، هری فرانکفورت، دروغ بزرگترین دشمن حقیقت نیست. یاوهگویی بدتر است.
همانطور که او در مقالهی کلاسیک خود با عنوان درباره یاوهگویی (۱۹۸۶) توضیح داد، دروغگو و راستگو در یک بازی، فقط در سمتهای متفاوتی بازی میکنند. هر کدام بر اساس حقایق، آنطور که درک میکنند، واکنش نشان میدهند و یا اعتبار حقیقت را میپذیرند یا رد میکنند. اما فرد یاوهگو این خواستهها را به کلی نادیده میگیرد. «او اعتبار حقیقت را رد نمیکند، همانطور که دروغگو انجام میدهد، و در مقابل آن قرار نمیگیرد. او اصلاً به آن توجهی نمیکند. به واسطهی این، یاوهگویی دشمن بزرگتری برای حقیقت است تا دروغ.» چنین فردی میخواهد دیگران را متقاعد کند، صرفنظر از حقایق.
متأسفانه، فرانکفورت در سال ۲۰۲۳، تنها چند ماه پس از انتشار ChatGPT درگذشت. اما خواندن مقالهی او در عصر هوش مصنوعی مولد، حس آشنای ناخوشایندی را برمیانگیزد. از چندین جهت، مقالهی فرانکفورت به خوبی خروجی مدلهای زبانی بزرگ مبتنی بر هوش مصنوعی را توصیف میکند. آنها به حقیقت بیاعتنا هستند زیرا هیچ تصوری از آن ندارند. آنها بر اساس همبستگی آماری عمل میکنند نه مشاهدهی تجربی.
کارل برگستروم و جِوین وست نوشتهاند: «بزرگترین نقطهی قوت آنها، و در عین حال بزرگترین خطرشان، توانایی آنها در معتبر به نظر رسیدن در تقریباً هر موضوعی، صرفنظر از دقت واقعی است. به عبارت دیگر، ابرقدرت آنها توانایی فوق بشریشان در یاوهگویی است.» این دو استاد دانشگاه واشنگتن یک دورهی آنلاین را مدیریت میکنند — اوراکلهای مدرن یا ماشینهای یاوهگویی؟ — که این مدلها را بررسی میکند. برخی دیگر خروجی این ماشینها را باتشیت (botshit) نامیدهاند.
یکی از شناختهشدهترین و ناراحتکنندهترین ویژگیهای LLMها، که در عین حال گاهی به طور جالب توجهی خلاقانه است، «توهم» حقایق — یا صرفاً اختراع چیزها — توسط آنها است. برخی محققان معتقدند که این یک ویژگی ذاتی مدلهای احتمالی است و نه یک باگ قابل رفع. اما شرکتهای هوش مصنوعی در تلاشند تا این مشکل را با بهبود کیفیت دادهها، تنظیم دقیق مدلهای خود و ساخت سیستمهای تأیید و راستیآزمایی حل کنند.
با این حال، به نظر میرسد آنها هنوز راه زیادی در پیش دارند، با توجه به اینکه یک وکیل برای Anthropic در دادگاهی در کالیفرنیا در این ماه اعتراف کرد که خود شرکت حقوقی آنها به طور غیرعمدی یک استناد نادرست را که توسط مدل Claude شرکت هوش مصنوعی توهم شده بود، ارائه کرده است. همانطور که چتبات گوگل به کاربران هشدار میدهد: «Gemini میتواند اشتباه کند، حتی در مورد افراد، پس آن را دو بار بررسی کنید.» این مانع گوگل نشد که همین هفته «حالت هوش مصنوعی» را در تمام خدمات اصلی خود در ایالات متحده عرضه کند.
روشهایی که این شرکتها برای بهبود مدلهای خود تلاش میکنند، از جمله یادگیری تقویتی از بازخورد انسانی، خود خطر معرفی سوگیری، تحریف و داوریهای ارزشی اعلام نشده را به همراه دارد. همانطور که فایننشال تایمز نشان داده است، چتباتهای هوش مصنوعی از OpenAI، Anthropic، Google، Meta، xAI و DeepSeek ویژگیهای مدیران عامل شرکتهای خود و رقبا را بسیار متفاوت توصیف میکنند. Grok ایلان ماسک نیز در پاسخ به درخواستهای کاملاً بیربط، میمهایی درباره «نسلکشی سفیدپوستان» در آفریقای جنوبی تبلیغ کرده است. xAI گفت که این نقص را برطرف کرده است، که آن را به «اصلاحات غیرمجاز» نسبت داد.
به گفتهی ساندرا واچر، برنت میتِلِستاد و کریس راسل، در مقالهای از موسسهی اینترنت آکسفورد، چنین مدلهایی دستهبندی جدید و حتی بدتری از آسیبهای بالقوه — یا «گفتار بیملاحظه» — ایجاد میکنند. از نظر آنها، گفتار بیملاحظه میتواند آسیبهای ناملموس، بلندمدت و تجمعی ایجاد کند. واچر به من میگوید که این مانند «یاوهگویی نامرئی» است که جامعه را کندذهنتر میکند.
حداقل در مورد یک سیاستمدار یا فروشنده معمولاً میتوانیم انگیزهی آنها را درک کنیم. اما چتباتها هیچ قصد و نیتی ندارند و برای قابل باور بودن و تعامل، نه حقیقتگویی، بهینهسازی شدهاند. آنها حقایق را بدون هیچ هدفی اختراع میکنند. آنها میتوانند پایگاه دانش بشریت را به روشهایی غیرقابل تصور آلوده کنند.
سوال جذاب این است که آیا مدلهای هوش مصنوعی را میتوان برای حقیقتگویی بالاتر طراحی کرد؟ آیا تقاضای بازاری برای آنها وجود خواهد داشت؟ یا آیا باید توسعهدهندگان مدلها را مجبور کرد که از استانداردهای حقیقت بالاتری پیروی کنند، همانطور که برای تبلیغکنندگان، وکلا و پزشکان اعمال میشود؟ واچر پیشنهاد میکند که توسعهی مدلهای حقیقتگوتر زمان، پول و منابعی را میطلبد که نسخههای فعلی برای صرفهجویی در آنها طراحی شدهاند. او میگوید: «این مثل این است که بخواهید یک ماشین هواپیما باشد. میتوانید یک ماشین را از صخره به پایین هل دهید اما قرار نیست از گرانش سرپیچی کند.»
با همهی این تفاسیر، مدلهای هوش مصنوعی مولد هنوز هم میتوانند مفید و ارزشمند باشند. بسیاری از مشاغل پرسود — و مشاغل سیاسی — بر اساس یاوهگویی ساخته شدهاند. با استفادهی مناسب، هوش مصنوعی مولد میتواند برای کاربردهای تجاری بیشماری به کار گرفته شود. اما اشتباه گرفتن این مدلها با ماشینهای حقیقت، خیالی واهی و خطرناک است.