مقاله‌ی کلاسیک هری فرانکفورت با عنوان «درباره یاوه‌گویی» توضیح می‌دهد که دروغگو و راستگو در یک بازی، فقط در سمت‌های متفاوتی بازی می‌کنند
مقاله‌ی کلاسیک هری فرانکفورت با عنوان «درباره یاوه‌گویی» توضیح می‌دهد که دروغگو و راستگو در یک بازی، فقط در سمت‌های متفاوتی بازی می‌کنند

مدل‌های هوش مصنوعی مولد در هنر یاوه‌گویی ماهرند

مدل‌های زبانی بزرگ به حقیقت بی‌اعتنا هستند زیرا هیچ تصوری از آن ندارند — و خطر در همین‌جاست

به گفته‌ی فیلسوف، هری فرانکفورت، دروغ بزرگترین دشمن حقیقت نیست. یاوه‌گویی بدتر است.

همانطور که او در مقاله‌ی کلاسیک خود با عنوان درباره یاوه‌گویی (۱۹۸۶) توضیح داد، دروغگو و راستگو در یک بازی، فقط در سمت‌های متفاوتی بازی می‌کنند. هر کدام بر اساس حقایق، آنطور که درک می‌کنند، واکنش نشان می‌دهند و یا اعتبار حقیقت را می‌پذیرند یا رد می‌کنند. اما فرد یاوه‌گو این خواسته‌ها را به کلی نادیده می‌گیرد. «او اعتبار حقیقت را رد نمی‌کند، همانطور که دروغگو انجام می‌دهد، و در مقابل آن قرار نمی‌گیرد. او اصلاً به آن توجهی نمی‌کند. به واسطه‌ی این، یاوه‌گویی دشمن بزرگتری برای حقیقت است تا دروغ.» چنین فردی می‌خواهد دیگران را متقاعد کند، صرف‌نظر از حقایق.

متأسفانه، فرانکفورت در سال ۲۰۲۳، تنها چند ماه پس از انتشار ChatGPT درگذشت. اما خواندن مقاله‌ی او در عصر هوش مصنوعی مولد، حس آشنای ناخوشایندی را برمی‌انگیزد. از چندین جهت، مقاله‌ی فرانکفورت به خوبی خروجی مدل‌های زبانی بزرگ مبتنی بر هوش مصنوعی را توصیف می‌کند. آن‌ها به حقیقت بی‌اعتنا هستند زیرا هیچ تصوری از آن ندارند. آن‌ها بر اساس همبستگی آماری عمل می‌کنند نه مشاهده‌ی تجربی.

کارل برگستروم و جِوین وست نوشته‌اند: «بزرگترین نقطه‌ی قوت آن‌ها، و در عین حال بزرگترین خطرشان، توانایی آن‌ها در معتبر به نظر رسیدن در تقریباً هر موضوعی، صرف‌نظر از دقت واقعی است. به عبارت دیگر، ابرقدرت آن‌ها توانایی فوق بشری‌شان در یاوه‌گویی است.» این دو استاد دانشگاه واشنگتن یک دوره‌ی آنلاین را مدیریت می‌کنند — اوراکل‌های مدرن یا ماشین‌های یاوه‌گویی؟ — که این مدل‌ها را بررسی می‌کند. برخی دیگر خروجی این ماشین‌ها را بات‌شیت (botshit) نامیده‌اند.

یکی از شناخته‌شده‌ترین و ناراحت‌کننده‌ترین ویژگی‌های LLM‌ها، که در عین حال گاهی به طور جالب توجهی خلاقانه است، «توهم» حقایق — یا صرفاً اختراع چیزها — توسط آن‌ها است. برخی محققان معتقدند که این یک ویژگی ذاتی مدل‌های احتمالی است و نه یک باگ قابل رفع. اما شرکت‌های هوش مصنوعی در تلاشند تا این مشکل را با بهبود کیفیت داده‌ها، تنظیم دقیق مدل‌های خود و ساخت سیستم‌های تأیید و راستی‌آزمایی حل کنند.

با این حال، به نظر می‌رسد آن‌ها هنوز راه زیادی در پیش دارند، با توجه به اینکه یک وکیل برای Anthropic در دادگاهی در کالیفرنیا در این ماه اعتراف کرد که خود شرکت حقوقی آن‌ها به طور غیرعمدی یک استناد نادرست را که توسط مدل Claude شرکت هوش مصنوعی توهم شده بود، ارائه کرده است. همانطور که چت‌بات گوگل به کاربران هشدار می‌دهد: «Gemini می‌تواند اشتباه کند، حتی در مورد افراد، پس آن را دو بار بررسی کنید.» این مانع گوگل نشد که همین هفته «حالت هوش مصنوعی» را در تمام خدمات اصلی خود در ایالات متحده عرضه کند.

روش‌هایی که این شرکت‌ها برای بهبود مدل‌های خود تلاش می‌کنند، از جمله یادگیری تقویتی از بازخورد انسانی، خود خطر معرفی سوگیری، تحریف و داوری‌های ارزشی اعلام نشده را به همراه دارد. همانطور که فایننشال تایمز نشان داده است، چت‌بات‌های هوش مصنوعی از OpenAI، Anthropic، Google، Meta، xAI و DeepSeek ویژگی‌های مدیران عامل شرکت‌های خود و رقبا را بسیار متفاوت توصیف می‌کنند. Grok ایلان ماسک نیز در پاسخ به درخواست‌های کاملاً بی‌ربط، میم‌هایی درباره «نسل‌کشی سفیدپوستان» در آفریقای جنوبی تبلیغ کرده است. xAI گفت که این نقص را برطرف کرده است، که آن را به «اصلاحات غیرمجاز» نسبت داد.

به گفته‌ی ساندرا واچر، برنت میتِلِستاد و کریس راسل، در مقاله‌ای از موسسه‌ی اینترنت آکسفورد، چنین مدل‌هایی دسته‌بندی جدید و حتی بدتری از آسیب‌های بالقوه — یا «گفتار بی‌ملاحظه» — ایجاد می‌کنند. از نظر آن‌ها، گفتار بی‌ملاحظه می‌تواند آسیب‌های ناملموس، بلندمدت و تجمعی ایجاد کند. واچر به من می‌گوید که این مانند «یاوه‌گویی نامرئی» است که جامعه را کندذهن‌تر می‌کند.

حداقل در مورد یک سیاستمدار یا فروشنده معمولاً می‌توانیم انگیزه‌ی آن‌ها را درک کنیم. اما چت‌بات‌ها هیچ قصد و نیتی ندارند و برای قابل باور بودن و تعامل، نه حقیقت‌گویی، بهینه‌سازی شده‌اند. آن‌ها حقایق را بدون هیچ هدفی اختراع می‌کنند. آن‌ها می‌توانند پایگاه دانش بشریت را به روش‌هایی غیرقابل تصور آلوده کنند.

سوال جذاب این است که آیا مدل‌های هوش مصنوعی را می‌توان برای حقیقت‌گویی بالاتر طراحی کرد؟ آیا تقاضای بازاری برای آن‌ها وجود خواهد داشت؟ یا آیا باید توسعه‌دهندگان مدل‌ها را مجبور کرد که از استانداردهای حقیقت بالاتری پیروی کنند، همانطور که برای تبلیغ‌کنندگان، وکلا و پزشکان اعمال می‌شود؟ واچر پیشنهاد می‌کند که توسعه‌ی مدل‌های حقیقت‌گوتر زمان، پول و منابعی را می‌طلبد که نسخه‌های فعلی برای صرفه‌جویی در آن‌ها طراحی شده‌اند. او می‌گوید: «این مثل این است که بخواهید یک ماشین هواپیما باشد. می‌توانید یک ماشین را از صخره به پایین هل دهید اما قرار نیست از گرانش سرپیچی کند.»

با همه‌ی این تفاسیر، مدل‌های هوش مصنوعی مولد هنوز هم می‌توانند مفید و ارزشمند باشند. بسیاری از مشاغل پرسود — و مشاغل سیاسی — بر اساس یاوه‌گویی ساخته شده‌اند. با استفاده‌ی مناسب، هوش مصنوعی مولد می‌تواند برای کاربردهای تجاری بی‌شماری به کار گرفته شود. اما اشتباه گرفتن این مدل‌ها با ماشین‌های حقیقت، خیالی واهی و خطرناک است.

[email protected]