© الکس ویلر/مونتاژ FT
© الکس ویلر/مونتاژ FT

«توهمات»ی که هوش مصنوعی را آزار می‌دهند: چرا چت‌بات‌ها در بیان حقیقت مشکل دارند

گروه‌های فناوری تلاش‌ها برای کاهش پاسخ‌های ساختگی را افزایش می‌دهند، اما حذف کامل آن‌ها غیرممکن به نظر می‌رسد

گروه‌های پیشرو هوش مصنوعی در جهان در حال افزایش تلاش‌ها برای کاهش تعداد «توهمات» در مدل‌های زبان بزرگ هستند، زیرا به دنبال حل یکی از موانع بزرگ در پذیرش این فناوری قدرتمند می‌باشند.

گوگل، آمازون، کوهیر و میسترال از جمله شرکت‌هایی هستند که با ارائه راه‌حل‌های فنی، بهبود کیفیت داده‌ها در مدل‌های هوش مصنوعی و ساخت سیستم‌های راستی‌آزمایی و بررسی حقایق در محصولات هوش مصنوعی مولد خود، سعی در کاهش نرخ این پاسخ‌های ساختگی دارند.

کاهش این به اصطلاح توهمات، برای افزایش استفاده از ابزارهای هوش مصنوعی در صنایعی مانند حقوق و سلامت که به اطلاعات دقیق نیاز دارند، و کمک به افزایش درآمدهای بخش هوش مصنوعی، حیاتی تلقی می‌شود.

این تلاش‌ها در حالی صورت می‌گیرد که خطاهای چت‌بات‌ها قبلاً منجر به اشتباهات پرهزینه و دعاوی قضایی شده‌اند. سال گذشته، یک دادگاه به ایر کانادا دستور داد که تخفیف ساختگی ارائه شده توسط چت‌بات خدمات مشتری خود را محترم شمارد، و وکلایی که از ابزارهای هوش مصنوعی در اسناد دادگاهی استفاده کرده‌اند، پس از ساختگی بودن ارجاعات، با مجازات مواجه شده‌اند.

اما کارشناسان هوش مصنوعی هشدار می‌دهند که حذف کامل توهمات از مدل‌های زبان بزرگ به دلیل نحوه عملکرد این سیستم‌ها غیرممکن است.

امر عوض‌الله، مدیر اجرایی سابق گوگل و بنیانگذار وکتارا (استارتاپ عامل هوش مصنوعی مولد) می‌گوید: «توهمات یک مشکل بسیار دشوار برای رفع هستند، به دلیل ماهیت احتمالی نحوه کار این مدل‌ها. شما هرگز نمی‌توانید آن‌ها را کاملاً بدون توهم کنید.»

این خطاها رخ می‌دهند زیرا مدل‌های زبان بزرگ طراحی شده‌اند تا کلمه احتمالی بعدی در یک جمله را بر اساس آماری که از داده‌های آموزشی خود یاد گرفته‌اند، پیش‌بینی کنند.

این اشتباهات می‌توانند به صورت نادرستی‌های واقعی یا عدم همخوانی مدل با دستورالعمل‌ها ظاهر شوند، به عنوان مثال، خلاصه کردن رویدادها از سالی اشتباه. اینکه چه داده‌هایی وارد مجموعه آموزشی یک مدل هوش مصنوعی می‌شوند، اهمیت دارد، زیرا هرچه یک قطعه اطلاعات بیشتر ظاهر شود، احتمال تکرار آن توسط مدل بیشتر است.

تصویری که فرآیند پیش‌بینی زبان هوش مصنوعی را نشان می‌دهد، با شروع از متن ورودی و نمایش کلمات احتمالی بعدی.
تصویری که نمرات احتمالی اختصاص داده شده به کلمات در یک توالی هوش مصنوعی را نشان می‌دهد.
تصویری که مدل هوش مصنوعی را نشان می‌دهد که پیش‌بینی کلمات را تا تکمیل متن تکرار می‌کند.
تصویری که نشان می‌دهد چگونه «جستجوی حریصانه» می‌تواند منجر به عبارات کامل با ارتباط کمتر شود.
تصویری که نشان می‌دهد چگونه جستجوی پرتو می‌تواند کیفیت خروجی هوش مصنوعی را افزایش دهد.
تصویری که نشان می‌دهد چگونه جستجوی پرتو به مدل‌های هوش مصنوعی امکان می‌دهد تا چندین مسیر را برای خروجی بهینه در نظر بگیرند.
تصویری که نتیجه جستجوی پرتو را نشان می‌دهد که منجر به متنی منسجم‌تر و شبیه به انسان می‌شود.

در ساده‌ترین حالت، هدف مدل هوش مصنوعی اکنون پیش‌بینی کلمه بعدی در یک توالی و تکرار این کار تا زمانی است که خروجی کامل شود.

برای این کار، مدل به هر توکن، که نشان‌دهنده احتمال بودن آن به عنوان کلمه بعدی در توالی است، یک نمره احتمالی می‌دهد.

و این کار را تا زمانی ادامه می‌دهد که از متنی که تولید کرده «راضی» باشد.

اما این روش پیش‌بینی کلمه بعدی به صورت جداگانه — که به آن «جستجوی حریصانه» (greedy search) گفته می‌شود — می‌تواند مشکلاتی ایجاد کند. گاهی اوقات، در حالی که هر توکن به صورت جداگانه ممکن است بهترین گزینه بعدی باشد، اما کل عبارت می‌تواند کمتر مرتبط باشد.

ترانسفورمرها، معماری‌ای که مدل‌های زبان بزرگ را نیرو می‌دهد، از تعدادی رویکرد برای حل این مشکل و افزایش کیفیت خروجی خود استفاده می‌کنند. یک مثال، جستجوی پرتو (beam search) نام دارد.

با جستجوی پرتو، مدل می‌تواند چندین مسیر را در نظر بگیرد و بهترین گزینه را پیدا کند.

این روش نتایج بهتری تولید می‌کند و در نهایت منجر به متنی منسجم‌تر و شبیه به انسان می‌شود.

میزان توهم در مدل‌های هوش مصنوعی به طور قابل توجهی متفاوت است. وکتارا، که یک جدول رده‌بندی برای ردیابی این خطاها ایجاد کرده است، دریافت که برخی از مدل‌ها می‌توانند تنها 0.8 درصد اوقات و برخی دیگر تا 29.9 درصد مواقع هنگام خلاصه‌سازی یک سند توهم داشته باشند.

به گفته عوض‌الله، نرخ توهمات در ابتدا با نسل جدیدی از مدل‌های هوش مصنوعی که قادر به «استدلال» یا حل گام به گام مسائل هستند، افزایش یافت. این احتمالاً به دلیل این است که آن‌ها برای حل مسائل به روش‌های مختلف، زمان بسیار طولانی‌تری در داخل خود تکرار و پردازش می‌کنند، که منجر به احتمال بالاتر بروز خطا می‌شود. با این حال، وی افزود که با یادگیری شرکت‌ها برای ساخت محافظ‌های بهتر برای این مدل‌ها، نرخ توهمات کاهش یافته است.

اما تحقیقات این شرکت نشان داد که وقتی سیستم‌های هوش مصنوعی بر منابع اطلاعاتی دیگر، مانند جستجوی آنلاین، مقالات خبری یا اسناد داخلی شرکت، «مبنا» قرار می‌گیرند — به جای اینکه فقط به داده‌های آموزشی خود تکیه کنند — میزان خطاها به طور قابل توجهی کاهش می‌یابد.

جدول رده‌بندی وکتارا نشان می‌دهد که مدل‌ها هنگام خلاصه‌سازی یک سند، چقدر اطلاعاتی را که در منبع اصلی نبوده است، توهم می‌کنند
آزمایشگاهمدلنرخ توهمنرخ سازگاری واقعینرخ پاسخ‌دهیمیانگین طول خلاصه (کلمات)
GoogleGemini-2.0-Flash-0010.799.3100.065.2
GoogleGemini-2.0-Pro-Exp0.899.299.761.5
OpenAIo3-mini-high0.899.2100.079.5
VectaraMockingbird-2-Echo0.999.1100.074
GoogleGemini-2.5-Pro-Exp-03251.198.995.172.9
GoogleGemini-2.0-Flash-Lite-Preview1.298.899.560.9
OpenAIGPT-4.5-Preview1.298.8100.077
Zhipu AIGLM-4-9B-Chat1.398.7100.058.1
GoogleGemini-2.0-Flash-Exp1.398.799.960
GoogleGemini-2.5-Flash-Preview1.398.791.271.1
OpenAIOpenAI-o1-mini1.498.6100.078.3
OpenAIGPT-4o1.598.5100.077.8
AmazonNova-Micro-V11.698.4100.090
OpenAIGPT-4o-mini1.798.3100.076.3
OpenAIGPT-4-Turbo1.798.3100.086.2
GoogleGemini-2.0-Flash-Thinking-Exp1.898.299.373.2
AmazonNova-Lite-V11.898.299.980.7
OpenAIGPT-41.898.2100.081.1
AmazonNova-Pro-V11.898.2100.085.5
OpenAIGPT-3.5-Turbo1.998.199.684.1
xAIGrok-21.998.1100.086.5
OpenAIGPT-4.1-nano2.098.0100.070.2
OpenAIGPT-4.12.098.0100.071.9
xAIGrok-3-Beta2.197.8100.097.7
OpenAIGPT-4.1-mini2.297.8100.079.6
QwenQwen3-14B2.297.8100.082.4
AI21Jamba-1.6-Large2.397.799.985.6
OpenAIo1-Pro2.497.6100.081
OpenAIo12.497.699.973
DeekSeekDeepSeek-V2.52.497.6100.083.2
MicrosoftOrca-2-13b2.597.5100.066.2
MicrosoftPhi-3.5-MoE-instruct2.597.596.369.7
GoogleGemini-2.5-Pro-Preview-06-052.697.499.673.1
IntelNeural-Chat-7B-v3-32.697.4100.060.7
QwenQwen3-4B2.797.3100.087.7
GoogleGemma-3-12B-Instruct2.897.2100.069.6
QwenQwen2.5-7B-Instruct2.897.2100.071
QwenQwen3-32B2.897.2100.082.4
AI21Jamba-1.5-Mini2.997.195.674.5
xAIGrok-2-Vision2.997.1100.079.8
QwenQwen2.5-Max2.997.188.890.4
GoogleGemma-3-27B-Instruct3.097.0100.062.5
QwenQwen2.5-32B-Instruct3.097.0100.067.9
SnowflakeSnowflake-Arctic-Instruct3.097.0100.068.7
QwenQwen3-8B3.097.0100.078.2
MicrosoftPhi-3-mini-128k-instruct3.196.9100.060.1
MistralSmall33.196.9100.074.9
xAIGrok-3-Mini-Beta3.396.7100.090.2
OpenAIo1-preview3.396.7100.0119.3
GoogleGemini-1.5-Flash-0023.496.699.959.4
MicrosoftPhi-4-mini-instruct3.496.6100.069.7
GoogleGemma-3-4B-Instruct3.796.3100.063.7
QwenQwen3-0.6B3.796.3100.065.3
01-AIYi-1.5-34B-Chat3.796.3100.083.7
MetaLlama-3.1-405B-Instruct3.996.199.685.7
DeekSeekDeepSeek-V33.996.1100.088.2
MicrosoftPhi-3-mini-4k-instruct4.096.0100.086.8
MetaLlama-3.3-70B-Instruct4.096.0100.085.3
Shanghai AI LaboratoryInternLM3-8B-Instruct4.096.0100.097.5
MicrosoftPhi-3.5-mini-instruct4.195.9100.075
MistralMistral-Large24.195.9100.077.4
MetaLlama-3-70B-Chat-hf4.195.999.268.5
QwenQwen2-VL-7B-Instruct4.295.8100.073.9
QwenQwen2.5-14B-Instruct4.295.8100.074.8
QwenQwen2.5-72B-Instruct4.395.7100.080
MetaLlama-3.2-90B-Vision-Instruct4.395.7100.079.8
QwenQwen3-1.7B4.495.6100.069
AnthropicClaude-3.7-Sonnet4.495.6100.097.8
AnthropicClaude-3.7-Sonnet-Think4.595.599.899.9
CohereCommand-A4.595.5100.077.3
OpenAIo4-mini4.695.4100.082
AI21Jamba-1.6-Mini4.695.4100.082.3
MetaLlama-4-Maverick4.695.4100.084.8
xAIGrok4.695.4100.091
AnthropicClaude-3-5-sonnet4.695.4100.095.9
MetaLlama-4-Scout4.795.3100.080.7
QwenQwen2-72B-Instruct4.795.3100.0100.1
MicrosoftPhi-44.795.3100.0100.3
MistralMistral-8x22B-Instruct-v0.14.795.399.992
AnthropicClaude-3-5-haiku4.995.1100.092.9
01-AIYi-1.5-9B-Chat4.995.1100.085.7
CohereCommand-R4.995.1100.068.7
MetaLlama-3.1-70B-Instruct5.095.0100.079.6
GoogleGemma-3-1B-Instruct5.394.799.957.9
MetaLlama-3.1-8B-Instruct5.494.6100.071
CohereCommand-R-Plus5.494.6100.068.4
MistralMistral-Small-3.1-24B-Instruct5.694.4100.073.1
MetaLlama-3.2-11B-Vision-Instruct5.594.5100.067.3
MetaLlama-2-70B-Chat-hf5.994.199.984.9
IBMGranite-3.0-8B-Instruct6.593.5100.074.2
GoogleGemini-1.5-Pro-0026.693.799.962
GoogleGemini-1.5-Flash6.693.499.963.3
MistralMistral-Pixtral6.693.4100.076.4
Microsoftphi-26.793.391.580.8
OpenAIo36.893.2100.077.7
GoogleGemma-2-2B-it7.093.0100.062.2
QwenQwen2.5-3B-Instruct7.093.0100.070.4
MetaLlama-3-8B-Chat-hf7.492.699.879.7
MistralMistral-Ministral-8B7.592.5100.062.7
GoogleGemini-Pro7.792.398.489.5
DeekSeekDeepSeek-R1-05287.792.3100.0138.9
01-AIYi-1.5-6B-Chat7.992.1100.098.9
MetaLlama-3.2-3B-Instruct7.992.1100.072.2
DeekSeekDeepSeek-V3-03248.092.0100.078.9
MistralMistral-Ministral-3B8.391.7100.073.2
Databricksdbrx-instruct8.391.7100.085.9
QwenQwen2-VL-2B-Instruct8.391.7100.081.8
CohereAya Expanse 32B8.591.599.981.9
IBMGranite-3.1-8B-Instruct8.691.4100.0107.4
MistralMistral-Small28.691.4100.074.2
IBMGranite-3.2-8B-Instruct8.791.3100.0120.1
IBMGranite-3.0-2B-Instruct8.891.2100.081.6
MistralMistral-7B-Instruct-v0.39.590.5100.098.4
GoogleGemini-1.5-Pro9.190.999.861.6
AnthropicClaude-3-opus10.189.995.592.1
GoogleGemma-2-9B-it10.189.9100.070.2
MetaLlama-2-13B-Chat-hf10.589.599.882.1
Ai2AllenAI-OLMo-2-13B-Instruct10.889.2100.082
Ai2AllenAI-OLMo-2-7B-Instruct11.188.9100.0112.6
MistralMistral-Nemo-Instruct11.288.8100.069.9
MetaLlama-2-7B-Chat-hf11.388.799.6119.9
MicrosoftWizardLM-2-8x22B11.788.399.9140.8
CohereAya Expanse 8B12.287.899.983.9
AmazonTitan-Express13.586.599.598.4
GooglePaLM-214.185.999.886.6
DeekSeekDeepSeek-R114.385.71.077.1
GoogleGemma-7B-it14.885.2100.0113
IBMGranite-3.1-2B-Instruct15.784.3100.0107.7
QwenQwen2.5-1.5B-Instruct15.884.2100.070.7
QwenQwen-QwQ-32B-Preview16.183.9100.0201.5
AnthropicClaude-3-sonnet16.383.7100.0108.5
IBMGranite-3.2-2B-Instruct16.583.5100.0117.7
GoogleGemma-1.1-7B-it17.083.0100.064.3
AnthropicClaude-217.482.699.387.5
GoogleFlan-T5-large18.381.799.320.9
MistralMistral-8x7B-Instruct-v0.120.179.999.990.7
MetaLlama-3.2-1B-Instruct20.779.3100.071.5
AppleOpenELM-3B-Instruct24.875.299.347.2
QwenQwen2.5-0.5B-Instruct25.274.8100.072.6
GoogleGemma-1.1-2B-it27.872.2100.066.8
TIIfalcon-7B-instruct29.970.190.075.5
منبع: وکتارا

گروه‌های هوش مصنوعی بر این رویکرد «مبتنی» تمرکز کرده‌اند تا بهترین روش‌ها را برای به حداقل رساندن توهمات بیابند.

یکی از تکنیک‌های رایج مورد استفاده توسط آزمایشگاه‌ها، تولید با بازیابی تقویت‌شده (RAG) نام دارد که اطلاعات را از منابع خارجی جستجو می‌کند و می‌توان از آن برای راستی‌آزمایی ادعاهای مطرح شده توسط سیستم‌های هوش مصنوعی استفاده کرد.

چت‌بات‌های شرکت‌هایی مانند کوهیر، میسترال، گوگل دیپ‌مایند، اوپن‌ای‌آی و انتروپیک، منابع ارجاعی را ارائه می‌دهند که به کاربران نشان می‌دهد متن تولید شده بر اساس کدام منابع استوار است.

در ژانویه، استارتاپ هوش مصنوعی فرانسوی میسترال یک قرارداد چند میلیون یورویی با خبرگزاری فرانسه امضا کرد تا هزاران مقاله این خبرگزاری را در چت‌بات خود بگنجاند و به راستی‌آزمایی آن کمک کند.

هم میسترال و هم گروه هوش مصنوعی کانادایی کوهیر نیز به مدل‌های خود اجازه می‌دهند تا به منابع داده داخلی مشتریانشان متصل شوند، که به آن‌ها امکان می‌دهد برای راستی‌آزمایی به اسناد داخلی مراجعه کنند. به این ترتیب، مدل بر اساس زمینه و اطلاعاتی که مشتریان می‌خواهند پردازش کند، مبنا قرار می‌گیرد.

الکساندر سابلارولز، که رهبری کار بر روی عامل‌ها و RAG در میسترال را بر عهده دارد، گفت: «اگر می‌خواهید مدل توهم نداشته باشد و بسیار دقیق باشد؟... بهترین راه این است که آن را به پایگاه‌های داده داخلی متصل کنید.»

بایرون کوک، معاون و دانشمند در خدمات وب آمازون، معتقد است که اعمال منطق و استدلال ریاضیاتی نیز می‌تواند به حداقل رساندن توهمات کمک کند.

این امر گروه را واداشت تا در ماه دسامبر یک محافظ جدید به نام بررسی‌های استدلال خودکار را معرفی کند که به عنوان یک آزمایش اضافی توسط مدل‌های آن برای اعتبارسنجی دقت پاسخ‌هایش عمل می‌کند.

برخی شرکت‌ها، مانند گوگل دیپ‌مایند، کوهیر، میسترال و وکتارا، همچنین از مدل‌های زبان «ارزیاب» کوچک‌تر استفاده می‌کنند که به طور خاص برای بررسی خروجی‌های یک مدل زبان دیگر از نظر خطا آموزش دیده‌اند.

بیشتر مدل‌ها گزینه‌ای برای توسعه‌دهندگان دارند تا به اصطلاح «دما» (temperature) یا میزان تصادفی بودن تولید کلمه بعدی احتمالی توسط مدل را تغییر دهند.

اما حتی دقیق‌ترین راه‌حل‌های فنی نیز صداقت کامل را تضمین نمی‌کنند، گفت نیک فراست، یکی از بنیانگذاران کوهیر.

فراست گفت: «اینطور نیست که ما بتوانیم مدلی را آموزش دهیم تا فقط چیزهای واقعی بگوید، زیرا واقعیت به آنچه در جهان می‌گذرد وابسته است. و این در حال تغییر است و در برخی موقعیت‌ها به دیدگاه خود شما بستگی دارد.»

عوض‌الله از وکتارا گفت که اجازه دادن به مدل‌های هوش مصنوعی برای جستجو در اینترنت برای اطلاعات، آن‌ها را مستعد حمله‌ای به نام تزریق پرامپت (prompt injection) نیز می‌کند.

این حالتی است که شخص ثالث می‌تواند اطلاعات غلط را در مکان‌هایی که مدل‌های زبان بزرگ اطلاعات خود را بررسی می‌کنند، مانند وب‌سایت‌ها، ردیت یا ویکی‌پدیا، وارد کند. این اطلاعات سپس می‌تواند باعث شود مدل هوش مصنوعی اطلاعات غلط را به عنوان واقعیت ارائه دهد، یا از محدودیت‌های خود صرف نظر کرده و «بدرفتاری» کند.

هنگامی که گوگل سال گذشته ابزار جستجوی هوش مصنوعی جدید خود را راه‌اندازی کرد، به کاربران گفت که چسب روی پیتزا بگذارند و سنگ بخورند، پس از اینکه کسی به شوخی آن را در ردیت منتشر کرده بود.

بخشی از چالش برای توسعه‌دهندگان هوش مصنوعی، رسیدن به تعادلی بین راستی‌آزمایی اطلاعات برای دقت و توانایی مدل در «خلاق بودن» است.

گوگل دیپ‌مایند گفت: «گنجاندن خلاقیت در مدل‌ها، آن‌ها را مفیدتر می‌کند، اما می‌تواند منجر به پاسخ‌های خلاقانه‌تر، به جای واقعی، نیز شود.»

کوک از AWS خاطرنشان کرد که توهمات گاهی اوقات می‌توانند توسط کاربران «مطلوب» باشند.

کوک گفت: «اگر می‌خواهید با آن‌ها شعر بنویسید، پس این خیلی خوب است. شما به دنبال پاسخ‌های عجیب و غریبی هستید که ارتباطات عجیب و غریبی بین چیزها پیدا کنند. و این چیزی است که مدل‌های ترانسفورمر در آن واقعا خوب هستند.»

فراست از کوهیر هشدار داد که حتی اصطلاح توهم نیز گمراه‌کننده است. او گفت: «این بیش از حد شبیه به نحوه کار مغز انسان به نظر می‌رسد، و اینطور نیست. این به روشی کاملا متفاوت کار می‌کند.»