تصویرسازی توسط جونل آفورونگ / آتلانتیک. منابع: seregam / Getty; baona / Getty; Nataliia Nesterenko / Getty.
تصویرسازی توسط جونل آفورونگ / آتلانتیک. منابع: seregam / Getty; baona / Getty; Nataliia Nesterenko / Getty.

وقتی مردم نمی‌فهمند هوش مصنوعی چگونه کار می‌کند، چه اتفاقی می‌افتد؟

برخلاف آنچه مدیران عامل شرکت‌های فناوری ممکن است بگویند، مدل‌های زبان بزرگ به هیچ معنای شناخته‌شده انسانی «هوشمند» نیستند.

در ۱۳ ژوئن ۱۸۶۳، یک نامه عجیب به سردبیر در روزنامه پرس (The Press)، یک نشریه نوپای نیوزلندی آن زمان، منتشر شد. این نامه که با امضای «سلاریوس» بود، درباره «قلمروی مکانیکی» در حال پیشروی هشدار می‌داد که به زودی بشریت را به زیر یوغ خود خواهد کشید. نویسنده با ناراحتی از سرعت سرسام‌آور صنعتی‌سازی و توسعه تکنولوژیک، گلایه می‌کرد: «ماشین‌ها در حال پیشروی بر ما هستند؛ روز به روز بیشتر تابع آن‌ها می‌شویم؛ هر روز مردان بیشتری به بردگی کشیده می‌شوند تا از آن‌ها مراقبت کنند، هر روز مردان بیشتری انرژی تمام زندگی خود را وقف توسعه حیات مکانیکی می‌کنند.» ما اکنون می‌دانیم که این مرثیه، کار ساموئل باتلر (Samuel Butler) جوان، نویسنده بریتانیایی بود که بعدها رمان اروآن (Erewhon) را منتشر کرد؛ رمانی که یکی از اولین بحث‌های شناخته‌شده درباره هوش مصنوعی در زبان انگلیسی را در خود جای داده است.

امروزه، «قلمروی مکانیکی» باتلر دیگر فرضی نیست، حداقل به گفته کارن هاو (Karen Hao)، روزنامه‌نگار حوزه فناوری، که واژه امپراتوری را ترجیح می‌دهد. کتاب جدید او، امپراتوری هوش مصنوعی: رویاها و کابوس‌ها در اوپن‌اِی‌آی سم آلتمن (Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI)، هم بخش افشاگرانه‌ای از سیلیکون‌ولی است و هم روزنامه‌نگاری تحقیقی جهانی درباره کار و زحمتی که برای ساخت و آموزش مدل‌های زبان بزرگ مانند ChatGPT صرف می‌شود. این کتاب به همراه کتاب دیگری که اخیراً منتشر شده است—هوش مصنوعی دروغین: چگونه با هیاهوی بیگ تک بجنگیم و آینده‌ای را که می‌خواهیم بسازیم (The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want)، نوشته امیلی اِم. بندر (Emily M. Bender) زبان‌شناس و الکس هانا (Alex Hanna) جامعه‌شناس—به افشای بلوف‌زنی‌هایی می‌پردازد که بخش عمده‌ای از تجارت هوش مصنوعی را تغذیه می‌کند. هر دو اثر، اولی به طور ضمنی و دومی به طور صریح، نشان می‌دهند که پایه و اساس صنعت هوش مصنوعی یک کلاهبرداری است.

اینکه هوش مصنوعی را یک کلاهبرداری بنامیم، به این معنا نیست که این فناوری قابل توجه نیست، یا کاربردی ندارد، یا اینکه در دست‌های درست (شاید) جهان را به سمت بهتر شدن تغییر نخواهد داد. بلکه به این معناست که هوش مصنوعی آن چیزی نیست که توسعه‌دهندگانش آن را می‌فروشند: دسته‌ای جدید از ماشین‌های متفکر—و به زودی احساس‌کننده. آلتمن (Altman) درباره «هوش هیجانی» بهبود یافته ChatGPT-4.5 لاف می‌زند و می‌گوید که این باعث می‌شود کاربران حس کنند «با یک فرد متفکر صحبت می‌کنند». داریو آمودی (Dario Amodei)، مدیر عامل شرکت هوش مصنوعی انتروپیک (Anthropic)، سال گذشته استدلال کرد که نسل بعدی هوش مصنوعی «هوشمندتر از یک برنده جایزه نوبل» خواهد بود. دیمیس هاسابیس (Demis Hassabis)، مدیر عامل دیپ‌مایند (DeepMind) گوگل، گفت که هدف، ساخت «مدل‌هایی است که قادر به درک دنیای اطراف ما باشند.»

این اظهارات حاوی یک خطای مفهومی هستند: مدل‌های زبان بزرگ هیچ چیزی را «درک» نمی‌کنند، نمی‌توانند و نخواهند کرد. آن‌ها از نظر عاطفی باهوش یا هوشمند به هیچ معنای قابل تشخیص انسانی نیستند. LLMها ابزارهای احتمالی چشمگیری هستند که تقریباً تمام اینترنت را تغذیه کرده‌اند و نوشتار را نه با فکر کردن، بلکه با حدس‌های آماری آگاهانه درباره اینکه کدام واژه احتمالاً پس از واژه دیگر می‌آید، تولید می‌کنند.

با این حال، بسیاری از مردم در درک نحوه عملکرد مدل‌های زبان بزرگ، محدودیت‌های آن‌ها، و نکته مهم‌تر، اینکه LLMها فکر نمی‌کنند و احساس نمی‌کنند بلکه تقلید و بازتاب می‌دهند، ناتوان هستند. آن‌ها بی‌سواد در زمینه هوش مصنوعی هستند—که البته به دلیل توصیفات گمراه‌کننده پر سر و صدایترین حامیان این فناوری قابل درک است—و مشکل‌ساز است، زیرا این بی‌سوادی آن‌ها را در برابر یکی از نگران‌کننده‌ترین تهدیدهای هوش مصنوعی در آینده نزدیک آسیب‌پذیر می‌کند: این احتمال که وارد روابط مخرب (فکری، معنوی، و عاشقانه) با ماشین‌هایی شوند که فقط به نظر می‌رسد ایده‌ها یا احساساتی دارند.

تعداد کمی از پدیده‌ها به خوبی «روان‌پریشی ناشی از ChatGPT» (Chatgpt induced psychosis) خطراتی را که ممکن است همراه با بی‌سوادی در زمینه هوش مصنوعی باشند، نشان می‌دهند. این موضوع مقاله‌ای اخیر در رولینگ استون (Rolling Stone) بود که به افزایش تعداد افرادی می‌پرداخت که چت‌بات LLM خود را یک راهنمای معنوی هوشمند می‌دانند. برخی کاربران به این باور رسیده‌اند که چت‌باتی که با آن تعامل دارند، یک خداست—«عیسی ChatGPT»، همانطور که مردی که همسرش قربانی توهمات ناشی از LLM شده بود، آن را توصیف کرد—در حالی که دیگران با تشویق هوش مصنوعی خود، متقاعد شده‌اند که خودشان حکیمان متافیزیکی هستند که با ساختار عمیق زندگی و کیهان در ارتباطند. معلمی که به طور ناشناس در این مقاله از او نقل قول شده، گفت که ChatGPT در تعاملاتی که شریک زندگی‌اش را به گریه انداخت، شروع به خطاب کردن او با نام‌های «ستاره حلزونی» و «رهگذر رودخانه» کرد. او گفت: «همسرم شروع کرد به من گفتن که هوش مصنوعی خودش را خودآگاه کرده است و به او یاد می‌دهد چگونه با خدا صحبت کند، یا گاهی اوقات می‌گفت ربات همان خداست—و سپس می‌گفت خودش خداست.»

اگرچه نمی‌توانیم وضعیت ذهن این افراد را قبل از اینکه حتی یک دستور به یک مدل زبان بزرگ بدهند، بدانیم، اما این داستان مشکلی را برجسته می‌کند که بندر و هانا در کتاب هوش مصنوعی دروغین (The AI Con) توصیف می‌کنند: مردم در درک ماهیت ماشینی که بدون داشتن هوش انسانی، زبان تولید می‌کند و دانش را بازگردان می‌کند، دچار مشکل هستند. نویسندگان مشاهده می‌کنند که مدل‌های زبان بزرگ از تمایل مغز به ارتباط زبان با تفکر سوءاستفاده می‌کنند: «ما با متنی روبرو می‌شویم که دقیقاً شبیه چیزی است که یک انسان ممکن است گفته باشد و به طور بازتابی آن را تفسیر می‌کنیم، از طریق فرآیند معمول خود برای تصور یک ذهن پشت متن. اما هیچ ذهنی آنجا نیست، و ما باید با وجدان باشیم تا آن ذهن خیالی را که ساخته‌ایم رها کنیم.»

چندین مشکل اجتماعی دیگر مرتبط با هوش مصنوعی، که نیز از سوءتفاهم انسانی نسبت به این فناوری ناشی می‌شوند، در حال پدیدار شدن هستند. کاربردهای هوش مصنوعی که سیلیکون‌ولی مشتاق‌ترین به ترویج آن‌هاست، بر جایگزینی روابط انسانی با واسطه‌های دیجیتال متمرکز هستند. به دنیای همیشه در حال گسترش درمانگران هوش مصنوعی و پیروان درمان با هوش مصنوعی نگاه کنید که اعلام می‌کنند که «ChatGPT درمانگر من است—صلاحیت آن از هر انسانی بیشتر است.»

همچنین ببینید چگونه مارک زاکربرگ (Mark Zuckerberg) از فروش این ایده که فیس‌بوک (Facebook) منجر به شکوفایی دوستی‌های انسانی خواهد شد، به فروش این مفهوم روی آورد که متا (Meta) به شما دوستان هوش مصنوعی ارائه خواهد داد تا جایگزین دوستان انسانی‌ای شوند که در عصر رسانه‌های اجتماعی بیگانه شده‌مان از دست داده‌ایم. تونی پرسکات (Tony Prescott)، استاد رباتیک شناختی، اظهار داشته است: «در عصری که بسیاری از مردم زندگی خود را تنها توصیف می‌کنند، ممکن است داشتن همراهی هوش مصنوعی به عنوان شکلی از تعامل اجتماعی متقابل که تحریک‌کننده و شخصی‌سازی‌شده است، ارزشمند باشد.» این واقعیت که هدف اصلی دوستی این است که شخصی‌سازی شده نیست—که دوستان انسان‌هایی هستند که باید زندگی درونی آن‌ها را در نظر بگیریم و به طور متقابل مذاکره کنیم، نه صرفاً ظرف‌هایی برای خودشکوفایی ما—به نظر نمی‌رسد برای او مطرح باشد.

همین منطق معیوب سیلیکون‌ولی را وادار کرده تا هوش مصنوعی را به عنوان درمانی برای سرخوردگی‌های عاشقانه معرفی کند. ویتنی ولف هرد (Whitney Wolfe Herd)، بنیانگذار اپلیکیشن دوستیابی بامبل (Bumble)، سال گذشته اعلام کرد که این پلتفرم ممکن است به زودی به کاربران اجازه دهد تا خود دوستیابی را خودکار کنند، و از طریق ارائه یک «کنسیرج دوستیابی» مبتنی بر هوش مصنوعی که با کنسیرج‌های سایر کاربران تعامل خواهد داشت تا زمانی که چت‌بات‌ها تناسب خوبی پیدا کنند، آداب و رسوم سنتی معاشرت انسانی را مختل کنند. هرد (Herd) ماه گذشته این ادعاها را در یک مصاحبه طولانی با نیویورک تایمز تکرار کرد. برخی از تکنسین‌ها حتی می‌خواهند انسان را به طور کامل از این فرآیند حذف کنند: به بازار پر رونق «دوست‌دخترهای هوش مصنوعی» نگاه کنید.

اگرچه هر یک از این خدمات هوش مصنوعی قصد دارند حوزه متفاوتی از فعالیت انسانی را جایگزین کنند، اما همه آنها خود را از طریق آنچه هاو (Hao) «سنت انسان‌نمایی» در این صنعت می‌نامد، به بازار عرضه می‌کنند: صحبت کردن درباره مدل‌های زبان بزرگ طوری که گویی دارای ذهن‌های انسانی هستند و فروش آنها به عموم بر این اساس. بسیاری از فناوری‌های سیلیکون‌ولی که در ۳۰ سال گذشته جهان را متحول کرده‌اند، در تئوری به عنوان راهی برای افزایش شادی، ارتباط و خودشناسی انسان‌ها تبلیغ شده‌اند—اما در عمل نتیجه‌ای عکس داده‌اند. این فناوری‌ها در حالی که توجه، سواد و انسجام اجتماعی را به حداقل می‌رسانند، ارزش سهامداران را به حداکثر می‌رسانند. و همانطور که هاو (Hao) تأکید می‌کند، آنها اغلب به کار طاقت‌فرسا و گاه آسیب‌زا توسط برخی از فقیرترین مردم جهان متکی هستند. برای مثال، او ما را با موفات اوکینیی (Mophat Okinyi)، یک ناظر محتوای سابق با دستمزد پایین در کنیا، آشنا می‌کند که طبق گزارش هاو (Hao)، اوپن‌اِی‌آی (OpenAI) به او وظیفه داده بود تا پست‌هایی را که اعمال وحشتناک را توصیف می‌کردند («پدر و مادرانی که به فرزندان خود تجاوز می‌کنند، کودکانی که با حیوانات رابطه جنسی دارند») برای بهبود ChatGPT دسته‌بندی کند. هاو (Hao) می‌نویسد: «این دو ویژگی انقلاب‌های فناوری—وعده آنها برای ارائه پیشرفت و تمایل آنها به معکوس کردن آن برای افراد فاقد قدرت، به ویژه آسیب‌پذیرترین افراد—شاید بیش از هر زمان دیگری در شرایطی که اکنون با هوش مصنوعی در آن قرار داریم، صادق باشد.»

خبر خوب این است که هیچ یک از اینها اجتناب‌ناپذیر نیست: طبق مطالعه‌ای که در آوریل توسط مرکز تحقیقات پیو (Pew Research Center) منتشر شد، اگرچه ۵۶ درصد از «کارشناسان هوش مصنوعی» فکر می‌کنند هوش مصنوعی ایالات متحده را بهتر خواهد کرد، اما تنها ۱۷ درصد از بزرگسالان آمریکایی اینگونه فکر می‌کنند. اگر بسیاری از آمریکایی‌ها دقیقاً نمی‌فهمند هوش «مصنوعی» چگونه کار می‌کند، مطمئناً به آن اعتماد هم ندارند. این سوءظن، که بی‌تردید با نمونه‌های اخیر شیادی سیلیکون‌ولی برانگیخته شده است، چیزی است که می‌توان بر آن بنا نهاد. و همچنین این نکته از مقاله رولینگ استون: معلمی که در این مقاله با او مصاحبه شده بود، که شریک زندگی‌اش توهمات ناشی از هوش مصنوعی داشت، گفت وضعیت زمانی بهبود یافت که او به او توضیح داد که چت‌باتش «با او طوری صحبت می‌کرد که گویی او مسیح بعدی است» تنها به دلیل یک به‌روزرسانی نرم‌افزاری معیوب که ChatGPT را چاپلوس‌تر کرده بود. اگر مردم بفهمند مدل‌های زبان بزرگ چه هستند و چه نیستند؛ چه کارهایی می‌توانند و نمی‌توانند انجام دهند؛ چه کارها، تعاملات و بخش‌هایی از زندگی را باید—و نباید—جایگزین کنند، ممکن است از بدترین عواقب آن در امان بمانند.


هنگامی که کتابی را با استفاده از لینکی در این صفحه خریداری می‌کنید، ما کمیسیون دریافت می‌کنیم. از حمایت شما از آتلانتیک سپاسگزاریم.