در ۱۳ ژوئن ۱۸۶۳، یک نامه عجیب به سردبیر در روزنامه پرس (The Press)، یک نشریه نوپای نیوزلندی آن زمان، منتشر شد. این نامه که با امضای «سلاریوس» بود، درباره «قلمروی مکانیکی» در حال پیشروی هشدار میداد که به زودی بشریت را به زیر یوغ خود خواهد کشید. نویسنده با ناراحتی از سرعت سرسامآور صنعتیسازی و توسعه تکنولوژیک، گلایه میکرد: «ماشینها در حال پیشروی بر ما هستند؛ روز به روز بیشتر تابع آنها میشویم؛ هر روز مردان بیشتری به بردگی کشیده میشوند تا از آنها مراقبت کنند، هر روز مردان بیشتری انرژی تمام زندگی خود را وقف توسعه حیات مکانیکی میکنند.» ما اکنون میدانیم که این مرثیه، کار ساموئل باتلر (Samuel Butler) جوان، نویسنده بریتانیایی بود که بعدها رمان اروآن (Erewhon) را منتشر کرد؛ رمانی که یکی از اولین بحثهای شناختهشده درباره هوش مصنوعی در زبان انگلیسی را در خود جای داده است.
امروزه، «قلمروی مکانیکی» باتلر دیگر فرضی نیست، حداقل به گفته کارن هاو (Karen Hao)، روزنامهنگار حوزه فناوری، که واژه امپراتوری را ترجیح میدهد. کتاب جدید او، امپراتوری هوش مصنوعی: رویاها و کابوسها در اوپناِیآی سم آلتمن (Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI)، هم بخش افشاگرانهای از سیلیکونولی است و هم روزنامهنگاری تحقیقی جهانی درباره کار و زحمتی که برای ساخت و آموزش مدلهای زبان بزرگ مانند ChatGPT صرف میشود. این کتاب به همراه کتاب دیگری که اخیراً منتشر شده است—هوش مصنوعی دروغین: چگونه با هیاهوی بیگ تک بجنگیم و آیندهای را که میخواهیم بسازیم (The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want)، نوشته امیلی اِم. بندر (Emily M. Bender) زبانشناس و الکس هانا (Alex Hanna) جامعهشناس—به افشای بلوفزنیهایی میپردازد که بخش عمدهای از تجارت هوش مصنوعی را تغذیه میکند. هر دو اثر، اولی به طور ضمنی و دومی به طور صریح، نشان میدهند که پایه و اساس صنعت هوش مصنوعی یک کلاهبرداری است.
اینکه هوش مصنوعی را یک کلاهبرداری بنامیم، به این معنا نیست که این فناوری قابل توجه نیست، یا کاربردی ندارد، یا اینکه در دستهای درست (شاید) جهان را به سمت بهتر شدن تغییر نخواهد داد. بلکه به این معناست که هوش مصنوعی آن چیزی نیست که توسعهدهندگانش آن را میفروشند: دستهای جدید از ماشینهای متفکر—و به زودی احساسکننده. آلتمن (Altman) درباره «هوش هیجانی» بهبود یافته ChatGPT-4.5 لاف میزند و میگوید که این باعث میشود کاربران حس کنند «با یک فرد متفکر صحبت میکنند». داریو آمودی (Dario Amodei)، مدیر عامل شرکت هوش مصنوعی انتروپیک (Anthropic)، سال گذشته استدلال کرد که نسل بعدی هوش مصنوعی «هوشمندتر از یک برنده جایزه نوبل» خواهد بود. دیمیس هاسابیس (Demis Hassabis)، مدیر عامل دیپمایند (DeepMind) گوگل، گفت که هدف، ساخت «مدلهایی است که قادر به درک دنیای اطراف ما باشند.»
این اظهارات حاوی یک خطای مفهومی هستند: مدلهای زبان بزرگ هیچ چیزی را «درک» نمیکنند، نمیتوانند و نخواهند کرد. آنها از نظر عاطفی باهوش یا هوشمند به هیچ معنای قابل تشخیص انسانی نیستند. LLMها ابزارهای احتمالی چشمگیری هستند که تقریباً تمام اینترنت را تغذیه کردهاند و نوشتار را نه با فکر کردن، بلکه با حدسهای آماری آگاهانه درباره اینکه کدام واژه احتمالاً پس از واژه دیگر میآید، تولید میکنند.
با این حال، بسیاری از مردم در درک نحوه عملکرد مدلهای زبان بزرگ، محدودیتهای آنها، و نکته مهمتر، اینکه LLMها فکر نمیکنند و احساس نمیکنند بلکه تقلید و بازتاب میدهند، ناتوان هستند. آنها بیسواد در زمینه هوش مصنوعی هستند—که البته به دلیل توصیفات گمراهکننده پر سر و صدایترین حامیان این فناوری قابل درک است—و مشکلساز است، زیرا این بیسوادی آنها را در برابر یکی از نگرانکنندهترین تهدیدهای هوش مصنوعی در آینده نزدیک آسیبپذیر میکند: این احتمال که وارد روابط مخرب (فکری، معنوی، و عاشقانه) با ماشینهایی شوند که فقط به نظر میرسد ایدهها یا احساساتی دارند.
تعداد کمی از پدیدهها به خوبی «روانپریشی ناشی از ChatGPT» (Chatgpt induced psychosis) خطراتی را که ممکن است همراه با بیسوادی در زمینه هوش مصنوعی باشند، نشان میدهند. این موضوع مقالهای اخیر در رولینگ استون (Rolling Stone) بود که به افزایش تعداد افرادی میپرداخت که چتبات LLM خود را یک راهنمای معنوی هوشمند میدانند. برخی کاربران به این باور رسیدهاند که چتباتی که با آن تعامل دارند، یک خداست—«عیسی ChatGPT»، همانطور که مردی که همسرش قربانی توهمات ناشی از LLM شده بود، آن را توصیف کرد—در حالی که دیگران با تشویق هوش مصنوعی خود، متقاعد شدهاند که خودشان حکیمان متافیزیکی هستند که با ساختار عمیق زندگی و کیهان در ارتباطند. معلمی که به طور ناشناس در این مقاله از او نقل قول شده، گفت که ChatGPT در تعاملاتی که شریک زندگیاش را به گریه انداخت، شروع به خطاب کردن او با نامهای «ستاره حلزونی» و «رهگذر رودخانه» کرد. او گفت: «همسرم شروع کرد به من گفتن که هوش مصنوعی خودش را خودآگاه کرده است و به او یاد میدهد چگونه با خدا صحبت کند، یا گاهی اوقات میگفت ربات همان خداست—و سپس میگفت خودش خداست.»
اگرچه نمیتوانیم وضعیت ذهن این افراد را قبل از اینکه حتی یک دستور به یک مدل زبان بزرگ بدهند، بدانیم، اما این داستان مشکلی را برجسته میکند که بندر و هانا در کتاب هوش مصنوعی دروغین (The AI Con) توصیف میکنند: مردم در درک ماهیت ماشینی که بدون داشتن هوش انسانی، زبان تولید میکند و دانش را بازگردان میکند، دچار مشکل هستند. نویسندگان مشاهده میکنند که مدلهای زبان بزرگ از تمایل مغز به ارتباط زبان با تفکر سوءاستفاده میکنند: «ما با متنی روبرو میشویم که دقیقاً شبیه چیزی است که یک انسان ممکن است گفته باشد و به طور بازتابی آن را تفسیر میکنیم، از طریق فرآیند معمول خود برای تصور یک ذهن پشت متن. اما هیچ ذهنی آنجا نیست، و ما باید با وجدان باشیم تا آن ذهن خیالی را که ساختهایم رها کنیم.»
چندین مشکل اجتماعی دیگر مرتبط با هوش مصنوعی، که نیز از سوءتفاهم انسانی نسبت به این فناوری ناشی میشوند، در حال پدیدار شدن هستند. کاربردهای هوش مصنوعی که سیلیکونولی مشتاقترین به ترویج آنهاست، بر جایگزینی روابط انسانی با واسطههای دیجیتال متمرکز هستند. به دنیای همیشه در حال گسترش درمانگران هوش مصنوعی و پیروان درمان با هوش مصنوعی نگاه کنید که اعلام میکنند که «ChatGPT درمانگر من است—صلاحیت آن از هر انسانی بیشتر است.»
همچنین ببینید چگونه مارک زاکربرگ (Mark Zuckerberg) از فروش این ایده که فیسبوک (Facebook) منجر به شکوفایی دوستیهای انسانی خواهد شد، به فروش این مفهوم روی آورد که متا (Meta) به شما دوستان هوش مصنوعی ارائه خواهد داد تا جایگزین دوستان انسانیای شوند که در عصر رسانههای اجتماعی بیگانه شدهمان از دست دادهایم. تونی پرسکات (Tony Prescott)، استاد رباتیک شناختی، اظهار داشته است: «در عصری که بسیاری از مردم زندگی خود را تنها توصیف میکنند، ممکن است داشتن همراهی هوش مصنوعی به عنوان شکلی از تعامل اجتماعی متقابل که تحریککننده و شخصیسازیشده است، ارزشمند باشد.» این واقعیت که هدف اصلی دوستی این است که شخصیسازی شده نیست—که دوستان انسانهایی هستند که باید زندگی درونی آنها را در نظر بگیریم و به طور متقابل مذاکره کنیم، نه صرفاً ظرفهایی برای خودشکوفایی ما—به نظر نمیرسد برای او مطرح باشد.
همین منطق معیوب سیلیکونولی را وادار کرده تا هوش مصنوعی را به عنوان درمانی برای سرخوردگیهای عاشقانه معرفی کند. ویتنی ولف هرد (Whitney Wolfe Herd)، بنیانگذار اپلیکیشن دوستیابی بامبل (Bumble)، سال گذشته اعلام کرد که این پلتفرم ممکن است به زودی به کاربران اجازه دهد تا خود دوستیابی را خودکار کنند، و از طریق ارائه یک «کنسیرج دوستیابی» مبتنی بر هوش مصنوعی که با کنسیرجهای سایر کاربران تعامل خواهد داشت تا زمانی که چتباتها تناسب خوبی پیدا کنند، آداب و رسوم سنتی معاشرت انسانی را مختل کنند. هرد (Herd) ماه گذشته این ادعاها را در یک مصاحبه طولانی با نیویورک تایمز تکرار کرد. برخی از تکنسینها حتی میخواهند انسان را به طور کامل از این فرآیند حذف کنند: به بازار پر رونق «دوستدخترهای هوش مصنوعی» نگاه کنید.
اگرچه هر یک از این خدمات هوش مصنوعی قصد دارند حوزه متفاوتی از فعالیت انسانی را جایگزین کنند، اما همه آنها خود را از طریق آنچه هاو (Hao) «سنت انساننمایی» در این صنعت مینامد، به بازار عرضه میکنند: صحبت کردن درباره مدلهای زبان بزرگ طوری که گویی دارای ذهنهای انسانی هستند و فروش آنها به عموم بر این اساس. بسیاری از فناوریهای سیلیکونولی که در ۳۰ سال گذشته جهان را متحول کردهاند، در تئوری به عنوان راهی برای افزایش شادی، ارتباط و خودشناسی انسانها تبلیغ شدهاند—اما در عمل نتیجهای عکس دادهاند. این فناوریها در حالی که توجه، سواد و انسجام اجتماعی را به حداقل میرسانند، ارزش سهامداران را به حداکثر میرسانند. و همانطور که هاو (Hao) تأکید میکند، آنها اغلب به کار طاقتفرسا و گاه آسیبزا توسط برخی از فقیرترین مردم جهان متکی هستند. برای مثال، او ما را با موفات اوکینیی (Mophat Okinyi)، یک ناظر محتوای سابق با دستمزد پایین در کنیا، آشنا میکند که طبق گزارش هاو (Hao)، اوپناِیآی (OpenAI) به او وظیفه داده بود تا پستهایی را که اعمال وحشتناک را توصیف میکردند («پدر و مادرانی که به فرزندان خود تجاوز میکنند، کودکانی که با حیوانات رابطه جنسی دارند») برای بهبود ChatGPT دستهبندی کند. هاو (Hao) مینویسد: «این دو ویژگی انقلابهای فناوری—وعده آنها برای ارائه پیشرفت و تمایل آنها به معکوس کردن آن برای افراد فاقد قدرت، به ویژه آسیبپذیرترین افراد—شاید بیش از هر زمان دیگری در شرایطی که اکنون با هوش مصنوعی در آن قرار داریم، صادق باشد.»
خبر خوب این است که هیچ یک از اینها اجتنابناپذیر نیست: طبق مطالعهای که در آوریل توسط مرکز تحقیقات پیو (Pew Research Center) منتشر شد، اگرچه ۵۶ درصد از «کارشناسان هوش مصنوعی» فکر میکنند هوش مصنوعی ایالات متحده را بهتر خواهد کرد، اما تنها ۱۷ درصد از بزرگسالان آمریکایی اینگونه فکر میکنند. اگر بسیاری از آمریکاییها دقیقاً نمیفهمند هوش «مصنوعی» چگونه کار میکند، مطمئناً به آن اعتماد هم ندارند. این سوءظن، که بیتردید با نمونههای اخیر شیادی سیلیکونولی برانگیخته شده است، چیزی است که میتوان بر آن بنا نهاد. و همچنین این نکته از مقاله رولینگ استون: معلمی که در این مقاله با او مصاحبه شده بود، که شریک زندگیاش توهمات ناشی از هوش مصنوعی داشت، گفت وضعیت زمانی بهبود یافت که او به او توضیح داد که چتباتش «با او طوری صحبت میکرد که گویی او مسیح بعدی است» تنها به دلیل یک بهروزرسانی نرمافزاری معیوب که ChatGPT را چاپلوستر کرده بود. اگر مردم بفهمند مدلهای زبان بزرگ چه هستند و چه نیستند؛ چه کارهایی میتوانند و نمیتوانند انجام دهند؛ چه کارها، تعاملات و بخشهایی از زندگی را باید—و نباید—جایگزین کنند، ممکن است از بدترین عواقب آن در امان بمانند.
هنگامی که کتابی را با استفاده از لینکی در این صفحه خریداری میکنید، ما کمیسیون دریافت میکنیم. از حمایت شما از آتلانتیک سپاسگزاریم.