تصویرسازی از جونل آفرونگ / آتلانتیک
تصویرسازی از جونل آفرونگ / آتلانتیک

کسانی که تفکر خود را به هوش مصنوعی برون‌سپاری می‌کنند

ظهور «LLeMmings» (لمینگ‌های LLM)

تیم متز از «گوگل مپس‌سازی» ذهن خود نگران است. همانطور که بسیاری از مردم برای مسیریابی به اپلیکیشن‌های GPS متکی شده‌اند، این بازاریاب محتوای ۴۴ ساله نگران است که به هوش مصنوعی وابسته شود. او به من گفت که روزانه تا هشت ساعت از هوش مصنوعی استفاده می‌کند و به خصوص به کلود (Claude) از شرکت انتروپیک علاقه‌مند شده است. گاهی اوقات، او تا شش جلسه را به طور همزمان اجرا می‌کند. او برای مشاوره در مورد ازدواج و تربیت فرزند از هوش مصنوعی استفاده می‌کند و هنگام خرید خواربار، از میوه‌ها عکس می‌گیرد تا از ربات در مورد رسیده بودن آن‌ها سؤال کند. اخیراً نگران بود که ممکن است یک درخت بزرگ نزدیک خانه‌اش بیفتد، بنابراین عکس‌هایی از آن را آپلود کرد و از ربات برای راهنمایی کمک خواست. کلود پیشنهاد کرد که متز در جای دیگری بخوابد در صورتی که درخت بیفتد، بنابراین او و خانواده‌اش آن شب را در خانه یکی از دوستان سپری کردند. او گفت که بدون نظر کلود، «هرگز خانه را ترک نمی‌کرد.» (البته درخت هرگز نیفتاد، هرچند برخی شاخه‌ها شکستند.)

من استفاده وسواسی متز از هوش مصنوعی را از نزدیک مشاهده کردم: قبل از مصاحبه با او برای این مقاله، او به کلود دستور داد تا با استفاده از ابزارهای جستجوی وب و در صورت تمایل، تیمی از عوامل هوش مصنوعی، سؤالاتی را که ممکن است بپرسم، به صورت مهندسی معکوس تولید کند. کلود چند دقیقه به جستجوی اطلاعاتی درباره من پرداخت و سپس تحقیقات خود را در یک صفحه جمع‌آوری کرد. یک بخش یک زندگی‌نامه کوتاه از من ارائه می‌داد؛ بخش دیگر پاسخ‌های احتمالی به سؤالاتی را که احتمالاً می‌پرسیدم، جزئیات می‌داد. متز در اواسط مصاحبه به من گفت: «کارش را خیلی خوب انجام داد.» در واقع، کلود با موفقیت سه سؤال از سؤالات مصاحبه من را پیش‌بینی کرده بود.

بسیاری از مردم در حال وابستگی به هوش مصنوعی برای مدیریت برخی از اساسی‌ترین جنبه‌های زندگی روزمره خود هستند. یکی از همکاران پیشنهاد کرد که می‌توانیم افراطی‌ترین کاربران را «لمینگ‌های LLM» بنامیم — بله، به این دلیل که آنها همیشه در حال استفاده از LLM (مدل‌های زبانی بزرگ) هستند، و همچنین به این دلیل که استفاده تقریباً دائمی آنها از هوش مصنوعی، تصاویری از لمینگ‌های سایبرنتیک را تداعی می‌کند که بدون راهنمایی قادر به عمل نیستند. برای این گروه از کاربران وسواسی، هوش مصنوعی به یک واسط اصلی تبدیل شده است که از طریق آن با دنیا تعامل دارند. ایمیل‌هایی که می‌نویسند، تصمیمات زندگی که می‌گیرند، و سؤالاتی که ذهنشان را مشغول می‌کند، ابتدا از طریق هوش مصنوعی فیلتر می‌شوند. متز به من گفت: «این مثل یک اعتیاد واقعی است.»

سه سال پس از رونق هوش مصنوعی، تصویری اولیه از چگونگی تأثیر استفاده سنگین از هوش مصنوعی بر ذهن انسان در حال شکل‌گیری است. برای برخی، چت‌بات‌ها همدمی عاطفی ارائه می‌دهند؛ دیگران متوجه شده‌اند که ربات‌ها تفکرات توهم‌آمیز را تقویت می‌کنند (وضعیتی که برخی آن را «روان‌پریشی هوش مصنوعی» نامیده‌اند). در همین حال، لمینگ‌های LLM نیز شروع به احساس اثرات برون‌سپاری مکرر تفکر خود به یک کامپیوتر کرده‌اند.

بخوانید: هوش مصنوعی یک رویداد توهم جمعی است

جیمز بدفورد، یک مربی در دانشگاه نیو ساوت ولز که بر توسعه استراتژی‌های هوش مصنوعی برای کلاس درس تمرکز دارد، پس از انتشار چت‌جی‌پی‌تی تقریباً هر روز شروع به استفاده از LLMها کرد. او به من گفت که به مرور زمان، مغزش برای تفکر به طور پیش‌فرض به هوش مصنوعی روی آورده است. یک شب، او تلاش می‌کرد به زنی کمک کند تا ایرپاد خود را که بین صندلی‌های قطار افتاده بود، پیدا کند. متوجه شد که اولین غریزه‌اش این بود که از چت‌جی‌پی‌تی راه‌حل بخواهد. او گفت: «این اولین باری بود که مغزم می‌خواست از چت‌جی‌پی‌تی بخواهد کاری شناختی را انجام دهد که می‌توانستم خودم انجام دهم.» همانجا بود که فهمید «من قطعاً در حال وابسته شدن به این هستم.» پس از حادثه ایرپاد، تصمیم گرفت یک ماه از هوش مصنوعی فاصله بگیرد تا مغزش را بازنشانی کند. او به من گفت: «مثل این بود که بعد از مدت‌ها برای اولین بار خودم فکر می‌کردم. هرچقدر هم از آن وضوح لذت بردم، باز هم بلافاصله پس از آن به هوش مصنوعی برگشتم.»

فناوری‌های جدید قابلیت‌های انسانی را گسترش می‌دهند، اما معمولاً این کار را با هزینه‌ای انجام می‌دهند. همانطور که فیلسوف کوامی آنتونی آپیا اخیراً در این مجله نوشت، نوشتن از اهمیت حافظه کاست و ماشین‌حساب‌ها مهارت‌های اساسی حساب را بی‌ارزش کردند. اینترنت نیز مغز ما را به بی‌شمار روش بازسیم‌کشی کرده است، ما را با اطلاعات غرق کرده و در عین حال دامنه توجه ما را غارت کرده است. اینکه هوش مصنوعی نحوه تفکر ما را تغییر خواهد داد، ایده‌ای بحث‌برانگیز نیست و لزوماً چیز بدی هم نیست. اما مردم باید بپرسند: «چه قابلیت‌ها و عادت‌های فکری جدیدی را به ارمغان خواهد آورد و برخواهد انگیخت؟ و کدام‌ها را سرکوب خواهد کرد؟» این را تیم رکوارث، عصب‌شناسی که برنامه نویسندگی علمی فارغ‌التحصیلان را در دانشکده پزشکی NYU اداره می‌کند، به من گفت.

اینس لی، اقتصاددانی که در لندن مستقر است، به من گفت که گاهی اوقات به این عادت دچار شده است که «بدون مشورت اولیه با هوش مصنوعی، نمی‌تواند کار معنی‌داری را شروع کند.» لی در ساب‌استک (Substack) خود نوشته است که چت‌جی‌پی‌تی و کلود اکنون حواس‌پرتی‌های جذاب‌تری نسبت به اپلیکیشن‌های شبکه‌های اجتماعی مانند یوتیوب و اینستاگرام هستند: او مکرراً به آنها مراجعه می‌کند تا کارش را انجام دهد، حتی در حالی که احساس می‌کند مهارت‌های تفکر انتقادی‌اش در این فرآیند ممکن است دچار زوال شوند. مایک کنتز، یک مربی و مشاور سواد هوش مصنوعی، به من گفت که او نیز به همین ترتیب خود را وابسته به چت‌بات‌ها برای کمک به نوشتن ایمیل‌ها یافته است. او در یک پست وبلاگ اخیر نوشت: «زمینه‌هایی که قبلاً در مهارت‌ها و توانایی‌های خودم اعتماد به نفس داشتم - مانند نوشتن ایمیل‌های مختصر، کامل و متعادل - اکنون به زمینه‌هایی تبدیل شده‌اند که من به طور مداوم برای بازخورد به هوش مصنوعی مراجعه می‌کنم. نسخه ۲۰۱۵ من کاملاً آشفته می‌شد.»

مشکل با ابزارهای هوش مصنوعی این است که به نظر می‌رسد «شکاف‌ها در معماری شناخت انسان را استثمار می‌کنند»، همانطور که رکوارث نوشته است. مغز انسان دوست دارد انرژی را حفظ کند و برای این کار از میان‌برهای موجود استفاده خواهد کرد. رکوارث به من گفت: «انجام انواع خاصی از فرآیندهای فکری انرژی زیادی می‌گیرد»؛ در همین حال، «یک ربات آنجا نشسته و پیشنهاد می‌دهد که کار شناختی را برای شما به عهده بگیرد.» به عبارت دیگر، استفاده از هوش مصنوعی برای نوشتن ایمیل‌های شما بیشتر یک رفتار طبیعی تطبیقی است تا تنبلی.

چت‌بات‌ها طراحی شده‌اند تا از این گرایش انسانی با ارائه پاسخ‌های قانع‌کننده به هر پرسشی سوءاستفاده کنند، حتی اگر بسیاری از آن پاسخ‌ها نادرست یا گمراه‌کننده باشند. کارل اریک فیشر، یک روان‌پزشک اعتیاد در دانشگاه کلمبیا، به من گفت که فرض کنید کسی یک سؤال اضطراب‌آور درباره زندگی عاشقانه خود از چت‌بات بپرسد. حتی اگر پاسخ‌های چت‌بات کاملاً بی‌ربط یا بی‌فایده باشند، به مردم کاری برای انجام دادن می‌دهند تا با ناراحتی خود دست و پنجه نرم نکنند.

در واقع، یک کارمند فناوری در دهه ۲۰ زندگی خود، که به دلیل خجالت خواست ناشناس بماند، به من گفت که گاهی اوقات از کلود سؤالاتی می‌پرسد که می‌داند ربات نمی‌تواند به آنها پاسخ دهد. در یک مورد اخیر، وقتی دوستانش تا دیروقت در یک کلوب بودند و او خبری از آنها نداشت، از کلود پرسید: «احتمال اینکه حالشان خوب باشد چقدر است؟» بار دیگر، پس از گم کردن تلفن همراهش، شروع به پرسیدن از چت‌بات درباره احتمال دزدیده شدن هویتش کرد. او به من گفت: «واضح است که [ربات] قرار نیست بداند. من فقط می‌خواستم، حدس می‌زنم، اطمینان خاطر پیدا کنم.» در موقعیتی دیگر، او از کلود پرسید که آیا باید با ۹۱۱ تماس بگیرد، وقتی که آلارم آتش‌سوزی خانه‌اش مدام به صدا در می‌آمد. ربات به او گفت که این کار را نکند و مراحل غیرفعال کردن دستگاه را به او آموزش داد.

انتروپیک نگرانی‌هایی را در مورد برون‌سپاری کار شناختی توسط دانشجویان به سیستم‌های هوش مصنوعی مطرح کرده است، و اوپن‌ای‌آی (OpenAI) نیز اذعان کرده است که وابستگی به ابزارهای هوش مصنوعی به طور کلی یک مشکل است. سم آلتمن، مدیر عامل این شرکت، در یک کنفرانس در تابستان امسال گفت: «مردم بیش از حد به چت‌جی‌پی‌تی تکیه می‌کنند. جوانانی هستند که می‌گویند: 'من نمی‌توانم هیچ تصمیمی در زندگی‌ام بگیرم بدون اینکه همه چیز را به چت‌جی‌پی‌تی بگویم.' این واقعاً برای من بد به نظر می‌رسد.» وقتی از تایا کریستیانسون، سخنگوی این شرکت، در مورد اقدامات اوپن‌ای‌آی برای مقابله با استفاده وسواسی پرسیدم، او به من گفت که این استارت‌آپ فعالانه در حال طراحی ویژگی‌هایی است که استفاده از چت‌جی‌پی‌تی برای برون‌سپاری تفکر را دلسرد می‌کند. به عنوان مدرک، او به انتشار اخیر «حالت مطالعه» توسط اوپن‌ای‌آی اشاره کرد، ابزاری که به دانش‌آموزان راهنمایی گام به گام برای درک مفاهیم جدید ارائه می‌دهد، به جای پاسخ‌های خودکار.

اما اینجا یک کشمکش وجود دارد. برای اوپن‌ای‌آی و دیگر سازندگان چت‌بات، وابستگی مدل کسب و کار است. هرچه افراد بیشتری برای زندگی شخصی و حرفه‌ای خود به هوش مصنوعی تکیه کنند، این کسب و کارها سود بیشتری خواهند برد. (آتلانتیک در سال ۲۰۲۴ با اوپن‌ای‌آی شراکت شرکتی برقرار کرد؛ نه تیم تجاری مجله و نه اوپن‌ای‌آی هیچ نظارتی بر کار تحریریه ندارند.) بسیاری از کاربران قدرتمندی که با آنها صحبت کردم، هر ماه صدها دلار برای اشتراک‌های پریمیوم هوش مصنوعی می‌پردازند. در همین حال، این شرکت‌ها با نوعی فشار مالی روبرو هستند: در اکتبر، نیک تورلی، رئیس چت‌جی‌پی‌تی، در نامه‌ای به کارمندان نوشت که اوپن‌ای‌آی «بزرگترین فشار رقابتی را که تاکنون دیده‌ایم» تجربه می‌کند، و گزارش شده است که این شرکت امیدوار است تا سال ۲۰۳۰ حدود ۲۰۰ میلیون کاربر را متقاعد کند که برای اشتراک‌های پریمیوم پول بپردازند.

بخوانید: یارانه سبک زندگی نسل Z

فیشر، روان‌پزشک اعتیاد، پیشنهاد کرد که شاید یکی از راه‌ها برای شرکت‌های هوش مصنوعی برای مهار وابستگی ناسالم این باشد که چت‌بات‌های خود را برنامه‌ریزی کنند تا به کاربران بگویند کمی استراحت کنند. او گفت: «ربات می‌تواند بگوید: 'فکر می‌کنم بیش از حد به این موضوع فکر می‌کنی. چرا کمی پیاده‌روی نمی‌کنی؟'» در تابستان، اوپن‌ای‌آی یک یادآوری معرفی کرد که کاربران را در طول دوره‌های استفاده طولانی‌مدت به استراحت تشویق می‌کند. انتروپیک نیز در حال آزمایش مداخلات در طول مکالمات طولانی است. کنتز به من گفت که کلود اخیراً یک مکالمه داغی را که او با چت‌بات در پروازی به سیاتل داشت، قطع کرد. او از ربات خواسته بود که نقش مخاطبان یک سخنرانی آینده را که برای آن آماده می‌شد، بازی کند. برخی از بازخوردهای کلود مفید بود، اما کنتز احساس می‌کرد که بیش از حد درگیر آن شده، با ربات بحث می‌کند و حتی حالت تدافعی می‌گیرد. کنتز به من گفت که در نهایت، کلود گفت: «تو داری وارد چرخه می‌شوی و باید آرام بگیری.»

او مداخله کلود را مفید یافت، اما گاهی اوقات چت‌بات‌ها در تشخیص رفتار ناسالم مشکل دارند. یکی از دوستانم اخیراً از کلود برای ویرایش مقاله‌ای استفاده می‌کرد که چت‌بات از کمک کردن امتناع کرد. کلود نوشت: «شما باید متوقف شوید. این دیگر ویرایش مولد نیست.» در یک مقطع، خواستار شد: «درخواست خود را ارسال کنید،» و اضافه کرد: «من به درخواست‌های بیشتر برای ویرایش‌های جزئی پاسخ نخواهم داد.» دوست من نگران شد؛ او فقط برای کمک در زمینه گرامر و انتخاب کلمات درخواست کرده بود. دیگران نیز تجربیات مشابهی را گزارش کرده‌اند، جایی که درخواست‌های اولیه برای کمک با اتهامات بی‌اساس کمال‌گرایی خودویرانگر مواجه شده‌اند. (هنگامی که در مورد این نمونه‌ها پرسیده شد، سخنگوی انتروپیک به من گفت که این شرکت در حال آموزش کلود است تا در صورت لزوم بدون تندی یا قضاوت بیش از حد، مقاومت کند.)

در حال حاضر، برخی از کاربران قدرتمند هوش مصنوعی اقدامات خود را برای شکستن وابستگی‌شان انجام می‌دهند: از امروز، بدفورد یک ماه دیگر از هوش مصنوعی فاصله می‌گیرد، که او رسماً آن را به عنوان یک چالش به نام #NoAIDecember (بدون هوش مصنوعی در دسامبر) آغاز کرده است. وب‌سایت این جنبش مردم را تشویق می‌کند تا به جای هوش مصنوعی، استفاده از هوش واقعی (RI) خود را در اولویت قرار دهند. این چالش برای همه آزاد است و چند هزار نفر قبلاً ثبت‌نام کرده‌اند. کنتز یکی از آنهاست، اگرچه او ناامید است که این وقفه از هوش مصنوعی با تعطیلات همزمان شده است: او به استفاده از چت‌جی‌پی‌تی برای کمک به خرید کریسمس خود عادت کرده است.