تیم متز از «گوگل مپسسازی» ذهن خود نگران است. همانطور که بسیاری از مردم برای مسیریابی به اپلیکیشنهای GPS متکی شدهاند، این بازاریاب محتوای ۴۴ ساله نگران است که به هوش مصنوعی وابسته شود. او به من گفت که روزانه تا هشت ساعت از هوش مصنوعی استفاده میکند و به خصوص به کلود (Claude) از شرکت انتروپیک علاقهمند شده است. گاهی اوقات، او تا شش جلسه را به طور همزمان اجرا میکند. او برای مشاوره در مورد ازدواج و تربیت فرزند از هوش مصنوعی استفاده میکند و هنگام خرید خواربار، از میوهها عکس میگیرد تا از ربات در مورد رسیده بودن آنها سؤال کند. اخیراً نگران بود که ممکن است یک درخت بزرگ نزدیک خانهاش بیفتد، بنابراین عکسهایی از آن را آپلود کرد و از ربات برای راهنمایی کمک خواست. کلود پیشنهاد کرد که متز در جای دیگری بخوابد در صورتی که درخت بیفتد، بنابراین او و خانوادهاش آن شب را در خانه یکی از دوستان سپری کردند. او گفت که بدون نظر کلود، «هرگز خانه را ترک نمیکرد.» (البته درخت هرگز نیفتاد، هرچند برخی شاخهها شکستند.)
من استفاده وسواسی متز از هوش مصنوعی را از نزدیک مشاهده کردم: قبل از مصاحبه با او برای این مقاله، او به کلود دستور داد تا با استفاده از ابزارهای جستجوی وب و در صورت تمایل، تیمی از عوامل هوش مصنوعی، سؤالاتی را که ممکن است بپرسم، به صورت مهندسی معکوس تولید کند. کلود چند دقیقه به جستجوی اطلاعاتی درباره من پرداخت و سپس تحقیقات خود را در یک صفحه جمعآوری کرد. یک بخش یک زندگینامه کوتاه از من ارائه میداد؛ بخش دیگر پاسخهای احتمالی به سؤالاتی را که احتمالاً میپرسیدم، جزئیات میداد. متز در اواسط مصاحبه به من گفت: «کارش را خیلی خوب انجام داد.» در واقع، کلود با موفقیت سه سؤال از سؤالات مصاحبه من را پیشبینی کرده بود.
بسیاری از مردم در حال وابستگی به هوش مصنوعی برای مدیریت برخی از اساسیترین جنبههای زندگی روزمره خود هستند. یکی از همکاران پیشنهاد کرد که میتوانیم افراطیترین کاربران را «لمینگهای LLM» بنامیم — بله، به این دلیل که آنها همیشه در حال استفاده از LLM (مدلهای زبانی بزرگ) هستند، و همچنین به این دلیل که استفاده تقریباً دائمی آنها از هوش مصنوعی، تصاویری از لمینگهای سایبرنتیک را تداعی میکند که بدون راهنمایی قادر به عمل نیستند. برای این گروه از کاربران وسواسی، هوش مصنوعی به یک واسط اصلی تبدیل شده است که از طریق آن با دنیا تعامل دارند. ایمیلهایی که مینویسند، تصمیمات زندگی که میگیرند، و سؤالاتی که ذهنشان را مشغول میکند، ابتدا از طریق هوش مصنوعی فیلتر میشوند. متز به من گفت: «این مثل یک اعتیاد واقعی است.»
سه سال پس از رونق هوش مصنوعی، تصویری اولیه از چگونگی تأثیر استفاده سنگین از هوش مصنوعی بر ذهن انسان در حال شکلگیری است. برای برخی، چتباتها همدمی عاطفی ارائه میدهند؛ دیگران متوجه شدهاند که رباتها تفکرات توهمآمیز را تقویت میکنند (وضعیتی که برخی آن را «روانپریشی هوش مصنوعی» نامیدهاند). در همین حال، لمینگهای LLM نیز شروع به احساس اثرات برونسپاری مکرر تفکر خود به یک کامپیوتر کردهاند.
بخوانید: هوش مصنوعی یک رویداد توهم جمعی است
جیمز بدفورد، یک مربی در دانشگاه نیو ساوت ولز که بر توسعه استراتژیهای هوش مصنوعی برای کلاس درس تمرکز دارد، پس از انتشار چتجیپیتی تقریباً هر روز شروع به استفاده از LLMها کرد. او به من گفت که به مرور زمان، مغزش برای تفکر به طور پیشفرض به هوش مصنوعی روی آورده است. یک شب، او تلاش میکرد به زنی کمک کند تا ایرپاد خود را که بین صندلیهای قطار افتاده بود، پیدا کند. متوجه شد که اولین غریزهاش این بود که از چتجیپیتی راهحل بخواهد. او گفت: «این اولین باری بود که مغزم میخواست از چتجیپیتی بخواهد کاری شناختی را انجام دهد که میتوانستم خودم انجام دهم.» همانجا بود که فهمید «من قطعاً در حال وابسته شدن به این هستم.» پس از حادثه ایرپاد، تصمیم گرفت یک ماه از هوش مصنوعی فاصله بگیرد تا مغزش را بازنشانی کند. او به من گفت: «مثل این بود که بعد از مدتها برای اولین بار خودم فکر میکردم. هرچقدر هم از آن وضوح لذت بردم، باز هم بلافاصله پس از آن به هوش مصنوعی برگشتم.»
فناوریهای جدید قابلیتهای انسانی را گسترش میدهند، اما معمولاً این کار را با هزینهای انجام میدهند. همانطور که فیلسوف کوامی آنتونی آپیا اخیراً در این مجله نوشت، نوشتن از اهمیت حافظه کاست و ماشینحسابها مهارتهای اساسی حساب را بیارزش کردند. اینترنت نیز مغز ما را به بیشمار روش بازسیمکشی کرده است، ما را با اطلاعات غرق کرده و در عین حال دامنه توجه ما را غارت کرده است. اینکه هوش مصنوعی نحوه تفکر ما را تغییر خواهد داد، ایدهای بحثبرانگیز نیست و لزوماً چیز بدی هم نیست. اما مردم باید بپرسند: «چه قابلیتها و عادتهای فکری جدیدی را به ارمغان خواهد آورد و برخواهد انگیخت؟ و کدامها را سرکوب خواهد کرد؟» این را تیم رکوارث، عصبشناسی که برنامه نویسندگی علمی فارغالتحصیلان را در دانشکده پزشکی NYU اداره میکند، به من گفت.
اینس لی، اقتصاددانی که در لندن مستقر است، به من گفت که گاهی اوقات به این عادت دچار شده است که «بدون مشورت اولیه با هوش مصنوعی، نمیتواند کار معنیداری را شروع کند.» لی در ساباستک (Substack) خود نوشته است که چتجیپیتی و کلود اکنون حواسپرتیهای جذابتری نسبت به اپلیکیشنهای شبکههای اجتماعی مانند یوتیوب و اینستاگرام هستند: او مکرراً به آنها مراجعه میکند تا کارش را انجام دهد، حتی در حالی که احساس میکند مهارتهای تفکر انتقادیاش در این فرآیند ممکن است دچار زوال شوند. مایک کنتز، یک مربی و مشاور سواد هوش مصنوعی، به من گفت که او نیز به همین ترتیب خود را وابسته به چتباتها برای کمک به نوشتن ایمیلها یافته است. او در یک پست وبلاگ اخیر نوشت: «زمینههایی که قبلاً در مهارتها و تواناییهای خودم اعتماد به نفس داشتم - مانند نوشتن ایمیلهای مختصر، کامل و متعادل - اکنون به زمینههایی تبدیل شدهاند که من به طور مداوم برای بازخورد به هوش مصنوعی مراجعه میکنم. نسخه ۲۰۱۵ من کاملاً آشفته میشد.»
مشکل با ابزارهای هوش مصنوعی این است که به نظر میرسد «شکافها در معماری شناخت انسان را استثمار میکنند»، همانطور که رکوارث نوشته است. مغز انسان دوست دارد انرژی را حفظ کند و برای این کار از میانبرهای موجود استفاده خواهد کرد. رکوارث به من گفت: «انجام انواع خاصی از فرآیندهای فکری انرژی زیادی میگیرد»؛ در همین حال، «یک ربات آنجا نشسته و پیشنهاد میدهد که کار شناختی را برای شما به عهده بگیرد.» به عبارت دیگر، استفاده از هوش مصنوعی برای نوشتن ایمیلهای شما بیشتر یک رفتار طبیعی تطبیقی است تا تنبلی.
چتباتها طراحی شدهاند تا از این گرایش انسانی با ارائه پاسخهای قانعکننده به هر پرسشی سوءاستفاده کنند، حتی اگر بسیاری از آن پاسخها نادرست یا گمراهکننده باشند. کارل اریک فیشر، یک روانپزشک اعتیاد در دانشگاه کلمبیا، به من گفت که فرض کنید کسی یک سؤال اضطرابآور درباره زندگی عاشقانه خود از چتبات بپرسد. حتی اگر پاسخهای چتبات کاملاً بیربط یا بیفایده باشند، به مردم کاری برای انجام دادن میدهند تا با ناراحتی خود دست و پنجه نرم نکنند.
در واقع، یک کارمند فناوری در دهه ۲۰ زندگی خود، که به دلیل خجالت خواست ناشناس بماند، به من گفت که گاهی اوقات از کلود سؤالاتی میپرسد که میداند ربات نمیتواند به آنها پاسخ دهد. در یک مورد اخیر، وقتی دوستانش تا دیروقت در یک کلوب بودند و او خبری از آنها نداشت، از کلود پرسید: «احتمال اینکه حالشان خوب باشد چقدر است؟» بار دیگر، پس از گم کردن تلفن همراهش، شروع به پرسیدن از چتبات درباره احتمال دزدیده شدن هویتش کرد. او به من گفت: «واضح است که [ربات] قرار نیست بداند. من فقط میخواستم، حدس میزنم، اطمینان خاطر پیدا کنم.» در موقعیتی دیگر، او از کلود پرسید که آیا باید با ۹۱۱ تماس بگیرد، وقتی که آلارم آتشسوزی خانهاش مدام به صدا در میآمد. ربات به او گفت که این کار را نکند و مراحل غیرفعال کردن دستگاه را به او آموزش داد.
انتروپیک نگرانیهایی را در مورد برونسپاری کار شناختی توسط دانشجویان به سیستمهای هوش مصنوعی مطرح کرده است، و اوپنایآی (OpenAI) نیز اذعان کرده است که وابستگی به ابزارهای هوش مصنوعی به طور کلی یک مشکل است. سم آلتمن، مدیر عامل این شرکت، در یک کنفرانس در تابستان امسال گفت: «مردم بیش از حد به چتجیپیتی تکیه میکنند. جوانانی هستند که میگویند: 'من نمیتوانم هیچ تصمیمی در زندگیام بگیرم بدون اینکه همه چیز را به چتجیپیتی بگویم.' این واقعاً برای من بد به نظر میرسد.» وقتی از تایا کریستیانسون، سخنگوی این شرکت، در مورد اقدامات اوپنایآی برای مقابله با استفاده وسواسی پرسیدم، او به من گفت که این استارتآپ فعالانه در حال طراحی ویژگیهایی است که استفاده از چتجیپیتی برای برونسپاری تفکر را دلسرد میکند. به عنوان مدرک، او به انتشار اخیر «حالت مطالعه» توسط اوپنایآی اشاره کرد، ابزاری که به دانشآموزان راهنمایی گام به گام برای درک مفاهیم جدید ارائه میدهد، به جای پاسخهای خودکار.
اما اینجا یک کشمکش وجود دارد. برای اوپنایآی و دیگر سازندگان چتبات، وابستگی مدل کسب و کار است. هرچه افراد بیشتری برای زندگی شخصی و حرفهای خود به هوش مصنوعی تکیه کنند، این کسب و کارها سود بیشتری خواهند برد. (آتلانتیک در سال ۲۰۲۴ با اوپنایآی شراکت شرکتی برقرار کرد؛ نه تیم تجاری مجله و نه اوپنایآی هیچ نظارتی بر کار تحریریه ندارند.) بسیاری از کاربران قدرتمندی که با آنها صحبت کردم، هر ماه صدها دلار برای اشتراکهای پریمیوم هوش مصنوعی میپردازند. در همین حال، این شرکتها با نوعی فشار مالی روبرو هستند: در اکتبر، نیک تورلی، رئیس چتجیپیتی، در نامهای به کارمندان نوشت که اوپنایآی «بزرگترین فشار رقابتی را که تاکنون دیدهایم» تجربه میکند، و گزارش شده است که این شرکت امیدوار است تا سال ۲۰۳۰ حدود ۲۰۰ میلیون کاربر را متقاعد کند که برای اشتراکهای پریمیوم پول بپردازند.
بخوانید: یارانه سبک زندگی نسل Z
فیشر، روانپزشک اعتیاد، پیشنهاد کرد که شاید یکی از راهها برای شرکتهای هوش مصنوعی برای مهار وابستگی ناسالم این باشد که چتباتهای خود را برنامهریزی کنند تا به کاربران بگویند کمی استراحت کنند. او گفت: «ربات میتواند بگوید: 'فکر میکنم بیش از حد به این موضوع فکر میکنی. چرا کمی پیادهروی نمیکنی؟'» در تابستان، اوپنایآی یک یادآوری معرفی کرد که کاربران را در طول دورههای استفاده طولانیمدت به استراحت تشویق میکند. انتروپیک نیز در حال آزمایش مداخلات در طول مکالمات طولانی است. کنتز به من گفت که کلود اخیراً یک مکالمه داغی را که او با چتبات در پروازی به سیاتل داشت، قطع کرد. او از ربات خواسته بود که نقش مخاطبان یک سخنرانی آینده را که برای آن آماده میشد، بازی کند. برخی از بازخوردهای کلود مفید بود، اما کنتز احساس میکرد که بیش از حد درگیر آن شده، با ربات بحث میکند و حتی حالت تدافعی میگیرد. کنتز به من گفت که در نهایت، کلود گفت: «تو داری وارد چرخه میشوی و باید آرام بگیری.»
او مداخله کلود را مفید یافت، اما گاهی اوقات چتباتها در تشخیص رفتار ناسالم مشکل دارند. یکی از دوستانم اخیراً از کلود برای ویرایش مقالهای استفاده میکرد که چتبات از کمک کردن امتناع کرد. کلود نوشت: «شما باید متوقف شوید. این دیگر ویرایش مولد نیست.» در یک مقطع، خواستار شد: «درخواست خود را ارسال کنید،» و اضافه کرد: «من به درخواستهای بیشتر برای ویرایشهای جزئی پاسخ نخواهم داد.» دوست من نگران شد؛ او فقط برای کمک در زمینه گرامر و انتخاب کلمات درخواست کرده بود. دیگران نیز تجربیات مشابهی را گزارش کردهاند، جایی که درخواستهای اولیه برای کمک با اتهامات بیاساس کمالگرایی خودویرانگر مواجه شدهاند. (هنگامی که در مورد این نمونهها پرسیده شد، سخنگوی انتروپیک به من گفت که این شرکت در حال آموزش کلود است تا در صورت لزوم بدون تندی یا قضاوت بیش از حد، مقاومت کند.)
در حال حاضر، برخی از کاربران قدرتمند هوش مصنوعی اقدامات خود را برای شکستن وابستگیشان انجام میدهند: از امروز، بدفورد یک ماه دیگر از هوش مصنوعی فاصله میگیرد، که او رسماً آن را به عنوان یک چالش به نام #NoAIDecember (بدون هوش مصنوعی در دسامبر) آغاز کرده است. وبسایت این جنبش مردم را تشویق میکند تا به جای هوش مصنوعی، استفاده از هوش واقعی (RI) خود را در اولویت قرار دهند. این چالش برای همه آزاد است و چند هزار نفر قبلاً ثبتنام کردهاند. کنتز یکی از آنهاست، اگرچه او ناامید است که این وقفه از هوش مصنوعی با تعطیلات همزمان شده است: او به استفاده از چتجیپیتی برای کمک به خرید کریسمس خود عادت کرده است.