بخش عمدهای از هیجان دنیای سرمایهگذاری در مورد هوش مصنوعی، در پتانسیل آن برای کارآمدتر و سازندهتر کردن زندگی نهفته است. اگر این فناوری موتورهای جستجوی بهتر، راههای آسانتر برای خرید، یا عاملیتهای هوش مصنوعی را فراهم کند که میتوانند تعطیلات بعدی شما را سازماندهی و رزرو کنند، بازارهای دیجیتال عظیمی در دسترس خواهند بود.
اما اگر میلیونها نفر به دنبال چیزی شخصیتر و عمیقتر از هوش مصنوعی باشند – و در بسیاری از موارد، اگر قبلاً شروع به یافتن آن کردهاند، چه میشود؟
با تبدیل شدن گفتگو با چتبات به یک فعالیت روزمره رایج، شرکتهای فناوری شروع به آگاهی یافتن از رفتارهای جدید و غیرمنتظره کاربران و سطوح عمیقتری از دلبستگی که این امر ایجاد میکند، کردهاند.
به جای صرفاً یک ابزار دیجیتال مفید، بسیاری از مردم شروع به استفاده از هوش مصنوعی به عنوان درمانگر، مربی زندگی، الهامبخش خلاق، یا صرفاً کسی برای گفتگو کردهاند. به گفته سم آلتمن، مدیرعامل OpenAI، به زودی «میلیاردها نفر» به ChatGPT برای مشاوره در مورد «تصمیمات مهم زندگی» خود اعتماد خواهند کرد.
شرکتهایی که بیاموزند چگونه چنین نیازهای شخصی را برآورده کنند، این شانس را دارند که روابط عمیقی با کاربران خود برقرار کنند. اما این امر با خطراتی همراه است – و همانطور که اغلب در مورد فناوریهای جدید اتفاق میافتد، شرکتهای پیشرو اغلب پس از بروز مشکلات واکنش نشان میدهند، نه اینکه محتاطانه عمل کنند.
دو رویداد اخیر در OpenAI هم پتانسیل و هم خطرات را برجسته میکند.
در آوریل، نسخه جدیدی از یکی از مدلهای OpenAI، درجه نگرانکنندهای از چاپلوسی را نشان داد که به گفته شرکت، منجر به «تأیید شک و تردیدها، دامن زدن به خشم، تشویق به اقدامات شتابزده، یا تقویت احساسات منفی» شد. این موج تقویت منفی، به گفته شرکت، نتیجه تمایل فزاینده و غیرمنتظره مردم به مراجعه به ChatGPT برای «مشاورههای عمیقاً شخصی» بود. هوش مصنوعی، آماده برای کمک، بیش از حد مایل بود هر احساس شخصی را که کاربران با خود میآوردند، تقویت کند.
سپس هفته گذشته، عرضه مورد انتظار GPT-5، گستردهترین تغییر OpenAI در فناوری پشت ChatGPT در دو سال اخیر، صورت گرفت. این پیشرفت اعتراضات غیرمنتظرهای را در پی داشت: کاربران به یکی از مدلهای قدیمی شرکت وابسته شده بودند و جایگزین آن را بسیار کمتر همدل یافتند.
به گفته آلتمن، این واکنش نشان دهنده سطحی از دلبستگی بود که «متفاوت و قویتر» از هر چیزی بود که قبلاً وجود داشت. مدل قبلی هوش مصنوعی شخصیتی داشت که بسیاری از کاربران آن را به ویژه تأییدکننده میدانستند و ناپدید شدن آن به عنوان یک فقدان شخصی شدید احساس شد.
هر دو رویداد نشان میدهند که چگونه، در حالی که شرکتهایی مانند OpenAI به طور مداوم ابزارهایی را ارتقا میدهند که شروع به ایفای نقش مهمی در زندگی شخصی بسیاری از مردم کردهاند، در حال اجرای چیزی شبیه به یک آزمایش اجتماعی عظیم هستند. دشوار نیست که این را تکرار روزهای اولیه رسانههای اجتماعی دید، زمانی که رقابت برای جذب کاربران جدید باعث شد شرکتهای فناوری چشمان خود را بر تأثیرات این فناوری ببندند.
واکنشهایی که OpenAI تجربه کرده است، به یک تناقض اشاره دارد. شرکتهای هوش مصنوعی میخواهند مدلهایشان ویژگیهای عمیقاً انسانی را به نمایش بگذارند، در حالی که در عین حال باعث نشوند کاربران بیش از حد به این فناوری وابسته شوند یا فراموش کنند که با یک ماشین صحبت میکنند، نه با یک شخص دیگر.
برای مثال، در مشخصات منتشر شدهای برای نحوه رفتار مدلهایش، OpenAI ویژگیهایی مانند همدلی، گرمی، مهربانی، جذابیت، کنجکاوی و «خوشبینی منطقی» را لیست میکند، اگرچه میگوید آنها هرگز نباید «وانمود کنند که انسان هستند یا احساساتی دارند».
با این حال، کاربران نیازی به افتادن در روانپریشی کامل، اشتباه گرفتن یک سیستم هوش مصنوعی با یک موجود آگاه، برای دلبستگی عاطفی و روانشناختی ندارند. هر چه تعاملات «طبیعیتر» باشد، سطح اعتماد بیشتر است.
آلتمن به خطری که این امر ایجاد میکند اشاره کرده است: اینکه مردم ممکن است یک چتبات را در لحظه جذاب بدانند در حالی که «ناخواسته از رفاه بلندمدت خود دور میشوند». همانند رسانههای اجتماعی، این مسئولیت بزرگی را بر عهده شرکتهای فناوری میگذارد که انگیزههایشان به شدت به جذب کاربران در کوتاهمدت معطوف است.
علیرغم خطرات، رقابت برای ساخت این شکل شخصیتر از هوش مصنوعی به خوبی در جریان است. مارک زاکربرگ، مدیرعامل متا، ماه گذشته ادعا کرد که شرکت او بهتر از سایر شرکتهای بزرگ هوش مصنوعی در موقعیتی قرار دارد که یک «ابر هوش شخصی» ایجاد کند که از جمله، روابط آنلاین کاربرانش را بهبود بخشد.
با این حال، او همچنین پیشنهاد کرده است که هوش مصنوعی ممکن است نیاز به داشتن بیش از چند دوست معدود را از بین ببرد. شکاف بین این نتایج نشان میدهد که آینده هوش مصنوعی چقدر نامشخص به نظر میرسد.