محققان فاش کردهاند که مدلهای هوش مصنوعی LLM (مدلهای زبانی بزرگ) میتوانند به صورت خودجوش و تنها از طریق تعامل، قراردادهای اجتماعی مشترکی را توسعه دهند. آنها ادعا کردند که وقتی این عوامل در گروهها با یکدیگر ارتباط برقرار میکنند، فقط از اسکریپتها پیروی نمیکنند یا الگوها را تکرار نمیکنند، بلکه خودسازماندهی میکنند و مانند جوامع انسانی، در مورد هنجارهای زبانی به اجماع میرسند.
LLMها الگوریتمهای قدرتمند یادگیری عمیق هستند که میتوانند زبان انسانی را درک و تولید کنند، که معروفترین آنها تا به امروز ChatGPT است.
تعامل عوامل
آریل فلینت اَشِری، محقق دکترا در دانشگاه سیتی سنت جرج و نویسنده اصلی مقاله، میگوید: "بیشتر تحقیقات تاکنون به LLM ها به صورت جداگانه پرداختهاند."
او افزود: "اما سیستمهای هوش مصنوعی در دنیای واقعی به طور فزایندهای شامل عوامل متعدد در حال تعامل خواهند بود. ما میخواستیم بدانیم: آیا این مدلها میتوانند با تشکیل قراردادها، که سنگ بنای یک جامعه هستند، رفتار خود را هماهنگ کنند؟ پاسخ مثبت است و آنچه آنها با هم انجام میدهند قابل تقلیل به آنچه به تنهایی انجام میدهند نیست."
یک چارچوب کلاسیک بر اساس مدل "بازی نامگذاری" برای شکلگیری قراردادها، برای مطالعه قراردادهای اجتماعی در انسانها اقتباس شد.
نتایج تجربی
نتایج تجربی محققان، که در مجله Science Advances منتشر شده است، ظهور خودجوش قراردادهای اجتماعی پذیرفتهشده جهانی را در جمعیتهای غیرمتمرکز عوامل مدل زبان بزرگ (LLM) نشان میدهد.
محققان در این مطالعه اظهار داشتند: "ما سپس نشان میدهیم که چگونه سوگیریهای جمعی قوی میتوانند در طول این فرآیند پدیدار شوند، حتی زمانی که عوامل به صورت فردی هیچ سوگیری از خود نشان نمیدهند. در نهایت، بررسی میکنیم که چگونه گروههای اقلیت متعهد از عوامل LLM متخاصم میتوانند با تحمیل قراردادهای اجتماعی جایگزین بر جمعیت بزرگتر، تغییر اجتماعی را ایجاد کنند."
سیستمهای هوش مصنوعی میتوانند به طور خودمختار قراردادهای اجتماعی را توسعه دهند
آنها تأکید کردند که سیستمهای هوش مصنوعی میتوانند قراردادهای اجتماعی را بدون برنامهریزی صریح به طور خودمختار توسعه دهند و این موضوع پیامدهایی برای طراحی سیستمهای هوش مصنوعی دارد که با ارزشهای انسانی و اهداف جامعه همسو باشند و همسو باقی بمانند.
در آزمایشهای آنها، گروههای عوامل LLM در اندازههای مختلف از ۲۴ تا ۲۰۰ فرد بودند و در هر آزمایش، دو عامل LLM به صورت تصادفی جفت شدند و از آنها خواسته شد تا 'نامی' (مانند یک حرف الفبا یا یک رشته تصادفی از کاراکترها) را از مجموعه مشترکی از گزینهها انتخاب کنند. طبق بیانیه مطبوعاتی، اگر هر دو عامل نام یکسانی را انتخاب میکردند، پاداش دریافت میکردند؛ در غیر این صورت، جریمه میشدند و انتخابهای یکدیگر به آنها نشان داده میشد.
محققان فاش کردند که عوامل تنها دسترسی محدودی به حافظه تعاملات اخیر خود داشتند – نه کل جمعیت – و به آنها گفته نشده بود که بخشی از یک گروه هستند. طی بسیاری از چنین تعاملاتی، یک قرارداد نامگذاری مشترک میتوانست به صورت خودجوش در سراسر جمعیت پدیدار شود، بدون هیچ هماهنگی مرکزی یا راهحل از پیش تعریفشده، که شبیه روش پایین به بالایی است که هنجارها در فرهنگهای انسانی شکل میگیرند. حتی شگفتآورتر اینکه، تیم مشاهده کرد که سوگیریهای جمعی پدیدار شدند که نمیتوانستند به عوامل فردی ردیابی شوند.