استفانی آرنت/MIT Technology Review | مالکیت عمومی، Adobe Stock، Getty Images
استفانی آرنت/MIT Technology Review | مالکیت عمومی، Adobe Stock، Getty Images

چگونه AGI به مهم‌ترین تئوری توطئه زمان ما تبدیل شد

ایده‌ای که ماشین‌ها به اندازه انسان‌ها یا باهوش‌تر از آن‌ها خواهند بود، یک صنعت کامل را تحت تاثیر خود قرار داده است. اما با دقت نگاه کنید و خواهید دید که این یک افسانه است که به بسیاری از دلایلی که تئوری‌های توطئه باقی می‌مانند، ادامه دارد.

آیا شما هم آن را احساس می‌کنید؟

من می‌شنوم که نزدیک است: دو سال، پنج سال – شاید سال آینده! و می‌شنوم که قرار است همه‌چیز را تغییر دهد: بیماری‌ها را درمان می‌کند، سیاره را نجات می‌دهد و عصر فراوانی را به ارمغان می‌آورد. بزرگ‌ترین مشکلات ما را به روش‌هایی که هنوز نمی‌توانیم تصور کنیم، حل خواهد کرد. این اتفاق، معنای انسان بودن را بازتعریف خواهد کرد.

صبر کنید – اگر همه این‌ها برای حقیقت بیش از حد خوب باشند چه؟ زیرا من همچنین می‌شنوم که آخرالزمان را به ارمغان می‌آورد و همه ما را خواهد کشت...

در هر صورت و با هر بازه زمانی که در نظر بگیرید، اتفاق بزرگی در راه است.

ممکن است در مورد ظهور دوباره مسیح صحبت کنیم. یا روزی که پیروان فرقه Heaven’s Gate تصور می‌کردند توسط یک بشقاب پرنده انتخاب شده و به موجودات فضایی روشنگر تبدیل خواهند شد. یا لحظه‌ای که دونالد ترامپ سرانجام تصمیم می‌گیرد طوفانی را که Q وعده داده بود، محقق کند. اما نه. البته ما در مورد هوش مصنوعی عمومی (AGI) صحبت می‌کنیم – آن فناوری فرضی نزدیک به آینده که (به قول من) قادر خواهد بود تقریباً هر کاری که مغز انسان می‌تواند انجام دهد، انجام دهد.


این داستان بخشی از مجموعه «عصر جدید تئوری توطئه» نشریه MIT Technology Review است که به بررسی چگونگی شکل‌گیری علم و فناوری توسط رونق کنونی تئوری‌های توطئه می‌پردازد.


برای بسیاری، AGI چیزی فراتر از یک فناوری است. در قطب‌های فناوری مانند سیلیکون ولی، از آن به اصطلاحات عرفانی صحبت می‌شود. گفته می‌شود ایلیا سوتسکور، بنیانگذار و دانشمند ارشد سابق OpenAI، در جلسات تیمی شعار «AGI را احساس کنید!» را رهبری می‌کرده است. و او بیشتر از هرکس دیگری آن را احساس می‌کند: در سال ۲۰۲۴، او OpenAI را که ماموریت اعلام شده‌اش تضمین بهره‌مندی کل بشریت از AGI است، ترک کرد تا Safe Superintelligence را تاسیس کند؛ یک استارتاپ که به یافتن راه‌حل برای جلوگیری از یک AGI به اصطلاح سرکش (یا کنترل آن در صورت ظهور) اختصاص دارد. فرا‌هوش (Superintelligence) طعم جدید و داغی است – AGI، اما بهتر! – که با رایج شدن صحبت از AGI معرفی شده است.

سوتسکور همچنین نمونه‌ای از انگیزه‌های در هم تنیده در میان بسیاری از مبلغان خودخوانده AGI است. او دوران حرفه‌ای خود را صرف ایجاد پایه‌های یک فناوری آینده کرده است که اکنون آن را وحشتناک می‌داند. او چند ماه قبل از ترک OpenAI به من گفت: «این اتفاق عظیم، دگرگون‌کننده جهان خواهد بود – یک قبل و یک بعد خواهد داشت.» وقتی از او پرسیدم چرا تلاش‌های خود را به مهار آن فناوری تغییر داده است، گفت: «من این کار را برای منافع شخصی خود انجام می‌دهم. واضح است که مهم است هر فرا‌هوشی که کسی می‌سازد، سرکش نشود. واضح است.»

او در تفکر بزرگ و حتی آخرالزمانی خود تنها نیست.

هر عصری باورمندان خود را دارد، افرادی با ایمانی تزلزل‌ناپذیر که چیزی بزرگ در شرف وقوع است – یک «قبل» و یک «بعد» که آن‌ها افتخار (یا محکومیت) تجربه آن را دارند.

برای ما، این وعده ظهور AGI است. شنون والور، که اخلاق فناوری را در دانشگاه ادینبورگ مطالعه می‌کند، می‌گوید مردم به شنیدن اینکه این یا آن چیز بعدی بزرگ است، عادت کرده‌اند. او می‌گوید: «قبلاً عصر کامپیوتر بود و سپس عصر اینترنت و حالا عصر هوش مصنوعی. طبیعی است که چیزی به شما ارائه شود و به شما بگویند که این چیز، آینده است. تفاوت البته در این است که برخلاف کامپیوترها و اینترنت، AGI وجود ندارد.»

و به همین دلیل است که «احساس AGI» با «ترویج چیز بزرگ بعدی» یکسان نیست. اتفاق عجیب‌تری در جریان است. نظر من این است: AGI بسیار شبیه یک تئوری توطئه است و ممکن است مهم‌ترین تئوری توطئه زمان ما باشد.

من بیش از یک دهه است که در مورد هوش مصنوعی گزارش می‌دهم و شاهد بوده‌ام که ایده AGI از حواشی به روایت غالب شکل‌دهنده یک صنعت کامل تبدیل شده است. یک رویای روزمره، اکنون خطوط سود برخی از باارزش‌ترین شرکت‌های جهان و بنابراین، می‌توان گفت، بازار سهام ایالات متحده را پشتیبانی می‌کند. این ایده، پیش‌پرداخت‌های سرسام‌آور برای نیروگاه‌ها و مراکز داده جدید را که به ما گفته می‌شود برای تحقق این رویا لازم است، توجیه می‌کند. شرکت‌های هوش مصنوعی، که بر این فناوری فرضی متمرکز شده‌اند، به شدت به ما می‌فروشند.

فقط به آنچه رؤسای برخی از آن شرکت‌ها به ما می‌گوینند گوش دهید. AGI به اندازه یک «کشور نابغه‌ها» هوشمند خواهد بود (داریو آمودی، مدیرعامل Anthropic)؛ این اتفاق «عصری از حداکثر شکوفایی انسانی را آغاز می‌کند، جایی که ما به ستاره‌ها سفر می‌کنیم و کهکشان را مستعمره می‌سازیم» (دیمیس هاسابیس، مدیرعامل Google DeepMind)؛ این اتفاق «فراوانی و رفاه را به شدت افزایش می‌دهد»، حتی مردم را تشویق می‌کند تا بیشتر از زندگی لذت ببرند و فرزندان بیشتری داشته باشند (سم آلتمن، مدیرعامل OpenAI). این یک محصول عالی است.

یا نه. البته نیمه تاریک ماجرا را فراموش نکنید. وقتی این افراد در حال تبلیغ آرمان‌شهر نیستند، ما را از جهنم نجات می‌دهند. در سال ۲۰۲۳، آمودی، هاسابیس و آلتمن همگی بیانیه ۲۲ کلمه‌ای را امضا کردند که می‌گفت: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات در مقیاس جامعه مانند همه‌گیری‌ها و جنگ هسته‌ای، یک اولویت جهانی باشد.» ایلان ماسک می‌گوید هوش مصنوعی ۲۰% شانس نابودی انسان‌ها را دارد.

کاتیا گریس، محقق ارشد در AI Impacts، سازمانی که از محققان هوش مصنوعی در مورد حوزه کاری‌شان نظرسنجی می‌کند، می‌گوید: «اخیراً متوجه شده‌ام که فرا‌هوش، که فکر می‌کردم مفهومی است که قطعاً نباید در ملاء عام به آن اشاره کرد اگر می‌خواهید جدی گرفته شوید، توسط مدیران عامل فناوری مطرح می‌شود که ظاهراً قصد ساخت آن را دارند. فکر می‌کنم آسان است که احساس کنیم این خوب است. آن‌ها همچنین می‌گویند که ما را خواهد کشت، اما هنگام گفتن آن می‌خندند.»

باید اعتراف کنید که همه این‌ها کمی شبیه توهم توطئه است. اگر در حال ساخت یک تئوری توطئه هستید، به چند چیز در این ترکیب نیاز دارید: یک طرح که به اندازه کافی انعطاف‌پذیر باشد تا حتی زمانی که اوضاع طبق برنامه پیش نمی‌رود، باور را حفظ کند؛ وعده آینده‌ای بهتر که فقط در صورتی محقق می‌شود که باورمندان حقایق پنهان را کشف کنند؛ و امیدی به رستگاری از وحشت‌های این جهان.

AGI تقریباً همه این موارد را دارد. هرچه بیشتر این ایده را بررسی کنید، بیشتر شبیه یک توطئه به نظر می‌رسد. البته دقیقاً اینگونه نیست. و من این شباهت را برای نادیده گرفتن نتایج بسیار واقعی و اغلب شگفت‌انگیز که توسط بسیاری از افراد در این زمینه، از جمله (یا به ویژه) باورمندان AGI به دست آمده، ترسیم نمی‌کنم.

اما با تمرکز بر شباهت‌های AGI با توطئه‌های واقعی، فکر می‌کنم می‌توانیم کل مفهوم را بهتر روشن کنیم و آن را برای آنچه هست آشکار سازیم: یک رویای تب‌آلود فن‌گرایانه آرمان‌شهری (یا فن‌گرایانه پادآرمان‌شهری – انتخاب با شماست) که ریشه‌های عمیقی در برخی باورهای دیرینه دارد و رها شدن از آن را دشوار کرده است.

این فقط یک آزمایش فکری تحریک‌آمیز نیست. مهم است که آنچه در مورد AGI به ما گفته می‌شود را زیر سوال ببریم، زیرا پذیرش این ایده بی‌ضرر نیست. در حال حاضر، AGI مهم‌ترین روایت در فناوری – و تا حدی، در اقتصاد جهانی – است. ما نمی‌توانیم آنچه در هوش مصنوعی می‌گذرد را بدون درک اینکه ایده AGI از کجا آمده، چرا اینقدر جذاب است و چگونه شیوه تفکر ما را در مورد فناوری به طور کلی شکل می‌دهد، درک کنیم.

می‌دانم، می‌دانم – نامیدن AGI به عنوان توطئه، یک تشبیه کامل نیست. بسیاری از مردم را نیز عصبانی خواهد کرد. اما با من وارد این هزارتو شوید و اجازه دهید نور را به شما نشان دهم.

چگونه سیلیکون ولی به دام AGI افتاد

یک تئوری توطئه معمولی معمولاً از حواشی آغاز می‌شود. شاید فقط چند نفر در یک تابلوی پیام، «شواهد» جمع‌آوری می‌کنند. شاید چند نفر در بیابان با دوربین‌های دوچشمی منتظر دیدن چراغ‌های روشن در آسمان هستند. اما برخی از تئوری‌های توطئه، اگر بخواهید، خوش‌شانس می‌شوند: شروع به گسترش بیشتری می‌کنند؛ کمی قابل قبول‌تر می‌شوند؛ شروع به تأثیرگذاری بر افراد قدرتمند می‌کنند. شاید این بشقاب‌پرنده‌ها (اوه، ببخشید، «پدیده‌های هوایی ناشناس») هستند که اکنون به طور رسمی و آشکار در جلسات دولتی مورد بحث قرار می‌گیرند. شاید این شک و تردید در مورد واکسن (بله، یک مثال بسیار خطرناک‌تر) است که به سیاست رسمی تبدیل می‌شود. و نمی‌توان نادیده گرفت که هوش مصنوعی عمومی مسیری بسیار مشابه با همتایان آشکارتر توطئه‌گرانه خود را دنبال کرده است.

بیایید به سال ۲۰۰۷ بازگردیم، زمانی که هوش مصنوعی جذاب و باکلاس نبود. شرکت‌هایی مانند آمازون و نتفلیکس (که هنوز دی‌وی‌دی‌ها را از طریق پست ارسال می‌کرد) از مدل‌های یادگیری ماشین، اجداد اولیه LLMهای غول‌پیکر امروزی، برای توصیه فیلم‌ها و کتاب‌ها به مشتریان استفاده می‌کردند. اما تقریباً همین بود.

بن گورتزل برنامه‌های بسیار بزرگتری داشت. حدود یک دهه پیش، این محقق هوش مصنوعی یک شرکت دات‌کام به نام Webmind را راه‌اندازی کرده بود تا آنچه را که او نوعی مغز دیجیتالی نوزاد می‌دانست، روی اینترنت اولیه آموزش دهد. Webmind که فرزندی نداشت، به زودی ورشکست شد.

اما گورتزل چهره‌ای تأثیرگذار در جامعه حاشیه‌ای از محققان بود که سال‌ها رویای ساخت هوش مصنوعی انسان‌مانند را در سر می‌پروراندند، یک برنامه کامپیوتری همه‌منظوره که می‌توانست بسیاری از کارهایی را که انسان‌ها می‌توانند انجام دهند (و بهتر از آن‌ها) انجام دهد. این چشم‌اندازی بود که فراتر از نوع فناوری بود که نتفلیکس با آن آزمایش می‌کرد.

گورتزل می‌خواست کتابی در ترویج آن چشم‌انداز منتشر کند و به نامی نیاز داشت که آن را از هوش مصنوعی معمولی آن زمان متمایز کند. یک کارمند سابق Webmind به نام شین لگ «هوش مصنوعی عمومی» (Artificial General Intelligence) را پیشنهاد کرد. این نام جذابیت خاصی داشت.

چند سال بعد، لگ با دیمیس هاسابیس و مصطفی سلیمان شرکت دیپ‌مایند (DeepMind) را تاسیس کرد. اما برای اکثر محققان جدی آن زمان، این ادعا که هوش مصنوعی روزی توانایی‌های انسانی را تقلید خواهد کرد، کمی شوخی بود. سوتسکور به من گفت: AGI قبلاً یک کلمه ناپسند بود. اندرو اِن‌جی، بنیانگذار Google Brain و دانشمند ارشد سابق در غول فناوری چینی Baidu، به من گفت که فکر می‌کرد این ایده دیوانه‌وار است.

پس چه شد؟ ماه گذشته با گورتزل ملاقات کردم تا بپرسم چگونه یک ایده حاشیه‌ای از احمقانه به رایج تبدیل شد. او گفت: «من به نوعی یک متخصص سیستم‌های پیچیده و آشفته هستم، بنابراین تخمین پایینی از اینکه واقعاً پویایی غیرخطی در فضای میم‌ها چه بوده است، دارم.» (ترجمه: پیچیده است).

گورتزل حدس می‌زند که چند چیز این ایده را به جریان اصلی آورد. اولین مورد کنفرانس هوش مصنوعی عمومی است، یک نشست سالانه محققان که او در سال ۲۰۰۸، یک سال پس از انتشار کتابش، به راه‌اندازی آن کمک کرد. این کنفرانس اغلب با گردهمایی‌های دانشگاهی اصلی مانند کنفرانس انجمن پیشرفت هوش مصنوعی و کنفرانس مشترک بین‌المللی هوش مصنوعی هماهنگ می‌شد. گورتزل می‌گوید: «اگر من فقط کتابی با نام AGI منتشر می‌کردم، ممکن بود به سرعت فراموش شود. اما کنفرانس هر سال با تعداد فزاینده‌ای از دانشجویان برگزار می‌شد.»

مورد بعدی لگ است که این اصطلاح را با خود به دیپ‌مایند برد. گورتزل می‌گوید: «فکر می‌کنم آنها اولین نهاد شرکتی جریان اصلی بودند که درباره AGI صحبت کردند. این موضوع اصلی نبود که آنها روی آن تاکید می‌کردند، اما شین و دیمیس هر از گاهی درباره آن صحبت می‌کردند. این قطعاً منبع مشروعیت‌بخشی بود.»

زمانی که برای اولین بار پنج سال پیش با لگ در مورد AGI صحبت کردم، او گفت: «صحبت کردن در مورد AGI در اوایل دهه ۲۰۰۰ شما را در حاشیه دیوانگان قرار می‌داد... حتی زمانی که ما دیپ‌مایند را در سال ۲۰۱۰ شروع کردیم، در کنفرانس‌ها با حجم شگفت‌آوری از تمسخر روبرو شدیم.» اما تا سال ۲۰۲۰ اوضاع تغییر کرده بود. او به من گفت: «برخی افراد با آن راحت نیستند، اما در حال بیرون آمدن از گمنامی است.»

سومین چیزی که گورتزل به آن اشاره می‌کند، همپوشانی بین مبلغان اولیه AGI و بازیگران قدرتمند فناوری بزرگ است. در سال‌های بین تعطیلی Webmind و انتشار کتاب AGI، گورتزل با پیتر تیل در صندوق پوشش ریسک تیل، Clarium Capital، همکاری‌هایی داشت. گورتزل می‌گوید: «ما زیاد با هم صحبت می‌کردیم.» او به یاد می‌آورد که یک روز را با تیل در فور سیزنز در سانفرانسیسکو گذرانده است. گورتزل می‌گوید: «من سعی می‌کردم AGI را به مغز او فرو کنم. اما بعد او از الیزر هم می‌شنید که AGI قرار است همه را بکشد.»

تصویری از یک چشم با پرتوهایی که از آن ساطع می‌شوند، نشان‌دهنده تمرکز شدید یا قدرت است.
استفانی آرنت/MIT Technology Review | مالکیت عمومی

ظهور "موج‌های آخرالزمانی"

آن الیزر یودکوفسکی، چهره تأثیرگذار دیگری است که حداقل به اندازه گورتزل، و شاید بیشتر، برای ترویج ایده AGI تلاش کرده است. اما برخلاف گورتزل، یودکوفسکی معتقد است که شانس بسیار بالایی – او عددی ۹۹.۵% را مطرح می‌کند – وجود دارد که توسعه AGI یک فاجعه باشد.

در سال ۲۰۰۰، یودکوفسکی یک سازمان تحقیقاتی غیرانتفاعی به نام مؤسسه تکینگی برای هوش مصنوعی (که بعدها به مؤسسه تحقیقات هوش ماشینی تغییر نام یافت) را تأسیس کرد که به سرعت خود را وقف جلوگیری از سناریوهای آخرالزمانی کرد. تیل از حامیان اولیه این مؤسسه بود.

در ابتدا، ایده‌های یودکوفسکی چندان مورد توجه قرار نگرفت. به یاد بیاورید که در آن زمان، ایده هوش مصنوعی همه‌توان – چه رسد به هوش مصنوعی خطرناک – صرفاً علمی-تخیلی بود. اما در سال ۲۰۱۴، نیک باستروم، فیلسوف دانشگاه آکسفورد، کتابی با عنوان "Superintelligence" (فرا‌هوش) منتشر کرد.

گورتزل می‌گوید: «این کتاب موضوع AGI را مطرح کرد. منظورم این است که بیل گیتس، ایلان ماسک – بسیاری از افراد فعال در صنعت فناوری و هوش مصنوعی – آن کتاب را خواندند، و چه با دیدگاه آخرالزمانی او موافق بودند یا نه، نیک مفاهیم الیزر را به شکلی بسیار قابل قبول ارائه کرد.»

گورتزل می‌افزاید: «همه اینها به AGI مهر تأیید زد. به جای اینکه صرفاً حرف‌های دیوانه‌وار از سوی افراد عجیب و غریب باشد.»

یودکوفسکی ۲۵ سال است که بر طبل همین عقاید می‌کوبد؛ بسیاری از مهندسان شرکت‌های برتر هوش مصنوعی امروزی با خواندن و بحث درباره دیدگاه‌های او به صورت آنلاین، به ویژه در LessWrong، یک مرکز محبوب برای جامعه پرشور عقل‌گرایان و نوع‌دوستان موثر در صنعت فناوری، بزرگ شده‌اند.

امروزه، این دیدگاه‌ها بیش از هر زمان دیگری محبوب هستند و تخیل نسل جوان‌تری از معتقدان به آخرالزمان مانند دیوید کروگر، محقق دانشگاه مونترال که قبلاً مدیر تحقیقات مؤسسه امنیت هوش مصنوعی بریتانیا بود، را به خود جلب کرده‌اند. کروگر به من می‌گوید: «فکر می‌کنم ما قطعاً در مسیر ساخت سیستم‌های هوش مصنوعی فراانسانی هستیم که همه را خواهند کشت. و فکر می‌کنم این وحشتناک است و باید فوراً متوقف شویم.»

یودکوفسکی مورد توجه نشریاتی مانند نیویورک تایمز قرار می‌گیرد که او را «نسخه سیلیکون ولی از یک واعظ آخرالزمانی» معرفی می‌کند. کتاب جدید او، "If Anyone Builds It, Everyone Dies" (اگر کسی آن را بسازد، همه می‌میرند)، که با نِیت سوارز، رئیس مؤسسه تحقیقات هوش ماشینی، نوشته شده است، ادعاهای گزافی را، با شواهد اندک، مطرح می‌کند که مگر اینکه توسعه را متوقف کنیم، AGI آینده نزدیک به آرماگدون جهانی منجر خواهد شد. موضع این دو افراطی است: آنها استدلال می‌کنند که ممنوعیت بین‌المللی باید به هر قیمتی، حتی تا حد تلافی هسته‌ای، اجرا شود. به هر حال، یودکوفسکی و سوارز می‌نویسند: «مراکز داده می‌توانند افراد بیشتری را نسبت به سلاح‌های هسته‌ای بکشند.»

این مطالب دیگر جزو مباحث حاشیه‌ای نیست. این کتاب از پرفروش‌ترین‌های نیویورک تایمز است و با تأییداتی از کارشناسان امنیت ملی مانند سوزان اسپالدینگ، مقام سابق وزارت امنیت داخلی آمریکا، و فیونا هیل، مدیر ارشد سابق شورای امنیت ملی کاخ سفید که اکنون مشاور دولت بریتانیا است؛ دانشمندان مشهور مانند مکس تگمارک و جورج چرچ؛ و دیگر نام‌های شناخته‌شده‌ای از جمله استفن فرای، مارک روفالو و گرایمز همراه است. یودکوفسکی اکنون یک بلندگوی قدرتمند دارد.

با این حال، ممکن است آن سخنان اولیه و آرام در گوش افراد خاص، تأثیرگذارترین باشد. یودکوفسکی به عنوان معرفی کننده تیل به بنیانگذاران دیپ‌مایند شناخته می‌شود، و پس از آن تیل یکی از اولین سرمایه‌گذاران بزرگ در این شرکت شد. پس از ادغام با گوگل، اکنون این شرکت آزمایشگاه داخلی هوش مصنوعی برای غول فناوری آلفابت است.

تیل، در کنار ماسک، در تأسیس OpenAI در سال ۲۰۱۵ نیز نقش مهمی ایفا کرد و میلیون‌ها دلار را به استارتاپی سرمایه‌گذاری کرد که بر اساس آرزوی منحصر به فرد ساخت AGI – و ایمن‌سازی آن – بنا شده بود. در سال ۲۰۲۳، سم آلتمن، مدیرعامل OpenAI، در X پست کرد: «به نظر من، الیزر بیشتر از هرکس دیگری به تسریع AGI کمک کرده است. قطعاً او بسیاری از ما را به AGI علاقه‌مند کرد.» آلتمن افزود که یودکوفسکی ممکن است روزی سزاوار جایزه صلح نوبل برای این کار باشد. اما در این مرحله، ظاهراً تیل نسبت به «افراد ایمنی هوش مصنوعی» و قدرتی که کسب می‌کردند، محتاط شده بود. او گزارش شده است که در یک مهمانی شام در اواخر سال ۲۰۲۳ به آلتمن گفته است: «شما نمی‌فهمید چگونه الیزر نیمی از افراد شرکت شما را برنامه‌ریزی کرده است تا به آن چیزها اعتقاد داشته باشند. شما باید این موضوع را جدی‌تر بگیرید.» به گفته کچ هِیگی، گزارشگر وال استریت ژورنال، آلتمن «سعی کرد چشم‌هایش را نچرخاند.»

OpenAI اکنون با نیم تریلیون دلار ارزش، باارزش‌ترین شرکت خصوصی جهان است.

و دگرگونی کامل شده است: مانند قدرتمندترین توطئه‌ها، AGI به جریان اصلی نفوذ کرده و جای خود را باز کرده است.

توطئه بزرگ AGI

اصطلاح «AGI» شاید کمتر از ۲۰ سال پیش رایج شده باشد، اما اسطوره‌سازی پشت آن از آغاز عصر کامپیوتر وجود داشته است – پیشینه‌ای از گستاخی و بازاریابی.

آلن تورینگ تنها پنج سال پس از ساخت اولین کامپیوتر الکترونیکی، ENIAC، در سال ۱۹۴۵، پرسید که آیا ماشین‌ها می‌توانند فکر کنند. و تورینگ کمی بعد، در یک پخش رادیویی در سال ۱۹۵۱، می‌گوید: «به نظر محتمل است که به محض شروع روش تفکر ماشینی، زمان زیادی طول نکشد تا از توانایی‌های ضعیف ما پیشی بگیرد. بحث مردن ماشین‌ها مطرح نخواهد بود و آنها قادر خواهند بود با یکدیگر صحبت کنند تا هوش خود را تیزتر کنند. بنابراین در مرحله‌ای باید انتظار داشته باشیم که ماشین‌ها کنترل را به دست بگیرند.»

سپس، در سال ۱۹۵۵، جان مک‌کارتی، دانشمند کامپیوتر و همکارانش برای دریافت بودجه از دولت ایالات متحده درخواست دادند تا آنچه را که آنها سرنوشت‌سازانه «هوش مصنوعی» نامیدند، ایجاد کنند – یک چرخش هوشمندانه، با توجه به اینکه کامپیوترهای آن زمان به اندازه یک اتاق بزرگ و به اندازه یک ترموستات احمق بودند. با این حال، همانطور که مک‌کارتی در آن درخواست بودجه نوشت: «تلاشی برای یافتن چگونگی استفاده ماشین‌ها از زبان، تشکیل انتزاع‌ها و مفاهیم، حل مشکلاتی که اکنون به انسان‌ها اختصاص دارد، و بهبود خودشان انجام خواهد شد.»

این اسطوره ریشه توطئه AGI است. ماشینی باهوش‌تر از انسان که می‌تواند همه کارها را انجام دهد، یک فناوری نیست. این یک رویاست، بدون واقعیت. وقتی این را ببینید، شباهت‌های دیگر با تفکر توطئه‌گرانه شروع به خودنمایی می‌کنند.

ابطال ایده‌ای متغیر مانند AGI غیرممکن است.

صحبت در مورد AGI گاهی اوقات مانند بحث با یک کاربر پرشور ردیت (Redditor) درباره اینکه چه داروهایی (یا ذراتی در آسمان) ذهن شما را کنترل می‌کنند، است. هر نقطه دارای یک نقطه مقابل است که سعی می‌کند حس شما را از آنچه واقعی است، خدشه‌دار کند. در نهایت، این یک برخورد دیدگاه‌هاست، نه تبادل استدلال مبتنی بر شواهد. AGI هم همینطور است – لغزنده است.

بخشی از مشکل این است که علیرغم تمام پول و صحبت‌ها، هیچ‌کس نمی‌داند چگونه آن را بسازد. فراتر از آن: اکثر مردم حتی در مورد اینکه AGI واقعاً چیست، توافق ندارند – که توضیح می‌دهد چگونه مردم می‌توانند ادعا کنند که هم می‌تواند دنیا را نجات دهد و هم به آن پایان دهد. در هسته بیشتر تعاریف، ایده ماشینی را خواهید یافت که می‌تواند با انسان‌ها در طیف وسیعی از وظایف شناختی رقابت کند. (و به یاد داشته باشید، فرا‌هوش (superintelligence) ارتقاء جدید و درخشان AGI است: ماشینی که می‌تواند از ما پیشی بگیرد.) اما حتی این هم به راحتی قابل تحلیل است: از کدام انسان‌ها صحبت می‌کنیم؟ چه نوع وظیفه شناختی؟ و با چه گستره‌ای؟

کریستوفر سایمونز، دانشمند ارشد هوش مصنوعی در استارتاپ مراقبت‌های بهداشتی هوش مصنوعی Lirio و رئیس سابق بخش علوم کامپیوتر و ریاضیات در آزمایشگاه ملی اوک ریج، می‌گوید: «هیچ تعریف واقعی از آن وجود ندارد. اگر بگویید 'هوش در سطح انسانی'، می‌تواند بی‌نهایت چیز باشد – سطح هوش هر کس کمی متفاوت است.»

و بنابراین، سایمونز می‌گوید، ما در این مسابقه عجیب برای ساختن... دقیقاً چه چیزی هستیم؟ «شما می‌خواهید آن را به چه کاری وادار کنید؟»

در سال ۲۰۲۳، تیمی از محققان گوگل دیپ‌مایند، از جمله لگ، تلاش کردند تا تعاریف مختلفی که مردم برای AGI پیشنهاد کرده بودند را دسته‌بندی کنند. برخی گفتند که یک ماشین باید بتواند یاد بگیرد؛ برخی گفتند که باید بتواند پول درآورد؛ برخی گفتند که باید بدن داشته باشد و در دنیا حرکت کند (و شاید قهوه درست کند).

لگ به من گفت وقتی این اصطلاح را برای عنوان کتاب گورتزل پیشنهاد کرده بود، این ابهام تا حدودی هدفمند بود. او در آن زمان گفت: «من تعریف واضحی نداشتم. واقعاً آن را لازم نمی‌دانستم. در واقع، بیشتر به آن به عنوان یک حوزه مطالعاتی فکر می‌کردم، نه یک اثر هنری.»

پس، حدس می‌زنم وقتی آن را ببینیم، خواهیم شناخت؟ مشکل اینجاست که برخی افراد فکر می‌کنند قبلاً آن را دیده‌اند.

در سال ۲۰۲۳، تیمی از محققان مایکروسافت مقاله‌ای منتشر کردند که در آن تجربیات خود را در کار با نسخه پیش از انتشار مدل زبان بزرگ GPT-4 شرکت OpenAI توصیف کردند. آنها آن را «جرقه های هوش مصنوعی عمومی» نامیدند – و این موضوع صنعت را دو قطبی کرد.

آن لحظه‌ای بود که بسیاری از محققان شگفت‌زده شدند و سعی کردند آنچه را می‌دیدند، درک کنند. گورتزل می‌گوید: «اوضاع بهتر از آنچه انتظار داشتند کار می‌کرد. مفهوم AGI واقعاً قابل قبول‌تر به نظر می‌رسید.»

و با این حال، با وجود بازی‌های کلامی قابل توجه LLMها، گورتزل فکر نمی‌کند که آنها واقعاً حاوی جرقه‌های AGI باشند. او می‌گوید: «برایم کمی تعجب‌آور است که برخی افراد با درک فنی عمیق از نحوه عملکرد این ابزارها، همچنان فکر می‌کنند که می‌توانند به AGI در سطح انسانی تبدیل شوند. از طرف دیگر، نمی‌توان ثابت کرد که اینطور نیست.»

و همین است: نمی‌توانید ثابت کنید که اینطور نیست. والور از دانشگاه ادینبورگ می‌گوید: «ایده اینکه AGI در راه است و همین گوشه است و اجتناب‌ناپذیر است، به بسیاری از انحرافات از واقعیت مشروعیت بخشیده است. اما ما واقعاً هیچ مدرکی برای آن نداریم.»

تفکر توطئه‌گرانه دوباره ظاهر می‌شود. پیش‌بینی‌ها در مورد زمان رسیدن AGI با دقت عددی‌ها که شمارش معکوس را برای پایان جهان انجام می‌دهند، ارائه می‌شود. بدون هیچ پیامد واقعی، ضرب‌الاجل‌ها می‌آیند و می‌روند و با بی‌تفاوتی نادیده گرفته می‌شوند. بهانه‌ها آورده می‌شود و جدول زمانی دوباره تنظیم می‌شود.

این را وقتی مشاهده کردیم که OpenAI مدل پر سر و صدای GPT-5 را در تابستان امسال منتشر کرد. طرفداران هوش مصنوعی از اینکه نسخه جدید فناوری شاخص این شرکت آن تغییر بزرگی که انتظار داشتند نبود، ناامید شدند. اما به جای اینکه این را به عنوان شاهدی بر دست‌نیافتنی بودن AGI – یا حداقل با یک LLM – ببینند، باورمندان پیش‌بینی‌های خود را برای اینکه AGI چقدر زود خواهد آمد، به جلو انداختند. AGI می‌آمد – فقط، می‌دانید، دفعه بعد.

شاید حق با آنها باشد. یا شاید مردم هر مدرکی را که بتوانند برای دفاع از یک ایده پیدا کنند، انتخاب کنند و شواهدی را که مخالف آن است، نادیده بگیرند. جرمی کوهن، که تفکر توطئه‌گرانه را در محافل فناوری در دانشگاه مک‌مستر کانادا مطالعه می‌کند، این را «جمع‌آوری ناقص شواهد» می‌نامد – که نشانه‌ای از تفکر توطئه‌گرانه است.

کوهن کار تحقیقاتی خود را در بیابان آریزونا آغاز کرد و جامعه‌ای به نام «مردم نامحدود» (People Unlimited) را مطالعه می‌کرد که معتقد بودند اعضای آن فناناپذیر هستند. این اعتقاد در برابر شواهد مخالف غیرقابل نفوذ بود. وقتی اعضای آن به دلایل طبیعی (از جمله دو نفر از بنیانگذارانش) درگذشتند، تفکر این بود که حتماً سزاوار آن بوده‌اند. کوهن می‌گوید: «اجماع عمومی این بود که هر مرگی یک خودکشی بوده است. اگر شما فناناپذیر هستید و سرطان می‌گیرید و می‌میرید – خب، حتماً کار اشتباهی انجام داده‌اید.»

کوهن از آن زمان بر ترابشریت (این ایده که فناوری می‌تواند به انسان‌ها کمک کند تا از محدودیت‌های طبیعی خود فراتر روند) و AGI تمرکز کرده است. او می‌گوید: «من شباهت‌های زیادی را می‌بینم. اشکالی از تفکر جادویی وجود دارد که به نظر من بخشی از تصورات عمومی در مورد AGI است. این به خوبی با انواع تصورات مذهبی که امروزه در تفکر توطئه‌گرانه می‌بینید، ارتباط برقرار می‌کند.»

باورمندان در راز AGI شریک هستند.

شاید برخی از شما فکر کنید که من احمق هستم: اصلاً نمی‌فهمید لول. اما نکته من همین است. افراد خودی و بیرونی وجود دارند. وقتی با محققان یا مهندسانی صحبت می‌کنم که خوشحالند AGI را به عنوان یک امر مسلم وارد مکالمه کنند، انگار چیزی می‌دانند که من نمی‌دانم. اما هیچ‌کس نتوانسته است به من بگوید آن چیز چیست.

حقیقت در آنجاست، اگر بدانید کجا را نگاه کنید. کوهن به من می‌گوید که نظریه‌های توطئه عمدتاً به آشکار کردن یک حقیقت پنهان مربوط می‌شوند: «این بخش واقعاً اساسی تفکر توطئه‌گرانه است، و این کاملاً چیزی است که در نحوه صحبت مردم درباره AGI می‌بینید.»

سال گذشته، لئوپولد آشنبرنر، کارمند سابق ۲۳ ساله OpenAI که به سرمایه‌گذار تبدیل شد، مانیفست ۱۶۵ صفحه‌ای با عنوان «آگاهی موقعیتی» منتشر کرد که بسیار مورد تجزیه و تحلیل قرار گرفت. برای درک ایده نیازی به خواندن آن ندارید: یا حقیقت آنچه در راه است را می‌بینید یا نه. و به حقایق سرد و سخت هم نیازی نیست – همین که آن را احساس کنید کافی است. کسانی که آن را احساس نمی‌کنند، هنوز نور را ندیده‌اند.

این ایده در حاشیه گفتگوی من با گورتزل نیز ظاهر شد. وقتی از او پرسیدم چرا مردم نسبت به AGI تردید دارند، او گفت: «قبل از هر دستاورد فنی بزرگ، از پرواز انسان تا برق، تعداد زیادی از کارشناسان عاقل به شما می‌گفتند چرا هرگز اتفاق نخواهد افتاد. حقیقت این است که اکثر مردم فقط چیزی را باور می‌کنند که جلوی چشمانشان می‌بینند.»

این باعث می‌شود AGI مانند یک اعتقاد قلبی به نظر برسد. این موضوع را با کروگر، که معتقد است AGI شاید پنج سال دیگر می‌رسد، در میان گذاشتم. او تمسخر کرد و گفت: «فکر می‌کنم این کاملاً برعکس است.» برای او، اعتقاد قلبی این ایده است که AGI اتفاق نخواهد افتاد – این شکاکان هستند که همچنان بدیهیات را انکار می‌کنند. (با این حال، او احتیاط می‌کند و می‌گوید: هیچ‌کس مطمئن نیست، اما دلیل واضحی وجود ندارد که AGI اتفاق نیفتد.)

حقایق پنهان، حقیقت‌جویان را به خود جذب می‌کنند، کسانی که مصمم به آشکار کردن چیزی هستند که از ابتدا دیده‌اند. با AGI، اما، صرفاً کشف چیزی پنهان کافی نیست. در اینجا، مکاشفه نیازمند یک عمل بی‌سابقه خلق است. اگر اعتقاد دارید AGI قابل دستیابی است، پس باور دارید که سازندگان آن، مامای ماشین‌هایی هستند که با هوش انسانی برابری یا از آن پیشی خواهند گرفت. والور می‌گوید: «ایده "تولد خدایان ماشینی" آشکارا برای نفس انسان بسیار تملق‌آمیز است. فکر کردن به اینکه شما خودتان پایه‌های اولیه آن تعالی را می‌گذارید، به طرز باورنکردنی اغواکننده است.»

این همپوشانی دیگری با تفکر توطئه‌گرانه است. بخشی از جذابیت، میل به حس هدفمندی در دنیایی آشفته است که می‌تواند بی‌معنا به نظر برسد – اشتیاق به فردی با اهمیت بودن.

کروگر، که در برکلی مستقر است، می‌گوید افرادی را می‌شناسد که روی هوش مصنوعی کار می‌کنند و این فناوری را جانشین طبیعی ما می‌دانند. او می‌گوید: «آنها آن را شبیه به بچه‌دار شدن یا چیزی شبیه به آن می‌دانند. نکته جانبی: آنها معمولاً فرزند ندارند.»

تصویری از یک پروانه که از یک تراشه کامپیوتری بیرون می‌آید، نماد تحول تکنولوژیکی.

AGI تنها ناجی ما خواهد بود (یا آخرالزمان را به ارمغان می‌آورد).

کوهن شباهت‌هایی بین بسیاری از تئوری‌های توطئه مدرن و جنبش عصر جدید می‌بیند، که اوج نفوذ خود را در دهه‌های ۱۹۷۰ و ۸۰ تجربه کرد. پیروان این جنبش معتقد بودند که بشریت در آستانه دستیابی به عصری از رفاه معنوی و آگاهی گسترده است که جهانی صلح‌آمیزتر و مرفه را به ارمغان می‌آورد. به طور خلاصه، ایده این بود که با درگیر شدن در مجموعه‌ای از اعمال شبه‌مذهبی، از جمله طالع‌بینی و جمع‌آوری دقیق کریستال‌ها، انسان‌ها از محدودیت‌های خود فراتر رفته و وارد نوعی آرمان‌شهر هیپی می‌شوند.

صنعت فناوری امروز بر قدرت پردازش است، نه کریستال‌ها، اما حس آنچه در خطر است، کمتر متعالی نیست: کوهن می‌گوید: «می‌دانید، این ایده که قرار است این تغییر بنیادین اتفاق بیفتد، این تحول هزارساله که در آن به آینده‌ای فن‌گرایانه-آرمان‌شهری می‌رسیم. و این ایده که AGI در نهایت به بشریت اجازه می‌دهد تا بر مشکلاتی که با آن روبرو است، غلبه کند.»

به روایت بسیاری، AGI ناگهان از راه خواهد رسید. پیشرفت‌های تدریجی در هوش مصنوعی انباشته می‌شوند تا اینکه روزی، هوش مصنوعی به اندازه‌ای خوب خواهد شد که خودش شروع به ساخت هوش مصنوعی بهتر کند. در این مرحله – FOOM – به سرعت پیشرفت می‌کند تا AGI در آنچه اغلب «انفجار هوش» نامیده می‌شود، از راه برسد و به نقطه‌ای بدون بازگشت به نام «تکینگی» (Singularity) منجر شود، اصطلاحی عجیب که سال‌ها در محافل AGI محبوب بوده است. ورنر وینج، نویسنده علمی تخیلی، با استفاده از مفهومی از فیزیک، ایده تکینگی فناوری را اولین بار در دهه ۱۹۸۰ معرفی کرد. وینج یک افق رویداد را در مسیر پیشرفت فناوری تصور کرد که فراتر از آن، انسان‌ها به سرعت توسط خودبهبودی تصاعدی ماشین‌هایی که ساخته بودند، پشت سر گذاشته می‌شدند.

آن را «بیگ بنگ هوش مصنوعی» بنامید – که باز هم، به ما یک «قبل» و یک «بعد» می‌دهد، لحظه‌ای متعالی که بشریت آن‌گونه که می‌شناسیم برای همیشه تغییر می‌کند (برای خوب یا بد). گریس از AI Impacts می‌گوید: «مردم آن را یک رویداد تصور می‌کنند.»

برای والور، این سیستم اعتقادی به دلیل روشی که در آن ایمان به فناوری جایگزین ایمان به انسان‌ها شده است، قابل توجه است. او می‌گوید: «با وجود تمام حرف‌های بی‌اساس، تفکر عصر جدید حداقل با این ایده انگیزه داشت که مردم آنچه را برای تغییر جهان به تنهایی لازم است، در اختیار دارند، اگر بتوانند از آن بهره ببرند. با پیگیری AGI، ما آن خودباوری را پشت سر گذاشته‌ایم و این ایده را پذیرفته‌ایم که فقط فناوری می‌تواند ما را نجات دهد.»

این یک فکر جذاب – حتی آرامش‌بخش – برای بسیاری از مردم است. والور می‌گوید: «ما در دورانی هستیم که به نظر می‌رسد سایر مسیرهای بهبود مادی زندگی انسان‌ها و جوامع ما به پایان رسیده است.»

او می‌گوید: «فناوری زمانی نویدبخش مسیری به سوی آینده‌ای بهتر بود: پیشرفت نردبانی بود که ما برای شکوفایی انسانی و اجتماعی از آن بالا می‌رفتیم. ما از اوج آن عبور کرده‌ایم. فکر می‌کنم تنها چیزی که به بسیاری از مردم امید و بازگشت به آن نوع خوش‌بینی درباره آینده را می‌دهد، AGI است.»

والور می‌گوید، این ایده را به نتیجه برسانید و دوباره، AGI به نوعی خدا تبدیل می‌شود – خدایی که می‌تواند از رنج‌های دنیوی رهایی بخشد.

کلی جویس، جامعه‌شناس دانشگاه کارولینای شمالی که چگونگی شکل‌گیری افکار و استفاده از فناوری توسط باورهای فرهنگی، سیاسی و اقتصادی را بررسی می‌کند، تمام این پیش‌بینی‌های عجیب در مورد AGI را چیزی پیش‌پا افتاده‌تر می‌بیند: بخشی از یک الگوی بلندمدت از وعده‌های بیش از حد از سوی صنعت فناوری. او می‌گوید: «آنچه برای من جالب است این است که ما هر بار درگیر آن می‌شویم. یک باور عمیق وجود دارد که فناوری بهتر از انسان‌هاست.»

جویس فکر می‌کند به همین دلیل است که وقتی هیاهو شروع می‌شود، مردم تمایل به باور آن دارند. او می‌گوید: «این یک دین است. ما به فناوری اعتقاد داریم. فناوری خداست. مقابله با آن واقعاً دشوار است. مردم نمی‌خواهند آن را بشنوند.»

چگونه AGI یک صنعت را ربود

فانتزی کامپیوترهایی که تقریباً هر کاری را که یک انسان می‌تواند انجام دهد، انجام می‌دهند، فریبنده است. اما مانند بسیاری از تئوری‌های توطئه فراگیر، پیامدهای بسیار واقعی دارد. این فانتزی، نحوه تفکر ما را درباره پیامدهای رونق کنونی فناوری (و رکود احتمالی) تغییر داده است. حتی ممکن است صنعت را منحرف کرده باشد و منابع را از کاربردهای فوری‌تر و عملی‌تر فناوری دور کند. بیش از هر چیز دیگر، به ما اجازه می‌دهد تنبل باشیم. ما را فریب می‌دهد تا فکر کنیم ممکن است بتوانیم از کارهای سخت واقعی لازم برای حل مشکلات غیرقابل حل و جهانی – مشکلاتی که نیازمند همکاری و سازش بین‌المللی و کمک‌های گران‌قیمت هستند – اجتناب کنیم. چرا زحمت این کارها را به خود بدهیم وقتی به زودی ماشین‌هایی خواهیم داشت که همه چیز را برای ما حل می‌کنند؟

منابعی را که در این پروژه بزرگ صرف می‌شود، در نظر بگیرید. همین ماه گذشته، OpenAI و Nvidia یک شراکت تا ۱۰۰ میلیارد دلاری را اعلام کردند که بر اساس آن غول تراشه حداقل ۱۰ گیگاوات از تقاضای سیری‌ناپذیر ChatGPT را تامین خواهد کرد. این عدد بالاتر از نیروگاه‌های هسته‌ای است. یک صاعقه ممکن است همین مقدار انرژی آزاد کند. خازن شارژ داخل ماشین زمان دلوریان دکتر اِمِت براون تنها ۱.۲ گیگاوات برای فرستادن مارتی به آینده نیاز داشت. و سپس، تنها دو هفته بعد، OpenAI یک شراکت دوم با تراشه‌ساز AMD برای ۶ گیگاوات دیگر برق اعلام کرد.

آلتمن، در حال تبلیغ معامله انویدیا در CNBC، با لحنی جدی ادعا کرد که بدون این نوع ساخت مراکز داده، مردم باید بین درمان سرطان و آموزش رایگان یکی را انتخاب کنند. او گفت: «هیچ‌کس نمی‌خواهد چنین انتخابی بکند.» (تنها چند هفته بعد، او اعلام کرد که چت‌های اِروتیک به ChatGPT می‌آیند.)

به این هزینه‌ها، از دست دادن سرمایه‌گذاری در فناوری‌های فوری‌تر را اضافه کنید که می‌توانند زندگی‌ها را امروز، فردا و روز بعد تغییر دهند. سایمونز از Lirio می‌گوید: «برای من این یک فرصت از دست رفته بزرگ است که تمام این منابع را صرف حل چیزی مبهم کنیم در حالی که ما قبلاً می‌دانیم مشکلات واقعی وجود دارد که می‌توانیم حل کنیم.»

اما اینگونه نیست که شرکت‌هایی مانند OpenAI باید عمل کنند. سایمونز می‌گوید: «با توجه به اینکه مردم این همه پول به این شرکت‌ها می‌ریزند، آنها مجبور به انجام این کار نیستند. اگر صدها میلیارد دلار دارید، مجبور نیستید روی یک پروژه عملی و قابل حل تمرکز کنید.»

با وجود اعتقاد راسخ او به آمدن AGI، کروگر همچنین فکر می‌کند که پیگیری یک‌جانبه صنعت از آن به این معنی است که راه‌حل‌های بالقوه برای مشکلات واقعی، مانند مراقبت‌های بهداشتی بهتر، نادیده گرفته می‌شوند. او می‌گوید: «مردم لیست بلندبالایی از گلایه‌ها در مورد مفهوم AGI و این ایده که باید یک هدف باشد، دارند. فکر می‌کنم در این زمینه بسیار نامحبوب است.»

و پیامدهایی برای نحوه حمایت و تنظیم مقررات فناوری توسط دولت‌ها (یا عدم آن) وجود دارد. تینا لا، که سیاست فناوری را در دانشگاه کالیفرنیا-دیویس مطالعه می‌کند، نگران است که سیاست‌گذاران در مورد روش‌هایی که هوش مصنوعی روزی همه ما را خواهد کشت، لابی می‌شوند، به جای اینکه به نگرانی‌های واقعی در مورد تأثیر هوش مصنوعی بر زندگی مردم در راه‌های فوری و مادی امروز بپردازند. نابرابری توسط خطر وجودی به حاشیه رانده شده است.

لا می‌گوید: «تبلیغات یک استراتژی سودآور برای شرکت‌های فناوری است.» بخش بزرگی از این تبلیغات، این ایده است که آنچه اتفاق می‌افتد اجتناب‌ناپذیر است: اگر ما آن را نسازیم، شخص دیگری خواهد ساخت. لا می‌گوید: «وقتی چیزی به عنوان اجتناب‌ناپذیر معرفی می‌شود، مردم نه تنها در مورد اینکه آیا باید مقاومت کنند، بلکه در مورد اینکه آیا توانایی انجام این کار را دارند، تردید می‌کنند.» همه در یک چرخه گرفتار می‌شوند.

میلتون مولر از مؤسسه فناوری جورجیا، که در زمینه سیاست و مقررات فناوری کار می‌کند، می‌گوید: میدان تحریف AGI به سیاست فناوری محدود نمی‌شود. او می‌گوید: «رقابت برای AGI با رقابت برای بمب اتم مقایسه می‌شود. بنابراین هر کس که زودتر به آن دست یابد، قدرت نهایی را بر همه خواهد داشت. این یک ایده دیوانه‌وار و خطرناک است که واقعاً رویکرد ما را در قبال سیاست خارجی تحریف خواهد کرد.»

مولر می‌گوید: «یک انگیزه تجاری برای شرکت‌ها (و دولت‌ها) برای ترویج اسطوره AGI وجود دارد، زیرا آنها می‌توانند ادعا کنند که اولین کسانی خواهند بود که به آن دست می‌یابند. اما چون آنها در مسابقه‌ای شرکت می‌کنند که هیچ‌کس بر خط پایان آن توافق ندارد، این اسطوره می‌تواند تا زمانی که مفید باشد، ادامه یابد. یا تا زمانی که سرمایه‌گذاران مایل به پذیرش آن باشند.»

دیدن نتیجه این ماجرا دشوار نیست. نه آرمان‌شهر است و نه جهنم – بلکه OpenAI و همتایانش پول بسیار بیشتری به دست می‌آورند.

توطئه بزرگ AGI، نتیجه‌گیری

و شاید این ما را به کل ماجرای توطئه بازگرداند – و به یک پیچش دیرهنگام در این داستان. تا اینجا یک ویژگی محبوب تفکر توطئه‌گرانه را نادیده گرفته‌ایم: اینکه گروهی از شخصیت‌های قدرتمند در پشت صحنه کنترل را در دست دارند و با جستجوی حقیقت، باورمندان می‌توانند این حلقه نخبه‌گرای پنهان را افشا کنند.

مطمئناً، افرادی که AGI را "حس می‌کنند" به طور عمومی هیچ ایلومیناتی یا نیروی مشابه WEF را متهم نمی‌کنند که از آینده AGI جلوگیری می‌کنند یا اسرار آن را پنهان می‌دارند.

اما اگر در واقع، در اینجا استادان پنهانی وجود داشته باشند – و آن‌ها همان افرادی هستند که از ابتدا توطئه AGI را با شدت بیشتری پیش برده‌اند؟ پادشاهان سیلیکون ولی هرچه در توان دارند برای ساخت AGI به منظور سودآوری خرج می‌کنند. افسانه AGI بیش از هر کس دیگری به نفع آن‌هاست.

همانطور که یکی از مدیران ارشد یک شرکت هوش مصنوعی اخیراً به ما گفت، AGI همیشه باید شش ماه تا یک سال دیگر باشد، زیرا اگر از آن دورتر باشد، نمی‌توانید از Jane Street افراد را استخدام کنید، و اگر به اینجا نزدیک‌تر باشد، پس چه فایده‌ای دارد؟

والور می‌گوید: «اگر OpenAI بگوید در حال ساخت ماشینی است که قرار است شرکت‌ها را حتی قدرتمندتر از امروز کند، این نوع حمایت عمومی را که نیاز دارند، به دست نخواهد آورد.»

به یاد داشته باشید: شما یک خدا خلق می‌کنید و خودتان نیز مانند آن می‌شوید. کروگر می‌گوید خط فکری‌ای در سیلیکون ولی وجود دارد که ساخت هوش مصنوعی راهی برای به دست آوردن مقادیر عظیمی از قدرت است. (برای مثال، یکی از فرضیات «آگاهی موقعیتی» آشنبرنر همین است.) کروگر می‌گوید: «می‌دانید، ما قرار است این قدرت خدامانند را داشته باشیم و باید بفهمیم با آن چه کنیم. بسیاری از مردم فکر می‌کنند اگر اول به آن دست یابند، اساساً می‌توانند جهان را در دست بگیرند.»

او می‌افزاید: «آنها تلاش زیادی برای فروش چشم‌انداز خود از آینده با AGI انجام می‌دهند و موفقیت نسبتاً خوبی هم دارند زیرا قدرت زیادی در دست دارند.»

گورتزل، از جمله کسانی است که تقریباً از موفقیت این شاید-تیم گله‌مند است. او در واقع دلش برای زندگی در حاشیه تنگ شده است. او می‌گوید: «در نسل من، برای کار روی AGI باید دیدگاه زیادی می‌داشتید و بسیار سرسخت می‌بودید. حالا تقریباً مثل این است که مادربزرگتان به شما می‌گوید برای اینکه شغل پیدا کنید چه کاری انجام دهید، به جای اینکه یک رشته بازرگانی بخوانید.»

او می‌گوید: «عجیب است که این مسائل تا این حد به طور گسترده پذیرفته شده‌اند. تقریباً دلم می‌خواهد روی چیز دیگری کار کنم که افراد زیادی آن را انجام نمی‌دهند.» او نیمه‌شوخی می‌کند (فکر می‌کنم): «بدیهی است که تکمیل AGI مهم‌تر از ارضای ترجیح من برای بودن در خط مقدم است.»

اما من هنوز در مورد اینکه دقیقاً روی چه چیزی کار می‌کنند، روشن نیستم. اگر ما این‌قدر شیفته داستان‌های پریان شویم، برای فناوری به طور کلی چه معنایی خواهد داشت؟ به نظر من، از بسیاری جهات، کل ایده AGI بر پایه‌ای از یک دیدگاه تحریف‌شده از آنچه باید از فناوری انتظار داشته باشیم، و حتی اینکه هوش چیست، استوار است. اگر آن را به اصول اولیه بازگردانیم، استدلال AGI بر این فرض استوار است که یک فناوری، هوش مصنوعی، به سرعت بسیار خوب شده و به بهتر شدن ادامه خواهد داد. اما اگر اعتراضات فنی – چه می‌شود اگر بهتر نشود؟ – را کنار بگذاریم، با این ادعا روبرو می‌شویم که هوش کالایی است که اگر داده‌ها یا قدرت پردازش یا شبکه عصبی مناسب را داشته باشید، می‌توانید بیشتر از آن به دست آورید. و این‌طور نیست.

هوش به عنوان مقداری که بتوانید آن را به سادگی بالا ببرید و افزایش دهید، به دست نمی‌آید. افراد باهوش ممکن است در یک زمینه درخشان باشند و در زمینه‌های دیگر نه. برخی از برندگان جایزه نوبل در نواختن پیانو یا مراقبت از فرزندانشان واقعاً بد هستند. برخی از افراد بسیار باهوش اصرار دارند که AGI سال آینده خواهد آمد.

سخت است که تعجب نکنیم چه چیزی بعدی ما را درگیر خود خواهد کرد.

قبل از اتمام تماس ما، گورتزل در مورد رویدادی که به تازگی در سانفرانسیسکو درباره آگاهی هوش مصنوعی و فرا روان‌شناسی شرکت کرده بود، به من گفت: «ESP، پیش‌بینی و غیره.»

او گفت: «AGI بیست سال پیش آنجا بود. همه فکر می‌کنند دیوانگی محض است.»

تصحیح: این داستان برای بازتاب بهتر دیدگاه‌های دیوید کروگر به‌روزرسانی شده است.