آیا شما هم آن را احساس میکنید؟
من میشنوم که نزدیک است: دو سال، پنج سال – شاید سال آینده! و میشنوم که قرار است همهچیز را تغییر دهد: بیماریها را درمان میکند، سیاره را نجات میدهد و عصر فراوانی را به ارمغان میآورد. بزرگترین مشکلات ما را به روشهایی که هنوز نمیتوانیم تصور کنیم، حل خواهد کرد. این اتفاق، معنای انسان بودن را بازتعریف خواهد کرد.
صبر کنید – اگر همه اینها برای حقیقت بیش از حد خوب باشند چه؟ زیرا من همچنین میشنوم که آخرالزمان را به ارمغان میآورد و همه ما را خواهد کشت...
در هر صورت و با هر بازه زمانی که در نظر بگیرید، اتفاق بزرگی در راه است.
ممکن است در مورد ظهور دوباره مسیح صحبت کنیم. یا روزی که پیروان فرقه Heaven’s Gate تصور میکردند توسط یک بشقاب پرنده انتخاب شده و به موجودات فضایی روشنگر تبدیل خواهند شد. یا لحظهای که دونالد ترامپ سرانجام تصمیم میگیرد طوفانی را که Q وعده داده بود، محقق کند. اما نه. البته ما در مورد هوش مصنوعی عمومی (AGI) صحبت میکنیم – آن فناوری فرضی نزدیک به آینده که (به قول من) قادر خواهد بود تقریباً هر کاری که مغز انسان میتواند انجام دهد، انجام دهد.
این داستان بخشی از مجموعه «عصر جدید تئوری توطئه» نشریه MIT Technology Review است که به بررسی چگونگی شکلگیری علم و فناوری توسط رونق کنونی تئوریهای توطئه میپردازد.
برای بسیاری، AGI چیزی فراتر از یک فناوری است. در قطبهای فناوری مانند سیلیکون ولی، از آن به اصطلاحات عرفانی صحبت میشود. گفته میشود ایلیا سوتسکور، بنیانگذار و دانشمند ارشد سابق OpenAI، در جلسات تیمی شعار «AGI را احساس کنید!» را رهبری میکرده است. و او بیشتر از هرکس دیگری آن را احساس میکند: در سال ۲۰۲۴، او OpenAI را که ماموریت اعلام شدهاش تضمین بهرهمندی کل بشریت از AGI است، ترک کرد تا Safe Superintelligence را تاسیس کند؛ یک استارتاپ که به یافتن راهحل برای جلوگیری از یک AGI به اصطلاح سرکش (یا کنترل آن در صورت ظهور) اختصاص دارد. فراهوش (Superintelligence) طعم جدید و داغی است – AGI، اما بهتر! – که با رایج شدن صحبت از AGI معرفی شده است.
سوتسکور همچنین نمونهای از انگیزههای در هم تنیده در میان بسیاری از مبلغان خودخوانده AGI است. او دوران حرفهای خود را صرف ایجاد پایههای یک فناوری آینده کرده است که اکنون آن را وحشتناک میداند. او چند ماه قبل از ترک OpenAI به من گفت: «این اتفاق عظیم، دگرگونکننده جهان خواهد بود – یک قبل و یک بعد خواهد داشت.» وقتی از او پرسیدم چرا تلاشهای خود را به مهار آن فناوری تغییر داده است، گفت: «من این کار را برای منافع شخصی خود انجام میدهم. واضح است که مهم است هر فراهوشی که کسی میسازد، سرکش نشود. واضح است.»
او در تفکر بزرگ و حتی آخرالزمانی خود تنها نیست.
هر عصری باورمندان خود را دارد، افرادی با ایمانی تزلزلناپذیر که چیزی بزرگ در شرف وقوع است – یک «قبل» و یک «بعد» که آنها افتخار (یا محکومیت) تجربه آن را دارند.
برای ما، این وعده ظهور AGI است. شنون والور، که اخلاق فناوری را در دانشگاه ادینبورگ مطالعه میکند، میگوید مردم به شنیدن اینکه این یا آن چیز بعدی بزرگ است، عادت کردهاند. او میگوید: «قبلاً عصر کامپیوتر بود و سپس عصر اینترنت و حالا عصر هوش مصنوعی. طبیعی است که چیزی به شما ارائه شود و به شما بگویند که این چیز، آینده است. تفاوت البته در این است که برخلاف کامپیوترها و اینترنت، AGI وجود ندارد.»
و به همین دلیل است که «احساس AGI» با «ترویج چیز بزرگ بعدی» یکسان نیست. اتفاق عجیبتری در جریان است. نظر من این است: AGI بسیار شبیه یک تئوری توطئه است و ممکن است مهمترین تئوری توطئه زمان ما باشد.
من بیش از یک دهه است که در مورد هوش مصنوعی گزارش میدهم و شاهد بودهام که ایده AGI از حواشی به روایت غالب شکلدهنده یک صنعت کامل تبدیل شده است. یک رویای روزمره، اکنون خطوط سود برخی از باارزشترین شرکتهای جهان و بنابراین، میتوان گفت، بازار سهام ایالات متحده را پشتیبانی میکند. این ایده، پیشپرداختهای سرسامآور برای نیروگاهها و مراکز داده جدید را که به ما گفته میشود برای تحقق این رویا لازم است، توجیه میکند. شرکتهای هوش مصنوعی، که بر این فناوری فرضی متمرکز شدهاند، به شدت به ما میفروشند.
فقط به آنچه رؤسای برخی از آن شرکتها به ما میگوینند گوش دهید. AGI به اندازه یک «کشور نابغهها» هوشمند خواهد بود (داریو آمودی، مدیرعامل Anthropic)؛ این اتفاق «عصری از حداکثر شکوفایی انسانی را آغاز میکند، جایی که ما به ستارهها سفر میکنیم و کهکشان را مستعمره میسازیم» (دیمیس هاسابیس، مدیرعامل Google DeepMind)؛ این اتفاق «فراوانی و رفاه را به شدت افزایش میدهد»، حتی مردم را تشویق میکند تا بیشتر از زندگی لذت ببرند و فرزندان بیشتری داشته باشند (سم آلتمن، مدیرعامل OpenAI). این یک محصول عالی است.
یا نه. البته نیمه تاریک ماجرا را فراموش نکنید. وقتی این افراد در حال تبلیغ آرمانشهر نیستند، ما را از جهنم نجات میدهند. در سال ۲۰۲۳، آمودی، هاسابیس و آلتمن همگی بیانیه ۲۲ کلمهای را امضا کردند که میگفت: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات در مقیاس جامعه مانند همهگیریها و جنگ هستهای، یک اولویت جهانی باشد.» ایلان ماسک میگوید هوش مصنوعی ۲۰% شانس نابودی انسانها را دارد.
کاتیا گریس، محقق ارشد در AI Impacts، سازمانی که از محققان هوش مصنوعی در مورد حوزه کاریشان نظرسنجی میکند، میگوید: «اخیراً متوجه شدهام که فراهوش، که فکر میکردم مفهومی است که قطعاً نباید در ملاء عام به آن اشاره کرد اگر میخواهید جدی گرفته شوید، توسط مدیران عامل فناوری مطرح میشود که ظاهراً قصد ساخت آن را دارند. فکر میکنم آسان است که احساس کنیم این خوب است. آنها همچنین میگویند که ما را خواهد کشت، اما هنگام گفتن آن میخندند.»
باید اعتراف کنید که همه اینها کمی شبیه توهم توطئه است. اگر در حال ساخت یک تئوری توطئه هستید، به چند چیز در این ترکیب نیاز دارید: یک طرح که به اندازه کافی انعطافپذیر باشد تا حتی زمانی که اوضاع طبق برنامه پیش نمیرود، باور را حفظ کند؛ وعده آیندهای بهتر که فقط در صورتی محقق میشود که باورمندان حقایق پنهان را کشف کنند؛ و امیدی به رستگاری از وحشتهای این جهان.
AGI تقریباً همه این موارد را دارد. هرچه بیشتر این ایده را بررسی کنید، بیشتر شبیه یک توطئه به نظر میرسد. البته دقیقاً اینگونه نیست. و من این شباهت را برای نادیده گرفتن نتایج بسیار واقعی و اغلب شگفتانگیز که توسط بسیاری از افراد در این زمینه، از جمله (یا به ویژه) باورمندان AGI به دست آمده، ترسیم نمیکنم.
اما با تمرکز بر شباهتهای AGI با توطئههای واقعی، فکر میکنم میتوانیم کل مفهوم را بهتر روشن کنیم و آن را برای آنچه هست آشکار سازیم: یک رویای تبآلود فنگرایانه آرمانشهری (یا فنگرایانه پادآرمانشهری – انتخاب با شماست) که ریشههای عمیقی در برخی باورهای دیرینه دارد و رها شدن از آن را دشوار کرده است.
این فقط یک آزمایش فکری تحریکآمیز نیست. مهم است که آنچه در مورد AGI به ما گفته میشود را زیر سوال ببریم، زیرا پذیرش این ایده بیضرر نیست. در حال حاضر، AGI مهمترین روایت در فناوری – و تا حدی، در اقتصاد جهانی – است. ما نمیتوانیم آنچه در هوش مصنوعی میگذرد را بدون درک اینکه ایده AGI از کجا آمده، چرا اینقدر جذاب است و چگونه شیوه تفکر ما را در مورد فناوری به طور کلی شکل میدهد، درک کنیم.
میدانم، میدانم – نامیدن AGI به عنوان توطئه، یک تشبیه کامل نیست. بسیاری از مردم را نیز عصبانی خواهد کرد. اما با من وارد این هزارتو شوید و اجازه دهید نور را به شما نشان دهم.
چگونه سیلیکون ولی به دام AGI افتاد
یک تئوری توطئه معمولی معمولاً از حواشی آغاز میشود. شاید فقط چند نفر در یک تابلوی پیام، «شواهد» جمعآوری میکنند. شاید چند نفر در بیابان با دوربینهای دوچشمی منتظر دیدن چراغهای روشن در آسمان هستند. اما برخی از تئوریهای توطئه، اگر بخواهید، خوششانس میشوند: شروع به گسترش بیشتری میکنند؛ کمی قابل قبولتر میشوند؛ شروع به تأثیرگذاری بر افراد قدرتمند میکنند. شاید این بشقابپرندهها (اوه، ببخشید، «پدیدههای هوایی ناشناس») هستند که اکنون به طور رسمی و آشکار در جلسات دولتی مورد بحث قرار میگیرند. شاید این شک و تردید در مورد واکسن (بله، یک مثال بسیار خطرناکتر) است که به سیاست رسمی تبدیل میشود. و نمیتوان نادیده گرفت که هوش مصنوعی عمومی مسیری بسیار مشابه با همتایان آشکارتر توطئهگرانه خود را دنبال کرده است.
بیایید به سال ۲۰۰۷ بازگردیم، زمانی که هوش مصنوعی جذاب و باکلاس نبود. شرکتهایی مانند آمازون و نتفلیکس (که هنوز دیویدیها را از طریق پست ارسال میکرد) از مدلهای یادگیری ماشین، اجداد اولیه LLMهای غولپیکر امروزی، برای توصیه فیلمها و کتابها به مشتریان استفاده میکردند. اما تقریباً همین بود.
بن گورتزل برنامههای بسیار بزرگتری داشت. حدود یک دهه پیش، این محقق هوش مصنوعی یک شرکت داتکام به نام Webmind را راهاندازی کرده بود تا آنچه را که او نوعی مغز دیجیتالی نوزاد میدانست، روی اینترنت اولیه آموزش دهد. Webmind که فرزندی نداشت، به زودی ورشکست شد.
اما گورتزل چهرهای تأثیرگذار در جامعه حاشیهای از محققان بود که سالها رویای ساخت هوش مصنوعی انسانمانند را در سر میپروراندند، یک برنامه کامپیوتری همهمنظوره که میتوانست بسیاری از کارهایی را که انسانها میتوانند انجام دهند (و بهتر از آنها) انجام دهد. این چشماندازی بود که فراتر از نوع فناوری بود که نتفلیکس با آن آزمایش میکرد.
گورتزل میخواست کتابی در ترویج آن چشمانداز منتشر کند و به نامی نیاز داشت که آن را از هوش مصنوعی معمولی آن زمان متمایز کند. یک کارمند سابق Webmind به نام شین لگ «هوش مصنوعی عمومی» (Artificial General Intelligence) را پیشنهاد کرد. این نام جذابیت خاصی داشت.
چند سال بعد، لگ با دیمیس هاسابیس و مصطفی سلیمان شرکت دیپمایند (DeepMind) را تاسیس کرد. اما برای اکثر محققان جدی آن زمان، این ادعا که هوش مصنوعی روزی تواناییهای انسانی را تقلید خواهد کرد، کمی شوخی بود. سوتسکور به من گفت: AGI قبلاً یک کلمه ناپسند بود. اندرو اِنجی، بنیانگذار Google Brain و دانشمند ارشد سابق در غول فناوری چینی Baidu، به من گفت که فکر میکرد این ایده دیوانهوار است.
پس چه شد؟ ماه گذشته با گورتزل ملاقات کردم تا بپرسم چگونه یک ایده حاشیهای از احمقانه به رایج تبدیل شد. او گفت: «من به نوعی یک متخصص سیستمهای پیچیده و آشفته هستم، بنابراین تخمین پایینی از اینکه واقعاً پویایی غیرخطی در فضای میمها چه بوده است، دارم.» (ترجمه: پیچیده است).
گورتزل حدس میزند که چند چیز این ایده را به جریان اصلی آورد. اولین مورد کنفرانس هوش مصنوعی عمومی است، یک نشست سالانه محققان که او در سال ۲۰۰۸، یک سال پس از انتشار کتابش، به راهاندازی آن کمک کرد. این کنفرانس اغلب با گردهماییهای دانشگاهی اصلی مانند کنفرانس انجمن پیشرفت هوش مصنوعی و کنفرانس مشترک بینالمللی هوش مصنوعی هماهنگ میشد. گورتزل میگوید: «اگر من فقط کتابی با نام AGI منتشر میکردم، ممکن بود به سرعت فراموش شود. اما کنفرانس هر سال با تعداد فزایندهای از دانشجویان برگزار میشد.»
مورد بعدی لگ است که این اصطلاح را با خود به دیپمایند برد. گورتزل میگوید: «فکر میکنم آنها اولین نهاد شرکتی جریان اصلی بودند که درباره AGI صحبت کردند. این موضوع اصلی نبود که آنها روی آن تاکید میکردند، اما شین و دیمیس هر از گاهی درباره آن صحبت میکردند. این قطعاً منبع مشروعیتبخشی بود.»
زمانی که برای اولین بار پنج سال پیش با لگ در مورد AGI صحبت کردم، او گفت: «صحبت کردن در مورد AGI در اوایل دهه ۲۰۰۰ شما را در حاشیه دیوانگان قرار میداد... حتی زمانی که ما دیپمایند را در سال ۲۰۱۰ شروع کردیم، در کنفرانسها با حجم شگفتآوری از تمسخر روبرو شدیم.» اما تا سال ۲۰۲۰ اوضاع تغییر کرده بود. او به من گفت: «برخی افراد با آن راحت نیستند، اما در حال بیرون آمدن از گمنامی است.»
سومین چیزی که گورتزل به آن اشاره میکند، همپوشانی بین مبلغان اولیه AGI و بازیگران قدرتمند فناوری بزرگ است. در سالهای بین تعطیلی Webmind و انتشار کتاب AGI، گورتزل با پیتر تیل در صندوق پوشش ریسک تیل، Clarium Capital، همکاریهایی داشت. گورتزل میگوید: «ما زیاد با هم صحبت میکردیم.» او به یاد میآورد که یک روز را با تیل در فور سیزنز در سانفرانسیسکو گذرانده است. گورتزل میگوید: «من سعی میکردم AGI را به مغز او فرو کنم. اما بعد او از الیزر هم میشنید که AGI قرار است همه را بکشد.»
ظهور "موجهای آخرالزمانی"
آن الیزر یودکوفسکی، چهره تأثیرگذار دیگری است که حداقل به اندازه گورتزل، و شاید بیشتر، برای ترویج ایده AGI تلاش کرده است. اما برخلاف گورتزل، یودکوفسکی معتقد است که شانس بسیار بالایی – او عددی ۹۹.۵% را مطرح میکند – وجود دارد که توسعه AGI یک فاجعه باشد.
در سال ۲۰۰۰، یودکوفسکی یک سازمان تحقیقاتی غیرانتفاعی به نام مؤسسه تکینگی برای هوش مصنوعی (که بعدها به مؤسسه تحقیقات هوش ماشینی تغییر نام یافت) را تأسیس کرد که به سرعت خود را وقف جلوگیری از سناریوهای آخرالزمانی کرد. تیل از حامیان اولیه این مؤسسه بود.
در ابتدا، ایدههای یودکوفسکی چندان مورد توجه قرار نگرفت. به یاد بیاورید که در آن زمان، ایده هوش مصنوعی همهتوان – چه رسد به هوش مصنوعی خطرناک – صرفاً علمی-تخیلی بود. اما در سال ۲۰۱۴، نیک باستروم، فیلسوف دانشگاه آکسفورد، کتابی با عنوان "Superintelligence" (فراهوش) منتشر کرد.
گورتزل میگوید: «این کتاب موضوع AGI را مطرح کرد. منظورم این است که بیل گیتس، ایلان ماسک – بسیاری از افراد فعال در صنعت فناوری و هوش مصنوعی – آن کتاب را خواندند، و چه با دیدگاه آخرالزمانی او موافق بودند یا نه، نیک مفاهیم الیزر را به شکلی بسیار قابل قبول ارائه کرد.»
گورتزل میافزاید: «همه اینها به AGI مهر تأیید زد. به جای اینکه صرفاً حرفهای دیوانهوار از سوی افراد عجیب و غریب باشد.»
یودکوفسکی ۲۵ سال است که بر طبل همین عقاید میکوبد؛ بسیاری از مهندسان شرکتهای برتر هوش مصنوعی امروزی با خواندن و بحث درباره دیدگاههای او به صورت آنلاین، به ویژه در LessWrong، یک مرکز محبوب برای جامعه پرشور عقلگرایان و نوعدوستان موثر در صنعت فناوری، بزرگ شدهاند.
امروزه، این دیدگاهها بیش از هر زمان دیگری محبوب هستند و تخیل نسل جوانتری از معتقدان به آخرالزمان مانند دیوید کروگر، محقق دانشگاه مونترال که قبلاً مدیر تحقیقات مؤسسه امنیت هوش مصنوعی بریتانیا بود، را به خود جلب کردهاند. کروگر به من میگوید: «فکر میکنم ما قطعاً در مسیر ساخت سیستمهای هوش مصنوعی فراانسانی هستیم که همه را خواهند کشت. و فکر میکنم این وحشتناک است و باید فوراً متوقف شویم.»
یودکوفسکی مورد توجه نشریاتی مانند نیویورک تایمز قرار میگیرد که او را «نسخه سیلیکون ولی از یک واعظ آخرالزمانی» معرفی میکند. کتاب جدید او، "If Anyone Builds It, Everyone Dies" (اگر کسی آن را بسازد، همه میمیرند)، که با نِیت سوارز، رئیس مؤسسه تحقیقات هوش ماشینی، نوشته شده است، ادعاهای گزافی را، با شواهد اندک، مطرح میکند که مگر اینکه توسعه را متوقف کنیم، AGI آینده نزدیک به آرماگدون جهانی منجر خواهد شد. موضع این دو افراطی است: آنها استدلال میکنند که ممنوعیت بینالمللی باید به هر قیمتی، حتی تا حد تلافی هستهای، اجرا شود. به هر حال، یودکوفسکی و سوارز مینویسند: «مراکز داده میتوانند افراد بیشتری را نسبت به سلاحهای هستهای بکشند.»
این مطالب دیگر جزو مباحث حاشیهای نیست. این کتاب از پرفروشترینهای نیویورک تایمز است و با تأییداتی از کارشناسان امنیت ملی مانند سوزان اسپالدینگ، مقام سابق وزارت امنیت داخلی آمریکا، و فیونا هیل، مدیر ارشد سابق شورای امنیت ملی کاخ سفید که اکنون مشاور دولت بریتانیا است؛ دانشمندان مشهور مانند مکس تگمارک و جورج چرچ؛ و دیگر نامهای شناختهشدهای از جمله استفن فرای، مارک روفالو و گرایمز همراه است. یودکوفسکی اکنون یک بلندگوی قدرتمند دارد.
با این حال، ممکن است آن سخنان اولیه و آرام در گوش افراد خاص، تأثیرگذارترین باشد. یودکوفسکی به عنوان معرفی کننده تیل به بنیانگذاران دیپمایند شناخته میشود، و پس از آن تیل یکی از اولین سرمایهگذاران بزرگ در این شرکت شد. پس از ادغام با گوگل، اکنون این شرکت آزمایشگاه داخلی هوش مصنوعی برای غول فناوری آلفابت است.
تیل، در کنار ماسک، در تأسیس OpenAI در سال ۲۰۱۵ نیز نقش مهمی ایفا کرد و میلیونها دلار را به استارتاپی سرمایهگذاری کرد که بر اساس آرزوی منحصر به فرد ساخت AGI – و ایمنسازی آن – بنا شده بود. در سال ۲۰۲۳، سم آلتمن، مدیرعامل OpenAI، در X پست کرد: «به نظر من، الیزر بیشتر از هرکس دیگری به تسریع AGI کمک کرده است. قطعاً او بسیاری از ما را به AGI علاقهمند کرد.» آلتمن افزود که یودکوفسکی ممکن است روزی سزاوار جایزه صلح نوبل برای این کار باشد. اما در این مرحله، ظاهراً تیل نسبت به «افراد ایمنی هوش مصنوعی» و قدرتی که کسب میکردند، محتاط شده بود. او گزارش شده است که در یک مهمانی شام در اواخر سال ۲۰۲۳ به آلتمن گفته است: «شما نمیفهمید چگونه الیزر نیمی از افراد شرکت شما را برنامهریزی کرده است تا به آن چیزها اعتقاد داشته باشند. شما باید این موضوع را جدیتر بگیرید.» به گفته کچ هِیگی، گزارشگر وال استریت ژورنال، آلتمن «سعی کرد چشمهایش را نچرخاند.»
OpenAI اکنون با نیم تریلیون دلار ارزش، باارزشترین شرکت خصوصی جهان است.
و دگرگونی کامل شده است: مانند قدرتمندترین توطئهها، AGI به جریان اصلی نفوذ کرده و جای خود را باز کرده است.
توطئه بزرگ AGI
اصطلاح «AGI» شاید کمتر از ۲۰ سال پیش رایج شده باشد، اما اسطورهسازی پشت آن از آغاز عصر کامپیوتر وجود داشته است – پیشینهای از گستاخی و بازاریابی.
آلن تورینگ تنها پنج سال پس از ساخت اولین کامپیوتر الکترونیکی، ENIAC، در سال ۱۹۴۵، پرسید که آیا ماشینها میتوانند فکر کنند. و تورینگ کمی بعد، در یک پخش رادیویی در سال ۱۹۵۱، میگوید: «به نظر محتمل است که به محض شروع روش تفکر ماشینی، زمان زیادی طول نکشد تا از تواناییهای ضعیف ما پیشی بگیرد. بحث مردن ماشینها مطرح نخواهد بود و آنها قادر خواهند بود با یکدیگر صحبت کنند تا هوش خود را تیزتر کنند. بنابراین در مرحلهای باید انتظار داشته باشیم که ماشینها کنترل را به دست بگیرند.»
سپس، در سال ۱۹۵۵، جان مککارتی، دانشمند کامپیوتر و همکارانش برای دریافت بودجه از دولت ایالات متحده درخواست دادند تا آنچه را که آنها سرنوشتسازانه «هوش مصنوعی» نامیدند، ایجاد کنند – یک چرخش هوشمندانه، با توجه به اینکه کامپیوترهای آن زمان به اندازه یک اتاق بزرگ و به اندازه یک ترموستات احمق بودند. با این حال، همانطور که مککارتی در آن درخواست بودجه نوشت: «تلاشی برای یافتن چگونگی استفاده ماشینها از زبان، تشکیل انتزاعها و مفاهیم، حل مشکلاتی که اکنون به انسانها اختصاص دارد، و بهبود خودشان انجام خواهد شد.»
این اسطوره ریشه توطئه AGI است. ماشینی باهوشتر از انسان که میتواند همه کارها را انجام دهد، یک فناوری نیست. این یک رویاست، بدون واقعیت. وقتی این را ببینید، شباهتهای دیگر با تفکر توطئهگرانه شروع به خودنمایی میکنند.
ابطال ایدهای متغیر مانند AGI غیرممکن است.
صحبت در مورد AGI گاهی اوقات مانند بحث با یک کاربر پرشور ردیت (Redditor) درباره اینکه چه داروهایی (یا ذراتی در آسمان) ذهن شما را کنترل میکنند، است. هر نقطه دارای یک نقطه مقابل است که سعی میکند حس شما را از آنچه واقعی است، خدشهدار کند. در نهایت، این یک برخورد دیدگاههاست، نه تبادل استدلال مبتنی بر شواهد. AGI هم همینطور است – لغزنده است.
بخشی از مشکل این است که علیرغم تمام پول و صحبتها، هیچکس نمیداند چگونه آن را بسازد. فراتر از آن: اکثر مردم حتی در مورد اینکه AGI واقعاً چیست، توافق ندارند – که توضیح میدهد چگونه مردم میتوانند ادعا کنند که هم میتواند دنیا را نجات دهد و هم به آن پایان دهد. در هسته بیشتر تعاریف، ایده ماشینی را خواهید یافت که میتواند با انسانها در طیف وسیعی از وظایف شناختی رقابت کند. (و به یاد داشته باشید، فراهوش (superintelligence) ارتقاء جدید و درخشان AGI است: ماشینی که میتواند از ما پیشی بگیرد.) اما حتی این هم به راحتی قابل تحلیل است: از کدام انسانها صحبت میکنیم؟ چه نوع وظیفه شناختی؟ و با چه گسترهای؟
کریستوفر سایمونز، دانشمند ارشد هوش مصنوعی در استارتاپ مراقبتهای بهداشتی هوش مصنوعی Lirio و رئیس سابق بخش علوم کامپیوتر و ریاضیات در آزمایشگاه ملی اوک ریج، میگوید: «هیچ تعریف واقعی از آن وجود ندارد. اگر بگویید 'هوش در سطح انسانی'، میتواند بینهایت چیز باشد – سطح هوش هر کس کمی متفاوت است.»
و بنابراین، سایمونز میگوید، ما در این مسابقه عجیب برای ساختن... دقیقاً چه چیزی هستیم؟ «شما میخواهید آن را به چه کاری وادار کنید؟»
در سال ۲۰۲۳، تیمی از محققان گوگل دیپمایند، از جمله لگ، تلاش کردند تا تعاریف مختلفی که مردم برای AGI پیشنهاد کرده بودند را دستهبندی کنند. برخی گفتند که یک ماشین باید بتواند یاد بگیرد؛ برخی گفتند که باید بتواند پول درآورد؛ برخی گفتند که باید بدن داشته باشد و در دنیا حرکت کند (و شاید قهوه درست کند).
لگ به من گفت وقتی این اصطلاح را برای عنوان کتاب گورتزل پیشنهاد کرده بود، این ابهام تا حدودی هدفمند بود. او در آن زمان گفت: «من تعریف واضحی نداشتم. واقعاً آن را لازم نمیدانستم. در واقع، بیشتر به آن به عنوان یک حوزه مطالعاتی فکر میکردم، نه یک اثر هنری.»
پس، حدس میزنم وقتی آن را ببینیم، خواهیم شناخت؟ مشکل اینجاست که برخی افراد فکر میکنند قبلاً آن را دیدهاند.
در سال ۲۰۲۳، تیمی از محققان مایکروسافت مقالهای منتشر کردند که در آن تجربیات خود را در کار با نسخه پیش از انتشار مدل زبان بزرگ GPT-4 شرکت OpenAI توصیف کردند. آنها آن را «جرقه های هوش مصنوعی عمومی» نامیدند – و این موضوع صنعت را دو قطبی کرد.
آن لحظهای بود که بسیاری از محققان شگفتزده شدند و سعی کردند آنچه را میدیدند، درک کنند. گورتزل میگوید: «اوضاع بهتر از آنچه انتظار داشتند کار میکرد. مفهوم AGI واقعاً قابل قبولتر به نظر میرسید.»
و با این حال، با وجود بازیهای کلامی قابل توجه LLMها، گورتزل فکر نمیکند که آنها واقعاً حاوی جرقههای AGI باشند. او میگوید: «برایم کمی تعجبآور است که برخی افراد با درک فنی عمیق از نحوه عملکرد این ابزارها، همچنان فکر میکنند که میتوانند به AGI در سطح انسانی تبدیل شوند. از طرف دیگر، نمیتوان ثابت کرد که اینطور نیست.»
و همین است: نمیتوانید ثابت کنید که اینطور نیست. والور از دانشگاه ادینبورگ میگوید: «ایده اینکه AGI در راه است و همین گوشه است و اجتنابناپذیر است، به بسیاری از انحرافات از واقعیت مشروعیت بخشیده است. اما ما واقعاً هیچ مدرکی برای آن نداریم.»
تفکر توطئهگرانه دوباره ظاهر میشود. پیشبینیها در مورد زمان رسیدن AGI با دقت عددیها که شمارش معکوس را برای پایان جهان انجام میدهند، ارائه میشود. بدون هیچ پیامد واقعی، ضربالاجلها میآیند و میروند و با بیتفاوتی نادیده گرفته میشوند. بهانهها آورده میشود و جدول زمانی دوباره تنظیم میشود.
این را وقتی مشاهده کردیم که OpenAI مدل پر سر و صدای GPT-5 را در تابستان امسال منتشر کرد. طرفداران هوش مصنوعی از اینکه نسخه جدید فناوری شاخص این شرکت آن تغییر بزرگی که انتظار داشتند نبود، ناامید شدند. اما به جای اینکه این را به عنوان شاهدی بر دستنیافتنی بودن AGI – یا حداقل با یک LLM – ببینند، باورمندان پیشبینیهای خود را برای اینکه AGI چقدر زود خواهد آمد، به جلو انداختند. AGI میآمد – فقط، میدانید، دفعه بعد.
شاید حق با آنها باشد. یا شاید مردم هر مدرکی را که بتوانند برای دفاع از یک ایده پیدا کنند، انتخاب کنند و شواهدی را که مخالف آن است، نادیده بگیرند. جرمی کوهن، که تفکر توطئهگرانه را در محافل فناوری در دانشگاه مکمستر کانادا مطالعه میکند، این را «جمعآوری ناقص شواهد» مینامد – که نشانهای از تفکر توطئهگرانه است.
کوهن کار تحقیقاتی خود را در بیابان آریزونا آغاز کرد و جامعهای به نام «مردم نامحدود» (People Unlimited) را مطالعه میکرد که معتقد بودند اعضای آن فناناپذیر هستند. این اعتقاد در برابر شواهد مخالف غیرقابل نفوذ بود. وقتی اعضای آن به دلایل طبیعی (از جمله دو نفر از بنیانگذارانش) درگذشتند، تفکر این بود که حتماً سزاوار آن بودهاند. کوهن میگوید: «اجماع عمومی این بود که هر مرگی یک خودکشی بوده است. اگر شما فناناپذیر هستید و سرطان میگیرید و میمیرید – خب، حتماً کار اشتباهی انجام دادهاید.»
کوهن از آن زمان بر ترابشریت (این ایده که فناوری میتواند به انسانها کمک کند تا از محدودیتهای طبیعی خود فراتر روند) و AGI تمرکز کرده است. او میگوید: «من شباهتهای زیادی را میبینم. اشکالی از تفکر جادویی وجود دارد که به نظر من بخشی از تصورات عمومی در مورد AGI است. این به خوبی با انواع تصورات مذهبی که امروزه در تفکر توطئهگرانه میبینید، ارتباط برقرار میکند.»
باورمندان در راز AGI شریک هستند.
شاید برخی از شما فکر کنید که من احمق هستم: اصلاً نمیفهمید لول. اما نکته من همین است. افراد خودی و بیرونی وجود دارند. وقتی با محققان یا مهندسانی صحبت میکنم که خوشحالند AGI را به عنوان یک امر مسلم وارد مکالمه کنند، انگار چیزی میدانند که من نمیدانم. اما هیچکس نتوانسته است به من بگوید آن چیز چیست.
حقیقت در آنجاست، اگر بدانید کجا را نگاه کنید. کوهن به من میگوید که نظریههای توطئه عمدتاً به آشکار کردن یک حقیقت پنهان مربوط میشوند: «این بخش واقعاً اساسی تفکر توطئهگرانه است، و این کاملاً چیزی است که در نحوه صحبت مردم درباره AGI میبینید.»
سال گذشته، لئوپولد آشنبرنر، کارمند سابق ۲۳ ساله OpenAI که به سرمایهگذار تبدیل شد، مانیفست ۱۶۵ صفحهای با عنوان «آگاهی موقعیتی» منتشر کرد که بسیار مورد تجزیه و تحلیل قرار گرفت. برای درک ایده نیازی به خواندن آن ندارید: یا حقیقت آنچه در راه است را میبینید یا نه. و به حقایق سرد و سخت هم نیازی نیست – همین که آن را احساس کنید کافی است. کسانی که آن را احساس نمیکنند، هنوز نور را ندیدهاند.
این ایده در حاشیه گفتگوی من با گورتزل نیز ظاهر شد. وقتی از او پرسیدم چرا مردم نسبت به AGI تردید دارند، او گفت: «قبل از هر دستاورد فنی بزرگ، از پرواز انسان تا برق، تعداد زیادی از کارشناسان عاقل به شما میگفتند چرا هرگز اتفاق نخواهد افتاد. حقیقت این است که اکثر مردم فقط چیزی را باور میکنند که جلوی چشمانشان میبینند.»
این باعث میشود AGI مانند یک اعتقاد قلبی به نظر برسد. این موضوع را با کروگر، که معتقد است AGI شاید پنج سال دیگر میرسد، در میان گذاشتم. او تمسخر کرد و گفت: «فکر میکنم این کاملاً برعکس است.» برای او، اعتقاد قلبی این ایده است که AGI اتفاق نخواهد افتاد – این شکاکان هستند که همچنان بدیهیات را انکار میکنند. (با این حال، او احتیاط میکند و میگوید: هیچکس مطمئن نیست، اما دلیل واضحی وجود ندارد که AGI اتفاق نیفتد.)
حقایق پنهان، حقیقتجویان را به خود جذب میکنند، کسانی که مصمم به آشکار کردن چیزی هستند که از ابتدا دیدهاند. با AGI، اما، صرفاً کشف چیزی پنهان کافی نیست. در اینجا، مکاشفه نیازمند یک عمل بیسابقه خلق است. اگر اعتقاد دارید AGI قابل دستیابی است، پس باور دارید که سازندگان آن، مامای ماشینهایی هستند که با هوش انسانی برابری یا از آن پیشی خواهند گرفت. والور میگوید: «ایده "تولد خدایان ماشینی" آشکارا برای نفس انسان بسیار تملقآمیز است. فکر کردن به اینکه شما خودتان پایههای اولیه آن تعالی را میگذارید، به طرز باورنکردنی اغواکننده است.»
این همپوشانی دیگری با تفکر توطئهگرانه است. بخشی از جذابیت، میل به حس هدفمندی در دنیایی آشفته است که میتواند بیمعنا به نظر برسد – اشتیاق به فردی با اهمیت بودن.
کروگر، که در برکلی مستقر است، میگوید افرادی را میشناسد که روی هوش مصنوعی کار میکنند و این فناوری را جانشین طبیعی ما میدانند. او میگوید: «آنها آن را شبیه به بچهدار شدن یا چیزی شبیه به آن میدانند. نکته جانبی: آنها معمولاً فرزند ندارند.»
AGI تنها ناجی ما خواهد بود (یا آخرالزمان را به ارمغان میآورد).
کوهن شباهتهایی بین بسیاری از تئوریهای توطئه مدرن و جنبش عصر جدید میبیند، که اوج نفوذ خود را در دهههای ۱۹۷۰ و ۸۰ تجربه کرد. پیروان این جنبش معتقد بودند که بشریت در آستانه دستیابی به عصری از رفاه معنوی و آگاهی گسترده است که جهانی صلحآمیزتر و مرفه را به ارمغان میآورد. به طور خلاصه، ایده این بود که با درگیر شدن در مجموعهای از اعمال شبهمذهبی، از جمله طالعبینی و جمعآوری دقیق کریستالها، انسانها از محدودیتهای خود فراتر رفته و وارد نوعی آرمانشهر هیپی میشوند.
صنعت فناوری امروز بر قدرت پردازش است، نه کریستالها، اما حس آنچه در خطر است، کمتر متعالی نیست: کوهن میگوید: «میدانید، این ایده که قرار است این تغییر بنیادین اتفاق بیفتد، این تحول هزارساله که در آن به آیندهای فنگرایانه-آرمانشهری میرسیم. و این ایده که AGI در نهایت به بشریت اجازه میدهد تا بر مشکلاتی که با آن روبرو است، غلبه کند.»
به روایت بسیاری، AGI ناگهان از راه خواهد رسید. پیشرفتهای تدریجی در هوش مصنوعی انباشته میشوند تا اینکه روزی، هوش مصنوعی به اندازهای خوب خواهد شد که خودش شروع به ساخت هوش مصنوعی بهتر کند. در این مرحله – FOOM – به سرعت پیشرفت میکند تا AGI در آنچه اغلب «انفجار هوش» نامیده میشود، از راه برسد و به نقطهای بدون بازگشت به نام «تکینگی» (Singularity) منجر شود، اصطلاحی عجیب که سالها در محافل AGI محبوب بوده است. ورنر وینج، نویسنده علمی تخیلی، با استفاده از مفهومی از فیزیک، ایده تکینگی فناوری را اولین بار در دهه ۱۹۸۰ معرفی کرد. وینج یک افق رویداد را در مسیر پیشرفت فناوری تصور کرد که فراتر از آن، انسانها به سرعت توسط خودبهبودی تصاعدی ماشینهایی که ساخته بودند، پشت سر گذاشته میشدند.
آن را «بیگ بنگ هوش مصنوعی» بنامید – که باز هم، به ما یک «قبل» و یک «بعد» میدهد، لحظهای متعالی که بشریت آنگونه که میشناسیم برای همیشه تغییر میکند (برای خوب یا بد). گریس از AI Impacts میگوید: «مردم آن را یک رویداد تصور میکنند.»
برای والور، این سیستم اعتقادی به دلیل روشی که در آن ایمان به فناوری جایگزین ایمان به انسانها شده است، قابل توجه است. او میگوید: «با وجود تمام حرفهای بیاساس، تفکر عصر جدید حداقل با این ایده انگیزه داشت که مردم آنچه را برای تغییر جهان به تنهایی لازم است، در اختیار دارند، اگر بتوانند از آن بهره ببرند. با پیگیری AGI، ما آن خودباوری را پشت سر گذاشتهایم و این ایده را پذیرفتهایم که فقط فناوری میتواند ما را نجات دهد.»
این یک فکر جذاب – حتی آرامشبخش – برای بسیاری از مردم است. والور میگوید: «ما در دورانی هستیم که به نظر میرسد سایر مسیرهای بهبود مادی زندگی انسانها و جوامع ما به پایان رسیده است.»
او میگوید: «فناوری زمانی نویدبخش مسیری به سوی آیندهای بهتر بود: پیشرفت نردبانی بود که ما برای شکوفایی انسانی و اجتماعی از آن بالا میرفتیم. ما از اوج آن عبور کردهایم. فکر میکنم تنها چیزی که به بسیاری از مردم امید و بازگشت به آن نوع خوشبینی درباره آینده را میدهد، AGI است.»
والور میگوید، این ایده را به نتیجه برسانید و دوباره، AGI به نوعی خدا تبدیل میشود – خدایی که میتواند از رنجهای دنیوی رهایی بخشد.
کلی جویس، جامعهشناس دانشگاه کارولینای شمالی که چگونگی شکلگیری افکار و استفاده از فناوری توسط باورهای فرهنگی، سیاسی و اقتصادی را بررسی میکند، تمام این پیشبینیهای عجیب در مورد AGI را چیزی پیشپا افتادهتر میبیند: بخشی از یک الگوی بلندمدت از وعدههای بیش از حد از سوی صنعت فناوری. او میگوید: «آنچه برای من جالب است این است که ما هر بار درگیر آن میشویم. یک باور عمیق وجود دارد که فناوری بهتر از انسانهاست.»
جویس فکر میکند به همین دلیل است که وقتی هیاهو شروع میشود، مردم تمایل به باور آن دارند. او میگوید: «این یک دین است. ما به فناوری اعتقاد داریم. فناوری خداست. مقابله با آن واقعاً دشوار است. مردم نمیخواهند آن را بشنوند.»
چگونه AGI یک صنعت را ربود
فانتزی کامپیوترهایی که تقریباً هر کاری را که یک انسان میتواند انجام دهد، انجام میدهند، فریبنده است. اما مانند بسیاری از تئوریهای توطئه فراگیر، پیامدهای بسیار واقعی دارد. این فانتزی، نحوه تفکر ما را درباره پیامدهای رونق کنونی فناوری (و رکود احتمالی) تغییر داده است. حتی ممکن است صنعت را منحرف کرده باشد و منابع را از کاربردهای فوریتر و عملیتر فناوری دور کند. بیش از هر چیز دیگر، به ما اجازه میدهد تنبل باشیم. ما را فریب میدهد تا فکر کنیم ممکن است بتوانیم از کارهای سخت واقعی لازم برای حل مشکلات غیرقابل حل و جهانی – مشکلاتی که نیازمند همکاری و سازش بینالمللی و کمکهای گرانقیمت هستند – اجتناب کنیم. چرا زحمت این کارها را به خود بدهیم وقتی به زودی ماشینهایی خواهیم داشت که همه چیز را برای ما حل میکنند؟
منابعی را که در این پروژه بزرگ صرف میشود، در نظر بگیرید. همین ماه گذشته، OpenAI و Nvidia یک شراکت تا ۱۰۰ میلیارد دلاری را اعلام کردند که بر اساس آن غول تراشه حداقل ۱۰ گیگاوات از تقاضای سیریناپذیر ChatGPT را تامین خواهد کرد. این عدد بالاتر از نیروگاههای هستهای است. یک صاعقه ممکن است همین مقدار انرژی آزاد کند. خازن شارژ داخل ماشین زمان دلوریان دکتر اِمِت براون تنها ۱.۲ گیگاوات برای فرستادن مارتی به آینده نیاز داشت. و سپس، تنها دو هفته بعد، OpenAI یک شراکت دوم با تراشهساز AMD برای ۶ گیگاوات دیگر برق اعلام کرد.
آلتمن، در حال تبلیغ معامله انویدیا در CNBC، با لحنی جدی ادعا کرد که بدون این نوع ساخت مراکز داده، مردم باید بین درمان سرطان و آموزش رایگان یکی را انتخاب کنند. او گفت: «هیچکس نمیخواهد چنین انتخابی بکند.» (تنها چند هفته بعد، او اعلام کرد که چتهای اِروتیک به ChatGPT میآیند.)
به این هزینهها، از دست دادن سرمایهگذاری در فناوریهای فوریتر را اضافه کنید که میتوانند زندگیها را امروز، فردا و روز بعد تغییر دهند. سایمونز از Lirio میگوید: «برای من این یک فرصت از دست رفته بزرگ است که تمام این منابع را صرف حل چیزی مبهم کنیم در حالی که ما قبلاً میدانیم مشکلات واقعی وجود دارد که میتوانیم حل کنیم.»
اما اینگونه نیست که شرکتهایی مانند OpenAI باید عمل کنند. سایمونز میگوید: «با توجه به اینکه مردم این همه پول به این شرکتها میریزند، آنها مجبور به انجام این کار نیستند. اگر صدها میلیارد دلار دارید، مجبور نیستید روی یک پروژه عملی و قابل حل تمرکز کنید.»
با وجود اعتقاد راسخ او به آمدن AGI، کروگر همچنین فکر میکند که پیگیری یکجانبه صنعت از آن به این معنی است که راهحلهای بالقوه برای مشکلات واقعی، مانند مراقبتهای بهداشتی بهتر، نادیده گرفته میشوند. او میگوید: «مردم لیست بلندبالایی از گلایهها در مورد مفهوم AGI و این ایده که باید یک هدف باشد، دارند. فکر میکنم در این زمینه بسیار نامحبوب است.»
و پیامدهایی برای نحوه حمایت و تنظیم مقررات فناوری توسط دولتها (یا عدم آن) وجود دارد. تینا لا، که سیاست فناوری را در دانشگاه کالیفرنیا-دیویس مطالعه میکند، نگران است که سیاستگذاران در مورد روشهایی که هوش مصنوعی روزی همه ما را خواهد کشت، لابی میشوند، به جای اینکه به نگرانیهای واقعی در مورد تأثیر هوش مصنوعی بر زندگی مردم در راههای فوری و مادی امروز بپردازند. نابرابری توسط خطر وجودی به حاشیه رانده شده است.
لا میگوید: «تبلیغات یک استراتژی سودآور برای شرکتهای فناوری است.» بخش بزرگی از این تبلیغات، این ایده است که آنچه اتفاق میافتد اجتنابناپذیر است: اگر ما آن را نسازیم، شخص دیگری خواهد ساخت. لا میگوید: «وقتی چیزی به عنوان اجتنابناپذیر معرفی میشود، مردم نه تنها در مورد اینکه آیا باید مقاومت کنند، بلکه در مورد اینکه آیا توانایی انجام این کار را دارند، تردید میکنند.» همه در یک چرخه گرفتار میشوند.
میلتون مولر از مؤسسه فناوری جورجیا، که در زمینه سیاست و مقررات فناوری کار میکند، میگوید: میدان تحریف AGI به سیاست فناوری محدود نمیشود. او میگوید: «رقابت برای AGI با رقابت برای بمب اتم مقایسه میشود. بنابراین هر کس که زودتر به آن دست یابد، قدرت نهایی را بر همه خواهد داشت. این یک ایده دیوانهوار و خطرناک است که واقعاً رویکرد ما را در قبال سیاست خارجی تحریف خواهد کرد.»
مولر میگوید: «یک انگیزه تجاری برای شرکتها (و دولتها) برای ترویج اسطوره AGI وجود دارد، زیرا آنها میتوانند ادعا کنند که اولین کسانی خواهند بود که به آن دست مییابند. اما چون آنها در مسابقهای شرکت میکنند که هیچکس بر خط پایان آن توافق ندارد، این اسطوره میتواند تا زمانی که مفید باشد، ادامه یابد. یا تا زمانی که سرمایهگذاران مایل به پذیرش آن باشند.»
دیدن نتیجه این ماجرا دشوار نیست. نه آرمانشهر است و نه جهنم – بلکه OpenAI و همتایانش پول بسیار بیشتری به دست میآورند.
توطئه بزرگ AGI، نتیجهگیری
و شاید این ما را به کل ماجرای توطئه بازگرداند – و به یک پیچش دیرهنگام در این داستان. تا اینجا یک ویژگی محبوب تفکر توطئهگرانه را نادیده گرفتهایم: اینکه گروهی از شخصیتهای قدرتمند در پشت صحنه کنترل را در دست دارند و با جستجوی حقیقت، باورمندان میتوانند این حلقه نخبهگرای پنهان را افشا کنند.
مطمئناً، افرادی که AGI را "حس میکنند" به طور عمومی هیچ ایلومیناتی یا نیروی مشابه WEF را متهم نمیکنند که از آینده AGI جلوگیری میکنند یا اسرار آن را پنهان میدارند.
اما اگر در واقع، در اینجا استادان پنهانی وجود داشته باشند – و آنها همان افرادی هستند که از ابتدا توطئه AGI را با شدت بیشتری پیش بردهاند؟ پادشاهان سیلیکون ولی هرچه در توان دارند برای ساخت AGI به منظور سودآوری خرج میکنند. افسانه AGI بیش از هر کس دیگری به نفع آنهاست.
همانطور که یکی از مدیران ارشد یک شرکت هوش مصنوعی اخیراً به ما گفت، AGI همیشه باید شش ماه تا یک سال دیگر باشد، زیرا اگر از آن دورتر باشد، نمیتوانید از Jane Street افراد را استخدام کنید، و اگر به اینجا نزدیکتر باشد، پس چه فایدهای دارد؟
والور میگوید: «اگر OpenAI بگوید در حال ساخت ماشینی است که قرار است شرکتها را حتی قدرتمندتر از امروز کند، این نوع حمایت عمومی را که نیاز دارند، به دست نخواهد آورد.»
به یاد داشته باشید: شما یک خدا خلق میکنید و خودتان نیز مانند آن میشوید. کروگر میگوید خط فکریای در سیلیکون ولی وجود دارد که ساخت هوش مصنوعی راهی برای به دست آوردن مقادیر عظیمی از قدرت است. (برای مثال، یکی از فرضیات «آگاهی موقعیتی» آشنبرنر همین است.) کروگر میگوید: «میدانید، ما قرار است این قدرت خدامانند را داشته باشیم و باید بفهمیم با آن چه کنیم. بسیاری از مردم فکر میکنند اگر اول به آن دست یابند، اساساً میتوانند جهان را در دست بگیرند.»
او میافزاید: «آنها تلاش زیادی برای فروش چشمانداز خود از آینده با AGI انجام میدهند و موفقیت نسبتاً خوبی هم دارند زیرا قدرت زیادی در دست دارند.»
گورتزل، از جمله کسانی است که تقریباً از موفقیت این شاید-تیم گلهمند است. او در واقع دلش برای زندگی در حاشیه تنگ شده است. او میگوید: «در نسل من، برای کار روی AGI باید دیدگاه زیادی میداشتید و بسیار سرسخت میبودید. حالا تقریباً مثل این است که مادربزرگتان به شما میگوید برای اینکه شغل پیدا کنید چه کاری انجام دهید، به جای اینکه یک رشته بازرگانی بخوانید.»
او میگوید: «عجیب است که این مسائل تا این حد به طور گسترده پذیرفته شدهاند. تقریباً دلم میخواهد روی چیز دیگری کار کنم که افراد زیادی آن را انجام نمیدهند.» او نیمهشوخی میکند (فکر میکنم): «بدیهی است که تکمیل AGI مهمتر از ارضای ترجیح من برای بودن در خط مقدم است.»
اما من هنوز در مورد اینکه دقیقاً روی چه چیزی کار میکنند، روشن نیستم. اگر ما اینقدر شیفته داستانهای پریان شویم، برای فناوری به طور کلی چه معنایی خواهد داشت؟ به نظر من، از بسیاری جهات، کل ایده AGI بر پایهای از یک دیدگاه تحریفشده از آنچه باید از فناوری انتظار داشته باشیم، و حتی اینکه هوش چیست، استوار است. اگر آن را به اصول اولیه بازگردانیم، استدلال AGI بر این فرض استوار است که یک فناوری، هوش مصنوعی، به سرعت بسیار خوب شده و به بهتر شدن ادامه خواهد داد. اما اگر اعتراضات فنی – چه میشود اگر بهتر نشود؟ – را کنار بگذاریم، با این ادعا روبرو میشویم که هوش کالایی است که اگر دادهها یا قدرت پردازش یا شبکه عصبی مناسب را داشته باشید، میتوانید بیشتر از آن به دست آورید. و اینطور نیست.
هوش به عنوان مقداری که بتوانید آن را به سادگی بالا ببرید و افزایش دهید، به دست نمیآید. افراد باهوش ممکن است در یک زمینه درخشان باشند و در زمینههای دیگر نه. برخی از برندگان جایزه نوبل در نواختن پیانو یا مراقبت از فرزندانشان واقعاً بد هستند. برخی از افراد بسیار باهوش اصرار دارند که AGI سال آینده خواهد آمد.
سخت است که تعجب نکنیم چه چیزی بعدی ما را درگیر خود خواهد کرد.
قبل از اتمام تماس ما، گورتزل در مورد رویدادی که به تازگی در سانفرانسیسکو درباره آگاهی هوش مصنوعی و فرا روانشناسی شرکت کرده بود، به من گفت: «ESP، پیشبینی و غیره.»
او گفت: «AGI بیست سال پیش آنجا بود. همه فکر میکنند دیوانگی محض است.»
تصحیح: این داستان برای بازتاب بهتر دیدگاههای دیوید کروگر بهروزرسانی شده است.