بهار گذشته، دانیل کوکوتایلو، محقق ایمنی هوش مصنوعی که در OpenAI کار میکرد، در اعتراض به سیاستهای شرکت از کار خود استعفا داد. او متقاعد شده بود که شرکت برای آینده فناوری خود آماده نیست و میخواست هشدار دهد. پس از اینکه یکی از دوستان مشترک ما را به هم وصل کرد، تلفنی با هم صحبت کردیم. کوکوتایلو را مهربان، آگاه و مضطرب یافتم. او به من گفت که پیشرفتها در «همترازی» (مجموعهای از تکنیکها برای اطمینان از اینکه هوش مصنوعی مطابق با دستورات و ارزشهای انسانی عمل میکند) از پیشرفتها در هوشمندی عقب مانده است. او گفت که محققان با سرعت به سمت ایجاد سیستمهای قدرتمندی پیش میروند که نمیتوانند آنها را کنترل کنند.
کوکوتایلو، که از برنامه کارشناسی ارشد فلسفه به شغل هوش مصنوعی روی آورده بود، توضیح داد که چگونه خود را آموزش داده تا این حوزه را درک کند. در OpenAI، بخشی از کار او پیگیری پیشرفتهای هوش مصنوعی بود تا بتواند جدولهای زمانی را برای پیشبینی زمان عبور از آستانههای مختلف هوشمندی ایجاد کند. در یک مقطع، پس از پیشرفت غیرمنتظره فناوری، مجبور شد جدولهای زمانی خود را دههها جلوتر ببرد. در سال ۲۰۲۱، او سناریویی درباره هوش مصنوعی با عنوان «۲۰۲۶ چگونه خواهد بود» نوشت. بسیاری از پیشبینیهای او پیش از سال ذکر شده محقق شده بودند. او نتیجه گرفته بود که نقطه بیبازگشت، زمانی که هوش مصنوعی ممکن است در تقریباً تمام وظایف مهم بهتر از انسانها شود و قدرت و اختیار زیادی به آن سپرده شود، میتواند در سال ۲۰۲۷ یا زودتر فرا رسد. او ترسیده به نظر میرسید.
تقریباً در همان زمانی که کوکوتایلو OpenAI را ترک کرد، دو دانشمند کامپیوتر در پرینستون، سایا کاپور و آرویند نارایانان، برای انتشار کتاب خود با عنوان «روغن مار هوش مصنوعی: هوش مصنوعی چه کارهایی میتواند انجام دهد، چه کارهایی نمیتواند، و چگونه تفاوت را تشخیص دهیم» آماده میشدند. در این کتاب، کاپور و نارایانان، که ادغام فناوری با جامعه را مطالعه میکنند، دیدگاههایی را مطرح کردند که کاملاً مخالف دیدگاههای کوکوتایلو بود. آنها استدلال کردند که بسیاری از جدولهای زمانی آینده هوش مصنوعی بیش از حد خوشبینانهاند؛ ادعاها درباره سودمندی آن اغلب اغراقآمیز یا کاملاً جعلی هستند؛ و به دلیل پیچیدگی ذاتی جهان، حتی هوش مصنوعی قدرتمند نیز آن را تنها به آرامی تغییر خواهد داد. آنها موارد بسیاری را ذکر کردند که سیستمهای هوش مصنوعی برای قضاوتهای مهمی (مانند تشخیص پزشکی یا استخدام) فراخوانده شده و اشتباهات مبتدیانهای انجام داده بودند که نشاندهنده یک عدم ارتباط اساسی با واقعیت بود. آنها تاکید کردند که جدیدترین سیستمها نیز از همین نقص رنج میبرند.
اخیراً، هر سه محقق دیدگاههای خود را تقویت کردهاند و گزارشهایی را منتشر کردهاند که تحلیلهای آنها را گسترش میدهد. پروژه آینده هوش مصنوعی غیرانتفاعی، که کوکوتایلو مدیر اجرایی آن است، «هوش مصنوعی ۲۰۲۷» را منتشر کرده است؛ سندی مملو از ارجاعات، که توسط کوکوتایلو و چهار محقق دیگر نوشته شده و سناریوی ترسناکی را بررسی میکند که در آن سیستمهای «فراهوشمند» هوش مصنوعی تا سال ۲۰۳۰ نژاد بشر را تحت سلطه خود درآورده یا منقرض میکنند. هدف این است که این سناریو به عنوان هشداری جدی درباره آنچه واقعاً ممکن است اتفاق بیفتد، در نظر گرفته شود. در همین حال، کاپور و نارایانان، در مقاله جدیدی با عنوان «هوش مصنوعی به عنوان فناوری عادی»، اصرار دارند که موانع عملی از هر نوع — از مقررات و استانداردهای حرفهای گرفته تا دشواری ساده انجام کارهای فیزیکی در دنیای واقعی — استقرار هوش مصنوعی را کُند کرده و پتانسیل تحولآفرین آن را محدود خواهند کرد. آنها ضمن پذیرش اینکه هوش مصنوعی ممکن است در نهایت یک فناوری انقلابی، در مقیاس برق یا اینترنت، باشد، تاکید میکنند که برای آینده قابل پیشبینی «عادی» باقی خواهد ماند؛ یعنی از طریق اقدامات ایمنی آشنا، مانند مکانیزمهای ایمنی، کلیدهای توقف اضطراری و نظارت انسانی قابل کنترل است. آنها استدلال میکنند: «هوش مصنوعی اغلب با سلاحهای هستهای مقایسه میشود.» اما «تشبیه درست، نیروی هستهای است» که عمدتاً قابل مدیریت باقی مانده و حتی ممکن است به دلایل ایمنی کمتر از پتانسیل واقعیاش استفاده شده باشد.
کدام یک درست است: روال عادی یا پایان جهان؟ اف. اسکات فیتزجرالد به طور مشهوری ادعا کرد: «محک هوش درجه یک، توانایی نگهداشتن دو ایده متضاد در ذهن به طور همزمان و حفظ توانایی عملکرد است.» با خواندن این گزارشها پشت سر هم، خود را در حال از دست دادن آن توانایی یافتم و با صحبت پیاپی با نویسندگان آنها، در طول یک بعدازظهر، کاملاً آشفته شدم. «هوش مصنوعی ۲۰۲۷» و «هوش مصنوعی به عنوان فناوری عادی» هر دو قصد دارند یک واقعیت را توصیف کنند و توسط متخصصان بسیار آگاه نوشته شدهاند، اما به نتیجهگیریهای کاملاً متفاوتی میرسند. در بحث درباره آینده هوش مصنوعی با کاپور، نارایانان و کوکوتایلو، احساس میکردم در حال گفتگویی درباره معنویت با ریچارد داوکینز و پاپ هستم.
در تمثیل مردان کور و فیل، گروهی از افراد خوشنیت با شیئی ناآشنا دست و پنجه نرم میکنند و نمیتوانند بر سر ماهیت آن به توافق برسند، زیرا هر یک معتقد است که قسمتی که با آن مواجه شدهاند، کل شیء را تعریف میکند. این بخشی از مشکل هوش مصنوعی است — دیدن تمامیت یک چیز جدید دشوار است. اما این نیز حقیقت دارد، همانطور که کاپور و نارایانان مینویسند، «گفتمان ایمنی هوش مصنوعی امروزی با تفاوتهای عمیق در جهانبینیها مشخص میشود.» اگر بخواهم این تفاوتها را خلاصه کنم، میگویم که به طور کلی، متفکران ساحل غربی و سیلیکون ولی جذب دیدگاههای تحول سریع میشوند، در حالی که دانشگاهیان ساحل شرقی از آنها رویگردانند؛ محققان هوش مصنوعی به پیشرفت سریع تجربی باور دارند، در حالی که سایر دانشمندان کامپیوتر مشتاق دقت نظری هستند؛ و افراد در صنعت هوش مصنوعی میخواهند تاریخساز شوند، در حالی که افراد خارج از آن از هیاهوی تکنولوژی خسته شدهاند. در همین حال، تفاوتهای کمرنگتری در مسائل سیاسی و انسانی — درباره آنچه مردم میخواهند، نحوه تکامل فناوری، نحوه تغییر جوامع، نحوه کارکرد ذهن، «تفکر» چیست، و غیره — وجود دارد که به سوق دادن افراد به یک اردوگاه یا دیگری کمک میکند.
مشکل اضافی صرفاً این است که بحث درباره هوش مصنوعی به طور غیرمعمولی جالب است. این جذابیت، به خودی خود، ممکن است یک تله باشد. هنگامی که «هوش مصنوعی ۲۰۲۷» منتشر شد، بسیاری از کارشناسان صنعت با پذیرش مقدمات اصلی آن، درباره جدولهای زمانی آن بحث کردند (چرا «هوش مصنوعی ۲۰۴۵» نباشد؟). البته، اگر یک سیارک قاتل سیاره به سمت زمین در حرکت باشد، شما نمیخواهید مقامات ناسا درباره اینکه آیا برخورد قبل یا بعد از ناهار اتفاق میافتد، بحث کنند؛ شما میخواهید آنها ماموریتی را برای تغییر مسیر آن آغاز کنند. در عین حال، اظهاراتی مانند آنچه در «هوش مصنوعی به عنوان فناوری عادی» دیده میشود — به عنوان مثال، اینکه ممکن است عاقلانه باشد که انسانها را در طول وظایف مهم در حلقه نگه داریم، به جای اینکه کنترل کامل را به کامپیوترها بدهیم — به حدی نسبتاً بیاهمیت تلقی شدهاند که مدتها توسط تحلیلگرانی که به احتمال وقوع آخرالزمان علاقهمند بودند، بیان نشدهاند.
هنگامی که یک فناوری به اندازهای اهمیت پیدا میکند که مسیر جامعه را شکل دهد، گفتمان پیرامون آن باید تغییر کند. بحثها در میان متخصصان باید جای خود را به اجماعی بدهند که بقیه ما بتوانیم بر اساس آن عمل کنیم. فقدان چنین اجماعی درباره هوش مصنوعی، شروع به تحمیل هزینههای واقعی کرده است. وقتی کارشناسان برای ارائه یک توصیه متحد گرد هم میآیند، نادیده گرفتن آنها دشوار است؛ وقتی خود را به گروههای متخاصم تقسیم میکنند، برای تصمیمگیرندگان راحتتر میشود که هر دو طرف را نادیده بگیرند و هیچ کاری انجام ندهند. در حال حاضر، به نظر میرسد هیچ کاری انجام نشدن، برنامه است. شرکتهای هوش مصنوعی به طور اساسی تعادل بین قابلیت و ایمنی محصولات خود را تغییر نمیدهند؛ در لایحه تعدیل بودجهای که به تازگی در مجلس نمایندگان تصویب شد، بندی مقرراتی را برای دولتهای ایالتی به مدت ده سال در مورد «مدلهای هوش مصنوعی، سیستمهای هوش مصنوعی یا سیستمهای تصمیمگیری خودکار» ممنوع میکند. اگر «هوش مصنوعی ۲۰۲۷» درست باشد و آن لایحه به قانون تبدیل شود، آنگاه تا زمانی که اجازه تنظیم هوش مصنوعی را داشته باشیم، ممکن است هوش مصنوعی ما را تنظیم کند. ما باید اکنون، قبل از پایان بازی، گفتمان ایمنی را درک کنیم.
هوش مصنوعی یک موضوع فنی است، اما توصیف آینده آن شامل یک حقیقت ادبی است: داستانهایی که ما تعریف میکنیم شکلهایی دارند و این شکلها بر محتوای آنها تأثیر میگذارند. همیشه بدهبستانهایی وجود دارد. اگر هدف شما محافظهکاری قابل اعتماد و منطقی باشد، خطر کماهمیت جلوه دادن احتمالات بعید را دارید؛ اگر تخیل را به کار بگیرید، ممکن است به جای آنچه محتمل است، بر آنچه جالب است تمرکز کنید. پیشبینیها میتوانند توهمی از قابلیت پیشبینی را ایجاد کنند که در دنیایی آینهای ناموجه است. در سال ۲۰۱۹، وقتی از ویلیام گیبسون، رماننویس علمی تخیلی که به آیندهبینیاش معروف است، پرترهای تهیه کردم، او لحظهای وحشت را توصیف کرد: او فکر میکرد که آینده نزدیک را درک کرده است، اما «سپس ترامپ را دیدم که برای اعلام نامزدیاش از آن پله برقی پایین میآمد. تمام ماژولهای سناریوی من ‘بیپ-بیپ-بیپ’ کردند.» ما در مسیری غیرمنتظره پیش میرفتیم.
«هوش مصنوعی ۲۰۲۷» تخیلی، زنده و جزئیاتمحور است. کوکوتایلو اخیراً به من گفت: «این قطعاً یک پیشبینی است، اما در قالب یک سناریو است که نوع خاصی از پیشبینی است.» اگرچه تا حدی بر ارزیابی روندهای هوش مصنوعی استوار است، اما مانند یک داستان علمی تخیلی (با نمودارها) نوشته شده است؛ آن خود را بیپروا در جریان رویدادها رها میکند. غالباً، جزئیات خاص تخیلی آن، تغییرپذیری آنها را نشان میدهد. آیا واقعاً لحظهای فرا خواهد رسید، احتمالاً در ژوئن ۲۰۲۷، که مهندسان نرمافزاری که هوش مصنوعی خودبهبودبخش را اختراع کردهاند، «جلوی صفحه نمایش کامپیوتر خود بنشینند و عملکرد را ببینند که بالا، و بالا، و بالا میرود»؟ آیا دولت چین در پاسخ، یک «مرکز داده عظیم» در یک «منطقه توسعه متمرکز» در تایوان خواهد ساخت؟ این جزئیات خاص سناریو را قدرتمندتر میکنند، اما ممکن است اهمیت نداشته باشند؛ کوکوتایلو گفت، اصل مطلب این است که، «به احتمال زیاد، یک انفجار هوش و یک درگیری ژئوپلیتیک دیوانهوار بر سر اینکه چه کسی کنترل هوشهای مصنوعی را به دست میگیرد، رخ خواهد داد.»
این جزئیات آن «انفجار هوش» است که باید دنبال کنیم. سناریوی «هوش مصنوعی ۲۰۲۷» بر شکلی از توسعه هوش مصنوعی متمرکز است که به عنوان «خودبهبودی بازگشتی» یا R.S.I. شناخته میشود، که در حال حاضر عمدتاً فرضی است. در داستان گزارش، R.S.I. زمانی آغاز میشود که برنامههای هوش مصنوعی خودشان قادر به انجام تحقیقات هوش مصنوعی میشوند (امروزه، آنها فقط به محققان انسانی کمک میکنند)؛ این «عوامل» هوش مصنوعی به زودی یاد میگیرند که چگونه نوادگان خود را باهوشتر کنند، و آن نوادگان نیز همین کار را برای نوادگان خود انجام میدهند و یک حلقه بازخورد ایجاد میکنند. این فرآیند با شروع عمل هوشهای مصنوعی مانند همکاران، تبادل پیامها و واگذاری کارها به یکدیگر، که «شرکتی درون یک شرکت» را تشکیل میدهند و بارها سریعتر و مؤثرتر از شرکت هوش مصنوعی که در آن قرار گرفتهاند، رشد میکند، تسریع میشود. در نهایت، هوشهای مصنوعی آنقدر سریع نوادگان بهتری ایجاد میکنند که برنامهنویسان انسانی زمانی برای مطالعه آنها و تصمیمگیری درباره اینکه آیا قابل کنترل هستند، ندارند.
به نظر میرسد هر رمان علمی تخیلی که تاکنون درباره هوش مصنوعی نوشته شده است، پیشنهاد میکند که پیادهسازی خودبهبودی بازگشتی ایده بدی است. شرکتهای بزرگ هوش مصنوعی R.S.I. را پرخطر میدانند، اما نمیگویند که آن را دنبال نخواهند کرد؛ در عوض، آنها قسم میخورند که اگر در آن مسیر حرکت کنند، اقدامات ایمنی خود را تقویت خواهند کرد. در عین حال، اگر کار کند، پتانسیل اقتصادی آن میتواند فوقالعاده باشد. کوکوتایلو گفت: «پیگیری R.S.I. قطعاً انتخابی است که مردم در این شرکتها مشتاق به انجام آن هستند. این همان برنامه است. OpenAI و Anthropic، برنامه آنها این است که ابتدا شغلهای خود را خودکار کنند.»
آیا این نوع R.S.I. میتواند کار کند؟ (هرگز انجام نشده است.) آیا به عوامل تکنولوژیکی دیگر — مانند «مقیاسپذیری»، توانایی هوش مصنوعی برای بهبود با اختصاص منابع محاسباتی بیشتر به آن — بستگی ندارد که در گذشته درست بوده، اما ممکن است در آینده ناکام بماند؟ (برخی ناظران فکر میکنند ممکن است از قبل در حال ناکامی باشد.) اگر R.S.I. جا بیفتد، آیا پیشرفت آن به سقفی میرسد یا تا ظهور «فراهوشمندی مصنوعی» — سطحی از هوش که فراتر از تواناییهای ذهن انسان است — ادامه خواهد یافت؟ کوکوتایلو گفت: «اگر محدودیت هوش دقیقاً کمی بالاتر از محدوده انسانی باشد، بسیار عجیب خواهد بود.»
احتمالات پیچیدهتر میشوند. آیا نوآوری مبتنی بر فراهوشمندی یک رقابت تسلیحاتی نظامی را الهام خواهد گرفت؟ آیا هوشهای مصنوعی فراهوشمند میتوانند ما را در تعقیب اهداف نامفهوم خود دستکاری یا حذف کنند؟ (در «هوش مصنوعی ۲۰۲۷»، آنها منابع زمین را در حین انجام تحقیقات علمیای که ما به اندازه کافی باهوش نیستیم تا درک کنیم، مصرف میکنند.) یا، در یک توسعه شادتر، آیا ممکن است خودشان مشکل همترازی را برای ما حل کنند، و یا خودشان را رام کنند یا بسته به دیدگاه شما، به خدایان نیکوکار تبدیل شوند؟
هیچ کس واقعاً مطمئن نیست. این تا حدی به این دلیل است که هوش مصنوعی یک حوزه متغیر و چندوجهی است که نظرات در آن متفاوت است؛ تا حدی به این دلیل که بسیاری از جدیدترین تحقیقات هوش مصنوعی اختصاصی و منتشر نشدهاند؛ و تا حدی به این دلیل که نمیتوان پاسخهای قطعی برای پرسشهای اساساً گمانهزنانه داشت — فقط احتمالات. «هوش مصنوعی ۲۰۲۷» با اطمینان و نیروی رواییای پیش میرود که عدم قطعیتهای ذاتی موضوع خود را پنهان میکند. میزان وابستگی سناریو به زنجیرهای از پیشبینیهای تکنولوژیکی خوشبینانه، مسلماً یک نقص، شاید هم نقص بزرگی است. (یک دوست آگاه، دیدگاههای این گزارش را با «طرفداران افراطی هوش مصنوعی» مرتبط دانست.) اما، در واقع، جزئینگری یکی از دلایلی است که سناریوها ارزشمند هستند. در هر موقعیت نامطمئنی، ما تمایل داریم احتمالات ناخوشایند را در نوری فرضیتر ببینیم. اما تا زمانی که آن را میخوانیم، یک سناریو ما را مجبور میکند که حداقل سعی کنیم به واقعیت آن باور داشته باشیم. کوکوتایلو به من گفت، «هوش مصنوعی ۲۰۲۷» «خیلی متفاوت» از آنچه «در مکالمات کافهای در این شرکتها» درباره آن صحبت میشود، نیست. آنها درباره آن صحبت میکنند؛ اکنون ما آن را تصور میکنیم. آیا آنها آن را تصور میکنند؟ آیا آن را به اندازه کافی جدی میگیرند که اگر با انتخاب مهمی در مورد R.S.I. مواجه شوند، یک انتخاب عاقلانه انجام دهند؟
کوکوتایلو میگوید که آنها چنین نمیکنند. یک برداشت نادرست رایج درباره هوش مصنوعی این است که فناوری خطرناک یا غیرقابل کنترل ممکن است بدون دخالت انسان «ظاهر شود». (کسی در «ترمیناتور» میگوید، «میگویند باهوش شد»، درباره اسکاینت.) اما «هوش مصنوعی ۲۰۲۷» زنجیرهای از تصمیمات آشکارا بد را به تصویر میکشد، که با انتخاب محققان برای ساخت هوش مصنوعی خودبهبودبخش، قبل از اینکه به طور کامل نحوه نگاه کردن به درون آن و تفسیر افکارش را بفهمند، آغاز میشود. این سناریو ادعا میکند که، به دلایل رقابت و کنجکاوی، افراد فعال در حوزه هوش مصنوعی به طور فعال به دنبال انجام کاری خواهند بود که هر کسی که «WarGames» را دیده باشد، میتوانست به آنها بگوید که انجام ندهند. کوکوتایلو به من گفت: «اگر برای این شرکتها کار کنید و با آنها درباره کارهایی که میخواهند انجام دهند صحبت کنید، که من همین کار را کردم، به شما میگویند که آن را انجام خواهند داد. آنها میدانند که تفسیرپذیری را حل نکردهاند — که نمیتوانند اهداف داخلی را به دقت بررسی کنند، یا رفتار سیستمهای هوش مصنوعی را در آینده به دقت پیشبینی کنند. اما با این حال پیش میروند.» «هوش مصنوعی ۲۰۲۷» بخشی سناریوی تکنولوژیکی و بخشی سناریوی انسانی است. این نشان میدهد که شرکتهای هوش مصنوعی هستند که ناسازگارند.
بر خلاف «هوش مصنوعی ۲۰۲۷»، «هوش مصنوعی به عنوان فناوری عادی» دارای حس و حال ساحل شرقی است. این یک مقاله خشک و محافظهکارانه است و بخش عمدهای از اعتبار خود را از دانش گذشته میگیرد. نارایانان و کاپور بیش از حد نگران فراهوشمندی یا انفجار هوش احتمالی نیستند. آنها معتقدند که هوش مصنوعی با «محدودیتهای سرعت» مواجه است که از پیشرفت بسیار سریع جلوگیری خواهد کرد و استدلال میکنند که حتی اگر فراهوشمندی ممکن باشد، دهها سال طول میکشد تا اختراع شود و زمان کافی برای تصویب قوانین، اجرای اقدامات ایمنی و غیره را به ما میدهد. تا حدی، محدودیتهای سرعتی که آنها تشخیص میدهند به طور خاص به هوش مصنوعی مربوط میشود — آنها از هزینه بالای سختافزار هوش مصنوعی، کاهش عرضه دادههای آموزشی و مواردی از این قبیل ناشی میشوند. اما کاپور و نارایانان همچنین فکر میکنند که این محدودیتها ذاتی فناوری به طور کلی هستند، که معمولاً جهان را کندتر از آنچه مردم پیشبینی میکنند تغییر میدهد.
کاپور و نارایانان استدلال میکنند که تمرکز قابل درک محققان هوش مصنوعی بر «هوشمندی» گمراهکننده بوده است. یک حقیقت تلخ این است که هوشمندی به تنهایی ارزش عملی محدودی دارد. در دنیای واقعی، آنچه اهمیت دارد قدرت است — «توانایی تغییر محیط خود». آنها اشاره میکنند که در تاریخ نوآوری، بسیاری از فناوریها دارای قابلیتهای شگفتانگیزی بودهاند اما نتوانستهاند قدرت زیادی به مخترعان یا کاربران خود بدهند. برای مثال، اینکه برخی خودروها میتوانند خودران باشند، باورنکردنی است. اما در ایالات متحده، خودروهای خودران به تعداد انگشتشماری از شهرها محدود شدهاند و توسط تعداد کمی از شرکتها به عنوان روبو-تاکسی اداره میشوند. این فناوری توانمند است، اما قدرتمند نیست. احتمالاً حمل و نقل را — روزی — متحول خواهد کرد.
محققان هوش مصنوعی اغلب نگران میشوند که هوش مصنوعی، به خودی خود، بیش از حد قدرتمند شود. اما کاپور و نارایانان روشی انسانمحورتر از تفکر را ترجیح میدهند: هدف فناوری قدرتمند شدن نیست، بلکه توانمندسازی ماست. آنها مینویسند: «انسانها همیشه از فناوری برای افزایش توانایی خود در کنترل محیط استفاده کردهاند»، و حتی فناوریهای فوقالعاده توانا نیز ما را تنها به آرامی توانمند ساختهاند. اختراعات جدید زمان زیادی میبرد تا در جامعه، از آزمایشگاهها به بیرون «منتشر» شوند. «هوش مصنوعی ۲۰۲۷» احتمال «درمان برای اکثر بیماریها» را در سال ۲۰۲۹ مطرح میکند. اما، طبق دیدگاه کاپور و نارایانان، حتی اگر کار فکری ایجاد این درمانها از طریق هوش مصنوعی به سرعت تسریع شود، ما باز هم باید مدت زیادی صبر کنیم تا از آنها بهرهمند شویم. به همین ترتیب، اگر یک سیستم هوش مصنوعی اختراع یک دستگاه پزشکی نجاتبخش را سرعت بخشد، آن دستگاه هنوز باید توسط سازمان غذا و دارو تایید شود. فرض کنید یک هوش مصنوعی فراهوشمند مشکل همجوشی هستهای را حل کند — این فناوری هنوز باید آزمایش شود، و مکانی برای یک نیروگاه پیشنهادی باید با همسایگان مایل پیدا شود. (جدیدترین نیروگاه هستهای که در ایالات متحده، در وینزبورو، جورجیا ساخته شد، چهارده سال طول کشید تا ساخته شود و تقریباً بیست میلیارد دلار بیشتر از بودجه هزینه برد.) کاپور به من گفت: «مثال مورد علاقه من مدرنا است»، اشاره به شرکت داروسازی. پس از اینکه محققان چینی ژنوم سارس کوو ۲ (SARS-CoV-2)، ویروسی که باعث کووید ۱۹ (COVID-19) میشود را توالییابی کردند، مدرنا «کمتر از یک هفته طول کشید تا واکسن را بسازد. اما سپس حدود یک سال طول کشید تا آن را عرضه کند.» شاید هوش مصنوعی بتواند واکسنها را حتی سریعتر طراحی کند — اما آزمایشات بالینی، که به فرآیندهای بیولوژیکی انسانی وابسته است، صرفاً زمان میبرد.
نارایانان به من گفت که این دیدگاه که افزایش هوشمندی به سرعت و مستقیماً به نتایج تکنولوژیکی منجر میشود، بازتابی از دستکم گرفتن عمومی «پیچیدگیها و تخصصهای خاص دامنه» در میان کدنویسان است. او گفت: «مهندسی نرمافزار، اگرچه در نام خود مهندسی دارد، اما سابقه جدایی از بقیه مهندسی را داراست.» این بدان معناست که محققان ایمنی هوش مصنوعی ممکن است سیستمهایی را که از قبل ما را ایمن نگه میدارند نیز دستکم بگیرند. کاپور و نارایانان به طور خاص بر شیوههای ایمنی صنعتی تمرکز میکنند که در طول دههها توسعه و اثبات شدهاند. در یک کارخانه، مکانیزمهای ایمنی و قطعکنندههای مدار اطمینان میدهند که سیستمها هنگام نقص، به رفتارهای بیضرر بازمیگردند. (ماشینها، برای مثال، ممکن است در صورت افزایش سطح مونوکسید کربن یا تشخیص حضور فردی در داخل خود، خاموش شوند.) افزونگی به مدیران امکان میدهد تا ببینند یک قطعه واحد نتیجهای غیرمعمول تولید میکند. فرآیندهایی مانند «تأیید رسمی» — که در آن سیستمها تحت قوانین دقیق طراحی شده برای ارتقای ایمنی قرار میگیرند — اغلب زمانی استفاده میشوند که انسانها در کنار ماشینهای پیچیده کار میکنند.
از این دیدگاه، جهان از قبل مکانی نسبتاً منظم است — و هوش مصنوعی باید به آرامی در شبکه قوانین آن ادغام شود. یک سوال که باید پرسید این است که آیا ما باور داریم که مسئولان هوش مصنوعی باید از قوانین پیروی کنند؟ کاپور و نارایانان به «یک هشدار مهم» در تحلیل خود اشاره میکنند: «ما صراحتاً هوش مصنوعی نظامی را مستثنی میکنیم... زیرا شامل قابلیتهای طبقهبندی شده و دینامیکهای منحصر به فردی است که به تحلیل عمیقتری نیاز دارند.» «هوش مصنوعی ۲۰۲۷»، در همین حال، تقریباً به طور کامل بر نظامیسازی هوش مصنوعی متمرکز است، که به سرعت پس از آشکار شدن پیامدهای دفاعی آن («اگر هوش مصنوعی بازدارندگی هستهای را تضعیف کند چه؟») آشکار میشود. این دو گزارش، در کنار هم، نشان میدهند که باید به دقت کاربردهای نظامی هوش مصنوعی را زیر نظر داشته باشیم. «هوش مصنوعی به عنوان فناوری عادی»، به نوبه خود، توصیههای مشخصی را برای مسئولان در بسیاری از حوزههای جامعه ارائه میدهد. منتظر نمانید، منفعلانه، تا شرکتهای هوش مصنوعی مدلهای خود را «همتراز» کنند. در عوض، شروع به نظارت بر استفاده از هوش مصنوعی در حوزه خود کنید. راههایی برای پیگیری شواهد خطرات و شکستهای آن بیابید. و قوانین را تقویت یا ایجاد کنید که با گسترش فناوری، افراد و نهادها را انعطافپذیرتر کند.
«تفاوتهای عمیق در جهانبینیها»: این به نظر درست میآید. اما جهانبینی در نهایت چیست؟ جهانبینیها اغلب واکنشگرایانه هستند. ما آنها را در پاسخ به تحریکات شکل میدهیم. هوش مصنوعی به طور غیرمعمولی تحریککننده بوده است. این فناوری بازتابهایی را در مورد هدف فناوری، ماهیت پیشرفت و رابطه بین مخترعان و بقیه ما ایجاد کرده است. این یک آزمون رورشاخ بوده است. و همچنین در لحظهای خاص، در دنیایی گفتمانی خاص، که نظرات قوی هستند، اعتراضات فوریاند، و تفاوتها برجسته میشوند، فرا رسیده است. دینامیک زندگی فکری به پافشاری و سرسختی منجر میشود. ما نیز حلقههای بازخورد داریم.
آیا یک جهانبینی واحد وجود دارد که بتواند دیدگاههای «هوش مصنوعی ۲۰۲۷» و «هوش مصنوعی به عنوان فناوری عادی» را در بر گیرد؟ من گمان میکنم که میتواند وجود داشته باشد. تصور کنید وارد یک طبقه کارخانه میشوید. یک علامت میخواند: «اول ایمنی!» کارگران کلاه ایمنی و لباسهای ایمنی با دید بالا به تن دارند. ماشینها کارخانه را اداره نمیکنند؛ در عوض، کارگران ماشینها را دستکاری میکنند، ماشینهایی که با در نظر گرفتن بهرهوری و ایمنی کارگران طراحی شدهاند. در این کارخانه شناختی، تفکر جدی به بهترین شیوهها اختصاص یافته است. تاکید زیادی بر کنترل کیفیت میشود. یک تیم تعمیر و نگهداری با بودجه کافی، ماشینها را بازرسی و در صورت لزوم برای برآورده کردن نیازهای کارخانه اصلاح میکند. در بخش تحقیق و توسعه، دانشمندان گاهی ارتقاءهای امیدوارکنندهای را اختراع میکنند. اما قبل از اینکه این ارتقاءها در خط تولید ادغام شوند، به طور کامل بررسی میشوند و با کارگران مشورت میشود. علاوه بر این، کارخانه یک مأموریت دارد. کارگران آن میدانند که چه چیزی را تلاش میکنند تولید کنند. آنها صرفاً آنچه را که ماشینها اتفاقاً میسازند، ارسال نمیکنند. آنها ماشینها را به سمت یک هدف به خوبی درک شده هدایت میکنند.
بسیاری از ما ممکن است به زودی خود را در طبقات کارخانه شناختی مشغول به کار ببینیم. هر کاری که انجام دهیم، میتوانیم آن را در کنار ماشینها یا با آنها انجام دهیم. از آنجا که ماشینها میتوانند بخشی از تفکر ما را خودکار کنند، رها کردن کنترلها وسوسهانگیز خواهد بود. اما در چنین کارخانهای، اگر حادثهای در محل کار رخ دهد، یا اگر محصولی معیوب فروخته شود، چه کسی پاسخگو خواهد بود؟ برعکس، اگر کارخانه به خوبی اداره شود و محصولات آن دلپذیر باشند، آنگاه چه کسی اعتبار را به دست خواهد آورد؟
آمدن هوش مصنوعی نمیتواند به معنای پایان مسئولیتپذیری باشد — در واقع، عکس آن صادق است. وقتی یک نفر بیشتر کار میکند، مسئولیت بیشتری بر عهده آن شخص است. وقتی افراد کمتری در اتاق هستند، مسئولیت متراکم میشود. کارگری که از یک ماشین فاصله میگیرد، تصمیم میگیرد که فاصله بگیرد. تنها به صورت سطحی به نظر میرسد که هوش مصنوعی ما را از بارهای عامل بودن رها میکند. در واقع، هوش مصنوعی ما را به چالش میکشد تا تشخیص دهیم که در نهایت، همیشه ما مسئول خواهیم بود.