آیا «زمستان هوش مصنوعی» در راه است؟ برخی چنین فکر می‌کنند. نگاهی به رکودهای گذشته هوش مصنوعی می‌تواند درس‌هایی برای سرمایه‌گذاران و مدیران اجرایی امروز فراهم آورد. تصویرسازی: گتی ایمیجز
آیا «زمستان هوش مصنوعی» در راه است؟ برخی چنین فکر می‌کنند. نگاهی به رکودهای گذشته هوش مصنوعی می‌تواند درس‌هایی برای سرمایه‌گذاران و مدیران اجرایی امروز فراهم آورد. تصویرسازی: گتی ایمیجز

آیا «زمستان هوش مصنوعی» در راه است؟ درس‌هایی برای سرمایه‌گذاران و رهبران از رکودهای گذشته هوش مصنوعی

با فرارسیدن پاییز، بسیاری در دنیای فناوری نگران زمستان هستند. اواخر ماه گذشته، یک ستون‌نویس بلومبرگ پرسید «آیا زمستان هوش مصنوعی بالاخره از راه رسیده است؟» روزنامه بریتانیایی تلگراف قاطع‌تر بود و اعلام کرد: «زمستان بعدی هوش مصنوعی در راه است.» در همین حال، پلتفرم رسانه اجتماعی X (توییتر سابق) پر از گفتگو در مورد یک زمستان احتمالی برای هوش مصنوعی بود.

«زمستان هوش مصنوعی» اصطلاحی است که فعالان هوش مصنوعی برای دوره‌ای به کار می‌برند که شور و شوق برای ایده ماشین‌هایی که می‌توانند مانند انسان‌ها یاد بگیرند و فکر کنند، کاهش می‌یابد و سرمایه‌گذاری برای محصولات، شرکت‌ها و تحقیقات هوش مصنوعی متوقف می‌شود. دلیلی وجود دارد که این عبارت به راحتی بر زبان مفسران هوش مصنوعی می‌آید: ما در تاریخ ۷۰ ساله هوش مصنوعی به عنوان یک حوزه تحقیقاتی، چندین زمستان هوش مصنوعی را پشت سر گذاشته‌ایم. اگر قرار باشد وارد یک دوره دیگر شویم، که برخی گمان می‌کنند، این دست‌کم چهارمین زمستان خواهد بود.

بحث‌های اخیر درباره زمستان قریب‌الوقوع، ناشی از نگرانی‌های فزاینده سرمایه‌گذاران است مبنی بر اینکه فناوری هوش مصنوعی ممکن است به تبلیغات پیرامون خود عمل نکند – و اینکه ارزش‌گذاری بسیاری از شرکت‌های مرتبط با هوش مصنوعی بیش از حد بالا است. در بدترین سناریو، این زمستان هوش مصنوعی می‌تواند با ترکیدن حباب بازار سهام متورم‌شده از هوش مصنوعی همراه باشد که پیامدهای آن در کل اقتصاد احساس خواهد شد. هرچند چرخه‌های تب و تاب هوش مصنوعی قبلاً نیز وجود داشته‌اند، اما هرگز به این میزان صدها میلیارد دلار که سرمایه‌گذاران در رونق هوش مصنوعی مولد سرازیر کرده‌اند، نزدیک نبوده‌اند. بنابراین اگر زمستان دیگری در راه باشد، می‌تواند با درد و رنجی در حد قطبی همراه باشد.

بازارها اخیراً با اظهارات سم آلتمن، مدیرعامل اوپن‌ای‌آی (OpenAI)، که به خبرنگاران گفت فکر می‌کند برخی استارت‌آپ‌های هوش مصنوعی با پشتوانه سرمایه خطرپذیر بیش از حد ارزش‌گذاری شده‌اند (البته نه اوپن‌ای‌آی، که یکی از باارزش‌ترین استارت‌آپ‌های با پشتوانه سرمایه خطرپذیر در تمام دوران است)، وحشت‌زده شده‌اند. بلافاصله پس از اظهارات آلتمن، مطالعه‌ای از سوی ام‌آی‌تی (MIT) منتشر شد که نتیجه گرفت ۹۵ درصد از پروژه‌های آزمایشی هوش مصنوعی شکست می‌خورند.

نگاهی به زمستان‌های گذشته هوش مصنوعی و دلایل آنها ممکن است به ما نشان دهد که آیا این سرما در هوا فقط یک نسیم گذرا است یا اولین نشانه‌های یک عصر یخبندان قریب‌الوقوع. گاهی اوقات این زمستان‌های هوش مصنوعی توسط تحقیقات آکادمیک که محدودیت‌های تکنیک‌های خاص هوش مصنوعی را برجسته می‌کردند، به وجود آمده‌اند. گاهی اوقات نیز به دلیل ناکامی در کارکرد صحیح فناوری هوش مصنوعی در کاربردهای دنیای واقعی ایجاد شده‌اند. گاهی هر دو عامل نقش داشته‌اند. اما آنچه همه زمستان‌های قبلی هوش مصنوعی مشترکاً داشتند، سرخوردگی در میان پرداخت‌کنندگان هزینه‌ها بود، پس از آنکه پیشرفت‌های جدید و امیدوارکننده نتوانستند به تبلیغات متعاقب آن عمل کنند.

اولین چرخه تب و تاب هوش مصنوعی

دولت آمریکا و دولت‌های متحدش در اوایل جنگ سرد، تحقیقات هوش مصنوعی را به شدت تأمین مالی می‌کردند. در آن زمان نیز مانند امروز، واشنگتن این فناوری را به عنوان عاملی بالقوه برای کسب مزیت استراتژیک و نظامی می‌دید و بخش عمده‌ای از بودجه تحقیقات هوش مصنوعی از پنتاگون تأمین می‌شد.

در این دوره، دو رویکرد رقیب برای هوش مصنوعی وجود داشت. یکی بر اساس کدگذاری سخت قوانین منطقی برای دسته‌بندی ورودی‌ها به نمادها و سپس دستکاری این نمادها برای رسیدن به خروجی‌ها بود. این روشی بود که اولین جهش‌های بزرگ را در رایانه‌هایی که می‌توانستند شطرنج و چکرز بازی کنند، به ارمغان آورد و همچنین منجر به ساخت اولین چت‌بات‌های جهان شد.

روش رقیب هوش مصنوعی بر پایه چیزی به نام «پرسیپترون» (perceptron) استوار بود، که پیش‌ساز شبکه‌های عصبی امروزی است؛ نوعی هوش مصنوعی که به صورت آزاد بر اساس کاریکاتوری از نحوه عملکرد مغز ساخته شده است. پرسیپترون به جای شروع با قوانین و منطق، یک قانون برای انجام کاری را از داده‌ها یاد می‌گرفت. دفتر تحقیقات نیروی دریایی ایالات متحده بسیاری از کارهای اولیه بر روی پرسیپترون‌ها را تأمین مالی می‌کرد، که توسط فرانک روزنبلات، عصب‌شناس و روانشناس دانشگاه کرنل، پایه‌گذاری شد. هم نیروی دریایی و هم سازمان سیا (CIA) پرسیپترون‌ها را آزمایش کردند تا ببینند آیا می‌توانند چیزهایی مانند سایه کشتی‌های دشمن یا اهداف احتمالی در عکس‌های شناسایی هوایی را طبقه‌بندی کنند.

هر دو گروه رقیب، ادعاهای اغراق‌آمیزی داشتند که فناوری‌شان به زودی رایانه‌هایی را به ارمغان خواهد آورد که برابر یا فراتر از هوش انسانی خواهند بود. روزنبلات در سال ۱۹۵۸ به نیویورک تایمز گفت که پرسیپترون‌هایش به زودی قادر خواهند بود افراد را شناسایی کرده و نامشان را صدا بزنند، و «تنها یک گام دیگر از توسعه» فاصله دارد تا بتوانند فورا زبان‌ها را ترجمه کنند، و در نهایت سیستم‌های هوش مصنوعی خودتولید می‌شوند و آگاه خواهند شد. در همین حال، ماروین مینسکای، یکی از بنیان‌گذاران آزمایشگاه هوش مصنوعی ام‌آی‌تی و چهره پیشرو در گروه هوش مصنوعی نمادین، در سال ۱۹۷۰ به مجله لایف گفت که «در سه تا هشت سال آینده، ماشینی با هوش عمومی یک انسان معمولی خواهیم داشت.»

این اولین پیش‌نیاز برای زمستان هوش مصنوعی است: هیجان کاذب. و امروز نیز شباهت‌های آشکاری در اظهارات تعدادی از چهره‌های برجسته هوش مصنوعی وجود دارد. ژانویه گذشته، سم آلتمن، مدیرعامل اوپن‌ای‌آی، در وبلاگ شخصی خود نوشت: «اکنون مطمئنیم که می‌دانیم چگونه [هوش عمومی مصنوعی در سطح انسان] را آنگونه که به طور سنتی درک می‌کردیم، بسازیم» و اینکه اوپن‌ای‌آی به طور فزاینده‌ای به سمت ساخت «فرا‌هوشمندی» فراتر از انسان روی آورده است. او نوشت که امسال «ممکن است شاهد باشیم اولین عوامل هوش مصنوعی به «نیروی کار» بپیوندند و خروجی شرکت‌ها را به طور مادی تغییر دهند.» داریو آموده‌ای، یکی از بنیان‌گذاران و مدیرعامل شرکت انتروپیک (Anthropic)، گفته است که هوش مصنوعی در سطح انسانی ممکن است در سال ۲۰۲۶ از راه برسد. در همین حال، دمیس هاسابیس، یکی از بنیان‌گذاران و مدیرعامل گوگل دیپ‌مایند، گفته است که هوش مصنوعی برابر با انسان در تمام حوزه‌های شناختی در «پنج تا ۱۰ سال آینده» محقق خواهد شد.

دولت اعتماد خود را از دست می‌دهد

اما آنچه زمستان هوش مصنوعی را تسریع می‌کند، شواهد قطعی است که نشان می‌دهد این هیجان کاذب قابل تحقق نیست. برای اولین زمستان هوش مصنوعی، این شواهد در پی ضربات پی‌در‌پی آشکار شد. در سال ۱۹۶۶، کمیته‌ای که توسط شورای تحقیقات ملی مأمور شده بود، گزارشی ویرانگر درباره وضعیت پردازش زبان طبیعی و ترجمه ماشینی ارائه داد. این گزارش نتیجه گرفت که ترجمه مبتنی بر کامپیوتر گران‌تر، کندتر و کم‌دقت‌تر از ترجمه انسانی است. شورای تحقیقات که ۲۰ میلیون دلار (معادل دست‌کم ۲۰۰ میلیون دلار امروز) به این نوع اولیه از هوش مصنوعی زبان اختصاص داده بود، تمام بودجه را قطع کرد.

سپس، در سال ۱۹۹۶، مینسکای مسئول دومین ضربه بود. در آن سال، او و سیمور پاپرت، یکی از همکاران محقق هوش مصنوعی، کتابی را منتشر کردند که به نقد جامع پرسیپترون‌ها می‌پرداخت. در این کتاب، مینسکای و پاپرت به صورت ریاضی ثابت کردند که یک پرسیپترون تک‌لایه، از نوعی که روزنبلات در سال ۱۹۵۸ با شور و هیجان فراوان به نمایش گذاشته بود، فقط می‌تواند طبقه‌بندی‌های دودویی دقیق انجام دهد – به عبارت دیگر، می‌تواند تشخیص دهد که چیزی سیاه یا سفید است، یا دایره یا مربع. اما نمی‌توانست اشیاء را به بیش از دو دسته طبقه‌بندی کند.

مشخص شد که مشکل بزرگی در نقد مینسکای و پاپرت وجود داشت. در حالی که اکثر مردم این کتاب را به عنوان اثبات قطعی می‌پنداشتند که هوش مصنوعی مبتنی بر شبکه عصبی هرگز به هوش در سطح انسان نزدیک نخواهد شد، اما اثبات‌های آن‌ها فقط در مورد یک پرسیپترون ساده با یک لایه اعمال می‌شد: یک لایه ورودی شامل چندین نورون که داده‌ها را دریافت کرده و همگی به یک نورون خروجی متصل بودند. آن‌ها احتمالاً به عمد نادیده گرفته بودند که برخی محققان در دهه ۱۹۶۰ قبلاً آزمایش‌هایی را با پرسیپترون‌های چندلایه آغاز کرده بودند، که دارای یک لایه "پنهان" میانی از نورون‌ها بودند که بین نورون‌های ورودی و نورون خروجی قرار می‌گرفت. این پرسیپترون‌های چندلایه، پیش‌سازهای واقعی "یادگیری عمیق" امروزی، در واقع می‌توانستند داده‌ها را به بیش از دو دسته طبقه‌بندی کنند. اما در آن زمان، آموزش چنین شبکه عصبی چندلایه بسیار دشوار بود. و این موضوع اهمیتی نداشت. آسیب وارد شده بود. پس از انتشار کتاب مینسکای و پاپرت، بودجه دولت ایالات متحده برای رویکردهای مبتنی بر شبکه عصبی در هوش مصنوعی تا حد زیادی پایان یافت.

حمله مینسکای و پاپرت فقط نهادهای تأمین مالی پنتاگون را متقاعد نکرد. بسیاری از دانشمندان کامپیوتر را نیز قانع کرد که شبکه‌های عصبی به بن‌بست رسیده‌اند. برخی محققان شبکه‌های عصبی مینسکای را به دلیل به عقب انداختن این حوزه برای دهه‌ها سرزنش کردند. در سال ۲۰۰۶، تری سجنوفسکی، محققی که به احیای علاقه به شبکه‌های عصبی کمک کرد، در یک کنفرانس بلند شد و مینسکای را به چالش کشید و از او پرسید که آیا او شیطان است. مینسکای این سؤال را نادیده گرفت و شروع به تشریح آنچه که به نظر او نقاط ضعف شبکه‌های عصبی بود، کرد. سجنوفسکی اصرار کرد و دوباره از مینسکای پرسید که آیا او شیطان است. سرانجام مینسکای با عصبانیت فریاد زد: «بله، من هستم!»

اما هوش مصنوعی نمادین مینسکای نیز به زودی با خشکسالی بودجه روبرو شد. همچنین در سال ۱۹۶۹، کنگره آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی (دارپا - DARPA) را، که یکی از تأمین‌کنندگان اصلی هر دو رویکرد هوش مصنوعی بود، مجبور کرد رویکرد خود را در اعطای کمک‌های مالی تغییر دهد. به این آژانس گفته شد که تحقیقاتی را تأمین مالی کند که کاربردهای نظامی واضح و مشخصی داشته باشند، به جای تحقیقات بنیادی‌تر. و در حالی که برخی تحقیقات هوش مصنوعی نمادین در این چارچوب قرار می‌گرفتند، بسیاری از آنها چنین نبودند.

ضربه نهایی در سال ۱۹۷۳ وارد شد، زمانی که پارلمان بریتانیا از جیمز لایت‌هیل، ریاضیدان دانشگاه کمبریج، مأموریت داد تا وضعیت تحقیقات هوش مصنوعی در بریتانیا را بررسی کند. نتیجه‌گیری او این بود که هوش مصنوعی هیچ نویدی برای تحقق ادعاهای بزرگ خود مبنی بر برابری با هوش انسانی نشان نداده است و بسیاری از الگوریتم‌های مورد علاقه آن، در حالی که ممکن است برای مسائل کوچک کار کنند، هرگز نمی‌توانند با پیچیدگی دنیای واقعی مقابله کنند. بر اساس نتیجه‌گیری‌های لایت‌هیل، دولت بریتانیا تمام بودجه تحقیقات هوش مصنوعی را کاهش داد.

لایت‌هیل تنها به تلاش‌های هوش مصنوعی در بریتانیا نگاه کرده بود، اما دارپا و دیگر تأمین‌کنندگان مالی تحقیقات هوش مصنوعی در ایالات متحده به نتیجه‌گیری‌های او توجه کردند، که شک و تردید رو به رشد خودشان را نسبت به هوش مصنوعی تقویت کرد. تا سال ۱۹۷۴، بودجه ایالات متحده برای پروژه‌های هوش مصنوعی کسری از آنچه در دهه ۱۹۶۰ بود، شده بود. زمستان آغاز شده بود – و تا اوایل دهه ۱۹۸۰ ادامه داشت.

امروزه نیز، در مورد مطالعاتی که نشان می‌دهند هوش مصنوعی انتظارات را برآورده نمی‌کند، شباهت‌هایی با اولین زمستان هوش مصنوعی وجود دارد. دو مقاله تحقیقاتی اخیر از محققان اپل و دانشگاه ایالتی آریزونا تردیدهایی را در مورد اینکه آیا مدل‌های پیشرفته هوش مصنوعی، که قرار است از «زنجیره فکری» برای استدلال در مورد نحوه پاسخ به یک دستور استفاده کنند، واقعاً درگیر استدلال هستند یا خیر، ایجاد کرده‌اند. هر دو مقاله نتیجه می‌گیرند که مدل‌ها به جای یادگیری نحوه اعمال قوانین منطقی قابل تعمیم و تکنیک‌های حل مسئله برای مشکلات جدید – که انسان‌ها آن را استدلال می‌دانند – صرفاً سعی می‌کنند یک مشکل را با مشکلی که در داده‌های آموزشی خود دیده‌اند، مطابقت دهند. این مطالعات می‌توانند معادل حمله مینسکای و پاپرت به پرسیپترون‌ها باشند.

در همین حال، تعداد فزاینده‌ای از مطالعات در مورد تأثیرات واقعی مدل‌های هوش مصنوعی امروزی وجود دارد که موازی با گزارش‌های لایت‌هیل و NRC هستند. به عنوان مثال، آن مطالعه ام‌آی‌تی که نتیجه گرفت ۹۵ درصد از پروژه‌های آزمایشی هوش مصنوعی در افزایش درآمدهای شرکت‌ها شکست می‌خورند. یک مطالعه اخیر از محققان Salesforce نتیجه گرفت که بیشتر مدل‌های زبان بزرگ (LLMs) امروزی نمی‌توانند وظایف مدیریت ارتباط با مشتری (CRM) را به دقت انجام دهند – نتیجه‌گیری‌ای به خصوص طنزآمیز، زیرا خود Salesforce عاملان هوش مصنوعی را برای خودکارسازی فرآیندهای CRM ترویج می‌کند. تحقیقات Anthropic نشان داد که مدل Claude آن نمی‌تواند یک کسب‌وکار دستگاه‌های فروش خودکار را با موفقیت اداره کند – یک کسب‌وکار نسبتاً ساده در مقایسه با بسیاری از کسب‌وکارهایی که فعالان فناوری می‌گویند توسط عاملان هوش مصنوعی «کاملاً متحول» خواهند شد. همچنین یک مطالعه از گروه تحقیقاتی هوش مصنوعی METR نشان داد که توسعه‌دهندگان نرم‌افزار که از دستیار کدنویسی هوش مصنوعی استفاده می‌کنند، در واقع ۱۹ درصد کندتر از زمانی که بدون آن بودند، وظایف را تکمیل می‌کردند.

اما تفاوت‌های کلیدی نیز وجود دارد. مهم‌تر از همه، رونق هوش مصنوعی امروز به بودجه عمومی وابسته نیست. اگرچه نهادهای دولتی، از جمله ارتش ایالات متحده، به مشتریان مهمی برای شرکت‌های هوش مصنوعی تبدیل می‌شوند، اما پولی که رونق کنونی را تامین می‌کند تقریباً به طور کامل خصوصی است. سرمایه‌گذاران خطرپذیر از نوامبر ۲۰۲۲ که چت‌جی‌پی‌تی (ChatGPT) معرفی شد، دست‌کم ۲۵۰ میلیارد دلار در استارت‌آپ‌های هوش مصنوعی سرمایه‌گذاری کرده‌اند. و این شامل مقدار عظیمی که شرکت‌های بزرگ فناوری سهامی عام مانند مایکروسافت، آلفابت، آمازون و متا برای تلاش‌های هوش مصنوعی خودشان هزینه می‌کنند، نمی‌شود. تخمین زده می‌شود که تنها در سال جاری ۳۵۰ میلیارد دلار برای ساخت مراکز داده هوش مصنوعی هزینه می‌شود و حتی بیشتر از آن برای سال آینده انتظار می‌رود.

علاوه بر این، برخلاف اولین زمستان هوش مصنوعی که سیستم‌های هوش مصنوعی عمدتاً فقط آزمایش‌های تحقیقاتی بودند، امروزه هوش مصنوعی به طور گسترده در کسب‌وکارها مستقر شده است. هوش مصنوعی همچنین به یک فناوری مصرف‌کننده عظیم تبدیل شده است – تنها چت‌جی‌پی‌تی تخمین زده می‌شود ۷۰۰ میلیون کاربر هفتگی داشته باشد – که قبلاً هرگز چنین نبوده است. در حالی که هوش مصنوعی امروز هنوز به نظر می‌رسد برخی جنبه‌های کلیدی هوش انسانی را ندارد، اما به مراتب بهتر از سیستم‌هایی است که قبلاً وجود داشتند و دشوار است ادعا کرد که مردم این فناوری را برای تعداد زیادی از وظایف مفید نمی‌دانند.

زمستان دوم: کسب‌وکارها صبر خود را از دست می‌دهند

اولین زمستان هوش مصنوعی در اوایل دهه ۱۹۸۰ عمدتاً به لطف افزایش قدرت محاسباتی و برخی تکنیک‌های الگوریتمی بهبود یافته، آب شد. در این زمان، بخش زیادی از هیجانات در هوش مصنوعی حول «سیستم‌های خبره» بود. اینها برنامه‌های کامپیوتری بودند که برای کدگذاری دانش متخصصان انسانی در یک حوزه خاص، در مجموعه‌ای از قوانین منطقی طراحی شده بودند که نرم‌افزار سپس آن را برای انجام وظیفه‌ای خاص به کار می‌برد.

با این حال، کسب‌وکارها مشتاق بودند و معتقد بودند که سیستم‌های خبره به رونق بهره‌وری منجر خواهند شد. در اوج این چرخه تب و تاب هوش مصنوعی، تقریباً دو سوم از شرکت‌های فهرست فورچون ۵۰۰ (Fortune 500) اعلام کردند که سیستم‌های خبره را مستقر کرده‌اند. تا سال ۱۹۸۵، شرکت‌های آمریکایی مجموعاً بیش از ۱ میلیارد دلار برای سیستم‌های خبره هزینه می‌کردند و یک صنعت کامل، که بخش زیادی از آن با پشتوانه سرمایه خطرپذیر بود، حول این فناوری شکل گرفت. بخش زیادی از آن بر ساخت سخت‌افزار کامپیوتری تخصصی به نام «ماشین‌های لیسپ» (LISP machines) متمرکز بود که برای اجرای سیستم‌های خبره بهینه شده بودند و بسیاری از آنها به زبان برنامه‌نویسی LISP کدگذاری شده بودند. علاوه بر این، از سال ۱۹۸۳، دارپا (DARPA) با ابتکار جدید محاسبات استراتژیک، به تامین مالی تحقیقات هوش مصنوعی بازگشت و در نهایت بیش از ۱۰۰ میلیون دلار به بیش از ۹۰ پروژه مختلف هوش مصنوعی در دانشگاه‌های سراسر ایالات متحده ارائه کرد.

اگرچه سیستم‌های خبره از بسیاری از روش‌هایی که محققان هوش مصنوعی نمادین پیشگام آن بودند، بهره می‌بردند، اما بسیاری از دانشمندان کامپیوتر آکادمیک نگران بودند که انتظارات بیش از حد بار دیگر یک چرخه رونق و رکود را به دنبال داشته باشد که به این حوزه آسیب برساند. در میان آنها، مینسکای و راجر شنک، دیگر محقق هوش مصنوعی، بودند که در کنفرانس هوش مصنوعی سال ۱۹۸۴ اصطلاح «زمستان هوش مصنوعی» را ابداع کردند. این دو این واژه جدید را برای تداعی اصطلاح «زمستان هسته‌ای» – دوره ویرانگر و تاریک بدون نور خورشید که احتمالاً پس از یک جنگ هسته‌ای بزرگ رخ خواهد داد – انتخاب کردند.

سپس سه اتفاق افتاد که زمستان بعدی را رقم زد. در سال ۱۹۸۷، نوع جدیدی از ایستگاه کاری کامپیوتری از شرکت سان مایکروسیستمز (Sun Microsystems) عرضه شد. این ایستگاه‌های کاری، و همچنین رایانه‌های رومیزی قدرتمندتر از آی‌بی‌ام و اپل، نیاز به ماشین‌های لیسپ تخصصی را از بین بردند. ظرف یک سال، بازار ماشین‌های لیسپ تبخیر شد. بسیاری از سرمایه‌گذاران خطرپذیر دارایی خود را از دست دادند – و از حمایت مجدد استارت‌آپ‌های مرتبط با هوش مصنوعی بیمناک شدند. در همان سال، جک شوارتز، دانشمند کامپیوتر دانشگاه نیویورک، رئیس تحقیقات محاسبات دارپا شد. او به طور کلی طرفدار هوش مصنوعی یا به طور خاص سیستم‌های خبره نبود و بودجه هر دو را کاهش داد.

در همین حال، کسب‌وکارها به تدریج دریافتند که ساخت و نگهداری سیستم‌های خبره دشوار و پرهزینه است. آنها همچنین «شکننده» بودند – در حالی که می‌توانستند وظایف بسیار روتین را به خوبی انجام دهند، وقتی با موارد کمی غیرمعمول روبرو می‌شدند، در به کارگیری قوانین منطقی که به آنها داده شده بود، دچار مشکل می‌شدند. در چنین مواردی، اغلب خروجی‌های عجیب و نادرست تولید می‌کردند، یا به سادگی به طور کامل از کار می‌افتادند. تعیین قوانینی که برای هر مورد استثنائی قابل اعمال باشد، وظیفه‌ای غیرممکن بود. در نتیجه، تا اوایل دهه ۱۹۹۰، شرکت‌ها شروع به رها کردن سیستم‌های خبره کردند. برخلاف اولین رونق هوش مصنوعی، که در آن دانشمندان و تامین‌کنندگان مالی دولتی نسبت به این فناوری تردید کردند، این زمستان دوم بیشتر ناشی از سرخوردگی کسب‌وکارها بود.

باز هم شباهت‌های آشکاری در آنچه امروز با هوش مصنوعی اتفاق می‌افتد، وجود دارد. برای مثال، صدها میلیارد دلار در مراکز داده هوش مصنوعی در حال ساخت توسط مایکروسافت، آلفابت، AWS آمازون، X.ai ایلان ماسک و متا سرمایه‌گذاری می‌شود. اوپن‌ای‌آی در حال کار بر روی برنامه ۵۰۰ میلیارد دلاری پروژه استارگیت (Project Stargate) خود با سافت‌بنک (Softbank)، اوراکل و سایر سرمایه‌گذاران است. انویدیا با ارزش بازار ۴.۳ تریلیون دلاری عمدتاً با تأمین نیاز به تراشه‌های هوش مصنوعی برای مراکز داده، به باارزش‌ترین شرکت جهان تبدیل شده است. یکی از فرضیه‌های بزرگ پشت رونق مراکز داده بزرگ این است که پیشرفته‌ترین مدل‌های هوش مصنوعی حداقل به همان اندازه یا بزرگتر از مدل‌های پیشرو امروزی خواهند بود. آموزش و اجرای مدل‌هایی با این اندازه به مراکز داده بسیار بزرگ نیاز دارد.

اما، در همان زمان، تعدادی از استارت‌آپ‌ها روش‌های هوشمندانه‌ای برای ایجاد مدل‌های بسیار کوچک‌تر یافته‌اند که بسیاری از قابلیت‌های مدل‌های غول‌پیکر را تقلید می‌کنند. این مدل‌های کوچک‌تر به منابع محاسباتی بسیار کمتری نیاز دارند – و در برخی موارد حتی به انواع تراشه‌های هوش مصنوعی تخصصی که انویدیا می‌سازد، نیاز ندارند. برخی ممکن است به اندازه کافی کوچک باشند تا روی یک تلفن هوشمند اجرا شوند. اگر این روند ادامه یابد، این احتمال وجود دارد که آن مراکز داده عظیم مورد نیاز نباشند – درست همانطور که مشخص شد ماشین‌های لیسپ (LISP machines) ضروری نبودند. این می‌تواند به این معنی باشد که صدها میلیارد دلار سرمایه‌گذاری در زیرساخت‌های هوش مصنوعی بی‌ثمر خواهد ماند.

سیستم‌های هوش مصنوعی امروزی از بسیاری جهات توانمندتر و انعطاف‌پذیرتر از سیستم‌های خبره دهه ۱۹۸۰ هستند. اما کسب‌وکارها همچنان استقرار آنها را پیچیده و پرهزینه می‌دانند و بازده سرمایه‌گذاری آنها اغلب دست‌نیافتنی است. در حالی که مدل‌های هوش مصنوعی امروزی کلی‌تر و کمتر شکننده از سیستم‌های خبره بودند، اما همچنان غیرقابل اعتماد باقی می‌مانند، به خصوص زمانی که به موارد غیرمعمولی که ممکن است در داده‌های آموزشی آنها به خوبی نشان داده نشده باشند، رسیدگی می‌کنند. آنها مستعد هذیان‌گویی هستند، با اطمینان اطلاعات نادرست را منتشر می‌کنند و گاهی اوقات اشتباهاتی را مرتکب می‌شوند که هیچ انسانی هرگز نمی‌کند. این بدان معناست که شرکت‌ها و دولت‌ها نمی‌توانند از هوش مصنوعی برای خودکارسازی فرآیندهای حیاتی استفاده کنند. اینکه آیا این به معنای از دست دادن صبر شرکت‌ها با هوش مصنوعی مولد و مدل‌های زبان بزرگ خواهد بود، درست همانطور که با سیستم‌های خبره کردند، هنوز مشخص نیست. اما ممکن است اتفاق بیفتد.

زمستان سوم: صعود و سقوط (و صعود مجدد) شبکه‌های عصبی

دهه ۱۹۸۰ همچنین شاهد علاقه مجدد به روش دیگر هوش مصنوعی، یعنی شبکه‌های عصبی بود، که بخشی از آن به دلیل کار دیوید رامل‌هارت، جفری هینتون و رونالد ویلیامز بود که در سال ۱۹۸۶ راهی برای غلبه بر یک چالش کلیدی که از دهه ۱۹۶۰ پرسیپترون‌های چندلایه را آزار می‌داد، پیدا کردند. نوآوری آنها چیزی به نام «بک‌پراپگیشن» (backpropagation) یا به اختصار «بک‌پراپ» (backprop) بود، که روشی برای تصحیح خروجی‌های لایه پنهان میانی نورون‌ها در هر مرحله آموزشی بود تا شبکه به طور کلی بتواند به طور کارآمد یاد بگیرد.

بک‌پراپ، به همراه رایانه‌های قدرتمندتر، به رنسانس شبکه‌های عصبی کمک کرد. به زودی محققان شبکه‌های عصبی چندلایه می‌ساختند که می‌توانستند حروف دست‌نویس روی پاکت‌ها و چک‌ها را رمزگشایی کنند، روابط بین افراد در یک شجره‌نامه خانوادگی را یاد بگیرند، شخصیت‌های تایپ شده را تشخیص داده و با یک سنتزکننده صدا آنها را بخوانند، و حتی یک خودروی خودران اولیه را هدایت کنند و آن را در بین خطوط بزرگراه نگه دارند.

این منجر به رونق کوتاه مدت شبکه‌های عصبی در اواخر دهه ۱۹۸۰ شد. اما شبکه‌های عصبی معایب بزرگی نیز داشتند. آموزش آنها به داده‌های زیادی نیاز داشت و برای بسیاری از وظایف، حجم داده مورد نیاز به سادگی وجود نداشت. همچنین آموزش آنها بسیار کند بود و گاهی اوقات اجرای آنها روی سخت‌افزار رایانه‌ای موجود در آن زمان نیز کند بود.

این به معنای آن بود که بسیاری از کارها را شبکه‌های عصبی هنوز نمی‌توانستند انجام دهند. کسب‌وکارها مانند سیستم‌های خبره به سرعت به سوی پذیرش شبکه‌های عصبی هجوم نیاوردند، زیرا کاربردهای آنها بسیار محدود به نظر می‌رسید. در همین حال، تکنیک‌های یادگیری ماشین آماری دیگری نیز وجود داشتند که از داده‌های کمتری استفاده می‌کردند و به قدرت محاسباتی کمتری نیاز داشتند و به نظر می‌رسید پیشرفت‌های سریعی داشته باشند. بار دیگر، بسیاری از محققان و مهندسان هوش مصنوعی، شبکه‌های عصبی را کنار گذاشتند. یک زمستان ده ساله دیگر هوش مصنوعی آغاز شد.

دو چیز این زمستان سوم را آب کرد: اینترنت مقادیر عظیمی از داده‌های دیجیتال را ایجاد کرد و دسترسی به آن‌ها را نسبتاً آسان ساخت. این امر به رفع تنگنای داده که شبکه‌های عصبی را در دهه ۱۹۸۰ محدود کرده بود، کمک کرد. سپس، از سال ۲۰۰۴ به بعد، محققان در دانشگاه مریلند و سپس مایکروسافت شروع به آزمایش استفاده از نوع جدیدی از تراشه‌های کامپیوتری که برای بازی‌های ویدیویی اختراع شده بودند، به نام واحد پردازش گرافیکی (GPU)، برای آموزش و اجرای شبکه‌های عصبی کردند. GPUها می‌توانستند بسیاری از عملیات مشابه را به صورت موازی انجام دهند، که دقیقاً همان چیزی بود که شبکه‌های عصبی نیاز داشتند. به زودی، جفری هینتون و دانشجویان تحصیلات تکمیلی او شروع به نشان دادن این موضوع کردند که شبکه‌های عصبی، که بر روی مجموعه داده‌های بزرگ آموزش دیده‌اند و بر روی GPUها اجرا می‌شوند، می‌توانند کارهایی را انجام دهند – مانند طبقه‌بندی تصاویر به هزار دسته مختلف – که در اواخر دهه ۱۹۸۰ غیرممکن بود. انقلاب مدرن «یادگیری عمیق» در حال اوج‌گیری بود.

این رونق تا امروز ادامه داشته است. در ابتدا، شبکه‌های عصبی عمدتاً برای انجام یک وظیفه خاص آموزش می‌دیدند – برای بازی گو، یا تشخیص چهره‌ها. اما تابستان هوش مصنوعی در سال ۲۰۱۷ عمیق‌تر شد، زمانی که محققان گوگل نوع خاصی از شبکه عصبی به نام «ترنسفورمر» (Transformer) را طراحی کردند که در درک توالی‌های زبان خوب بود. سپس در سال ۲۰۱۹ یک تقویت دیگر دریافت کرد، هنگامی که اوپن‌ای‌آی متوجه شد که ترنسفورمرهای آموزش‌دیده بر روی حجم زیادی از متن می‌توانند نه تنها متن را به خوبی بنویسند، بلکه بسیاری از وظایف دیگر زبان، از ترجمه تا خلاصه‌نویسی را نیز مسلط شوند. سه سال بعد، نسخه به‌روز شده شبکه عصبی مبتنی بر ترنسفورمر اوپن‌ای‌آی، GPT-3.5، برای قدرت بخشیدن به چت‌بات پرطرفدار چت‌جی‌پی‌تی مورد استفاده قرار گرفت.

اکنون، سه سال پس از معرفی چت‌جی‌پی‌تی، هیجان پیرامون هوش مصنوعی هرگز بیشتر از این نبوده است. اگر زمستان‌های گذشته هوش مصنوعی راهنمایی باشند، قطعاً چند نشانه پاییزی، یک برگ افتاده که با نسیم حمل می‌شود، وجود دارد. اما تنها زمان نشان خواهد داد که آیا این مقدمه‌ای برای یک بمب قطبی دیگر است که سرمایه‌گذاری هوش مصنوعی را برای یک نسل متوقف خواهد کرد، یا صرفاً یک دوره سرد موقت قبل از اینکه خورشید دوباره طلوع کند.