با فرارسیدن پاییز، بسیاری در دنیای فناوری نگران زمستان هستند. اواخر ماه گذشته، یک ستوننویس بلومبرگ پرسید «آیا زمستان هوش مصنوعی بالاخره از راه رسیده است؟» روزنامه بریتانیایی تلگراف قاطعتر بود و اعلام کرد: «زمستان بعدی هوش مصنوعی در راه است.» در همین حال، پلتفرم رسانه اجتماعی X (توییتر سابق) پر از گفتگو در مورد یک زمستان احتمالی برای هوش مصنوعی بود.
«زمستان هوش مصنوعی» اصطلاحی است که فعالان هوش مصنوعی برای دورهای به کار میبرند که شور و شوق برای ایده ماشینهایی که میتوانند مانند انسانها یاد بگیرند و فکر کنند، کاهش مییابد و سرمایهگذاری برای محصولات، شرکتها و تحقیقات هوش مصنوعی متوقف میشود. دلیلی وجود دارد که این عبارت به راحتی بر زبان مفسران هوش مصنوعی میآید: ما در تاریخ ۷۰ ساله هوش مصنوعی به عنوان یک حوزه تحقیقاتی، چندین زمستان هوش مصنوعی را پشت سر گذاشتهایم. اگر قرار باشد وارد یک دوره دیگر شویم، که برخی گمان میکنند، این دستکم چهارمین زمستان خواهد بود.
بحثهای اخیر درباره زمستان قریبالوقوع، ناشی از نگرانیهای فزاینده سرمایهگذاران است مبنی بر اینکه فناوری هوش مصنوعی ممکن است به تبلیغات پیرامون خود عمل نکند – و اینکه ارزشگذاری بسیاری از شرکتهای مرتبط با هوش مصنوعی بیش از حد بالا است. در بدترین سناریو، این زمستان هوش مصنوعی میتواند با ترکیدن حباب بازار سهام متورمشده از هوش مصنوعی همراه باشد که پیامدهای آن در کل اقتصاد احساس خواهد شد. هرچند چرخههای تب و تاب هوش مصنوعی قبلاً نیز وجود داشتهاند، اما هرگز به این میزان صدها میلیارد دلار که سرمایهگذاران در رونق هوش مصنوعی مولد سرازیر کردهاند، نزدیک نبودهاند. بنابراین اگر زمستان دیگری در راه باشد، میتواند با درد و رنجی در حد قطبی همراه باشد.
بازارها اخیراً با اظهارات سم آلتمن، مدیرعامل اوپنایآی (OpenAI)، که به خبرنگاران گفت فکر میکند برخی استارتآپهای هوش مصنوعی با پشتوانه سرمایه خطرپذیر بیش از حد ارزشگذاری شدهاند (البته نه اوپنایآی، که یکی از باارزشترین استارتآپهای با پشتوانه سرمایه خطرپذیر در تمام دوران است)، وحشتزده شدهاند. بلافاصله پس از اظهارات آلتمن، مطالعهای از سوی امآیتی (MIT) منتشر شد که نتیجه گرفت ۹۵ درصد از پروژههای آزمایشی هوش مصنوعی شکست میخورند.
نگاهی به زمستانهای گذشته هوش مصنوعی و دلایل آنها ممکن است به ما نشان دهد که آیا این سرما در هوا فقط یک نسیم گذرا است یا اولین نشانههای یک عصر یخبندان قریبالوقوع. گاهی اوقات این زمستانهای هوش مصنوعی توسط تحقیقات آکادمیک که محدودیتهای تکنیکهای خاص هوش مصنوعی را برجسته میکردند، به وجود آمدهاند. گاهی اوقات نیز به دلیل ناکامی در کارکرد صحیح فناوری هوش مصنوعی در کاربردهای دنیای واقعی ایجاد شدهاند. گاهی هر دو عامل نقش داشتهاند. اما آنچه همه زمستانهای قبلی هوش مصنوعی مشترکاً داشتند، سرخوردگی در میان پرداختکنندگان هزینهها بود، پس از آنکه پیشرفتهای جدید و امیدوارکننده نتوانستند به تبلیغات متعاقب آن عمل کنند.
اولین چرخه تب و تاب هوش مصنوعی
دولت آمریکا و دولتهای متحدش در اوایل جنگ سرد، تحقیقات هوش مصنوعی را به شدت تأمین مالی میکردند. در آن زمان نیز مانند امروز، واشنگتن این فناوری را به عنوان عاملی بالقوه برای کسب مزیت استراتژیک و نظامی میدید و بخش عمدهای از بودجه تحقیقات هوش مصنوعی از پنتاگون تأمین میشد.
در این دوره، دو رویکرد رقیب برای هوش مصنوعی وجود داشت. یکی بر اساس کدگذاری سخت قوانین منطقی برای دستهبندی ورودیها به نمادها و سپس دستکاری این نمادها برای رسیدن به خروجیها بود. این روشی بود که اولین جهشهای بزرگ را در رایانههایی که میتوانستند شطرنج و چکرز بازی کنند، به ارمغان آورد و همچنین منجر به ساخت اولین چتباتهای جهان شد.
روش رقیب هوش مصنوعی بر پایه چیزی به نام «پرسیپترون» (perceptron) استوار بود، که پیشساز شبکههای عصبی امروزی است؛ نوعی هوش مصنوعی که به صورت آزاد بر اساس کاریکاتوری از نحوه عملکرد مغز ساخته شده است. پرسیپترون به جای شروع با قوانین و منطق، یک قانون برای انجام کاری را از دادهها یاد میگرفت. دفتر تحقیقات نیروی دریایی ایالات متحده بسیاری از کارهای اولیه بر روی پرسیپترونها را تأمین مالی میکرد، که توسط فرانک روزنبلات، عصبشناس و روانشناس دانشگاه کرنل، پایهگذاری شد. هم نیروی دریایی و هم سازمان سیا (CIA) پرسیپترونها را آزمایش کردند تا ببینند آیا میتوانند چیزهایی مانند سایه کشتیهای دشمن یا اهداف احتمالی در عکسهای شناسایی هوایی را طبقهبندی کنند.
هر دو گروه رقیب، ادعاهای اغراقآمیزی داشتند که فناوریشان به زودی رایانههایی را به ارمغان خواهد آورد که برابر یا فراتر از هوش انسانی خواهند بود. روزنبلات در سال ۱۹۵۸ به نیویورک تایمز گفت که پرسیپترونهایش به زودی قادر خواهند بود افراد را شناسایی کرده و نامشان را صدا بزنند، و «تنها یک گام دیگر از توسعه» فاصله دارد تا بتوانند فورا زبانها را ترجمه کنند، و در نهایت سیستمهای هوش مصنوعی خودتولید میشوند و آگاه خواهند شد. در همین حال، ماروین مینسکای، یکی از بنیانگذاران آزمایشگاه هوش مصنوعی امآیتی و چهره پیشرو در گروه هوش مصنوعی نمادین، در سال ۱۹۷۰ به مجله لایف گفت که «در سه تا هشت سال آینده، ماشینی با هوش عمومی یک انسان معمولی خواهیم داشت.»
این اولین پیشنیاز برای زمستان هوش مصنوعی است: هیجان کاذب. و امروز نیز شباهتهای آشکاری در اظهارات تعدادی از چهرههای برجسته هوش مصنوعی وجود دارد. ژانویه گذشته، سم آلتمن، مدیرعامل اوپنایآی، در وبلاگ شخصی خود نوشت: «اکنون مطمئنیم که میدانیم چگونه [هوش عمومی مصنوعی در سطح انسان] را آنگونه که به طور سنتی درک میکردیم، بسازیم» و اینکه اوپنایآی به طور فزایندهای به سمت ساخت «فراهوشمندی» فراتر از انسان روی آورده است. او نوشت که امسال «ممکن است شاهد باشیم اولین عوامل هوش مصنوعی به «نیروی کار» بپیوندند و خروجی شرکتها را به طور مادی تغییر دهند.» داریو آمودهای، یکی از بنیانگذاران و مدیرعامل شرکت انتروپیک (Anthropic)، گفته است که هوش مصنوعی در سطح انسانی ممکن است در سال ۲۰۲۶ از راه برسد. در همین حال، دمیس هاسابیس، یکی از بنیانگذاران و مدیرعامل گوگل دیپمایند، گفته است که هوش مصنوعی برابر با انسان در تمام حوزههای شناختی در «پنج تا ۱۰ سال آینده» محقق خواهد شد.
دولت اعتماد خود را از دست میدهد
اما آنچه زمستان هوش مصنوعی را تسریع میکند، شواهد قطعی است که نشان میدهد این هیجان کاذب قابل تحقق نیست. برای اولین زمستان هوش مصنوعی، این شواهد در پی ضربات پیدرپی آشکار شد. در سال ۱۹۶۶، کمیتهای که توسط شورای تحقیقات ملی مأمور شده بود، گزارشی ویرانگر درباره وضعیت پردازش زبان طبیعی و ترجمه ماشینی ارائه داد. این گزارش نتیجه گرفت که ترجمه مبتنی بر کامپیوتر گرانتر، کندتر و کمدقتتر از ترجمه انسانی است. شورای تحقیقات که ۲۰ میلیون دلار (معادل دستکم ۲۰۰ میلیون دلار امروز) به این نوع اولیه از هوش مصنوعی زبان اختصاص داده بود، تمام بودجه را قطع کرد.
سپس، در سال ۱۹۹۶، مینسکای مسئول دومین ضربه بود. در آن سال، او و سیمور پاپرت، یکی از همکاران محقق هوش مصنوعی، کتابی را منتشر کردند که به نقد جامع پرسیپترونها میپرداخت. در این کتاب، مینسکای و پاپرت به صورت ریاضی ثابت کردند که یک پرسیپترون تکلایه، از نوعی که روزنبلات در سال ۱۹۵۸ با شور و هیجان فراوان به نمایش گذاشته بود، فقط میتواند طبقهبندیهای دودویی دقیق انجام دهد – به عبارت دیگر، میتواند تشخیص دهد که چیزی سیاه یا سفید است، یا دایره یا مربع. اما نمیتوانست اشیاء را به بیش از دو دسته طبقهبندی کند.
مشخص شد که مشکل بزرگی در نقد مینسکای و پاپرت وجود داشت. در حالی که اکثر مردم این کتاب را به عنوان اثبات قطعی میپنداشتند که هوش مصنوعی مبتنی بر شبکه عصبی هرگز به هوش در سطح انسان نزدیک نخواهد شد، اما اثباتهای آنها فقط در مورد یک پرسیپترون ساده با یک لایه اعمال میشد: یک لایه ورودی شامل چندین نورون که دادهها را دریافت کرده و همگی به یک نورون خروجی متصل بودند. آنها احتمالاً به عمد نادیده گرفته بودند که برخی محققان در دهه ۱۹۶۰ قبلاً آزمایشهایی را با پرسیپترونهای چندلایه آغاز کرده بودند، که دارای یک لایه "پنهان" میانی از نورونها بودند که بین نورونهای ورودی و نورون خروجی قرار میگرفت. این پرسیپترونهای چندلایه، پیشسازهای واقعی "یادگیری عمیق" امروزی، در واقع میتوانستند دادهها را به بیش از دو دسته طبقهبندی کنند. اما در آن زمان، آموزش چنین شبکه عصبی چندلایه بسیار دشوار بود. و این موضوع اهمیتی نداشت. آسیب وارد شده بود. پس از انتشار کتاب مینسکای و پاپرت، بودجه دولت ایالات متحده برای رویکردهای مبتنی بر شبکه عصبی در هوش مصنوعی تا حد زیادی پایان یافت.
حمله مینسکای و پاپرت فقط نهادهای تأمین مالی پنتاگون را متقاعد نکرد. بسیاری از دانشمندان کامپیوتر را نیز قانع کرد که شبکههای عصبی به بنبست رسیدهاند. برخی محققان شبکههای عصبی مینسکای را به دلیل به عقب انداختن این حوزه برای دههها سرزنش کردند. در سال ۲۰۰۶، تری سجنوفسکی، محققی که به احیای علاقه به شبکههای عصبی کمک کرد، در یک کنفرانس بلند شد و مینسکای را به چالش کشید و از او پرسید که آیا او شیطان است. مینسکای این سؤال را نادیده گرفت و شروع به تشریح آنچه که به نظر او نقاط ضعف شبکههای عصبی بود، کرد. سجنوفسکی اصرار کرد و دوباره از مینسکای پرسید که آیا او شیطان است. سرانجام مینسکای با عصبانیت فریاد زد: «بله، من هستم!»
اما هوش مصنوعی نمادین مینسکای نیز به زودی با خشکسالی بودجه روبرو شد. همچنین در سال ۱۹۶۹، کنگره آژانس پروژههای تحقیقاتی پیشرفته دفاعی (دارپا - DARPA) را، که یکی از تأمینکنندگان اصلی هر دو رویکرد هوش مصنوعی بود، مجبور کرد رویکرد خود را در اعطای کمکهای مالی تغییر دهد. به این آژانس گفته شد که تحقیقاتی را تأمین مالی کند که کاربردهای نظامی واضح و مشخصی داشته باشند، به جای تحقیقات بنیادیتر. و در حالی که برخی تحقیقات هوش مصنوعی نمادین در این چارچوب قرار میگرفتند، بسیاری از آنها چنین نبودند.
ضربه نهایی در سال ۱۹۷۳ وارد شد، زمانی که پارلمان بریتانیا از جیمز لایتهیل، ریاضیدان دانشگاه کمبریج، مأموریت داد تا وضعیت تحقیقات هوش مصنوعی در بریتانیا را بررسی کند. نتیجهگیری او این بود که هوش مصنوعی هیچ نویدی برای تحقق ادعاهای بزرگ خود مبنی بر برابری با هوش انسانی نشان نداده است و بسیاری از الگوریتمهای مورد علاقه آن، در حالی که ممکن است برای مسائل کوچک کار کنند، هرگز نمیتوانند با پیچیدگی دنیای واقعی مقابله کنند. بر اساس نتیجهگیریهای لایتهیل، دولت بریتانیا تمام بودجه تحقیقات هوش مصنوعی را کاهش داد.
لایتهیل تنها به تلاشهای هوش مصنوعی در بریتانیا نگاه کرده بود، اما دارپا و دیگر تأمینکنندگان مالی تحقیقات هوش مصنوعی در ایالات متحده به نتیجهگیریهای او توجه کردند، که شک و تردید رو به رشد خودشان را نسبت به هوش مصنوعی تقویت کرد. تا سال ۱۹۷۴، بودجه ایالات متحده برای پروژههای هوش مصنوعی کسری از آنچه در دهه ۱۹۶۰ بود، شده بود. زمستان آغاز شده بود – و تا اوایل دهه ۱۹۸۰ ادامه داشت.
امروزه نیز، در مورد مطالعاتی که نشان میدهند هوش مصنوعی انتظارات را برآورده نمیکند، شباهتهایی با اولین زمستان هوش مصنوعی وجود دارد. دو مقاله تحقیقاتی اخیر از محققان اپل و دانشگاه ایالتی آریزونا تردیدهایی را در مورد اینکه آیا مدلهای پیشرفته هوش مصنوعی، که قرار است از «زنجیره فکری» برای استدلال در مورد نحوه پاسخ به یک دستور استفاده کنند، واقعاً درگیر استدلال هستند یا خیر، ایجاد کردهاند. هر دو مقاله نتیجه میگیرند که مدلها به جای یادگیری نحوه اعمال قوانین منطقی قابل تعمیم و تکنیکهای حل مسئله برای مشکلات جدید – که انسانها آن را استدلال میدانند – صرفاً سعی میکنند یک مشکل را با مشکلی که در دادههای آموزشی خود دیدهاند، مطابقت دهند. این مطالعات میتوانند معادل حمله مینسکای و پاپرت به پرسیپترونها باشند.
در همین حال، تعداد فزایندهای از مطالعات در مورد تأثیرات واقعی مدلهای هوش مصنوعی امروزی وجود دارد که موازی با گزارشهای لایتهیل و NRC هستند. به عنوان مثال، آن مطالعه امآیتی که نتیجه گرفت ۹۵ درصد از پروژههای آزمایشی هوش مصنوعی در افزایش درآمدهای شرکتها شکست میخورند. یک مطالعه اخیر از محققان Salesforce نتیجه گرفت که بیشتر مدلهای زبان بزرگ (LLMs) امروزی نمیتوانند وظایف مدیریت ارتباط با مشتری (CRM) را به دقت انجام دهند – نتیجهگیریای به خصوص طنزآمیز، زیرا خود Salesforce عاملان هوش مصنوعی را برای خودکارسازی فرآیندهای CRM ترویج میکند. تحقیقات Anthropic نشان داد که مدل Claude آن نمیتواند یک کسبوکار دستگاههای فروش خودکار را با موفقیت اداره کند – یک کسبوکار نسبتاً ساده در مقایسه با بسیاری از کسبوکارهایی که فعالان فناوری میگویند توسط عاملان هوش مصنوعی «کاملاً متحول» خواهند شد. همچنین یک مطالعه از گروه تحقیقاتی هوش مصنوعی METR نشان داد که توسعهدهندگان نرمافزار که از دستیار کدنویسی هوش مصنوعی استفاده میکنند، در واقع ۱۹ درصد کندتر از زمانی که بدون آن بودند، وظایف را تکمیل میکردند.
اما تفاوتهای کلیدی نیز وجود دارد. مهمتر از همه، رونق هوش مصنوعی امروز به بودجه عمومی وابسته نیست. اگرچه نهادهای دولتی، از جمله ارتش ایالات متحده، به مشتریان مهمی برای شرکتهای هوش مصنوعی تبدیل میشوند، اما پولی که رونق کنونی را تامین میکند تقریباً به طور کامل خصوصی است. سرمایهگذاران خطرپذیر از نوامبر ۲۰۲۲ که چتجیپیتی (ChatGPT) معرفی شد، دستکم ۲۵۰ میلیارد دلار در استارتآپهای هوش مصنوعی سرمایهگذاری کردهاند. و این شامل مقدار عظیمی که شرکتهای بزرگ فناوری سهامی عام مانند مایکروسافت، آلفابت، آمازون و متا برای تلاشهای هوش مصنوعی خودشان هزینه میکنند، نمیشود. تخمین زده میشود که تنها در سال جاری ۳۵۰ میلیارد دلار برای ساخت مراکز داده هوش مصنوعی هزینه میشود و حتی بیشتر از آن برای سال آینده انتظار میرود.
علاوه بر این، برخلاف اولین زمستان هوش مصنوعی که سیستمهای هوش مصنوعی عمدتاً فقط آزمایشهای تحقیقاتی بودند، امروزه هوش مصنوعی به طور گسترده در کسبوکارها مستقر شده است. هوش مصنوعی همچنین به یک فناوری مصرفکننده عظیم تبدیل شده است – تنها چتجیپیتی تخمین زده میشود ۷۰۰ میلیون کاربر هفتگی داشته باشد – که قبلاً هرگز چنین نبوده است. در حالی که هوش مصنوعی امروز هنوز به نظر میرسد برخی جنبههای کلیدی هوش انسانی را ندارد، اما به مراتب بهتر از سیستمهایی است که قبلاً وجود داشتند و دشوار است ادعا کرد که مردم این فناوری را برای تعداد زیادی از وظایف مفید نمیدانند.
زمستان دوم: کسبوکارها صبر خود را از دست میدهند
اولین زمستان هوش مصنوعی در اوایل دهه ۱۹۸۰ عمدتاً به لطف افزایش قدرت محاسباتی و برخی تکنیکهای الگوریتمی بهبود یافته، آب شد. در این زمان، بخش زیادی از هیجانات در هوش مصنوعی حول «سیستمهای خبره» بود. اینها برنامههای کامپیوتری بودند که برای کدگذاری دانش متخصصان انسانی در یک حوزه خاص، در مجموعهای از قوانین منطقی طراحی شده بودند که نرمافزار سپس آن را برای انجام وظیفهای خاص به کار میبرد.
با این حال، کسبوکارها مشتاق بودند و معتقد بودند که سیستمهای خبره به رونق بهرهوری منجر خواهند شد. در اوج این چرخه تب و تاب هوش مصنوعی، تقریباً دو سوم از شرکتهای فهرست فورچون ۵۰۰ (Fortune 500) اعلام کردند که سیستمهای خبره را مستقر کردهاند. تا سال ۱۹۸۵، شرکتهای آمریکایی مجموعاً بیش از ۱ میلیارد دلار برای سیستمهای خبره هزینه میکردند و یک صنعت کامل، که بخش زیادی از آن با پشتوانه سرمایه خطرپذیر بود، حول این فناوری شکل گرفت. بخش زیادی از آن بر ساخت سختافزار کامپیوتری تخصصی به نام «ماشینهای لیسپ» (LISP machines) متمرکز بود که برای اجرای سیستمهای خبره بهینه شده بودند و بسیاری از آنها به زبان برنامهنویسی LISP کدگذاری شده بودند. علاوه بر این، از سال ۱۹۸۳، دارپا (DARPA) با ابتکار جدید محاسبات استراتژیک، به تامین مالی تحقیقات هوش مصنوعی بازگشت و در نهایت بیش از ۱۰۰ میلیون دلار به بیش از ۹۰ پروژه مختلف هوش مصنوعی در دانشگاههای سراسر ایالات متحده ارائه کرد.
اگرچه سیستمهای خبره از بسیاری از روشهایی که محققان هوش مصنوعی نمادین پیشگام آن بودند، بهره میبردند، اما بسیاری از دانشمندان کامپیوتر آکادمیک نگران بودند که انتظارات بیش از حد بار دیگر یک چرخه رونق و رکود را به دنبال داشته باشد که به این حوزه آسیب برساند. در میان آنها، مینسکای و راجر شنک، دیگر محقق هوش مصنوعی، بودند که در کنفرانس هوش مصنوعی سال ۱۹۸۴ اصطلاح «زمستان هوش مصنوعی» را ابداع کردند. این دو این واژه جدید را برای تداعی اصطلاح «زمستان هستهای» – دوره ویرانگر و تاریک بدون نور خورشید که احتمالاً پس از یک جنگ هستهای بزرگ رخ خواهد داد – انتخاب کردند.
سپس سه اتفاق افتاد که زمستان بعدی را رقم زد. در سال ۱۹۸۷، نوع جدیدی از ایستگاه کاری کامپیوتری از شرکت سان مایکروسیستمز (Sun Microsystems) عرضه شد. این ایستگاههای کاری، و همچنین رایانههای رومیزی قدرتمندتر از آیبیام و اپل، نیاز به ماشینهای لیسپ تخصصی را از بین بردند. ظرف یک سال، بازار ماشینهای لیسپ تبخیر شد. بسیاری از سرمایهگذاران خطرپذیر دارایی خود را از دست دادند – و از حمایت مجدد استارتآپهای مرتبط با هوش مصنوعی بیمناک شدند. در همان سال، جک شوارتز، دانشمند کامپیوتر دانشگاه نیویورک، رئیس تحقیقات محاسبات دارپا شد. او به طور کلی طرفدار هوش مصنوعی یا به طور خاص سیستمهای خبره نبود و بودجه هر دو را کاهش داد.
در همین حال، کسبوکارها به تدریج دریافتند که ساخت و نگهداری سیستمهای خبره دشوار و پرهزینه است. آنها همچنین «شکننده» بودند – در حالی که میتوانستند وظایف بسیار روتین را به خوبی انجام دهند، وقتی با موارد کمی غیرمعمول روبرو میشدند، در به کارگیری قوانین منطقی که به آنها داده شده بود، دچار مشکل میشدند. در چنین مواردی، اغلب خروجیهای عجیب و نادرست تولید میکردند، یا به سادگی به طور کامل از کار میافتادند. تعیین قوانینی که برای هر مورد استثنائی قابل اعمال باشد، وظیفهای غیرممکن بود. در نتیجه، تا اوایل دهه ۱۹۹۰، شرکتها شروع به رها کردن سیستمهای خبره کردند. برخلاف اولین رونق هوش مصنوعی، که در آن دانشمندان و تامینکنندگان مالی دولتی نسبت به این فناوری تردید کردند، این زمستان دوم بیشتر ناشی از سرخوردگی کسبوکارها بود.
باز هم شباهتهای آشکاری در آنچه امروز با هوش مصنوعی اتفاق میافتد، وجود دارد. برای مثال، صدها میلیارد دلار در مراکز داده هوش مصنوعی در حال ساخت توسط مایکروسافت، آلفابت، AWS آمازون، X.ai ایلان ماسک و متا سرمایهگذاری میشود. اوپنایآی در حال کار بر روی برنامه ۵۰۰ میلیارد دلاری پروژه استارگیت (Project Stargate) خود با سافتبنک (Softbank)، اوراکل و سایر سرمایهگذاران است. انویدیا با ارزش بازار ۴.۳ تریلیون دلاری عمدتاً با تأمین نیاز به تراشههای هوش مصنوعی برای مراکز داده، به باارزشترین شرکت جهان تبدیل شده است. یکی از فرضیههای بزرگ پشت رونق مراکز داده بزرگ این است که پیشرفتهترین مدلهای هوش مصنوعی حداقل به همان اندازه یا بزرگتر از مدلهای پیشرو امروزی خواهند بود. آموزش و اجرای مدلهایی با این اندازه به مراکز داده بسیار بزرگ نیاز دارد.
اما، در همان زمان، تعدادی از استارتآپها روشهای هوشمندانهای برای ایجاد مدلهای بسیار کوچکتر یافتهاند که بسیاری از قابلیتهای مدلهای غولپیکر را تقلید میکنند. این مدلهای کوچکتر به منابع محاسباتی بسیار کمتری نیاز دارند – و در برخی موارد حتی به انواع تراشههای هوش مصنوعی تخصصی که انویدیا میسازد، نیاز ندارند. برخی ممکن است به اندازه کافی کوچک باشند تا روی یک تلفن هوشمند اجرا شوند. اگر این روند ادامه یابد، این احتمال وجود دارد که آن مراکز داده عظیم مورد نیاز نباشند – درست همانطور که مشخص شد ماشینهای لیسپ (LISP machines) ضروری نبودند. این میتواند به این معنی باشد که صدها میلیارد دلار سرمایهگذاری در زیرساختهای هوش مصنوعی بیثمر خواهد ماند.
سیستمهای هوش مصنوعی امروزی از بسیاری جهات توانمندتر و انعطافپذیرتر از سیستمهای خبره دهه ۱۹۸۰ هستند. اما کسبوکارها همچنان استقرار آنها را پیچیده و پرهزینه میدانند و بازده سرمایهگذاری آنها اغلب دستنیافتنی است. در حالی که مدلهای هوش مصنوعی امروزی کلیتر و کمتر شکننده از سیستمهای خبره بودند، اما همچنان غیرقابل اعتماد باقی میمانند، به خصوص زمانی که به موارد غیرمعمولی که ممکن است در دادههای آموزشی آنها به خوبی نشان داده نشده باشند، رسیدگی میکنند. آنها مستعد هذیانگویی هستند، با اطمینان اطلاعات نادرست را منتشر میکنند و گاهی اوقات اشتباهاتی را مرتکب میشوند که هیچ انسانی هرگز نمیکند. این بدان معناست که شرکتها و دولتها نمیتوانند از هوش مصنوعی برای خودکارسازی فرآیندهای حیاتی استفاده کنند. اینکه آیا این به معنای از دست دادن صبر شرکتها با هوش مصنوعی مولد و مدلهای زبان بزرگ خواهد بود، درست همانطور که با سیستمهای خبره کردند، هنوز مشخص نیست. اما ممکن است اتفاق بیفتد.
زمستان سوم: صعود و سقوط (و صعود مجدد) شبکههای عصبی
دهه ۱۹۸۰ همچنین شاهد علاقه مجدد به روش دیگر هوش مصنوعی، یعنی شبکههای عصبی بود، که بخشی از آن به دلیل کار دیوید راملهارت، جفری هینتون و رونالد ویلیامز بود که در سال ۱۹۸۶ راهی برای غلبه بر یک چالش کلیدی که از دهه ۱۹۶۰ پرسیپترونهای چندلایه را آزار میداد، پیدا کردند. نوآوری آنها چیزی به نام «بکپراپگیشن» (backpropagation) یا به اختصار «بکپراپ» (backprop) بود، که روشی برای تصحیح خروجیهای لایه پنهان میانی نورونها در هر مرحله آموزشی بود تا شبکه به طور کلی بتواند به طور کارآمد یاد بگیرد.
بکپراپ، به همراه رایانههای قدرتمندتر، به رنسانس شبکههای عصبی کمک کرد. به زودی محققان شبکههای عصبی چندلایه میساختند که میتوانستند حروف دستنویس روی پاکتها و چکها را رمزگشایی کنند، روابط بین افراد در یک شجرهنامه خانوادگی را یاد بگیرند، شخصیتهای تایپ شده را تشخیص داده و با یک سنتزکننده صدا آنها را بخوانند، و حتی یک خودروی خودران اولیه را هدایت کنند و آن را در بین خطوط بزرگراه نگه دارند.
این منجر به رونق کوتاه مدت شبکههای عصبی در اواخر دهه ۱۹۸۰ شد. اما شبکههای عصبی معایب بزرگی نیز داشتند. آموزش آنها به دادههای زیادی نیاز داشت و برای بسیاری از وظایف، حجم داده مورد نیاز به سادگی وجود نداشت. همچنین آموزش آنها بسیار کند بود و گاهی اوقات اجرای آنها روی سختافزار رایانهای موجود در آن زمان نیز کند بود.
این به معنای آن بود که بسیاری از کارها را شبکههای عصبی هنوز نمیتوانستند انجام دهند. کسبوکارها مانند سیستمهای خبره به سرعت به سوی پذیرش شبکههای عصبی هجوم نیاوردند، زیرا کاربردهای آنها بسیار محدود به نظر میرسید. در همین حال، تکنیکهای یادگیری ماشین آماری دیگری نیز وجود داشتند که از دادههای کمتری استفاده میکردند و به قدرت محاسباتی کمتری نیاز داشتند و به نظر میرسید پیشرفتهای سریعی داشته باشند. بار دیگر، بسیاری از محققان و مهندسان هوش مصنوعی، شبکههای عصبی را کنار گذاشتند. یک زمستان ده ساله دیگر هوش مصنوعی آغاز شد.
دو چیز این زمستان سوم را آب کرد: اینترنت مقادیر عظیمی از دادههای دیجیتال را ایجاد کرد و دسترسی به آنها را نسبتاً آسان ساخت. این امر به رفع تنگنای داده که شبکههای عصبی را در دهه ۱۹۸۰ محدود کرده بود، کمک کرد. سپس، از سال ۲۰۰۴ به بعد، محققان در دانشگاه مریلند و سپس مایکروسافت شروع به آزمایش استفاده از نوع جدیدی از تراشههای کامپیوتری که برای بازیهای ویدیویی اختراع شده بودند، به نام واحد پردازش گرافیکی (GPU)، برای آموزش و اجرای شبکههای عصبی کردند. GPUها میتوانستند بسیاری از عملیات مشابه را به صورت موازی انجام دهند، که دقیقاً همان چیزی بود که شبکههای عصبی نیاز داشتند. به زودی، جفری هینتون و دانشجویان تحصیلات تکمیلی او شروع به نشان دادن این موضوع کردند که شبکههای عصبی، که بر روی مجموعه دادههای بزرگ آموزش دیدهاند و بر روی GPUها اجرا میشوند، میتوانند کارهایی را انجام دهند – مانند طبقهبندی تصاویر به هزار دسته مختلف – که در اواخر دهه ۱۹۸۰ غیرممکن بود. انقلاب مدرن «یادگیری عمیق» در حال اوجگیری بود.
این رونق تا امروز ادامه داشته است. در ابتدا، شبکههای عصبی عمدتاً برای انجام یک وظیفه خاص آموزش میدیدند – برای بازی گو، یا تشخیص چهرهها. اما تابستان هوش مصنوعی در سال ۲۰۱۷ عمیقتر شد، زمانی که محققان گوگل نوع خاصی از شبکه عصبی به نام «ترنسفورمر» (Transformer) را طراحی کردند که در درک توالیهای زبان خوب بود. سپس در سال ۲۰۱۹ یک تقویت دیگر دریافت کرد، هنگامی که اوپنایآی متوجه شد که ترنسفورمرهای آموزشدیده بر روی حجم زیادی از متن میتوانند نه تنها متن را به خوبی بنویسند، بلکه بسیاری از وظایف دیگر زبان، از ترجمه تا خلاصهنویسی را نیز مسلط شوند. سه سال بعد، نسخه بهروز شده شبکه عصبی مبتنی بر ترنسفورمر اوپنایآی، GPT-3.5، برای قدرت بخشیدن به چتبات پرطرفدار چتجیپیتی مورد استفاده قرار گرفت.
اکنون، سه سال پس از معرفی چتجیپیتی، هیجان پیرامون هوش مصنوعی هرگز بیشتر از این نبوده است. اگر زمستانهای گذشته هوش مصنوعی راهنمایی باشند، قطعاً چند نشانه پاییزی، یک برگ افتاده که با نسیم حمل میشود، وجود دارد. اما تنها زمان نشان خواهد داد که آیا این مقدمهای برای یک بمب قطبی دیگر است که سرمایهگذاری هوش مصنوعی را برای یک نسل متوقف خواهد کرد، یا صرفاً یک دوره سرد موقت قبل از اینکه خورشید دوباره طلوع کند.