تصویرسازی: الی هرست
تصویرسازی: الی هرست

مصرف واقعی انرژی توسط هوش مصنوعی چقدر خواهد بود؟ جنبه‌های خوب، بد و ناشناخته

محققان از شرکت‌ها می‌خواهند در مورد میزان مصرف برق هوش مصنوعی شفاف‌تر باشند.

عطر علف خشک و کود حیوانی بر فراز شهرستان کالپپر، ویرجینیا، جایی که به ازای هر سه انسان یک گاو وجود دارد، معلق است. سارا پارملی، یکی از ۵۵۰۰۰ ساکن این شهرستان می‌گوید: «ما مزارع بزرگ، که بیشتر آنها هنوز خانوادگی هستند، و جنگل‌های زیادی داریم.» او می‌افزاید: «اینجا یک شهر کوچک بسیار جذاب در ایالات متحده آمریکا است.»

اما این منظره‌ی شبانی در میانه‌ی یک تحول قرن بیست و یکمی قرار دارد. در طول چند سال گذشته، این شهرستان ساخت هفت پروژه‌ی بزرگ مرکز داده را تصویب کرده است که از شرکت‌های فناوری در برنامه‌های گسترده‌شان برای هوش مصنوعی مولد (generative AI) پشتیبانی خواهند کرد. در داخل این سازه‌های غول‌پیکر، ردیف‌هایی از سرورهای کامپیوتری به آموزش مدل‌های هوش مصنوعی پشت ربات‌های گفتگویی مانند ChatGPT کمک می‌کنند و پاسخ‌های آن‌ها را به آنچه ممکن است میلیاردها پرسش روزانه از سراسر جهان باشد، ارائه می‌دهند.

در ویرجینیا، این ساخت‌وساز تأثیرات عمیقی خواهد داشت. به احتمال زیاد، هر مرکز به اندازه‌ی ده‌ها هزار خانه‌ی مسکونی برق مصرف می‌کند و به طور بالقوه هزینه‌ها را برای ساکنان افزایش می‌دهد و زیرساخت‌های برق منطقه را فراتر از ظرفیت آن تحت فشار قرار می‌دهد. پارملی و دیگران در این جامعه نگران اشتهای مراکز داده برای برق هستند - به ویژه به این دلیل که ویرجینیا از قبل به عنوان پایتخت مراکز داده در جهان شناخته شده است. یک بررسی به سفارش ایالت، که در دسامبر ۲۰۲۴ منتشر شد، خاطرنشان کرد که اگرچه مراکز داده مزایای اقتصادی به همراه دارند، اما رشد آنها می‌تواند تقاضای برق در ویرجینیا را در عرض ده سال دو برابر کند.

پارملی، که در حال نقشه‌برداری از افزایش مراکز داده در این ایالت است و برای شورای زیست‌محیطی پیمونت (Piedmont Environmental Council)، یک سازمان غیرانتفاعی مستقر در وارنتون، ویرجینیا، کار می‌کند، می‌پرسد: «این برق از کجا خواهد آمد؟» «همه می‌گویند: 'ما از منطقه‌ی بعدی برق می‌خریم.' اما آن منطقه قصد دارد از شما برق بخرد.»

در بسیاری از نقاط دیگر جهان که مراکز داده با سرعتی بی‌سابقه در حال رشد هستند، درگیری‌های مشابهی در مورد هوش مصنوعی و انرژی در حال شکل‌گیری است. شرکت‌های بزرگ فناوری به شدت روی هوش مصنوعی مولد شرط‌بندی می‌کنند، که در مقایسه با مدل‌های قدیمی‌تر هوش مصنوعی که الگوها را از داده‌ها استخراج می‌کنند اما متن و تصاویر جدید تولید نمی‌کنند، انرژی بسیار بیشتری برای کارکردن نیاز دارد. این امر شرکت‌ها را وادار می‌کند تا در مجموع صدها میلیارد دلار برای مراکز داده و سرورهای جدید برای گسترش ظرفیت خود هزینه کنند.

از دیدگاه جهانی، تأثیر هوش مصنوعی بر تقاضای برق آینده در واقع نسبتاً کوچک پیش‌بینی می‌شود. اما مراکز داده در خوشه‌های متراکم متمرکز شده‌اند، جایی که می‌توانند تأثیرات عمیق محلی داشته باشند. آنها از نظر فضایی بسیار متمرکزتر از سایر تأسیسات پرمصرف انرژی مانند کارخانه‌های فولاد و معادن زغال‌سنگ هستند. شرکت‌ها تمایل دارند ساختمان‌های مراکز داده را نزدیک به هم بسازند تا بتوانند شبکه‌های برق و سیستم‌های خنک‌کننده را به اشتراک بگذارند و اطلاعات را به طور کارآمد، هم در بین خود و هم برای کاربران، منتقل کنند. ویرجینیا، به ویژه، با ارائه‌ی معافیت‌های مالیاتی، شرکت‌های مراکز داده را جذب کرده است، که منجر به خوشه‌بندی بیشتر شده است.

پارملی می‌گوید: «اگر یکی داشته باشید، احتمالاً بیشتر خواهید داشت.» ویرجینیا در حال حاضر ۳۴۰ مورد از این تأسیسات را دارد و پارملی ۱۵۹ مرکز داده پیشنهادی یا گسترش مراکز موجود در ویرجینیا را نقشه‌برداری کرده است، جایی که آنها بیش از یک‌چهارم مصرف برق ایالت را تشکیل می‌دهند، طبق گزارش EPRI، یک مؤسسه‌ی تحقیقاتی در پالو آلتو، کالیفرنیا. در ایرلند، مراکز داده بیش از ۲۰٪ از مصرف برق این کشور را تشکیل می‌دهند - که بیشتر آنها در حومه‌ی دوبلین واقع شده‌اند. و مصرف برق این تأسیسات در حداقل ۵ ایالت ایالات متحده از ۱۰٪ فراتر رفته است.

پیچیده‌تر شدن اوضاع، عدم شفافیت شرکت‌ها در مورد تقاضای برق سیستم‌های هوش مصنوعی آنها است. جاناتان کوومی، یک محقق مستقل که بیش از ۳۰ سال است که مصرف انرژی محاسبات را مطالعه کرده است و یک شرکت تحلیلی در برلینگیم، کالیفرنیا، اداره می‌کند، می‌گوید: «مشکل واقعی این است که ما با داده‌ها و دانش بسیار کمی در مورد آنچه در حال وقوع است، کار می‌کنیم.»

الکس دو وریس، محقق دانشگاه آزاد آمستردام و بنیانگذار Digiconomist، یک شرکت هلندی که پیامدهای ناخواسته‌ی روندهای دیجیتال را بررسی می‌کند، می‌گوید: «من فکر می‌کنم هر محققی در این زمینه دیوانه شده است زیرا ما چیزهایی را که نیاز داریم دریافت نمی‌کنیم.» «ما فقط تمام تلاش خود را می‌کنیم، انواع ترفندها را امتحان می‌کنیم تا به نوعی اعداد و ارقامی برسیم.»

محاسبه‌ی تقاضای انرژی هوش مصنوعی

محققان به دلیل کمبود ارقام دقیق از شرکت‌ها، تقاضای انرژی هوش مصنوعی را به دو روش بررسی کرده‌اند. در سال ۲۰۲۳، دو وریس از یک روش زنجیره‌ی تأمین (یا مبتنی بر بازار) استفاده کرد. او میزان مصرف برق یکی از سرورهای NVIDIA را که بر بازار هوش مصنوعی مولد تسلط دارد، بررسی کرد و آن را به انرژی مورد نیاز در طول یک سال تعمیم داد. سپس این رقم را در تخمین‌های تعداد کل چنین سرورهایی که در حال ارسال هستند، یا ممکن است برای یک کار خاص مورد نیاز باشند، ضرب کرد.

دو وریس از این روش برای تخمین انرژی مورد نیاز در صورتی که جستجوهای گوگل از هوش مصنوعی مولد استفاده کنند، استفاده کرد. دو شرکت تحلیلگر انرژی تخمین زده بودند که پیاده‌سازی هوش مصنوعی شبیه ChatGPT در هر جستجوی گوگل به ۴۰۰۰۰۰ تا ۵۰۰۰۰۰ سرور NVIDIA A100 نیاز دارد، که بر اساس تقاضای برق آن سرورها، سالانه به ۲۳ تا ۲۹ تراوات ساعت (TWh) می‌رسد. سپس، با تخمین اینکه گوگل روزانه تا ۹ میلیارد جستجو را پردازش می‌کند (یک رقم تقریبی از تحلیلگران مختلف)، دو وریس محاسبه کرد که هر درخواست از طریق یک سرور هوش مصنوعی به ۷ تا ۹ وات ساعت (Wh) انرژی نیاز دارد. با توجه به ارقامی که گوگل در یک پست وبلاگ در سال ۲۰۰۹ گزارش کرده است، این رقم ۲۳ تا ۳۰ برابر انرژی یک جستجوی معمولی است (به go.nature.com/3d8sd4t مراجعه کنید). گوگل در پاسخ به درخواست اظهار نظر در مورد تخمین دو وریس، پاسخی نداد.

دو وریس می‌گوید این محاسبه‌ی انرژی شبیه «چنگ زدن به ریسمان پوسیده» بود، زیرا او مجبور بود به تخمین‌های شخص ثالثی تکیه کند که نمی‌توانست آنها را تکرار کند. و اعداد او به سرعت منسوخ شدند. تعداد سرورهای مورد نیاز برای یک جستجوی گوگل یکپارچه با هوش مصنوعی احتمالاً اکنون کمتر است، زیرا مدل‌های هوش مصنوعی امروزی می‌توانند با کسری از هزینه‌ی محاسباتی، با دقت مدل‌های سال ۲۰۲۳ مطابقت داشته باشند، همانطور که شرکت تحلیلگر انرژی ایالات متحده SemiAnalysis (که دو وریس به تخمین‌های آن تکیه کرده بود) در یک ایمیل به Nature نوشت.

با این وجود، این شرکت می‌گوید که بهترین راه برای ارزیابی ردپای انرژی هوش مصنوعی مولد، هنوز هم نظارت بر محموله‌های سرور و الزامات برق آنها است، که به طور کلی روشی است که توسط بسیاری از تحلیلگران استفاده می‌شود. با این حال، برای تحلیلگران دشوار است که انرژی مصرف شده تنها توسط هوش مصنوعی مولد را جدا کنند، زیرا مراکز داده به طور کلی وظایف غیر هوش مصنوعی را نیز انجام می‌دهند.

تخمین‌های پایین به بالا

راه دیگر برای بررسی تقاضای انرژی هوش مصنوعی، «پایین به بالا» است: محققان تقاضای انرژی یک درخواست مرتبط با هوش مصنوعی را در یک مرکز داده‌ی خاص اندازه‌گیری می‌کنند. با این حال، محققان مستقل می‌توانند اندازه‌گیری‌ها را تنها با استفاده از مدل‌های هوش مصنوعی متن‌باز که انتظار می‌رود شبیه مدل‌های اختصاصی باشند، انجام دهند.

مفهوم پشت این آزمایش‌ها این است که یک کاربر یک درخواست ارسال می‌کند - مانند درخواستی برای تولید یک تصویر، یا یک چت مبتنی بر متن - و یک بسته‌ی نرم‌افزاری پایتون به نام CodeCarbon سپس به کامپیوتر کاربر اجازه می‌دهد تا به مشخصات فنی تراشه‌هایی که مدل را در مرکز داده اجرا می‌کنند، دسترسی پیدا کند. ساشا لوکیونی، یک محقق هوش مصنوعی که به توسعه‌ی CodeCarbon کمک کرده است و در Hugging Face، شرکتی مستقر در شهر نیویورک که یک پلتفرم متن‌باز برای مدل‌ها و مجموعه‌داده‌های هوش مصنوعی را میزبانی می‌کند، کار می‌کند، می‌گوید: «در پایان اجرا، تخمینی از میزان انرژی مصرف شده توسط سخت‌افزاری که استفاده می‌کردید به شما می‌دهد.»

لوکیونی و دیگران دریافتند که وظایف مختلف به مقادیر متفاوتی از انرژی نیاز دارند. به طور متوسط، طبق آخرین نتایج آنها، تولید یک تصویر از یک درخواست متنی حدود ۰.۵ وات ساعت انرژی مصرف می‌کند، در حالی که تولید متن کمی کمتر مصرف می‌کند. برای مقایسه، یک تلفن هوشمند مدرن ممکن است برای شارژ کامل به ۲۲ وات ساعت نیاز داشته باشد. اما تنوع زیادی وجود دارد: مدل‌های بزرگتر به انرژی بیشتری نیاز دارند (به «هوش مصنوعی چقدر انرژی مصرف می‌کند؟» مراجعه کنید). دو وریس می‌گوید که این اعداد کمتر از اعداد موجود در مقاله‌ی او هستند، اما این ممکن است به این دلیل باشد که مدل‌های مورد استفاده توسط لوکیونی و دیگران حداقل یک مرتبه از مدل زیربنایی ChatGPT کوچکتر هستند - و به این دلیل که هوش مصنوعی در حال کارآمدتر شدن است.

به گفته‌ی اما استروبل، دانشمند کامپیوتر و همکار لوکیونی در دانشگاه کارنگی ملون در پیتسبورگ، پنسیلوانیا، این اعداد یک حد پایین هستند. در غیر این صورت، آنها می‌گویند: «شرکت‌ها بیرون می‌آمدند و ما را تصحیح می‌کردند.» «آنها این کار را نمی‌کنند.»

علاوه بر این، شرکت‌ها به طور کلی اطلاعات مورد نیاز نرم‌افزار برای تخمین انرژی مورد استفاده برای خنک‌سازی مرکز داده را پنهان می‌کنند. بنوا کورتی، دانشمند داده در فرانسه که CodeCarbon را نگهداری می‌کند، می‌گوید CodeCarbon همچنین نمی‌تواند به مصرف انرژی برخی از انواع تراشه‌ها دسترسی پیدا کند. این شامل تراشه‌های TPU اختصاصی گوگل می‌شود.

لوکیونی همچنین مطالعه کرده است که آموزش مدل‌های هوش مصنوعی مولد - زمانی که یک مدل الگوهای آماری را از مقادیر زیادی داده استخراج می‌کند - چقدر انرژی می‌برد. اما اگر مدل‌ها روزانه میلیاردها درخواست دریافت کنند، همانطور که دو وریس برای تخمین‌های گوگل خود فرض کرد، آنگاه انرژی مورد استفاده برای پاسخ دادن به آن درخواست‌ها - که به تراوات ساعت برق می‌رسد - بر تقاضای انرژی سالانه‌ی هوش مصنوعی غالب خواهد شد. آموزش چیزی به اندازه‌ی GPT-3، مدلی که در پشت اولین نسخه‌ی ChatGPT قرار دارد، به انرژی در حد یک گیگاوات ساعت نیاز دارد.

ماه گذشته، لوکیونی و سایر محققان پروژه‌ی امتیاز انرژی هوش مصنوعی را راه‌اندازی کردند، یک ابتکار عمومی برای مقایسه‌ی کارایی انرژی مدل‌های هوش مصنوعی در وظایف مختلف، که به هر مدل یک رتبه‌ی ستاره‌ای می‌دهد. لوکیونی می‌گوید توسعه‌دهندگان مدل‌های اختصاصی و بسته‌ی خود نیز می‌توانند نتایج آزمایش را بارگذاری کنند، اگرچه تاکنون فقط شرکت نرم‌افزاری ایالات متحده Salesforce در آن شرکت کرده است.

استروبل می‌گوید شرکت‌ها به طور فزاینده‌ای در مورد الزامات انرژی مدل‌های صنعتی به‌روز خود ساکت شده‌اند. با افزایش رقابت، آنها می‌گویند: «اشتراک‌گذاری اطلاعات در خارج از شرکت متوقف شده است.» اما شرکت‌هایی مانند گوگل و مایکروسافت گزارش داده‌اند که انتشار کربن آنها در حال افزایش است، که آنها آن را به ساخت مرکز داده در حمایت از هوش مصنوعی نسبت داده‌اند. (شرکت‌هایی از جمله گوگل، مایکروسافت و آمازون به انتقادات در مورد عدم شفافیت که توسط Nature پرسیده شد، پاسخ ندادند. در عوض آنها تأکید کردند که با مقامات محلی همکاری می‌کنند تا اطمینان حاصل کنند که مراکز داده‌ی جدید بر منابع محلی تأثیر نمی‌گذارند.)

برخی از دولت‌ها اکنون شفافیت بیشتری را از شرکت‌ها می‌خواهند. در سال ۲۰۲۳، اتحادیه‌ی اروپا یک دستورالعمل بهره‌وری انرژی را تصویب کرد که اپراتورهای مراکز داده‌ای که حداقل ۵۰۰ کیلووات برق دارند را ملزم می‌کند تا مصرف انرژی خود را هر سال گزارش دهند.

پیش‌بینی‌های جهانی

بر اساس روش‌های تخمین زنجیره‌ی تأمین، تحلیلگران می‌گویند که مراکز داده در حال حاضر تنها بخش کوچکی از تقاضای برق جهان را مصرف می‌کنند. آژانس بین‌المللی انرژی (IEA) تخمین می‌زند که برق مصرف شده توسط چنین تأسیساتی در سال ۲۰۲۲، ۲۴۰ تا ۳۴۰ تراوات ساعت یا ۱ تا ۱.۳ درصد از تقاضای جهان بوده است (اگر استخراج ارزهای دیجیتال و زیرساخت انتقال داده نیز در نظر گرفته شود، این نسبت به ۲ درصد افزایش می‌یابد).

رونق هوش مصنوعی این را افزایش می‌دهد، اما با توجه به اینکه انتظار می‌رود مصرف برق جهان تا سال ۲۰۵۰ به دلیل برقی شدن بسیاری از صنایع، افزایش خودروهای برقی و افزایش تقاضا برای تهویه مطبوع، بیش از ۸۰ درصد افزایش یابد، مراکز داده «سهم نسبتاً کمی از رشد کلی تقاضای برق را تشکیل می‌دهند»، گزارش IEA نشان می‌دهد (به «رشد برق جهان» مراجعه کنید).

کوومی هشدار می‌دهد که حتی با تقریب تقاضای انرژی فعلی هوش مصنوعی، پیش‌بینی روندهای آینده دشوار است. او می‌گوید: «هیچ‌کس نمی‌داند که مراکز داده، چه هوش مصنوعی و چه معمولی، حتی تا چند سال دیگر از چه چیزی استفاده خواهند کرد.»

او می‌گوید مشکل اصلی اختلاف نظرها در مورد تعداد سرورها و مراکز داده‌ای است که مورد نیاز خواهد بود، و این حوزه‌ای است که در آن شرکت‌های خدماتی و فناوری انگیزه‌های مالی برای بزرگنمایی اعداد دارند. او می‌افزاید که بسیاری از پیش‌بینی‌های آنها بر اساس «فرضیات ساده‌انگارانه» است. «آنها روندهای اخیر را ۱۰ یا ۱۵ سال به آینده تعمیم می‌دهند.»

اواخر سال گذشته، کوومی به طور مشترک گزارشی را تألیف کرد که توسط وزارت انرژی ایالات متحده تأمین مالی شده بود، که تخمین زد مراکز داده ایالات متحده در حال حاضر ۱۷۶ تراوات ساعت (۴.۴٪) از برق این کشور را مصرف می‌کنند و این ممکن است تا سال ۲۰۲۸ دو یا سه برابر شود و به بین ۷٪ و ۱۲٪ برسد.