عطر علف خشک و کود حیوانی بر فراز شهرستان کالپپر، ویرجینیا، جایی که به ازای هر سه انسان یک گاو وجود دارد، معلق است. سارا پارملی، یکی از ۵۵۰۰۰ ساکن این شهرستان میگوید: «ما مزارع بزرگ، که بیشتر آنها هنوز خانوادگی هستند، و جنگلهای زیادی داریم.» او میافزاید: «اینجا یک شهر کوچک بسیار جذاب در ایالات متحده آمریکا است.»
اما این منظرهی شبانی در میانهی یک تحول قرن بیست و یکمی قرار دارد. در طول چند سال گذشته، این شهرستان ساخت هفت پروژهی بزرگ مرکز داده را تصویب کرده است که از شرکتهای فناوری در برنامههای گستردهشان برای هوش مصنوعی مولد (generative AI) پشتیبانی خواهند کرد. در داخل این سازههای غولپیکر، ردیفهایی از سرورهای کامپیوتری به آموزش مدلهای هوش مصنوعی پشت رباتهای گفتگویی مانند ChatGPT کمک میکنند و پاسخهای آنها را به آنچه ممکن است میلیاردها پرسش روزانه از سراسر جهان باشد، ارائه میدهند.
در ویرجینیا، این ساختوساز تأثیرات عمیقی خواهد داشت. به احتمال زیاد، هر مرکز به اندازهی دهها هزار خانهی مسکونی برق مصرف میکند و به طور بالقوه هزینهها را برای ساکنان افزایش میدهد و زیرساختهای برق منطقه را فراتر از ظرفیت آن تحت فشار قرار میدهد. پارملی و دیگران در این جامعه نگران اشتهای مراکز داده برای برق هستند - به ویژه به این دلیل که ویرجینیا از قبل به عنوان پایتخت مراکز داده در جهان شناخته شده است. یک بررسی به سفارش ایالت، که در دسامبر ۲۰۲۴ منتشر شد، خاطرنشان کرد که اگرچه مراکز داده مزایای اقتصادی به همراه دارند، اما رشد آنها میتواند تقاضای برق در ویرجینیا را در عرض ده سال دو برابر کند.
پارملی، که در حال نقشهبرداری از افزایش مراکز داده در این ایالت است و برای شورای زیستمحیطی پیمونت (Piedmont Environmental Council)، یک سازمان غیرانتفاعی مستقر در وارنتون، ویرجینیا، کار میکند، میپرسد: «این برق از کجا خواهد آمد؟» «همه میگویند: 'ما از منطقهی بعدی برق میخریم.' اما آن منطقه قصد دارد از شما برق بخرد.»
در بسیاری از نقاط دیگر جهان که مراکز داده با سرعتی بیسابقه در حال رشد هستند، درگیریهای مشابهی در مورد هوش مصنوعی و انرژی در حال شکلگیری است. شرکتهای بزرگ فناوری به شدت روی هوش مصنوعی مولد شرطبندی میکنند، که در مقایسه با مدلهای قدیمیتر هوش مصنوعی که الگوها را از دادهها استخراج میکنند اما متن و تصاویر جدید تولید نمیکنند، انرژی بسیار بیشتری برای کارکردن نیاز دارد. این امر شرکتها را وادار میکند تا در مجموع صدها میلیارد دلار برای مراکز داده و سرورهای جدید برای گسترش ظرفیت خود هزینه کنند.
از دیدگاه جهانی، تأثیر هوش مصنوعی بر تقاضای برق آینده در واقع نسبتاً کوچک پیشبینی میشود. اما مراکز داده در خوشههای متراکم متمرکز شدهاند، جایی که میتوانند تأثیرات عمیق محلی داشته باشند. آنها از نظر فضایی بسیار متمرکزتر از سایر تأسیسات پرمصرف انرژی مانند کارخانههای فولاد و معادن زغالسنگ هستند. شرکتها تمایل دارند ساختمانهای مراکز داده را نزدیک به هم بسازند تا بتوانند شبکههای برق و سیستمهای خنککننده را به اشتراک بگذارند و اطلاعات را به طور کارآمد، هم در بین خود و هم برای کاربران، منتقل کنند. ویرجینیا، به ویژه، با ارائهی معافیتهای مالیاتی، شرکتهای مراکز داده را جذب کرده است، که منجر به خوشهبندی بیشتر شده است.
پارملی میگوید: «اگر یکی داشته باشید، احتمالاً بیشتر خواهید داشت.» ویرجینیا در حال حاضر ۳۴۰ مورد از این تأسیسات را دارد و پارملی ۱۵۹ مرکز داده پیشنهادی یا گسترش مراکز موجود در ویرجینیا را نقشهبرداری کرده است، جایی که آنها بیش از یکچهارم مصرف برق ایالت را تشکیل میدهند، طبق گزارش EPRI، یک مؤسسهی تحقیقاتی در پالو آلتو، کالیفرنیا. در ایرلند، مراکز داده بیش از ۲۰٪ از مصرف برق این کشور را تشکیل میدهند - که بیشتر آنها در حومهی دوبلین واقع شدهاند. و مصرف برق این تأسیسات در حداقل ۵ ایالت ایالات متحده از ۱۰٪ فراتر رفته است.
پیچیدهتر شدن اوضاع، عدم شفافیت شرکتها در مورد تقاضای برق سیستمهای هوش مصنوعی آنها است. جاناتان کوومی، یک محقق مستقل که بیش از ۳۰ سال است که مصرف انرژی محاسبات را مطالعه کرده است و یک شرکت تحلیلی در برلینگیم، کالیفرنیا، اداره میکند، میگوید: «مشکل واقعی این است که ما با دادهها و دانش بسیار کمی در مورد آنچه در حال وقوع است، کار میکنیم.»
الکس دو وریس، محقق دانشگاه آزاد آمستردام و بنیانگذار Digiconomist، یک شرکت هلندی که پیامدهای ناخواستهی روندهای دیجیتال را بررسی میکند، میگوید: «من فکر میکنم هر محققی در این زمینه دیوانه شده است زیرا ما چیزهایی را که نیاز داریم دریافت نمیکنیم.» «ما فقط تمام تلاش خود را میکنیم، انواع ترفندها را امتحان میکنیم تا به نوعی اعداد و ارقامی برسیم.»
محاسبهی تقاضای انرژی هوش مصنوعی
محققان به دلیل کمبود ارقام دقیق از شرکتها، تقاضای انرژی هوش مصنوعی را به دو روش بررسی کردهاند. در سال ۲۰۲۳، دو وریس از یک روش زنجیرهی تأمین (یا مبتنی بر بازار) استفاده کرد. او میزان مصرف برق یکی از سرورهای NVIDIA را که بر بازار هوش مصنوعی مولد تسلط دارد، بررسی کرد و آن را به انرژی مورد نیاز در طول یک سال تعمیم داد. سپس این رقم را در تخمینهای تعداد کل چنین سرورهایی که در حال ارسال هستند، یا ممکن است برای یک کار خاص مورد نیاز باشند، ضرب کرد.
دو وریس از این روش برای تخمین انرژی مورد نیاز در صورتی که جستجوهای گوگل از هوش مصنوعی مولد استفاده کنند، استفاده کرد. دو شرکت تحلیلگر انرژی تخمین زده بودند که پیادهسازی هوش مصنوعی شبیه ChatGPT در هر جستجوی گوگل به ۴۰۰۰۰۰ تا ۵۰۰۰۰۰ سرور NVIDIA A100 نیاز دارد، که بر اساس تقاضای برق آن سرورها، سالانه به ۲۳ تا ۲۹ تراوات ساعت (TWh) میرسد. سپس، با تخمین اینکه گوگل روزانه تا ۹ میلیارد جستجو را پردازش میکند (یک رقم تقریبی از تحلیلگران مختلف)، دو وریس محاسبه کرد که هر درخواست از طریق یک سرور هوش مصنوعی به ۷ تا ۹ وات ساعت (Wh) انرژی نیاز دارد. با توجه به ارقامی که گوگل در یک پست وبلاگ در سال ۲۰۰۹ گزارش کرده است، این رقم ۲۳ تا ۳۰ برابر انرژی یک جستجوی معمولی است (به go.nature.com/3d8sd4t مراجعه کنید). گوگل در پاسخ به درخواست اظهار نظر در مورد تخمین دو وریس، پاسخی نداد.
دو وریس میگوید این محاسبهی انرژی شبیه «چنگ زدن به ریسمان پوسیده» بود، زیرا او مجبور بود به تخمینهای شخص ثالثی تکیه کند که نمیتوانست آنها را تکرار کند. و اعداد او به سرعت منسوخ شدند. تعداد سرورهای مورد نیاز برای یک جستجوی گوگل یکپارچه با هوش مصنوعی احتمالاً اکنون کمتر است، زیرا مدلهای هوش مصنوعی امروزی میتوانند با کسری از هزینهی محاسباتی، با دقت مدلهای سال ۲۰۲۳ مطابقت داشته باشند، همانطور که شرکت تحلیلگر انرژی ایالات متحده SemiAnalysis (که دو وریس به تخمینهای آن تکیه کرده بود) در یک ایمیل به Nature نوشت.
با این وجود، این شرکت میگوید که بهترین راه برای ارزیابی ردپای انرژی هوش مصنوعی مولد، هنوز هم نظارت بر محمولههای سرور و الزامات برق آنها است، که به طور کلی روشی است که توسط بسیاری از تحلیلگران استفاده میشود. با این حال، برای تحلیلگران دشوار است که انرژی مصرف شده تنها توسط هوش مصنوعی مولد را جدا کنند، زیرا مراکز داده به طور کلی وظایف غیر هوش مصنوعی را نیز انجام میدهند.
تخمینهای پایین به بالا
راه دیگر برای بررسی تقاضای انرژی هوش مصنوعی، «پایین به بالا» است: محققان تقاضای انرژی یک درخواست مرتبط با هوش مصنوعی را در یک مرکز دادهی خاص اندازهگیری میکنند. با این حال، محققان مستقل میتوانند اندازهگیریها را تنها با استفاده از مدلهای هوش مصنوعی متنباز که انتظار میرود شبیه مدلهای اختصاصی باشند، انجام دهند.
مفهوم پشت این آزمایشها این است که یک کاربر یک درخواست ارسال میکند - مانند درخواستی برای تولید یک تصویر، یا یک چت مبتنی بر متن - و یک بستهی نرمافزاری پایتون به نام CodeCarbon سپس به کامپیوتر کاربر اجازه میدهد تا به مشخصات فنی تراشههایی که مدل را در مرکز داده اجرا میکنند، دسترسی پیدا کند. ساشا لوکیونی، یک محقق هوش مصنوعی که به توسعهی CodeCarbon کمک کرده است و در Hugging Face، شرکتی مستقر در شهر نیویورک که یک پلتفرم متنباز برای مدلها و مجموعهدادههای هوش مصنوعی را میزبانی میکند، کار میکند، میگوید: «در پایان اجرا، تخمینی از میزان انرژی مصرف شده توسط سختافزاری که استفاده میکردید به شما میدهد.»
لوکیونی و دیگران دریافتند که وظایف مختلف به مقادیر متفاوتی از انرژی نیاز دارند. به طور متوسط، طبق آخرین نتایج آنها، تولید یک تصویر از یک درخواست متنی حدود ۰.۵ وات ساعت انرژی مصرف میکند، در حالی که تولید متن کمی کمتر مصرف میکند. برای مقایسه، یک تلفن هوشمند مدرن ممکن است برای شارژ کامل به ۲۲ وات ساعت نیاز داشته باشد. اما تنوع زیادی وجود دارد: مدلهای بزرگتر به انرژی بیشتری نیاز دارند (به «هوش مصنوعی چقدر انرژی مصرف میکند؟» مراجعه کنید). دو وریس میگوید که این اعداد کمتر از اعداد موجود در مقالهی او هستند، اما این ممکن است به این دلیل باشد که مدلهای مورد استفاده توسط لوکیونی و دیگران حداقل یک مرتبه از مدل زیربنایی ChatGPT کوچکتر هستند - و به این دلیل که هوش مصنوعی در حال کارآمدتر شدن است.
به گفتهی اما استروبل، دانشمند کامپیوتر و همکار لوکیونی در دانشگاه کارنگی ملون در پیتسبورگ، پنسیلوانیا، این اعداد یک حد پایین هستند. در غیر این صورت، آنها میگویند: «شرکتها بیرون میآمدند و ما را تصحیح میکردند.» «آنها این کار را نمیکنند.»
علاوه بر این، شرکتها به طور کلی اطلاعات مورد نیاز نرمافزار برای تخمین انرژی مورد استفاده برای خنکسازی مرکز داده را پنهان میکنند. بنوا کورتی، دانشمند داده در فرانسه که CodeCarbon را نگهداری میکند، میگوید CodeCarbon همچنین نمیتواند به مصرف انرژی برخی از انواع تراشهها دسترسی پیدا کند. این شامل تراشههای TPU اختصاصی گوگل میشود.
لوکیونی همچنین مطالعه کرده است که آموزش مدلهای هوش مصنوعی مولد - زمانی که یک مدل الگوهای آماری را از مقادیر زیادی داده استخراج میکند - چقدر انرژی میبرد. اما اگر مدلها روزانه میلیاردها درخواست دریافت کنند، همانطور که دو وریس برای تخمینهای گوگل خود فرض کرد، آنگاه انرژی مورد استفاده برای پاسخ دادن به آن درخواستها - که به تراوات ساعت برق میرسد - بر تقاضای انرژی سالانهی هوش مصنوعی غالب خواهد شد. آموزش چیزی به اندازهی GPT-3، مدلی که در پشت اولین نسخهی ChatGPT قرار دارد، به انرژی در حد یک گیگاوات ساعت نیاز دارد.
ماه گذشته، لوکیونی و سایر محققان پروژهی امتیاز انرژی هوش مصنوعی را راهاندازی کردند، یک ابتکار عمومی برای مقایسهی کارایی انرژی مدلهای هوش مصنوعی در وظایف مختلف، که به هر مدل یک رتبهی ستارهای میدهد. لوکیونی میگوید توسعهدهندگان مدلهای اختصاصی و بستهی خود نیز میتوانند نتایج آزمایش را بارگذاری کنند، اگرچه تاکنون فقط شرکت نرمافزاری ایالات متحده Salesforce در آن شرکت کرده است.
استروبل میگوید شرکتها به طور فزایندهای در مورد الزامات انرژی مدلهای صنعتی بهروز خود ساکت شدهاند. با افزایش رقابت، آنها میگویند: «اشتراکگذاری اطلاعات در خارج از شرکت متوقف شده است.» اما شرکتهایی مانند گوگل و مایکروسافت گزارش دادهاند که انتشار کربن آنها در حال افزایش است، که آنها آن را به ساخت مرکز داده در حمایت از هوش مصنوعی نسبت دادهاند. (شرکتهایی از جمله گوگل، مایکروسافت و آمازون به انتقادات در مورد عدم شفافیت که توسط Nature پرسیده شد، پاسخ ندادند. در عوض آنها تأکید کردند که با مقامات محلی همکاری میکنند تا اطمینان حاصل کنند که مراکز دادهی جدید بر منابع محلی تأثیر نمیگذارند.)
برخی از دولتها اکنون شفافیت بیشتری را از شرکتها میخواهند. در سال ۲۰۲۳، اتحادیهی اروپا یک دستورالعمل بهرهوری انرژی را تصویب کرد که اپراتورهای مراکز دادهای که حداقل ۵۰۰ کیلووات برق دارند را ملزم میکند تا مصرف انرژی خود را هر سال گزارش دهند.
پیشبینیهای جهانی
بر اساس روشهای تخمین زنجیرهی تأمین، تحلیلگران میگویند که مراکز داده در حال حاضر تنها بخش کوچکی از تقاضای برق جهان را مصرف میکنند. آژانس بینالمللی انرژی (IEA) تخمین میزند که برق مصرف شده توسط چنین تأسیساتی در سال ۲۰۲۲، ۲۴۰ تا ۳۴۰ تراوات ساعت یا ۱ تا ۱.۳ درصد از تقاضای جهان بوده است (اگر استخراج ارزهای دیجیتال و زیرساخت انتقال داده نیز در نظر گرفته شود، این نسبت به ۲ درصد افزایش مییابد).
رونق هوش مصنوعی این را افزایش میدهد، اما با توجه به اینکه انتظار میرود مصرف برق جهان تا سال ۲۰۵۰ به دلیل برقی شدن بسیاری از صنایع، افزایش خودروهای برقی و افزایش تقاضا برای تهویه مطبوع، بیش از ۸۰ درصد افزایش یابد، مراکز داده «سهم نسبتاً کمی از رشد کلی تقاضای برق را تشکیل میدهند»، گزارش IEA نشان میدهد (به «رشد برق جهان» مراجعه کنید).
کوومی هشدار میدهد که حتی با تقریب تقاضای انرژی فعلی هوش مصنوعی، پیشبینی روندهای آینده دشوار است. او میگوید: «هیچکس نمیداند که مراکز داده، چه هوش مصنوعی و چه معمولی، حتی تا چند سال دیگر از چه چیزی استفاده خواهند کرد.»
او میگوید مشکل اصلی اختلاف نظرها در مورد تعداد سرورها و مراکز دادهای است که مورد نیاز خواهد بود، و این حوزهای است که در آن شرکتهای خدماتی و فناوری انگیزههای مالی برای بزرگنمایی اعداد دارند. او میافزاید که بسیاری از پیشبینیهای آنها بر اساس «فرضیات سادهانگارانه» است. «آنها روندهای اخیر را ۱۰ یا ۱۵ سال به آینده تعمیم میدهند.»
اواخر سال گذشته، کوومی به طور مشترک گزارشی را تألیف کرد که توسط وزارت انرژی ایالات متحده تأمین مالی شده بود، که تخمین زد مراکز داده ایالات متحده در حال حاضر ۱۷۶ تراوات ساعت (۴.۴٪) از برق این کشور را مصرف میکنند و این ممکن است تا سال ۲۰۲۸ دو یا سه برابر شود و به بین ۷٪ و ۱۲٪ برسد.