با ثبت رکورد جدیدی برای تعداد دستورات اجرایی (EO) توسط هر رئیسجمهور آمریکا در ۱۰۰ روز اول ریاستش، شاید به دلیل غفلت از دستور اجرایی ۱۴۲۷۷ با عنوان «پیشبرد آموزش هوش مصنوعی برای جوانان آمریکایی» که درست پس از دستور اجرایی مربوط به احیای رقابتپذیری غذاهای دریایی ایالات متحده صادر شد، بخشیده شوید. در سیل دستورات اجرایی پرزیدنت ترامپ، شماره ۱۴۲۷۷ سی و چهار دستور اجرایی با دستوری فاصله دارد که هدفش تعطیلی وزارت آموزش و پرورش است - همان وزارتخانهای که مسئولیت سنگین پیشبرد آموزش هوش مصنوعی در سطح K-12 (مهدکودک تا کلاس دوازدهم) به آن محول شده است. خوشبختانه، دانشآموزان شاید از قبل در استفاده از ابزارهای هوش مصنوعی مهارت داشته باشند. جایی که ممکن است نیاز به آموزش عمیقتر باشد، در افزایش آگاهی در مورد این است که چگونه هوش مصنوعی «چالشهای جدیدی برای دفاع از کرامت انسانی، عدالت و کار» ایجاد میکند، همانطور که پاپ لئو چهاردهم در نگرانیهای خود اشاره کرده است.
برای رها کردن وزارت آموزش و پرورشی که به زودی تعطیل خواهد شد از بار عظیم آموزش درباره «چالشهای جدید» هوش مصنوعی، من یک برنامه درسی ۱۰ نقطهای را گردآوری کردهام و برای هر نکته، یک راهکار بالقوه ارائه دادهام.
پایان جهان نزدیکتر از آن چیزی است که فکر میکنید:
همین اواخر در مارس ۲۰۲۳، بسیاری از کارشناسان برجسته هوش مصنوعی جهان خواستار توقف در توسعه هوش مصنوعی بودند. نگرانیهای آنها مربوط به «خطرات عمیق برای جامعه و بشریت» بود. در بزرگترین نظرسنجی از کارشناسان هوش مصنوعی و یادگیری ماشینی، ۴۸ درصد از کسانی که خود را «خوشبینان محض هوش مصنوعی» میدانستند، احتمال انقراض انسان به دلیل هوش مصنوعی را ۵ درصد پیشبینی کردند - ریسکی که به هر معیاری بسیار بالا است. در حالی که میتوان چنین نگرانیهایی را مبالغهآمیز دانست، احتمال یک پیامد بد اکنون بدتر شده است: «فاجعهباوران هوش مصنوعی» از مارس ۲۰۲۳ عمدتاً خودشان سکوت کردهاند، با وجود اینکه هیچ مدرک عینی مبنی بر ایمنتر شدن هوش مصنوعی وجود ندارد. در واقع، ممکن است خطرناکتر شده باشد، با نوآوریهای نوظهور، مانند عوامل هوش مصنوعی که میتوانند تصمیمات مستقلی بگیرند و شاید به طور خودمختار یک درگیری را آغاز کنند؛ امیدها به مقررات ایمنی هوش مصنوعی تحت دولت ترامپ که اولویت را به تسریع هوش مصنوعی با حداقل اصطکاک میدهد، کاهش یافته است؛ و لفاظیهای ایالات متحده علیه رقیب اصلی خود در زمینه هوش مصنوعی، چین، حتی شدیدتر شده است.
بنابراین، زمان آن فرا رسیده است که یک «کلید کشتار» را به عنوان یک استاندارد صنعتی، مطابق با تعهد مه ۲۰۲۴ در سئول، که شرکتهای بزرگ توسعهدهنده هوش مصنوعی داوطلب شدند هوش مصنوعی را از حملات خودکار دور نگه دارند و به سیستمها اجازه دهند در صورت بروز فاجعه خودکار خاموش شوند، اجرا کنیم.
برای شکاف مداوم اعتماد به هوش مصنوعی آماده باشید:
در حالی که مدلها و ابزارهای هوش مصنوعی بهتر میشوند، اعتماد کاربران به شرکتهای هوش مصنوعی کاهش یافته و یک شکاف خوشبینی بین توسعهدهندگان و کاربران عادی ایجاد کرده است. بیاعتمادی از دلایل متعددی نشأت میگیرد.
اول، مدلهای زبان بزرگ اغلب «هذیان میگویند» و اطلاعات غلط و اغلب عجیب و غریب ارائه میدهند. نرخ هذیان در مدلهای اصلی هوش مصنوعی در ۲۹ آوریل بر اساس «جدول رتبهبندی هذیان» از ۰.۷ تا ۲۹.۹ درصد متغیر بود. مشکلات وقتی که هوش مصنوعی از «سیستمهای استدلال» استفاده میکند، بدتر میشوند.
دوم، هوش مصنوعی مستعد تقویت سوگیریهای از پیش موجود است: تولیدکنندگان تصویر کلیشههای نژادی و جنسیتی را بازتولید میکنند و الگوریتمهای پیشبینیکننده ممکن است موانعی را برای کسانی که قبلاً در معرض محرومیت بودهاند، افزایش دهند.
سوم، مدلهای هوش مصنوعی در مورد نحوه توسعه الگوریتمها، منبع و کیفیت دادههای آموزشی، یا ترکیب تیمهای توسعه شفاف نیستند. تصویربرداری پزشکی یک نمونه قانعکننده از یک معما را به دلیل این ویژگی «جعبه سیاه» ارائه میدهد: در حالی که شبکههای عصبی در تشخیص نشانگرهای بیماری در اسکن بیماران خوب عمل میکنند، ممکن است نتوانند استدلال واضحی ارائه دهند.
چهارم، ماهیت جعبه سیاه هوش مصنوعی همچنین نگرانیها در مورد حفاظت از دادههای شخصی، حریم خصوصی، و اینکه آیا چارچوبهای اخلاقی برای حفاظت از افراد وجود دارد را افزایش میدهد. فناوری تشخیص چهره با کمک هوش مصنوعی و نظارت الکترونیکی، یا «زندانهای دیجیتال»، حقوق بشر را تضعیف کردهاند.
یکی از راهکارها این است که توسعهدهندگان هوش مصنوعی میتوانند در فناوریهایی سرمایهگذاری کنند که قابلیت اطمینان محصولاتشان را بهبود میبخشند، مانند تکنیکهای افزایش داده، ساخت حلقههای بازخورد، و استفاده از معیارهایی برای آزمایش سوگیری در مجموعه دادههای آموزشی، مانند تأثیر ناهمگون (disparate impact) برای اندازهگیری نابرابری پیامد بین گروهها یا شانس برابر (equalized odds) برای اطمینان از اینکه پیشبینیهای یک مدل در گروههای محافظت شده مختلف به یک اندازه دقیق هستند.
پذیرش ناهمگون را پیشبینی کنید:
در حالی که ChatGPT رکورد تاریخی پذیرش فناوری را شکست، پذیرش هوش مصنوعی پولی با وجود هیاهو و مزایای آشکار ناهمگون بوده است. Ramp، یک شرکت مدیریت هزینههای شرکتی، دریافت که در حالی که هزینههای هوش مصنوعی رشد کرده است، تنها حدود یک سوم شرکتها برای ابزار هوش مصنوعی پولی پرداخت کردهاند. برخلاف اینترنت یا رسانههای اجتماعی که در ازای دادهها و نمایش تبلیغات به صورت رایگان در دسترس هستند، قیمتگذاری ابزارهای هوش مصنوعی احتمالاً متفاوت خواهد بود و منجر به سطوح مختلف دسترسی میشود. پایداری شکاف اعتماد به هوش مصنوعی استفاده و صلاحیت ناهمگون را تقویت میکند و احتمالاً منجر به ایجاد دارندگان و فاقدان هوش مصنوعی میشود.
برای غلبه بر این موضوع، کارفرمایان میتوانند کارگران را برای تشخیص اطلاعات غیرقابل اعتماد تولید شده توسط هوش مصنوعی و تبدیل شدن به کاربران بهتر فناوری آموزش دهند و در نتیجه سطح راحتی خود را با استفاده از آن افزایش دهند.
انقلاب بهرهوری را مفروض نگیرید:
طبق گزارش مککینزی، هوش مصنوعی مولد میتواند رشد بهرهوری نیروی کار را تا سال ۲۰۴۰ به صورت سالانه ۰.۱ تا ۰.۶ درصد افزایش دهد. ترکیب آن با سایر فناوریها میتواند سالانه ۰.۵ تا ۳.۴ واحد درصد به رشد بهرهوری اضافه کند. برای در نظر گرفتن اینکه این پیشبینیها چگونه ممکن است محقق شوند، طبیعی است که به پیشینیان هوش مصنوعی – اینترنت و فناوریهای دیجیتال مرتبط – برای مقایسه نگاه کنیم. متأسفانه، این نشان نمیدهد که یک انقلاب بهرهوری در راه است؛ رشد بهرهوری کارگران آمریکایی هنگام معرفی فناوریهای دیجیتال اولیه کاهش یافت.
بدتر از آن، ژان-پل کاروالیو (Jean-Paul Carvalho)، محقق آکسفورد، استدلال کرده است که برونسپاری وظایف شناختی مختلف به هوش مصنوعی میتواند بهرهوری انسان را از بین ببرد. از نوجوانان آمریکایی که مورد بررسی قرار گرفتند، هفت نفر از هر ۱۰ نفر از ابزار هوش مصنوعی مولد استفاده کردهاند و ۵۳ درصد از آن برای کمک به تکالیف استفاده کردهاند، که باعث نگرانی معلمان در مورد کاهش تفکر انتقادی و تضعیف مهارتهای شناختی شده است.
معلمان میتوانند با استفاده فعالانه از هوش مصنوعی برای ایجاد کنجکاوی و تفکر انتقادی، این فناوری را در روش تدریس خود ادغام کنند. یک مطالعه بانک جهانی بر روی یک معلم خصوصی GPT-4 با راهنمایی معلم در یک برنامه فوقبرنامه در نیجریه نشان داد که استفاده از معلم خصوصی هوش مصنوعی معادل «۱.۵ تا ۲ سال آموزش «عادی»» است.
موتور هوش مصنوعی با کمبود سوخت مواجه است:
اینترنت به تنهایی ممکن است برای تأمین دادههای مورد نیاز مدلهای زبان بزرگ بسیار کوچک باشد: حتی پس از استفاده از تمام دادههای زبان و تصویر با کیفیت موجود، ممکن است حداقل ۱۰ تا ۲۰ تریلیون توکن برای آموزش نسل بعدی GPT کمبود وجود داشته باشد، زیرا منابع دادههای آموزشی رو به اتمام هستند. حتی با دادههای مورد استفاده فعلی، سؤالات و شکایات حقوقی در مورد حقوق مالکیت فکری در حال رسیدگی هستند.
با این حال، منابع و فرآیندهای آموزشی جدیدی وجود دارد که مدلها میتوانند به آنها روی آورند - دادههای مصنوعی تولید شده توسط هوش مصنوعی، مجموعه دادههایی که به موضوعات خاص و تخصصی عمیقتر میپردازند، و بازخوانی و خود بازتابی مجموعه دادههای موجود، به عنوان مثال. چنین تکنیکهایی باید با دقت اعمال شوند: مثلاً وقتی مدلها بر روی دادههای تولید شده توسط خود هوش مصنوعی بازآموزی میشوند، باید مراقب باشند تا از «فروپاشی مدل (model collapse)» جلوگیری کنند، جایی که کیفیت اطلاعات با هر تکرار آموزش که بر نسخههای قبلی خودش متکی است، کاهش مییابد.
صنعت هوش مصنوعی در معرض خطر اخلال است:
سطوح بیسابقهای از سرمایهگذاری در توسعه این فناوری صورت گرفته است، با برآورد ۲۳۰ میلیارد دلار در سال ۲۰۲۴ و حتی بیشتر در سال جاری. در عین حال، مدلهای اختصاصی هوش مصنوعی که بخش زیادی از پول صرف آنها شده است، خطر غیرمتمایز شدن دارند. در همین حال، رقبایی با منابع بسیار کمتر، مانند DeepSeek، به عملکرد مشابهی دست یافتهاند، که باعث چندین چرخه اخلال در این صنعت شده است، جایی که رقیب کمهزینهتر به طور پیوسته با عملکردی به اندازه کافی خوب بازار را تصاحب میکند و شرکتهای موجود را با داراییهای بلااستفاده، از جمله سرمایهگذاری بیش از حد در زیرساخت و مدلهای تجاری واژگون شده، رها میکند.
همانطور که در مقاله قبلی برای فارین پالیسی پیشنهاد دادم، حداقل یک بازیگر اصلی میتواند توقفی در تشدید تنشها را اعلام کرده و فناوریای را به کار گیرد که «به اندازه کافی خوب» است. یعنی، هدفش نه حل دشوارترین مسئله عددی که میتواند حل کند، بلکه گسترهای از مسائلی است که میتواند برای بیشترین تعداد از مردم حل کند.
هوش مصنوعی تکهتکه شده را انتظار داشته باشید:
جغرافیای توسعه هوش مصنوعی در حال حاضر با واگرایی بین هوش مصنوعی آمریکایی و هوش مصنوعی چینی تقسیم شده است. تمام کشورهای دیگر در روزهای پایانی دولت بایدن به سه دسته تقسیم شدند و دسترسی آنها به تراشههای پیشرفته هوش مصنوعی آمریکا محدود شد. در حالی که دولت ترامپ قصد دارد کنترلهای صادراتی دستهبندی شده را لغو کند، گمانهزنیهایی وجود دارد که دستهها با مذاکرات دوجانبه با کشورهای منفرد جایگزین خواهند شد که تکهتکه شدن بیشتری ایجاد میکند. در همین حال، کشورها با طرحهای هوش مصنوعی مستقل (sovereign AI) برای پیشبرد اهداف رقابتی و امنیتی ملی خود پیش میروند.
در حالی که چندجانبهگرایی همیشه در مسائل گستردهتر نتیجه بخش نبوده است، پیگیری آن در زمینه یک فناوری چندمنظوره نوظهور، مانند هوش مصنوعی، همچنان حیاتی است. «کنوانسیون چارچوب شورای اروپا در مورد هوش مصنوعی و حقوق بشر، دموکراسی و حاکمیت قانون» که در مه ۲۰۲۴ به تصویب رسید، اولین معاهده بینالمللی الزامآور قانونی در زمینه هوش مصنوعی است. این کنوانسیون با هدف ایجاد استانداردهای مشترک برای حکمرانی هوش مصنوعی و میتواند نقطه شروعی برای هماهنگی جهانی بیشتر باشد.
انتظار نابرابری درآمد بیشتر را داشته باشید:
بدون شک، هوش مصنوعی بر نحوه انجام کار در آینده تأثیر خواهد گذاشت. تقریباً ۶۰ درصد از مشاغل در جهان توسعهیافته، و همچنین ۴۰ درصد و ۲۶ درصد در بازارهای نوظهور و کشورهای با درآمد پایین، در معرض هوش مصنوعی قرار گرفتهاند. در حالی که همه مشاغل در معرض خطر جایگزینی قرار نخواهند گرفت، تردیدی وجود ندارد که بسیاری از کارفرمایان هوش مصنوعی را راهی برای کاهش نیروی کار خود میبینند. به گفته دارون عجماوغلو (Daron Acemoglu)، اقتصاددان برنده جایزه نوبل و استاد دانشگاه، حتی با انجام سودآور ۵ درصد از کل وظایف توسط هوش مصنوعی در دهه آینده، این فناوری موج جدیدی از نابرابری درآمد را به همراه خواهد داشت. تحلیلگران پیشبینی میکنند که کارگران با درآمد بالاتر بیشترین بهرهمندی را از هوش مصنوعی خواهند برد، در حالی که کسانی که در پایینترین سطح قرار دارند، بیشتر عقب خواهند ماند.
در پاسخ به افزایش نابرابری، دولتها میتوانند «اعتبار هوش مصنوعی» اعطا کنند - کمکهای مالی که در قالب اعتبار مالیاتی قابل استرداد یا چکهای فیزیکی به خانوارها، به ویژه آنهایی که مشاغلشان در معرض بیشترین خطر قرار دارد، پرداخت میشود تا آنها را قادر به سرمایهگذاری در آموزش و بهبود مهارت کنند. این اعتبار میتواند به آنها کمک کند تا به مشاغل جدید و مبتنی بر هوش مصنوعی دسترسی پیدا کنند یا در صنایع در حال رشد شغل بیابند.
کمبود مهارت در هوش مصنوعی ادامه خواهد یافت:
نیروی کار آمریکا در حال حاضر فاقد مهارتهای لازم برای کار با هوش مصنوعی است. در حالی که مهارتهای «نرم» مانند تفکر انتقادی، خلاقیت، حل مسئله و سازگاری برای آینده کار حیاتی هستند، سیستم آموزشی آمریکا، بهویژه در سطح K-12، برای توسعه آنها به خوبی تجهیز نشده است و بر مهارتهای «سخت» و آزمونهای استاندارد شده تمرکز دارد. این کمبود آموزشی با نیازهای متغیر بازار کار در حال تشدید است و شکاف مهارتها را افزایش میدهد.
کارفرمایان باید شکاف را پر کنند. در حالی که شکافهای مهارت بزرگ هستند، گزارش یادگیری در محیط کار لینکدین در سال ۲۰۲۴ نشان میدهد که در ۱۸ ماه گذشته، تمرکز اصلی توسعه استعداد شرکتها بر مهارتافزایی و بازآموزی نیروهای کار موجود بوده است. این روند باید تسریع یابد.
هوش مصنوعی انرژیبر خواهد بود:
طبق گزارش آژانس بینالمللی انرژی (IEA)، مراکز داده هوش مصنوعی (که شامل رمزارزها نیز میشود) در سال ۲۰۲۲ حدود ۴۶۰ تراوات ساعت برق مصرف کردهاند که معادل مجموع مصرف برق شش کشور مانند فنلاند، سوئیس و هلند است. IEA پیشبینی میکند که مصرف برق این مراکز تا سال ۲۰۲۶ میتواند دو برابر شود و به بیش از ۱۰۰۰ تراوات ساعت برسد که تقریباً به اندازه مصرف فعلی کل ژاپن است. این افزایش تقاضای برق چالشهای قابل توجهی برای شبکههای انرژی و اهداف تغییرات آب و هوایی ایجاد میکند.
شرکتهای فناوری میتوانند با تمرکز بر بهرهوری انرژی و توسعه الگوریتمهای کارآمدتر که نیاز به قدرت پردازشی کمتری دارند، تأثیر محیط زیستی خود را کاهش دهند. علاوه بر این، سرمایهگذاری در منابع انرژی تجدیدپذیر برای تأمین انرژی مراکز داده میتواند به کاهش انتشار کربن کمک کند.
تأثیر هوش مصنوعی بر امنیت سایبری یک شمشیر دولبه است:
هوش مصنوعی میتواند برای تقویت دفاع سایبری و پیشگیری از حملات استفاده شود. سیستمهای مبتنی بر هوش مصنوعی میتوانند تهدیدات را با سرعت و مقیاسی که انسان نمیتواند، شناسایی کرده و به آنها پاسخ دهند. با این حال، هوش مصنوعی همچنین میتواند توسط بازیگران مخرب برای انجام حملات سایبری پیچیدهتر و گستردهتر مورد سوءاستفاده قرار گیرد، مانند فیشینگ، انتشار اطلاعات نادرست و حملات انکار سرویس توزیعشده (DDoS) با استفاده از باتنتهای پیشرفته.
شرکتها و دولتها باید در توسعه و بهکارگیری هوش مصنوعی دفاعی سرمایهگذاری کنند، در حالی که به طور همزمان همکاری بینالمللی را برای ایجاد چارچوبهای قانونی و اخلاقی برای جلوگیری از استفاده مخرب از هوش مصنوعی در فضای سایبری تقویت کنند. این شامل به اشتراکگذاری اطلاعات تهدید، توسعه استانداردهای مشترک برای امنیت هوش مصنوعی، و ایجاد مکانیسمهایی برای پاسخ به حملات سایبری با پشتیبانی هوش مصنوعی است.
در حالی که این فهرست کامل نیست، یک گام در جهت آموزش خودمان درباره چالشهای هوش مصنوعی، به ویژه همانطور که پرزیدنت ترامپ پیشنهاد کرده است، است. با آگاهی و آمادگی در مورد این چالشها، میتوانیم راهکارهایی را شناسایی و اجرا کنیم که به ما کمک میکنند تا از خطرات هوش مصنوعی عبور کرده و از مزایای آن برای منافع جامعه بهرهمند شویم.