تصویرسازی فارین پالیسی / عکس iStock
تصویرسازی فارین پالیسی / عکس iStock

۱۰ چالش جدید هوش مصنوعی و راهکارهای مقابله با آن‌ها

در حالی که «فاجعه‌باوران» عمدتاً سکوت کرده‌اند، این بدان معنا نیست که این فناوری ایمن‌تر شده است.

با ثبت رکورد جدیدی برای تعداد دستورات اجرایی (EO) توسط هر رئیس‌جمهور آمریکا در ۱۰۰ روز اول ریاستش، شاید به دلیل غفلت از دستور اجرایی ۱۴۲۷۷ با عنوان «پیشبرد آموزش هوش مصنوعی برای جوانان آمریکایی» که درست پس از دستور اجرایی مربوط به احیای رقابت‌پذیری غذاهای دریایی ایالات متحده صادر شد، بخشیده شوید. در سیل دستورات اجرایی پرزیدنت ترامپ، شماره ۱۴۲۷۷ سی و چهار دستور اجرایی با دستوری فاصله دارد که هدفش تعطیلی وزارت آموزش و پرورش است - همان وزارتخانه‌ای که مسئولیت سنگین پیشبرد آموزش هوش مصنوعی در سطح K-12 (مهدکودک تا کلاس دوازدهم) به آن محول شده است. خوشبختانه، دانش‌آموزان شاید از قبل در استفاده از ابزارهای هوش مصنوعی مهارت داشته باشند. جایی که ممکن است نیاز به آموزش عمیق‌تر باشد، در افزایش آگاهی در مورد این است که چگونه هوش مصنوعی «چالش‌های جدیدی برای دفاع از کرامت انسانی، عدالت و کار» ایجاد می‌کند، همانطور که پاپ لئو چهاردهم در نگرانی‌های خود اشاره کرده است.

برای رها کردن وزارت آموزش و پرورشی که به زودی تعطیل خواهد شد از بار عظیم آموزش درباره «چالش‌های جدید» هوش مصنوعی، من یک برنامه درسی ۱۰ نقطه‌ای را گردآوری کرده‌ام و برای هر نکته، یک راهکار بالقوه ارائه داده‌ام.

پایان جهان نزدیک‌تر از آن چیزی است که فکر می‌کنید:

همین اواخر در مارس ۲۰۲۳، بسیاری از کارشناسان برجسته هوش مصنوعی جهان خواستار توقف در توسعه هوش مصنوعی بودند. نگرانی‌های آن‌ها مربوط به «خطرات عمیق برای جامعه و بشریت» بود. در بزرگترین نظرسنجی از کارشناسان هوش مصنوعی و یادگیری ماشینی، ۴۸ درصد از کسانی که خود را «خوش‌بینان محض هوش مصنوعی» می‌دانستند، احتمال انقراض انسان به دلیل هوش مصنوعی را ۵ درصد پیش‌بینی کردند - ریسکی که به هر معیاری بسیار بالا است. در حالی که می‌توان چنین نگرانی‌هایی را مبالغه‌آمیز دانست، احتمال یک پیامد بد اکنون بدتر شده است: «فاجعه‌باوران هوش مصنوعی» از مارس ۲۰۲۳ عمدتاً خودشان سکوت کرده‌اند، با وجود اینکه هیچ مدرک عینی مبنی بر ایمن‌تر شدن هوش مصنوعی وجود ندارد. در واقع، ممکن است خطرناک‌تر شده باشد، با نوآوری‌های نوظهور، مانند عوامل هوش مصنوعی که می‌توانند تصمیمات مستقلی بگیرند و شاید به طور خودمختار یک درگیری را آغاز کنند؛ امیدها به مقررات ایمنی هوش مصنوعی تحت دولت ترامپ که اولویت را به تسریع هوش مصنوعی با حداقل اصطکاک می‌دهد، کاهش یافته است؛ و لفاظی‌های ایالات متحده علیه رقیب اصلی خود در زمینه هوش مصنوعی، چین، حتی شدیدتر شده است.

بنابراین، زمان آن فرا رسیده است که یک «کلید کشتار» را به عنوان یک استاندارد صنعتی، مطابق با تعهد مه ۲۰۲۴ در سئول، که شرکت‌های بزرگ توسعه‌دهنده هوش مصنوعی داوطلب شدند هوش مصنوعی را از حملات خودکار دور نگه دارند و به سیستم‌ها اجازه دهند در صورت بروز فاجعه خودکار خاموش شوند، اجرا کنیم.

برای شکاف مداوم اعتماد به هوش مصنوعی آماده باشید:

در حالی که مدل‌ها و ابزارهای هوش مصنوعی بهتر می‌شوند، اعتماد کاربران به شرکت‌های هوش مصنوعی کاهش یافته و یک شکاف خوش‌بینی بین توسعه‌دهندگان و کاربران عادی ایجاد کرده است. بی‌اعتمادی از دلایل متعددی نشأت می‌گیرد.

اول، مدل‌های زبان بزرگ اغلب «هذیان می‌گویند» و اطلاعات غلط و اغلب عجیب و غریب ارائه می‌دهند. نرخ هذیان در مدل‌های اصلی هوش مصنوعی در ۲۹ آوریل بر اساس «جدول رتبه‌بندی هذیان» از ۰.۷ تا ۲۹.۹ درصد متغیر بود. مشکلات وقتی که هوش مصنوعی از «سیستم‌های استدلال» استفاده می‌کند، بدتر می‌شوند.

دوم، هوش مصنوعی مستعد تقویت سوگیری‌های از پیش موجود است: تولیدکنندگان تصویر کلیشه‌های نژادی و جنسیتی را بازتولید می‌کنند و الگوریتم‌های پیش‌بینی‌کننده ممکن است موانعی را برای کسانی که قبلاً در معرض محرومیت بوده‌اند، افزایش دهند.

سوم، مدل‌های هوش مصنوعی در مورد نحوه توسعه الگوریتم‌ها، منبع و کیفیت داده‌های آموزشی، یا ترکیب تیم‌های توسعه شفاف نیستند. تصویربرداری پزشکی یک نمونه قانع‌کننده از یک معما را به دلیل این ویژگی «جعبه سیاه» ارائه می‌دهد: در حالی که شبکه‌های عصبی در تشخیص نشانگرهای بیماری در اسکن بیماران خوب عمل می‌کنند، ممکن است نتوانند استدلال واضحی ارائه دهند.

چهارم، ماهیت جعبه سیاه هوش مصنوعی همچنین نگرانی‌ها در مورد حفاظت از داده‌های شخصی، حریم خصوصی، و اینکه آیا چارچوب‌های اخلاقی برای حفاظت از افراد وجود دارد را افزایش می‌دهد. فناوری تشخیص چهره با کمک هوش مصنوعی و نظارت الکترونیکی، یا «زندان‌های دیجیتال»، حقوق بشر را تضعیف کرده‌اند.

یکی از راهکارها این است که توسعه‌دهندگان هوش مصنوعی می‌توانند در فناوری‌هایی سرمایه‌گذاری کنند که قابلیت اطمینان محصولاتشان را بهبود می‌بخشند، مانند تکنیک‌های افزایش داده، ساخت حلقه‌های بازخورد، و استفاده از معیارهایی برای آزمایش سوگیری در مجموعه داده‌های آموزشی، مانند تأثیر ناهمگون (disparate impact) برای اندازه‌گیری نابرابری پیامد بین گروه‌ها یا شانس برابر (equalized odds) برای اطمینان از اینکه پیش‌بینی‌های یک مدل در گروه‌های محافظت شده مختلف به یک اندازه دقیق هستند.

پذیرش ناهمگون را پیش‌بینی کنید:

در حالی که ChatGPT رکورد تاریخی پذیرش فناوری را شکست، پذیرش هوش مصنوعی پولی با وجود هیاهو و مزایای آشکار ناهمگون بوده است. Ramp، یک شرکت مدیریت هزینه‌های شرکتی، دریافت که در حالی که هزینه‌های هوش مصنوعی رشد کرده است، تنها حدود یک سوم شرکت‌ها برای ابزار هوش مصنوعی پولی پرداخت کرده‌اند. برخلاف اینترنت یا رسانه‌های اجتماعی که در ازای داده‌ها و نمایش تبلیغات به صورت رایگان در دسترس هستند، قیمت‌گذاری ابزارهای هوش مصنوعی احتمالاً متفاوت خواهد بود و منجر به سطوح مختلف دسترسی می‌شود. پایداری شکاف اعتماد به هوش مصنوعی استفاده و صلاحیت ناهمگون را تقویت می‌کند و احتمالاً منجر به ایجاد دارندگان و فاقدان هوش مصنوعی می‌شود.

برای غلبه بر این موضوع، کارفرمایان می‌توانند کارگران را برای تشخیص اطلاعات غیرقابل اعتماد تولید شده توسط هوش مصنوعی و تبدیل شدن به کاربران بهتر فناوری آموزش دهند و در نتیجه سطح راحتی خود را با استفاده از آن افزایش دهند.

انقلاب بهره‌وری را مفروض نگیرید:

طبق گزارش مک‌کینزی، هوش مصنوعی مولد می‌تواند رشد بهره‌وری نیروی کار را تا سال ۲۰۴۰ به صورت سالانه ۰.۱ تا ۰.۶ درصد افزایش دهد. ترکیب آن با سایر فناوری‌ها می‌تواند سالانه ۰.۵ تا ۳.۴ واحد درصد به رشد بهره‌وری اضافه کند. برای در نظر گرفتن اینکه این پیش‌بینی‌ها چگونه ممکن است محقق شوند، طبیعی است که به پیشینیان هوش مصنوعی – اینترنت و فناوری‌های دیجیتال مرتبط – برای مقایسه نگاه کنیم. متأسفانه، این نشان نمی‌دهد که یک انقلاب بهره‌وری در راه است؛ رشد بهره‌وری کارگران آمریکایی هنگام معرفی فناوری‌های دیجیتال اولیه کاهش یافت.

بدتر از آن، ژان-پل کاروالیو (Jean-Paul Carvalho)، محقق آکسفورد، استدلال کرده است که برون‌سپاری وظایف شناختی مختلف به هوش مصنوعی می‌تواند بهره‌وری انسان را از بین ببرد. از نوجوانان آمریکایی که مورد بررسی قرار گرفتند، هفت نفر از هر ۱۰ نفر از ابزار هوش مصنوعی مولد استفاده کرده‌اند و ۵۳ درصد از آن برای کمک به تکالیف استفاده کرده‌اند، که باعث نگرانی معلمان در مورد کاهش تفکر انتقادی و تضعیف مهارت‌های شناختی شده است.

معلمان می‌توانند با استفاده فعالانه از هوش مصنوعی برای ایجاد کنجکاوی و تفکر انتقادی، این فناوری را در روش تدریس خود ادغام کنند. یک مطالعه بانک جهانی بر روی یک معلم خصوصی GPT-4 با راهنمایی معلم در یک برنامه فوق‌برنامه در نیجریه نشان داد که استفاده از معلم خصوصی هوش مصنوعی معادل «۱.۵ تا ۲ سال آموزش «عادی»» است.

موتور هوش مصنوعی با کمبود سوخت مواجه است:

اینترنت به تنهایی ممکن است برای تأمین داده‌های مورد نیاز مدل‌های زبان بزرگ بسیار کوچک باشد: حتی پس از استفاده از تمام داده‌های زبان و تصویر با کیفیت موجود، ممکن است حداقل ۱۰ تا ۲۰ تریلیون توکن برای آموزش نسل بعدی GPT کمبود وجود داشته باشد، زیرا منابع داده‌های آموزشی رو به اتمام هستند. حتی با داده‌های مورد استفاده فعلی، سؤالات و شکایات حقوقی در مورد حقوق مالکیت فکری در حال رسیدگی هستند.

با این حال، منابع و فرآیندهای آموزشی جدیدی وجود دارد که مدل‌ها می‌توانند به آنها روی آورند - داده‌های مصنوعی تولید شده توسط هوش مصنوعی، مجموعه داده‌هایی که به موضوعات خاص و تخصصی عمیق‌تر می‌پردازند، و بازخوانی و خود بازتابی مجموعه داده‌های موجود، به عنوان مثال. چنین تکنیک‌هایی باید با دقت اعمال شوند: مثلاً وقتی مدل‌ها بر روی داده‌های تولید شده توسط خود هوش مصنوعی بازآموزی می‌شوند، باید مراقب باشند تا از «فروپاشی مدل (model collapse)» جلوگیری کنند، جایی که کیفیت اطلاعات با هر تکرار آموزش که بر نسخه‌های قبلی خودش متکی است، کاهش می‌یابد.

صنعت هوش مصنوعی در معرض خطر اخلال است:

سطوح بی‌سابقه‌ای از سرمایه‌گذاری در توسعه این فناوری صورت گرفته است، با برآورد ۲۳۰ میلیارد دلار در سال ۲۰۲۴ و حتی بیشتر در سال جاری. در عین حال، مدل‌های اختصاصی هوش مصنوعی که بخش زیادی از پول صرف آن‌ها شده است، خطر غیرمتمایز شدن دارند. در همین حال، رقبایی با منابع بسیار کمتر، مانند DeepSeek، به عملکرد مشابهی دست یافته‌اند، که باعث چندین چرخه اخلال در این صنعت شده است، جایی که رقیب کم‌هزینه‌تر به طور پیوسته با عملکردی به اندازه کافی خوب بازار را تصاحب می‌کند و شرکت‌های موجود را با دارایی‌های بلااستفاده، از جمله سرمایه‌گذاری بیش از حد در زیرساخت و مدل‌های تجاری واژگون شده، رها می‌کند.

همانطور که در مقاله قبلی برای فارین پالیسی پیشنهاد دادم، حداقل یک بازیگر اصلی می‌تواند توقفی در تشدید تنش‌ها را اعلام کرده و فناوری‌ای را به کار گیرد که «به اندازه کافی خوب» است. یعنی، هدفش نه حل دشوارترین مسئله عددی که می‌تواند حل کند، بلکه گستره‌ای از مسائلی است که می‌تواند برای بیشترین تعداد از مردم حل کند.

هوش مصنوعی تکه‌تکه شده را انتظار داشته باشید:

جغرافیای توسعه هوش مصنوعی در حال حاضر با واگرایی بین هوش مصنوعی آمریکایی و هوش مصنوعی چینی تقسیم شده است. تمام کشورهای دیگر در روزهای پایانی دولت بایدن به سه دسته تقسیم شدند و دسترسی آنها به تراشه‌های پیشرفته هوش مصنوعی آمریکا محدود شد. در حالی که دولت ترامپ قصد دارد کنترل‌های صادراتی دسته‌بندی شده را لغو کند، گمانه‌زنی‌هایی وجود دارد که دسته‌ها با مذاکرات دوجانبه با کشورهای منفرد جایگزین خواهند شد که تکه‌تکه شدن بیشتری ایجاد می‌کند. در همین حال، کشورها با طرح‌های هوش مصنوعی مستقل (sovereign AI) برای پیشبرد اهداف رقابتی و امنیتی ملی خود پیش می‌روند.

در حالی که چندجانبه‌گرایی همیشه در مسائل گسترده‌تر نتیجه بخش نبوده است، پیگیری آن در زمینه یک فناوری چندمنظوره نوظهور، مانند هوش مصنوعی، همچنان حیاتی است. «کنوانسیون چارچوب شورای اروپا در مورد هوش مصنوعی و حقوق بشر، دموکراسی و حاکمیت قانون» که در مه ۲۰۲۴ به تصویب رسید، اولین معاهده بین‌المللی الزام‌آور قانونی در زمینه هوش مصنوعی است. این کنوانسیون با هدف ایجاد استانداردهای مشترک برای حکمرانی هوش مصنوعی و می‌تواند نقطه شروعی برای هماهنگی جهانی بیشتر باشد.

انتظار نابرابری درآمد بیشتر را داشته باشید:

بدون شک، هوش مصنوعی بر نحوه انجام کار در آینده تأثیر خواهد گذاشت. تقریباً ۶۰ درصد از مشاغل در جهان توسعه‌یافته، و همچنین ۴۰ درصد و ۲۶ درصد در بازارهای نوظهور و کشورهای با درآمد پایین، در معرض هوش مصنوعی قرار گرفته‌اند. در حالی که همه مشاغل در معرض خطر جایگزینی قرار نخواهند گرفت، تردیدی وجود ندارد که بسیاری از کارفرمایان هوش مصنوعی را راهی برای کاهش نیروی کار خود می‌بینند. به گفته دارون عجم‌اوغلو (Daron Acemoglu)، اقتصاددان برنده جایزه نوبل و استاد دانشگاه، حتی با انجام سودآور ۵ درصد از کل وظایف توسط هوش مصنوعی در دهه آینده، این فناوری موج جدیدی از نابرابری درآمد را به همراه خواهد داشت. تحلیلگران پیش‌بینی می‌کنند که کارگران با درآمد بالاتر بیشترین بهره‌مندی را از هوش مصنوعی خواهند برد، در حالی که کسانی که در پایین‌ترین سطح قرار دارند، بیشتر عقب خواهند ماند.

در پاسخ به افزایش نابرابری، دولت‌ها می‌توانند «اعتبار هوش مصنوعی» اعطا کنند - کمک‌های مالی که در قالب اعتبار مالیاتی قابل استرداد یا چک‌های فیزیکی به خانوارها، به ویژه آنهایی که مشاغلشان در معرض بیشترین خطر قرار دارد، پرداخت می‌شود تا آنها را قادر به سرمایه‌گذاری در آموزش و بهبود مهارت کنند. این اعتبار می‌تواند به آنها کمک کند تا به مشاغل جدید و مبتنی بر هوش مصنوعی دسترسی پیدا کنند یا در صنایع در حال رشد شغل بیابند.

کمبود مهارت در هوش مصنوعی ادامه خواهد یافت:

نیروی کار آمریکا در حال حاضر فاقد مهارت‌های لازم برای کار با هوش مصنوعی است. در حالی که مهارت‌های «نرم» مانند تفکر انتقادی، خلاقیت، حل مسئله و سازگاری برای آینده کار حیاتی هستند، سیستم آموزشی آمریکا، به‌ویژه در سطح K-12، برای توسعه آنها به خوبی تجهیز نشده است و بر مهارت‌های «سخت» و آزمون‌های استاندارد شده تمرکز دارد. این کمبود آموزشی با نیازهای متغیر بازار کار در حال تشدید است و شکاف مهارت‌ها را افزایش می‌دهد.

کارفرمایان باید شکاف را پر کنند. در حالی که شکاف‌های مهارت بزرگ هستند، گزارش یادگیری در محیط کار لینکدین در سال ۲۰۲۴ نشان می‌دهد که در ۱۸ ماه گذشته، تمرکز اصلی توسعه استعداد شرکت‌ها بر مهارت‌افزایی و بازآموزی نیروهای کار موجود بوده است. این روند باید تسریع یابد.

هوش مصنوعی انرژی‌بر خواهد بود:

طبق گزارش آژانس بین‌المللی انرژی (IEA)، مراکز داده هوش مصنوعی (که شامل رمزارزها نیز می‌شود) در سال ۲۰۲۲ حدود ۴۶۰ تراوات ساعت برق مصرف کرده‌اند که معادل مجموع مصرف برق شش کشور مانند فنلاند، سوئیس و هلند است. IEA پیش‌بینی می‌کند که مصرف برق این مراکز تا سال ۲۰۲۶ می‌تواند دو برابر شود و به بیش از ۱۰۰۰ تراوات ساعت برسد که تقریباً به اندازه مصرف فعلی کل ژاپن است. این افزایش تقاضای برق چالش‌های قابل توجهی برای شبکه‌های انرژی و اهداف تغییرات آب و هوایی ایجاد می‌کند.

شرکت‌های فناوری می‌توانند با تمرکز بر بهره‌وری انرژی و توسعه الگوریتم‌های کارآمدتر که نیاز به قدرت پردازشی کمتری دارند، تأثیر محیط زیستی خود را کاهش دهند. علاوه بر این، سرمایه‌گذاری در منابع انرژی تجدیدپذیر برای تأمین انرژی مراکز داده می‌تواند به کاهش انتشار کربن کمک کند.

تأثیر هوش مصنوعی بر امنیت سایبری یک شمشیر دولبه است:

هوش مصنوعی می‌تواند برای تقویت دفاع سایبری و پیشگیری از حملات استفاده شود. سیستم‌های مبتنی بر هوش مصنوعی می‌توانند تهدیدات را با سرعت و مقیاسی که انسان نمی‌تواند، شناسایی کرده و به آنها پاسخ دهند. با این حال، هوش مصنوعی همچنین می‌تواند توسط بازیگران مخرب برای انجام حملات سایبری پیچیده‌تر و گسترده‌تر مورد سوءاستفاده قرار گیرد، مانند فیشینگ، انتشار اطلاعات نادرست و حملات انکار سرویس توزیع‌شده (DDoS) با استفاده از بات‌نت‌های پیشرفته.

شرکت‌ها و دولت‌ها باید در توسعه و به‌کارگیری هوش مصنوعی دفاعی سرمایه‌گذاری کنند، در حالی که به طور همزمان همکاری بین‌المللی را برای ایجاد چارچوب‌های قانونی و اخلاقی برای جلوگیری از استفاده مخرب از هوش مصنوعی در فضای سایبری تقویت کنند. این شامل به اشتراک‌گذاری اطلاعات تهدید، توسعه استانداردهای مشترک برای امنیت هوش مصنوعی، و ایجاد مکانیسم‌هایی برای پاسخ به حملات سایبری با پشتیبانی هوش مصنوعی است.

در حالی که این فهرست کامل نیست، یک گام در جهت آموزش خودمان درباره چالش‌های هوش مصنوعی، به ویژه همانطور که پرزیدنت ترامپ پیشنهاد کرده است، است. با آگاهی و آمادگی در مورد این چالش‌ها، می‌توانیم راهکارهایی را شناسایی و اجرا کنیم که به ما کمک می‌کنند تا از خطرات هوش مصنوعی عبور کرده و از مزایای آن برای منافع جامعه بهره‌مند شویم.