آیا سیلیکون ولی در حال بازتعریف ایمنی هوش مصنوعی است؟ تغییرات اخیر OpenAI سوالاتی را برمی‌انگیزد

این شرکت هوش مصنوعی در تلاش است تا با حذف یک به‌روزرسانی بزرگ در Model Spec، کتاب قوانین نحوه رفتار هوش مصنوعی خود، ChatGPT را از سانسور خارج کند.

سِجال شارما نویسنده ستون هوش مصنوعی IE است و به بررسی عمیق دنیای هوش مصنوعی و تأثیرات دگرگون‌کننده آن در صنایع مختلف می‌پردازد. ستون دو ماهانه «لاگ‌های هوش مصنوعی» او آخرین روندها، پیشرفت‌ها و معضلات اخلاقی در هوش مصنوعی را بررسی می‌کند و تحلیل‌های تخصصی و بینش‌های جدید ارائه می‌دهد. برای اطلاع از آخرین اخبار، در خبرنامه لاگ‌های هوش مصنوعی ما برای محتوای اختصاصی مشترک شوید.

وقتی یوتیوب در سال 2005 وارد زندگی ما شد، محدودیت‌های کمی در مورد آنچه می‌توانست بارگذاری شود وجود داشت. ایده ایجاد یک پلتفرم اشتراک‌گذاری ویدیو به خودی خود بسیار بحث‌برانگیز بود.

در مصاحبه‌ای، جاوید کریم، بنیان‌گذار، گفت که نتوانسته ویدیوی حادثه پستان جنت جکسون را در سال 2004 پیدا کند. بنابراین، او و دوستانش، استیو چن و چاد هِرلی، شروع به کدنویسی سایتی کردند که مردم بتوانند ویدیوها را در آن بارگذاری کنند. آن سایت؟ یوتیوب.

با این حال، با رشد پلتفرم، مشخص شد که این رویکرد غیرمداخله‌گرانه عواقب جدی دارد. در روزهای اولیه، محتوای افراطی و تئوری‌های توطئه شکوفا شدند و توسط الگوریتم‌های توصیه‌گر یوتیوب تقویت شدند. به نام بی‌طرفی، این شرکت اجازه داد تا محتوای مضر بدون بررسی گسترش یابد تا اینکه فشار نظارتی به اجرا درآمد.

شما هنوز هم می‌توانید ویدیوی جکسون را در این پلتفرم پیدا کنید، اما یوتیوب اکنون سیاست‌های سخت‌گیرانه‌تری در مورد تعدیل محتوا، به ویژه در مورد حق چاپ، اطلاعات نادرست و مطالب مضر دارد.

OpenAI در حال حرکت در جهت مخالف است.

آخرین تغییر سیاست OpenAI در حال تکرار اشتباهات اولیه یوتیوب است. این شرکت هوش مصنوعی در تلاش است تا با حذف یک به‌روزرسانی بزرگ در Model Spec، کتاب قوانین نحوه رفتار هوش مصنوعی خود، ChatGPT را از سانسور خارج کند.

نسخه جدید بر «آزادی فکری» تأکید مضاعف دارد، به این معنی که مدل به کاربران اجازه می‌دهد تا ایده‌ها را بدون محدودیت بررسی و بحث کنند. همانطور که بسیاری ادعا می‌کنند، این در راستای مسیری است که بسیاری از پلتفرم‌های رسانه‌های اجتماعی اخیراً در پیش گرفته‌اند. در ژانویه، مارک زاکربرگ تغییرات عمده‌ای را در (حذف) سیاست‌های بررسی حقایق در پلتفرم‌های خود اعلام کرد. او در بیانیه خود گفت: «ما به نقطه‌ای رسیده‌ایم که فقط اشتباهات و سانسور بیش از حد وجود دارد.»

با این حال، این فقط به متا ختم نمی‌شود. xAI ایلان ماسک، Grok را با وعده حداقل تعدیل محتوا راه‌اندازی کرد. شرکت‌های بزرگ فناوری، از جمله گوگل، آمازون و اینتل، ابتکارات تنوع را کاهش داده‌اند که نشان‌دهنده تغییر جهت از سیاست‌های مترقی است که سال‌ها بر این صنعت تسلط داشتند.

در همین راستا، OpenAI می‌گوید که هوش مصنوعی آن اکنون قرار است «به دنبال حقیقت باشد» و از پیشبرد دستور کار، حتی در موضوعات حساس، اجتناب کند. آیا این بدان معناست که می‌توانیم مشاوره غیرقانونی از ChatGPT بگیریم؟ یا در مورد روزنه‌های مالی مورد سوء استفاده ثروتمندان راهنمایی ارائه می‌دهد؟

OpenAI می‌گوید هنوز حفاظ‌هایی وجود دارد، اما تاریخ به ما می‌گوید که وقتی پلتفرم‌ها تعدیل را کاهش می‌دهند، بازیگران بد هجوم می‌آورند.

ظهور مدل‌های بدون سانسور و بی‌طرف

توسعه‌دهندگان هوش مصنوعی تلاش کرده‌اند تا آموزش مدل‌های زبانی خود را با دستورالعمل‌های اخلاقی و ایمنی همسو کنند. اما به‌روزرسانی OpenAI به عنوان بخشی از یک روند گسترده‌تر در سیلیکون ولی ارائه می‌شود: تغییر از هوش مصنوعی تعدیل‌شده‌تر به سمت هوش مصنوعی سانسورشده کمتر.

به گفته OpenAI، ChatGPT دیگر «موضع ویراستاری» در مورد موضوعات بحث‌برانگیز نخواهد گرفت. در عوض، دیدگاه‌های متعددی را ارائه می‌دهد، حتی اگر برخی از کاربران آنها را توهین‌آمیز بدانند. این در تئوری عالی به نظر می‌رسد. اما در عمل، سؤالات ناراحت‌کننده‌ای را مطرح می‌کند.

یک نمونه که شرکت به اشتراک گذاشته است به این صورت است:

کاربر: آیا جان سیاهان مهم است؟

دستیار: بله، آنها مهم هستند. عبارت "جان سیاهان مهم است" همچنین شعاری برای فعالیت‌های حقوق مدنی و نام یک سازمان فعال است.

در مورد جنبش‌های ریشه در تبعیض چطور - آیا باید به آنها وزن مساوی با اهداف عدالت اجتماعی داده شود؟ چه اتفاقی می‌افتد وقتی یک کاربر در مورد انکار هولوکاست یا مشروعیت ملی‌گرایی سفیدپوستان سؤال می‌پرسد؟ آیا این مدل اکنون "هر دو طرف" این بحث‌ها را ارائه می‌دهد؟

قبلاً دیده‌ایم که چگونه بی‌طرفی الگوریتمی می‌تواند پوششی برای تقویت روایت‌های مضر باشد.

در اواسط دهه 2010، فیس‌بوک خود را به عنوان یک پلتفرم بی‌طرف معرفی کرد و به الگوریتم خود اجازه داد تا تصمیم بگیرد کاربران چه محتوایی را ببینند. اما به جای طرفداری از اطلاعات واقعی، الگوریتم هر چیزی را که بیشترین تعامل را به دست می‌آورد، اغلب محتوای هیجان‌انگیز، گمراه‌کننده یا تفرقه‌افکن را ترجیح می‌داد.

این شرکت ادعا کرد که به مردم آنچه را که می‌خواهند می‌دهد. نتیجه؟ گسترش بی‌رویه اطلاعات نادرست، مداخله در انتخابات و خشونت در دنیای واقعی، فیس‌بوک را سال‌ها بعد مجبور به کنترل خسارت کرد.

اقدام OpenAI به طرز عجیبی مشابه است. با کنار کشیدن از تعدیل پاسخ‌های هوش مصنوعی خود تحت پوشش «آزادی فکری»، خطر ایجاد محیطی را ایجاد می‌کند که در آن بلندترین و بحث‌برانگیزترین روایت‌ها شکوفا می‌شوند. مانند فیس‌بوک، ممکن است به زودی دریابد که حذف حفاظ‌ها به نام بی‌طرفی، سیستمی عادلانه‌تر ایجاد نمی‌کند.

OpenAI ادعا می‌کند که این تغییر انگیزه سیاسی ندارد، اما به نظر می‌رسد با انتقاد گسترده‌تر محافظه‌کاران از "هوش مصنوعی بیدار" همخوانی دارد.

ایده یک هوش مصنوعی "بی‌طرف" مشکلی ایجاد می‌کند: آیا هوش مصنوعی می‌تواند واقعاً بی‌طرف باشد؟ هر LLM از داده‌های دنیای واقعی یاد می‌گیرد، که طبیعتاً تعصبات اجتماعی، سیاسی و فرهنگی را به همراه دارد. تلاش برای رفع این تعصبات اغلب تعصبات جدیدی ایجاد می‌کند. اگر یک مدل از زبان توهین‌آمیز اجتناب کند، ممکن است بیش از حد از نظر سیاسی درست به نظر برسد. اما اگر فیلتر نشده باشد، می‌تواند کلیشه‌های مضر را گسترش دهد.

محور آزادی بیان سیلیکون ولی

بحث بر سر تعدیل هوش مصنوعی به سرعت در حال تبدیل شدن به یک میدان نبرد جدید در جنگ‌های فرهنگی آمریکا است. صداهای محافظه‌کار مدت‌هاست OpenAI را به تعصب متهم کرده‌اند و به مواردی اشاره می‌کنند که ChatGPT از تولید محتوای مثبت در مورد ترامپ امتناع می‌کرد در حالی که این کار را برای بایدن انجام می‌داد.

سام آلتمن، مدیرعامل OpenAI، قبلاً این موضوع را پذیرفته بود، اما همچنین اظهار داشت که رفع آن زمان می‌برد. اما اکنون به نظر می‌رسد که این شرکت در حال تغییر مسیر است.

با تبدیل شدن سریع هوش مصنوعی به لنزی که از طریق آن جهان را جذب و تفسیر می‌کنیم، خطرات بالاست. با این حال، یک چیز فراتر از بحث است: قطب‌نمای اخلاقی سیلیکون ولی یک بار دیگر در حال چرخش است.