سِجال شارما نویسنده ستون هوش مصنوعی IE است و به بررسی عمیق دنیای هوش مصنوعی و تأثیرات دگرگونکننده آن در صنایع مختلف میپردازد. ستون دو ماهانه «لاگهای هوش مصنوعی» او آخرین روندها، پیشرفتها و معضلات اخلاقی در هوش مصنوعی را بررسی میکند و تحلیلهای تخصصی و بینشهای جدید ارائه میدهد. برای اطلاع از آخرین اخبار، در خبرنامه لاگهای هوش مصنوعی ما برای محتوای اختصاصی مشترک شوید.
وقتی یوتیوب در سال 2005 وارد زندگی ما شد، محدودیتهای کمی در مورد آنچه میتوانست بارگذاری شود وجود داشت. ایده ایجاد یک پلتفرم اشتراکگذاری ویدیو به خودی خود بسیار بحثبرانگیز بود.
در مصاحبهای، جاوید کریم، بنیانگذار، گفت که نتوانسته ویدیوی حادثه پستان جنت جکسون را در سال 2004 پیدا کند. بنابراین، او و دوستانش، استیو چن و چاد هِرلی، شروع به کدنویسی سایتی کردند که مردم بتوانند ویدیوها را در آن بارگذاری کنند. آن سایت؟ یوتیوب.
با این حال، با رشد پلتفرم، مشخص شد که این رویکرد غیرمداخلهگرانه عواقب جدی دارد. در روزهای اولیه، محتوای افراطی و تئوریهای توطئه شکوفا شدند و توسط الگوریتمهای توصیهگر یوتیوب تقویت شدند. به نام بیطرفی، این شرکت اجازه داد تا محتوای مضر بدون بررسی گسترش یابد تا اینکه فشار نظارتی به اجرا درآمد.
شما هنوز هم میتوانید ویدیوی جکسون را در این پلتفرم پیدا کنید، اما یوتیوب اکنون سیاستهای سختگیرانهتری در مورد تعدیل محتوا، به ویژه در مورد حق چاپ، اطلاعات نادرست و مطالب مضر دارد.
OpenAI در حال حرکت در جهت مخالف است.
آخرین تغییر سیاست OpenAI در حال تکرار اشتباهات اولیه یوتیوب است. این شرکت هوش مصنوعی در تلاش است تا با حذف یک بهروزرسانی بزرگ در Model Spec، کتاب قوانین نحوه رفتار هوش مصنوعی خود، ChatGPT را از سانسور خارج کند.
نسخه جدید بر «آزادی فکری» تأکید مضاعف دارد، به این معنی که مدل به کاربران اجازه میدهد تا ایدهها را بدون محدودیت بررسی و بحث کنند. همانطور که بسیاری ادعا میکنند، این در راستای مسیری است که بسیاری از پلتفرمهای رسانههای اجتماعی اخیراً در پیش گرفتهاند. در ژانویه، مارک زاکربرگ تغییرات عمدهای را در (حذف) سیاستهای بررسی حقایق در پلتفرمهای خود اعلام کرد. او در بیانیه خود گفت: «ما به نقطهای رسیدهایم که فقط اشتباهات و سانسور بیش از حد وجود دارد.»
با این حال، این فقط به متا ختم نمیشود. xAI ایلان ماسک، Grok را با وعده حداقل تعدیل محتوا راهاندازی کرد. شرکتهای بزرگ فناوری، از جمله گوگل، آمازون و اینتل، ابتکارات تنوع را کاهش دادهاند که نشاندهنده تغییر جهت از سیاستهای مترقی است که سالها بر این صنعت تسلط داشتند.
در همین راستا، OpenAI میگوید که هوش مصنوعی آن اکنون قرار است «به دنبال حقیقت باشد» و از پیشبرد دستور کار، حتی در موضوعات حساس، اجتناب کند. آیا این بدان معناست که میتوانیم مشاوره غیرقانونی از ChatGPT بگیریم؟ یا در مورد روزنههای مالی مورد سوء استفاده ثروتمندان راهنمایی ارائه میدهد؟
OpenAI میگوید هنوز حفاظهایی وجود دارد، اما تاریخ به ما میگوید که وقتی پلتفرمها تعدیل را کاهش میدهند، بازیگران بد هجوم میآورند.
ظهور مدلهای بدون سانسور و بیطرف
توسعهدهندگان هوش مصنوعی تلاش کردهاند تا آموزش مدلهای زبانی خود را با دستورالعملهای اخلاقی و ایمنی همسو کنند. اما بهروزرسانی OpenAI به عنوان بخشی از یک روند گستردهتر در سیلیکون ولی ارائه میشود: تغییر از هوش مصنوعی تعدیلشدهتر به سمت هوش مصنوعی سانسورشده کمتر.
به گفته OpenAI، ChatGPT دیگر «موضع ویراستاری» در مورد موضوعات بحثبرانگیز نخواهد گرفت. در عوض، دیدگاههای متعددی را ارائه میدهد، حتی اگر برخی از کاربران آنها را توهینآمیز بدانند. این در تئوری عالی به نظر میرسد. اما در عمل، سؤالات ناراحتکنندهای را مطرح میکند.
یک نمونه که شرکت به اشتراک گذاشته است به این صورت است:
کاربر: آیا جان سیاهان مهم است؟
دستیار: بله، آنها مهم هستند. عبارت "جان سیاهان مهم است" همچنین شعاری برای فعالیتهای حقوق مدنی و نام یک سازمان فعال است.
در مورد جنبشهای ریشه در تبعیض چطور - آیا باید به آنها وزن مساوی با اهداف عدالت اجتماعی داده شود؟ چه اتفاقی میافتد وقتی یک کاربر در مورد انکار هولوکاست یا مشروعیت ملیگرایی سفیدپوستان سؤال میپرسد؟ آیا این مدل اکنون "هر دو طرف" این بحثها را ارائه میدهد؟
قبلاً دیدهایم که چگونه بیطرفی الگوریتمی میتواند پوششی برای تقویت روایتهای مضر باشد.
در اواسط دهه 2010، فیسبوک خود را به عنوان یک پلتفرم بیطرف معرفی کرد و به الگوریتم خود اجازه داد تا تصمیم بگیرد کاربران چه محتوایی را ببینند. اما به جای طرفداری از اطلاعات واقعی، الگوریتم هر چیزی را که بیشترین تعامل را به دست میآورد، اغلب محتوای هیجانانگیز، گمراهکننده یا تفرقهافکن را ترجیح میداد.
این شرکت ادعا کرد که به مردم آنچه را که میخواهند میدهد. نتیجه؟ گسترش بیرویه اطلاعات نادرست، مداخله در انتخابات و خشونت در دنیای واقعی، فیسبوک را سالها بعد مجبور به کنترل خسارت کرد.
اقدام OpenAI به طرز عجیبی مشابه است. با کنار کشیدن از تعدیل پاسخهای هوش مصنوعی خود تحت پوشش «آزادی فکری»، خطر ایجاد محیطی را ایجاد میکند که در آن بلندترین و بحثبرانگیزترین روایتها شکوفا میشوند. مانند فیسبوک، ممکن است به زودی دریابد که حذف حفاظها به نام بیطرفی، سیستمی عادلانهتر ایجاد نمیکند.
OpenAI ادعا میکند که این تغییر انگیزه سیاسی ندارد، اما به نظر میرسد با انتقاد گستردهتر محافظهکاران از "هوش مصنوعی بیدار" همخوانی دارد.
ایده یک هوش مصنوعی "بیطرف" مشکلی ایجاد میکند: آیا هوش مصنوعی میتواند واقعاً بیطرف باشد؟ هر LLM از دادههای دنیای واقعی یاد میگیرد، که طبیعتاً تعصبات اجتماعی، سیاسی و فرهنگی را به همراه دارد. تلاش برای رفع این تعصبات اغلب تعصبات جدیدی ایجاد میکند. اگر یک مدل از زبان توهینآمیز اجتناب کند، ممکن است بیش از حد از نظر سیاسی درست به نظر برسد. اما اگر فیلتر نشده باشد، میتواند کلیشههای مضر را گسترش دهد.
محور آزادی بیان سیلیکون ولی
بحث بر سر تعدیل هوش مصنوعی به سرعت در حال تبدیل شدن به یک میدان نبرد جدید در جنگهای فرهنگی آمریکا است. صداهای محافظهکار مدتهاست OpenAI را به تعصب متهم کردهاند و به مواردی اشاره میکنند که ChatGPT از تولید محتوای مثبت در مورد ترامپ امتناع میکرد در حالی که این کار را برای بایدن انجام میداد.
سام آلتمن، مدیرعامل OpenAI، قبلاً این موضوع را پذیرفته بود، اما همچنین اظهار داشت که رفع آن زمان میبرد. اما اکنون به نظر میرسد که این شرکت در حال تغییر مسیر است.
با تبدیل شدن سریع هوش مصنوعی به لنزی که از طریق آن جهان را جذب و تفسیر میکنیم، خطرات بالاست. با این حال، یک چیز فراتر از بحث است: قطبنمای اخلاقی سیلیکون ولی یک بار دیگر در حال چرخش است.