رابی استارباک، اینفلوئنسر محافظه‌کار
رابی استارباک، اینفلوئنسر محافظه‌کار

فعال محافظه‌کار، رابی استارباک، به دلیل پاسخ‌های هوش مصنوعی متا علیه این شرکت شکایت کرد

دعوای افترا ادعا می‌کند که هوش مصنوعی متا همچنان فعال محافظه‌کار را به اشتباه به شورش 6 ژانویه در واشنگتن دی‌سی مرتبط می‌کند.

نکات کلیدی

  • رابی استارباک از متا شکایت کرده و مدعی شده است که هوش مصنوعی این شرکت به دروغ ادعا کرده که او در شورش 6 ژانویه 2021 در کنگره آمریکا شرکت داشته است.

  • استارباک خواستار خسارتی بیش از 5 میلیون دلار است و در مورد تأثیر هوش مصنوعی بر اعتبار و خوشنامی خود نگران است.

  • این دادخواست به پرونده‌های دیگری می‌پیوندد که مسئولیت شرکت‌های هوش مصنوعی در قبال افترا را محک می‌زنند.

رابی استارباک، فعال محافظه‌کار، یک دادخواست افترا علیه متا تنظیم کرده و مدعی شده است که ابزار هوش مصنوعی این شرکت با ادعای دروغ مبنی بر شرکت وی در شورش 6 ژانویه 2021 در کنگره آمریکا، به او تهمت زده است.

استارباک می‌گوید تابستان گذشته زمانی که در حال انجام یک کارزار آنلاین برای ترغیب هارلی-دیویدسون (Harley-Davidson) به تغییر سیاست‌های تنوع، برابری و شمول (DEI) خود بود، این مشکل را کشف کرد. یک نمایندگی هارلی در ورمونت در پاسخ، روز 5 اوت اسکرین‌شاتی را در X (توییتر سابق) منتشر کرد که ظاهراً پاسخ هوش مصنوعی متا بود و می‌گفت استارباک در شورش کنگره شرکت داشته و با تئوری توطئه QAnon مرتبط است.

استارباک همان روز این ادعاها را تکذیب کرد و در یک پست در شبکه‌های اجتماعی پاسخ داد که "وکلای من با متا تماس خواهند گرفت." او می‌گوید هوش مصنوعی متا ماه‌ها بعد نیز همان ادعاهای اثبات‌نشده را در مورد او مطرح می‌کرد و به همین دلیل او دادخواست خود را تنظیم کرد.

دادخواست وی که روز سه‌شنبه در دادگاه عالی دلاور تنظیم شد، خواستار خسارتی بیش از 5 میلیون دلار است.

استارباک در مصاحبه‌ای گفت: "شروع به فکر می‌کنید که این موضوع تا کجا در جامعه منتشر خواهد شد." او گفت نگران است که چگونه می‌توان از هوش مصنوعی برای تعیین اعتبار مالی، ریسک بیمه یا اعتبار کلی افراد استفاده کرد.

سخنگوی متا گفت: "به عنوان بخشی از تلاش مداوم ما برای بهبود مدل‌هایمان، به‌روزرسانی‌هایی را قبلاً منتشر کرده‌ایم و به این کار ادامه خواهیم داد."

استارباک به لیست کوچکی از شاکیان می‌پیوندد که تلاش دارند شرکت‌های هوش مصنوعی را در قبال اطلاعات دروغ و آسیب‌رسان به اعتبار افراد که توسط مدل‌های زبان بزرگ (large language models) تولید می‌شوند، مسئول بدانند. هیچ دادگاه آمریکایی تاکنون به کسی که توسط یک چت‌بات هوش مصنوعی مورد افترا قرار گرفته، خسارتی اعطا نکرده است.

یک قاضی در شهرستان گوینت (Gwinnett) گرجستان سال گذشته اجازه داد یک دادخواست افترا علیه اوپن‌ای‌آی (OpenAI) به مرحله کشف (discovery) برسد، پس از آنکه درخواست شرکت سازنده ChatGPT برای رد دعوا را نپذیرفت.

در آن پرونده، مارک والترز (Mark Walters)، مجری رادیویی محافظه‌کار، ادعا می‌کند ChatGPT گفته که او موضوع یک شکایت مربوط به اختلاس از وجوه یک سازمان حقوق اسلحه بوده است.

قاضی در ماه آوریل استدلال‌های اوپن‌ای‌آی در خصوص درخواست رأی اجمالی (summary judgment) را شنید. اوپن‌ای‌آی در دفاع خود بر دفعات هشدار به کاربران در مورد عدم دقت احتمالی خروجی‌های ChatGPT تأکید کرد و گفت که والترز هرگز اوپن‌ای‌آی را در مورد خطای ادعایی مطلع نکرده یا قبل از طرح دعوا، خواستار اصلاح آن نشده است.

مایکروسافت در سال 2023 توسط مردی مورد شکایت قرار گرفت که مدعی بود موتور جستجو و چت‌بات هوش مصنوعی بینگ (Bing) این شرکت، او را با یک تروریست محکوم‌شده با نام مشابه اشتباه گرفته است. یک قاضی فدرال در مریلند در اکتبر 2024 با حکمی که شاکی را ملزم به پیگیری ادعاهای خود علیه مایکروسافت از طریق داوری می‌کرد، روند دادرسی را متوقف کرد.

مایکروسافت و اوپن‌ای‌آی فراتر از اظهارات خود در پرونده‌های دادگاه، از اظهار نظر خودداری کردند.

شبکه‌های اجتماعی و سایر سایت‌های اینترنتی عموماً نمی‌توانند مسئول مطالبی باشند که کاربرانشان در پلتفرم‌های آن‌ها منتشر می‌کنند. اما کارشناسان حقوقی می‌گویند که این سپر حمایتی، طبق یک قانون فدرال معروف به بخش 230، پاسخ‌های شبیه به انسان را که توسط برنامه‌های خودکار هوش مصنوعی در پاسخ به درخواست‌های کاربران تولید می‌شوند، پوشش نمی‌دهد.

کلر نورینز (Clare Norins)، مدیر کلینیک متمم اول (First Amendment) در دانشکده حقوق دانشگاه جورجیا، گفت که فکر نمی‌کند شرکت‌های هوش مصنوعی بتوانند صرفاً بر سلب مسئولیت‌ها که به کاربران در مورد اعتبار واقعی خروجی‌هایشان هشدار می‌دهند، تکیه کنند.

او گفت: "این یک بیمه‌نامه در برابر شکایت برای افترا نیست."

اما برای اثبات مسئولیت، شاکیان در چنین پرونده‌هایی همچنان باید حداقل سهل‌انگاری از سوی انسان‌های واقعی را نشان دهند.

نورینز گفت: "اگر شرکت هوش مصنوعی مطلع شود که برنامه هوش مصنوعی یک اظهار نادرست خاص در مورد کسی را 'توهم' می‌زند و برای اصلاح آن کاری انجام نمی‌شود، پرونده افترا قوی‌تری خواهد بود."

زمانی که استارباک سال گذشته متوجه شد ابزار هوش مصنوعی متا چه چیزهایی در مورد او می‌گوید، از X (توییتر) استفاده کرد تا از مدیران متا، از جمله مدیرعامل مارک زاکربرگ، بخواهد اطلاعات نادرست را حذف کنند. استارباک گفت وکیلش یک نامه درخواست توقف (cease-and-desist) به شرکت ارسال کرده است.

استارباک گفت در روز 6 ژانویه 2021 در ایالت خود، تنسی، بوده است. او در مصاحبه‌ای گفت تیم تحقیقاتی او، گروهی که به جستجوی اطلاعات در مورد سیاست‌های شرکت‌هایی که به آن‌ها اعتراض دارند عادت دارد، تلاش کردند منبع اطلاعاتی را که متا در مورد 6 ژانویه منتشر کرده بود پیدا کنند، اما چیزی نیافتند.

طبق دادخواست، چند روز بعد وکیلی از متا به کریستا باومن (Krista Baughman)، وکیل استارباک، گفت که "متا اظهارات مطرح شده در نامه شما را جدی می‌گیرد و تحقیقات در مورد آن‌ها در حال انجام است."

طبق شکایت، هوش مصنوعی متا همچنان اظهار می‌کرد که استارباک در 6 ژانویه وارد کنگره شده است. طبق شکایت، استارباک و تیم حقوقی او ابزارهای هوش مصنوعی دیگر را برای اطلاعات مشابه جستجو کردند، اما ChatGPT و Grok از xAI اظهار داشتند که استارباک در شورش نبوده و گفتند که اظهارات نادرست از اطلاعات غلط هوش مصنوعی متا نشأت گرفته است.

تا این ماه، هوش مصنوعی متا جستجو برای اطلاعات در مورد استارباک را دشوارتر کرده بود. طبق دادخواست و بررسی‌های وال استریت ژورنال، ابزار هوش مصنوعی به درخواست‌های مستقیم در مورد او پاسخ داد: "متاسفم، در حال حاضر نمی‌توانم در این مورد به شما کمک کنم."

دادخواست استارباک می‌گوید قابلیت صوتی هوش مصنوعی متا تا همین ماه نیز خروجی‌های دروغین در مورد او تولید می‌کرد و اکنون می‌گفت که او در ارتباط با شورش کنگره به بی‌نظمی اعتراف کرده و انکار هولوکاست را ترویج داده است.

برای سارا ناساور به آدرس [email protected] و برای جیکوب گرشمن به آدرس [email protected] بنویسید.