نکات کلیدی
رابی استارباک از متا شکایت کرده و مدعی شده است که هوش مصنوعی این شرکت به دروغ ادعا کرده که او در شورش 6 ژانویه 2021 در کنگره آمریکا شرکت داشته است.
استارباک خواستار خسارتی بیش از 5 میلیون دلار است و در مورد تأثیر هوش مصنوعی بر اعتبار و خوشنامی خود نگران است.
این دادخواست به پروندههای دیگری میپیوندد که مسئولیت شرکتهای هوش مصنوعی در قبال افترا را محک میزنند.
رابی استارباک، فعال محافظهکار، یک دادخواست افترا علیه متا تنظیم کرده و مدعی شده است که ابزار هوش مصنوعی این شرکت با ادعای دروغ مبنی بر شرکت وی در شورش 6 ژانویه 2021 در کنگره آمریکا، به او تهمت زده است.
استارباک میگوید تابستان گذشته زمانی که در حال انجام یک کارزار آنلاین برای ترغیب هارلی-دیویدسون (Harley-Davidson) به تغییر سیاستهای تنوع، برابری و شمول (DEI) خود بود، این مشکل را کشف کرد. یک نمایندگی هارلی در ورمونت در پاسخ، روز 5 اوت اسکرینشاتی را در X (توییتر سابق) منتشر کرد که ظاهراً پاسخ هوش مصنوعی متا بود و میگفت استارباک در شورش کنگره شرکت داشته و با تئوری توطئه QAnon مرتبط است.
استارباک همان روز این ادعاها را تکذیب کرد و در یک پست در شبکههای اجتماعی پاسخ داد که "وکلای من با متا تماس خواهند گرفت." او میگوید هوش مصنوعی متا ماهها بعد نیز همان ادعاهای اثباتنشده را در مورد او مطرح میکرد و به همین دلیل او دادخواست خود را تنظیم کرد.
دادخواست وی که روز سهشنبه در دادگاه عالی دلاور تنظیم شد، خواستار خسارتی بیش از 5 میلیون دلار است.
استارباک در مصاحبهای گفت: "شروع به فکر میکنید که این موضوع تا کجا در جامعه منتشر خواهد شد." او گفت نگران است که چگونه میتوان از هوش مصنوعی برای تعیین اعتبار مالی، ریسک بیمه یا اعتبار کلی افراد استفاده کرد.
سخنگوی متا گفت: "به عنوان بخشی از تلاش مداوم ما برای بهبود مدلهایمان، بهروزرسانیهایی را قبلاً منتشر کردهایم و به این کار ادامه خواهیم داد."
استارباک به لیست کوچکی از شاکیان میپیوندد که تلاش دارند شرکتهای هوش مصنوعی را در قبال اطلاعات دروغ و آسیبرسان به اعتبار افراد که توسط مدلهای زبان بزرگ (large language models) تولید میشوند، مسئول بدانند. هیچ دادگاه آمریکایی تاکنون به کسی که توسط یک چتبات هوش مصنوعی مورد افترا قرار گرفته، خسارتی اعطا نکرده است.
یک قاضی در شهرستان گوینت (Gwinnett) گرجستان سال گذشته اجازه داد یک دادخواست افترا علیه اوپنایآی (OpenAI) به مرحله کشف (discovery) برسد، پس از آنکه درخواست شرکت سازنده ChatGPT برای رد دعوا را نپذیرفت.
در آن پرونده، مارک والترز (Mark Walters)، مجری رادیویی محافظهکار، ادعا میکند ChatGPT گفته که او موضوع یک شکایت مربوط به اختلاس از وجوه یک سازمان حقوق اسلحه بوده است.
قاضی در ماه آوریل استدلالهای اوپنایآی در خصوص درخواست رأی اجمالی (summary judgment) را شنید. اوپنایآی در دفاع خود بر دفعات هشدار به کاربران در مورد عدم دقت احتمالی خروجیهای ChatGPT تأکید کرد و گفت که والترز هرگز اوپنایآی را در مورد خطای ادعایی مطلع نکرده یا قبل از طرح دعوا، خواستار اصلاح آن نشده است.
مایکروسافت در سال 2023 توسط مردی مورد شکایت قرار گرفت که مدعی بود موتور جستجو و چتبات هوش مصنوعی بینگ (Bing) این شرکت، او را با یک تروریست محکومشده با نام مشابه اشتباه گرفته است. یک قاضی فدرال در مریلند در اکتبر 2024 با حکمی که شاکی را ملزم به پیگیری ادعاهای خود علیه مایکروسافت از طریق داوری میکرد، روند دادرسی را متوقف کرد.
مایکروسافت و اوپنایآی فراتر از اظهارات خود در پروندههای دادگاه، از اظهار نظر خودداری کردند.
شبکههای اجتماعی و سایر سایتهای اینترنتی عموماً نمیتوانند مسئول مطالبی باشند که کاربرانشان در پلتفرمهای آنها منتشر میکنند. اما کارشناسان حقوقی میگویند که این سپر حمایتی، طبق یک قانون فدرال معروف به بخش 230، پاسخهای شبیه به انسان را که توسط برنامههای خودکار هوش مصنوعی در پاسخ به درخواستهای کاربران تولید میشوند، پوشش نمیدهد.
کلر نورینز (Clare Norins)، مدیر کلینیک متمم اول (First Amendment) در دانشکده حقوق دانشگاه جورجیا، گفت که فکر نمیکند شرکتهای هوش مصنوعی بتوانند صرفاً بر سلب مسئولیتها که به کاربران در مورد اعتبار واقعی خروجیهایشان هشدار میدهند، تکیه کنند.
او گفت: "این یک بیمهنامه در برابر شکایت برای افترا نیست."
اما برای اثبات مسئولیت، شاکیان در چنین پروندههایی همچنان باید حداقل سهلانگاری از سوی انسانهای واقعی را نشان دهند.
نورینز گفت: "اگر شرکت هوش مصنوعی مطلع شود که برنامه هوش مصنوعی یک اظهار نادرست خاص در مورد کسی را 'توهم' میزند و برای اصلاح آن کاری انجام نمیشود، پرونده افترا قویتری خواهد بود."
زمانی که استارباک سال گذشته متوجه شد ابزار هوش مصنوعی متا چه چیزهایی در مورد او میگوید، از X (توییتر) استفاده کرد تا از مدیران متا، از جمله مدیرعامل مارک زاکربرگ، بخواهد اطلاعات نادرست را حذف کنند. استارباک گفت وکیلش یک نامه درخواست توقف (cease-and-desist) به شرکت ارسال کرده است.
استارباک گفت در روز 6 ژانویه 2021 در ایالت خود، تنسی، بوده است. او در مصاحبهای گفت تیم تحقیقاتی او، گروهی که به جستجوی اطلاعات در مورد سیاستهای شرکتهایی که به آنها اعتراض دارند عادت دارد، تلاش کردند منبع اطلاعاتی را که متا در مورد 6 ژانویه منتشر کرده بود پیدا کنند، اما چیزی نیافتند.
طبق دادخواست، چند روز بعد وکیلی از متا به کریستا باومن (Krista Baughman)، وکیل استارباک، گفت که "متا اظهارات مطرح شده در نامه شما را جدی میگیرد و تحقیقات در مورد آنها در حال انجام است."
طبق شکایت، هوش مصنوعی متا همچنان اظهار میکرد که استارباک در 6 ژانویه وارد کنگره شده است. طبق شکایت، استارباک و تیم حقوقی او ابزارهای هوش مصنوعی دیگر را برای اطلاعات مشابه جستجو کردند، اما ChatGPT و Grok از xAI اظهار داشتند که استارباک در شورش نبوده و گفتند که اظهارات نادرست از اطلاعات غلط هوش مصنوعی متا نشأت گرفته است.
تا این ماه، هوش مصنوعی متا جستجو برای اطلاعات در مورد استارباک را دشوارتر کرده بود. طبق دادخواست و بررسیهای وال استریت ژورنال، ابزار هوش مصنوعی به درخواستهای مستقیم در مورد او پاسخ داد: "متاسفم، در حال حاضر نمیتوانم در این مورد به شما کمک کنم."
دادخواست استارباک میگوید قابلیت صوتی هوش مصنوعی متا تا همین ماه نیز خروجیهای دروغین در مورد او تولید میکرد و اکنون میگفت که او در ارتباط با شورش کنگره به بینظمی اعتراف کرده و انکار هولوکاست را ترویج داده است.
برای سارا ناساور به آدرس [email protected] و برای جیکوب گرشمن به آدرس [email protected] بنویسید.