زمانی که فناوری هوش مصنوعی سانتاندر بریتانیا فعالیت غیرعادی را در حساب مشتری در سال گذشته شناسایی کرد، کارکنان بانک هیچ ایدهای نداشتند که این موضوع به کشف یک شبکه قاچاق انسان منجر خواهد شد.
این تراکنشها به خودی خود چندان مهم به نظر نمیرسیدند. مردی 34 ساله به طور مرتب به شرکتهای هواپیمایی ارزانقیمت، ارائهدهندگان تلفن همراه و وبسایتهای Vivastreet و Gumtree مبالغی پرداخت میکرد. این وبسایتها میتوانند برای تبلیغ خدمات بزرگسالان واقعی و همچنین فروش اتومبیل، رایانه و موارد دیگر استفاده شوند.
اما بانک میلیونها تراکنش را با استفاده از فناوری شرکت ThetaRay (یک شرکت تشخیص جرم مالی مبتنی بر هوش مصنوعی) نظارت و تجزیه و تحلیل میکند تا الگوها را شناسایی کند و مواردی را که خارج از این الگوها قرار میگیرند، مشخص سازد.
استفان جنینگز، رئیس نظارت بر تراکنشها در سانتاندر، گفت که بدون هوش مصنوعی، این فعالیت شناسایی نمیشد. تیم او این پرونده را به آژانس ملی جرم بریتانیا گزارش داد.
پیتر رینولدز، مدیرعامل ThetaRay، گفت: «هوش مصنوعی با درک آنچه نرمال است، به سرعت به شما میگوید که چه چیزی نرمال نیست. و آن چیزی که نرمال به نظر نمیرسد، احتمالاً جرم است.»
در سالهای اخیر، پیشرفتها در فناوریهای هوش مصنوعی به تحول در تشخیص قاچاق انسان و بردهداری مدرن کمک کرده است و به کسبوکارها مانند سانتاندر، سازمانهای غیرانتفاعی و مجریان قانون اجازه میدهد تا خطرات را به طور موثرتری شناسایی کنند.
گزارش سال گذشته Trafficking in Persons Report (گزارش سالانه وزارت امور خارجه ایالات متحده در مورد تلاشهای جهانی برای مبارزه با قاچاق انسان) به طور فعالانه شرکتهای فناوری را تشویق کرد تا از "ابزارهای داده و الگوریتم" برای تشخیص الگوها و شناسایی فعالیتهای مشکوک استفاده کنند.
با این حال، فراتر از این پتانسیل، دیگران نیز زنگ خطر را به صدا درآوردهاند. سازمانهای حقوق بشر و بازماندگان هشدار میدهند که جمعآوری دادهها در مورد جمعیتهای حاشیهنشین و خودکارسازی تصمیمات میتواند یک تهدید باشد.
آنجلی مازومدر، که برنامه هوش مصنوعی، عدالت و حقوق بشر را در موسسه آلن تورینگ (موسسه ملی علوم داده و هوش مصنوعی بریتانیا) رهبری میکند، گفت: «همانند بسیاری از فناوریهای مرتبط با هوش مصنوعی، تنشهایی در استفاده از آن وجود دارد، درست است؟»
«آنچه مورد نیاز است، این است که تشخیص دهیم بله، این ابزارها وجود دارند که میتوانند برای تشخیص آسیب مفید باشند، اما میتوانند باعث آسیب نیز شوند.»
حدود سال 2017، مازومدر کارگاههایی را در مورد بردهداری مدرن برگزار کرد که مقامات دولتی بریتانیا، آژانسهای سازمان ملل متحد مانند سازمان بینالمللی کار و سازمانهای غیردولتی در آن شرکت کردند. او میگوید وقتی موضوع هوش مصنوعی و یادگیری ماشین (شاخهای از هوش مصنوعی که از الگوریتمهایی استفاده میکند که از دادهها یاد میگیرند تا تصمیمات بهتری بگیرند) مطرح شد، علاقه زیادی وجود داشت اما استفاده از آن حداقل بود.
تقریباً یک دهه بعد، چشمانداز بسیار متفاوت به نظر میرسد.
به عنوان مثال، Global Fishing Watch را در نظر بگیرید. این سازمان غیرانتفاعی مستقر در ایالات متحده از فناوری هوش مصنوعی برای مقابله با استفاده گسترده از کار اجباری در شیلات در سراسر جهان استفاده میکند. مدل آن، که دادههای ماهوارهای و یادگیری ماشین را ترکیب میکند، نشان میدهد که کشتیهایی که خدمه آنها در معرض کار اجباری هستند، متفاوت از سایر ناوگانها رفتار میکنند - مانند سفر دورتر از بنادر.
مانند هر ابزار هوش مصنوعی، دادههای خوب مورد نیاز است، اما اغلب در یک اکوسیستم گسترده بردهداری مدرن انبار میشوند. Traffik Analysis Hub، یک سازمان غیرانتفاعی بریتانیایی، برای رفع این مشکل تلاش میکند و دادههای جهانی را از سازمانهای غیرانتفاعی پیشرو، مجریان قانون و دادههای منبع باز مانند گزارشهای روزنامهنگاران تهیه میکند.
با استفاده از فناوریهای هوش مصنوعی توسعهیافته توسط IBM، این سازمان قادر است الگوها، شبکهها و نقاط داغ را بر اساس آنچه که یکی از بزرگترین مجموعههای اطلاعات قاچاق موجود توصیف میکند، شناسایی کند. بیش از 200 سازمان و 500 کاربر به این اطلاعات دسترسی دارند و از آن برای کشف اتباع ویتنامی که برای کار در مراکز کلاهبرداری کامبوج قاچاق شدهاند، و شبکههای آژانسهای کاریابی جعلی در اوگاندا استفاده کردهاند.
مازومدر میگوید که بیشتر فناوری اولیه بر مبارزه با استثمار جنسی، به ویژه آنلاین، متمرکز بود. Traffic Jam، یک نرمافزار هوش مصنوعی، صدها هزار آگهی آنلاین فروش خدمات جنسی را جستجو میکند (برخی از آنها پروفایلهایی هستند که افراد قاچاقشده را تبلیغ میکنند) و دادهها را تجزیه و تحلیل میکند. توسعهدهندگان آن میگویند که این نرمافزار که توسط سازمانهای مجری قانون در سراسر اروپا و آمریکای شمالی و جنوبی استفاده میشود، به آنها اجازه داده است تا پروندهها را در عرض چند ماه به جای سالها تشکیل دهند.
مشکل این است که بسیاری از این آگهیها نیز پستهایی از کارگران جنسی واقعی هستند - و ابزارهایی که از این نوع نرمافزار استفاده میکنند، میتوانند برای تشخیص قابل اعتماد بین این دو با مشکل مواجه شوند.
Spotlight ابزار دیگری است که تبلیغات جنسی را جمعآوری میکند. این ابزار متعلق به Thorn، یک سازمان غیرانتفاعی آمریکایی است که توسط بازیگران اشتون کوچر و دمی مور تأسیس شده است (کوچر در سال 2023 استعفا داد). هدف آن مبارزه با استثمار کودکان است. جزئیاتی مانند نامها، شمارهها، تصاویر و پرداختها جمعآوری شده و در یک پایگاه داده بزرگ قرار میگیرند. آن را به عنوان یک جستجوی گسترده گوگل در نظر بگیرید که به طور گسترده توسط مجریان قانون ایالات متحده هنگام جستجوی قربانیان مشکوک قاچاق استفاده میشود.
با این حال، گزارش Forbes نشان داد که Spotlight آگهیها را از کارگران جنسی واقعی، اغلب بدون اطلاع آنها، در کنار آگهیهای جنسی آنلاین کودکان استثمار شده جمعآوری کرده است. این گزارش نشان داد که پلیس سپس از پایگاههای داده برای نظارت از راه دور بر زنان استفاده کرده و هنگامی که آنها در معرض خطر بودهاند، مداخله نکرده است.
اولیویا اسنو، یک سلطهگر و پژوهشگر در مرکز تحقیقات اینترنتی انتقادی UCLA، میگوید که بسیاری از این فناوریها، به ویژه در فضای مبارزه با قاچاق انسان، به طور صریح کارگران جنسی را هدف قرار میدهند.
اسنو گفت: «اگر آنها از هوش مصنوعی برای ردیابی مشتریان یا چیزی شبیه به آن استفاده میکردند، یک چیز بود. اما آنها هرگز این کار را نمیکنند. فقط کارگران هستند. افرادی که هوش مصنوعی میسازند، در واقع به مسائل حقوق بشر اهمیت نمیدهند. آنها به کسب درآمد اهمیت میدهند و به دریافت داده اهمیت میدهند.»
او میافزاید که کارگران جنسی برای دههها گزارش دادهاند که حسابهای بانکیشان مسدود یا قفل شده است. باز هم، کار جنسی واقعی میتواند شامل تراکنشهایی باشد که به عنوان شاخصهای قاچاق دیده میشوند، مانند واریز وجه نقد در دستگاههای خودپرداز خاص و در زمانهای خاص از روز. اسنو گمان میکند که دلیل اینکه او نمیتواند از حساب بانکی خود پول ارسال کند، به کار او مرتبط است، اگرچه او هرگز نمیتواند مطمئن شود.
او گفت: «آنها قطعاً چیزی را فهمیدهاند. این بسیار دیستوپیایی است.»
جنینگز از سانتاندر اذعان میکند که ابزار هوش مصنوعی بانک به تنهایی نمیتواند تعیین کند که چه چیزی واقعی است یا نه - بلکه فعالیتی را که غیرعادی میداند، علامتگذاری میکند. او میگوید آنچه مهم است، عنصر انسانی است. پس از تولید هشدارها، تیمی متشکل از تقریباً 17 نفر دادهها را تجزیه و تحلیل میکنند و دیدگاهی جامع از مشتری ارائه میدهند تا درک کنند که آیا تراکنشها منطقی هستند یا خیر. جنینگز گفت: «ما [فکر میکنیم]: آیا این منطقی است؟ این ترکیب این دو چیز است که بسیار، بسیار قدرتمند است.»
مازومدر از موسسه آلن تورینگ میگوید که این فناوری را بهتر است به عنوان نشانگری از چیزی که به طور بالقوه خطرناک است، در نظر گرفت. اما این خطر نیاز به بررسی بیشتر دارد، احتمالاً آفلاین و حضوری. او همچنین هشدار میدهد که شکافها و سوگیریها در دادههای بردهداری مدرن نیاز به رسیدگی دارند. به عنوان مثال، یک مدل از سال 2016 که بر روی وبسایتهای تبلیغاتی جنسی آموزش داده شده بود، تعیین کرد که عبارت "آسیایی" نشاندهنده قاچاق جنسی است.
دیگران اشاره میکنند که این ابزارها اغلب توسط شرکتهای بزرگ فناوری تأمین مالی میشوند و برای اجرای قانون ساخته میشوند. صبرا بوید، نویسنده مستقر در سیاتل و بازمانده قاچاق انسان، میگوید که اگر این صنعت به کمک به بازماندگان اهمیت میداد، آنها را در این فرآیند مشارکت میدادند.
نتایج میتواند قابل توجه باشد - همانطور که مثال سانتاندر نشان میدهد. اما مازومدر میگوید که بسیار مهم است که سازوکارهایی برای اطمینان از اینکه گروههای حاشیهنشین یا آسیبپذیر هدف قرار نمیگیرند، بیشتر مورد استثمار قرار نمیگیرند یا به نحوی آسیب نمیبینند، وجود داشته باشد.
بوید این موضوع را خلاصه کرد: "هیچ چیز در مورد ما، بدون ما." شعار قدرتمند جنبش حقوق معلولان برای دههها، برای او به همان اندازه همیشه مرتبط به نظر میرسد.
او پرسید: «چه کسی این محصولات را میسازد؟ چه کسی ایمنی را برای من به عنوان یک بازمانده قاچاق تعریف میکند؟»