گتی ایمیجز؛ آوا هورتون/BI
گتی ایمیجز؛ آوا هورتون/BI

به اقتصاد دیپ‌فیک خوش آمدید

از شیرینی‌فروشی‌ها تا فروشندگان چاقوهای ژاپنی، صاحبان کسب‌وکارهای کوچک با کلاهبرداری‌های آنلاین مبتنی بر هوش مصنوعی بمباران می‌شوند.

سال گذشته، صندوق ورودی ایمیل ایان لامونت پر از درخواست‌هایی درباره یک فرصت شغلی شد. صاحب شرکت راهنماهای آموزشی در بوستون، هیچ موقعیت جدیدی را باز نکرده بود، اما وقتی وارد لینکدین خود شد، یک آگهی شغلی برای "کارمند ورود اطلاعات" را پیدا کرد که به نام و لوگوی کسب‌وکار او لینک شده بود.

لامونت به زودی متوجه شد که برند او مورد کلاهبرداری قرار گرفته است، که وقتی به پروفایل شخصی برخورد کرد که ادعا می‌کرد "مدیر" شرکت اوست، این موضوع تأیید شد. این حساب کمتر از دوازده ارتباط داشت و چهره‌ای تولید شده با هوش مصنوعی داشت. او روزهای بعد را به هشدار دادن به بازدیدکنندگان سایت شرکتش درباره این کلاهبرداری و متقاعد کردن لینکدین برای حذف پروفایل و آگهی جعلی گذراند. تا آن زمان، بیش از بیست نفر مستقیماً درباره آن شغل با او تماس گرفته بودند و او حدس می‌زند افراد بیشتری نیز درخواست داده بودند.

پتانسیل هوش مصنوعی مولد برای تقویت کسب‌وکارها خیره‌کننده است. بر اساس یک برآورد مک‌کینزی در سال ۲۰۲۳، انتظار می‌رود در سال‌های آینده، این فناوری سالانه ارزش بیشتری به اقتصاد جهانی اضافه کند تا کل تولید ناخالص داخلی بریتانیا. در عین حال، توانایی هوش مصنوعی مولد در تولید تقریباً فوری محتوای معتبر در مقیاس انبوه، پتانسیل مخربی به همان اندازه برای کسب‌وکارها ایجاد کرده است.

از زمان معرفی ChatGPT در سال ۲۰۲۲، کسب‌وکارهای آنلاین مجبور بوده‌اند در یک اقتصاد دیپ‌فیک که به سرعت در حال گسترش است، حرکت کنند؛ جایی که تشخیص اینکه هر متن، تماس یا ایمیلی واقعی است یا کلاهبرداری، به طور فزاینده‌ای دشوار شده است. تنها در یک سال گذشته، کلاهبرداری‌های مبتنی بر هوش مصنوعی مولد چهار برابر شده‌اند، طبق گزارش پلتفرم گزارش کلاهبرداری Chainabuse. در نظرسنجی بیمه Nationwide از صاحبان کسب‌وکارهای کوچک در پاییز گذشته، یک چهارم آنها گزارش دادند که حداقل یک کلاهبرداری هوش مصنوعی را در سال گذشته تجربه کرده‌اند. مایکروسافت می‌گوید اکنون تقریباً ۱.۶ میلیون تلاش ثبت نام مبتنی بر ربات را در هر ساعت مسدود می‌کند. رنه دی‌رستا، که در دانشگاه جرج‌تاون در مورد سوءاستفاده‌های خصمانه آنلاین تحقیق می‌کند، به من می‌گوید که او رونق هوش مصنوعی مولد را "انقلاب صنعتی برای کلاهبرداری‌ها" می‌نامد – زیرا این فناوری، کلاهبرداری‌ها را خودکار می‌کند، موانع ورود را کاهش می‌دهد، هزینه‌ها را کم می‌کند و دسترسی به اهداف را افزایش می‌دهد.

عواقب فریب خوردن در یک کلاهبرداری دستکاری‌شده با هوش مصنوعی می‌تواند ویرانگر باشد. سال گذشته، یک کارمند مالی در شرکت مهندسی آروپ (Arup) به یک تماس ویدیویی پیوست که گمان می‌کرد همکارانش هستند. مشخص شد که هر یک از شرکت‌کنندگان یک بازسازی دیپ‌فیک از یک همکار واقعی بودند، از جمله مدیر ارشد مالی سازمان. کلاهبرداران از کارمند خواستند تا انتقال‌های خارجی به مبلغ بیش از ۲۵ میلیون دلار را تأیید کند، و او با این فرض که درخواست از طرف مدیر ارشد مالی است، تراکنش را تأیید کرد.

بیزینس اینسایدر با متخصصانی در چندین صنعت – از جمله استخدام، طراحی گرافیک، انتشارات، و مراقبت‌های بهداشتی – صحبت کرده است که در تلاشند تا خود و مشتریانشان را در برابر تهدیدات هوش مصنوعی که همیشه در حال تحول هستند، ایمن نگه دارند. بسیاری احساس می‌کنند که در حال انجام یک بازی بی‌پایان "بزن‌موش" هستند، و موش‌ها تنها در حال افزایش و باهوش‌تر شدن هستند.

سال گذشته، کلاهبرداران از هوش مصنوعی برای ساخت یک نسخه فرانسوی‌زبان از فروشگاه آنلاین چاقوهای ژاپنی اویشیا (Oishya) استفاده کردند و پیشنهادات کلاهبرداری خودکار را به بیش از ۱۰,۰۰۰ دنبال‌کننده این شرکت در اینستاگرام ارسال کردند. شرکت جعلی به مشتریان شرکت واقعی گفت که یک چاقوی رایگان برنده شده‌اند و تنها کاری که باید انجام دهند پرداخت هزینه کمی برای حمل و نقل است تا آن را دریافت کنند – و تقریباً ۱۰۰ نفر فریب خوردند. کامیلا هانکیویچ، که ۹ سال است اویشیا را اداره می‌کند، تنها پس از تماس چندین قربانی با او و پرسیدن اینکه چقدر باید منتظر رسیدن بسته باشند، از این کلاهبرداری مطلع شد.

این یک بیداری ناخوشایند برای هانکیویچ بود. او از آن زمان امنیت سایبری شرکت را افزایش داده و اکنون کمپین‌هایی را برای آموزش مشتریان در مورد نحوه تشخیص ارتباطات جعلی اجرا می‌کند. اگرچه بسیاری از مشتریان او از فریب خوردن ناراحت بودند، هانکیویچ به آنها کمک کرد تا گزارش‌هایی را برای بازپرداخت به مؤسسات مالی خود ارائه دهند. او می‌گوید، با وجود تکان‌دهنده بودن این تجربه، "این حادثه در واقع رابطه ما با بسیاری از مشتریان را که رویکرد پیشگیرانه ما را قدردانی کردند، تقویت کرد."

زنگ‌های هشدار او واقعاً زمانی به صدا درآمد که مصاحبه‌کننده از او خواست گواهینامه رانندگی خود را به اشتراک بگذارد.

راب دانکن، معاون رئیس استراتژی در شرکت امنیت سایبری نت‌کرافت (Netcraft)، از افزایش حملات فیشینگ هدفمند علیه کسب‌وکارهای کوچک مانند اویشیا شگفت‌زده نیست. او می‌گوید ابزارهای هوش مصنوعی مولد اکنون حتی به یک گرگ تنها مبتدی با دانش فنی کم نیز اجازه می‌دهند تا تصویر یک برند را شبیه‌سازی کند و پیام‌های کلاهبرداری بی‌عیب و نقص و قانع‌کننده را در عرض چند دقیقه بنویسید. دانکن می‌گوید، با ابزارهای ارزان، "مهاجمان می‌توانند به راحتی کارمندان را جعل هویت کنند، مشتریان را فریب دهند یا شرکا را در چندین کانال تقلید کنند."

اگرچه ابزارهای اصلی هوش مصنوعی مانند ChatGPT هنگام درخواست برای نقض کپی‌رایت اقدامات احتیاطی دارند، اما اکنون بسیاری از خدمات آنلاین رایگان یا ارزان‌قیمت وجود دارند که به کاربران امکان می‌دهند وب‌سایت یک کسب‌وکار را با دستورات متنی ساده کپی کنند. با استفاده از ابزاری به نام Llama Press، توانستم تقریباً یک کلون دقیق از فروشگاه هانکیویچ تولید کنم و آن را با چند کلمه دستورالعمل شخصی‌سازی کنم. (کدی کندال، بنیانگذار Llama Press، می‌گوید کلون کردن یک فروشگاه مانند اویشیا یک بلوک ایمنی را فعال نمی‌کند زیرا دلایل مشروعی برای انجام این کار وجود دارد، مانند زمانی که یک صاحب کسب‌وکار در تلاش است وب‌سایت خود را به یک پلتفرم میزبانی جدید منتقل کند. او اضافه می‌کند که Llama Press برای از بین بردن درخواست‌های بدخواهانه به کنترل‌های ایمنی داخلی Anthropic و OpenAI متکی است.)

متن تنها یکی از جبهه‌های جنگی است که کسب‌وکارها در برابر سوءاستفاده‌های مخرب از هوش مصنوعی با آن می‌جنگند. با جدیدترین ابزارها، فقط یک ساعت طول می‌کشد تا یک مهاجم تنها – باز هم بدون تخصص فنی – یک نامزد شغلی جعلی قانع‌کننده برای شرکت در مصاحبه ویدیویی ایجاد کند.

تاتیانا بکر، یک استخدام‌کننده فناوری مستقر در نیویورک، به من می‌گوید که نامزدهای شغلی دیپ‌فیک به یک "همه‌گیری" تبدیل شده‌اند. در چند سال گذشته، او مجبور شده است مکرراً متقاضیان کلاهبرداری را که از آواتارهای دیپ‌فیک برای تقلب در مصاحبه‌ها استفاده می‌کنند، رد کند. در این مرحله، او قادر به تشخیص برخی از نشانه‌های بارز جعلی بودن آنهاست، از جمله کیفیت ویدیوی نامنظم و امتناع نامزد از تغییر هر عنصری از ظاهر خود در طول تماس، مانند برداشتن هدفون. اکنون، در ابتدای هر مصاحبه از متقاضیان شناسه می‌خواهد و سوالات بازتری می‌پرسد، مانند اینکه در اوقات فراغت خود چه کاری دوست دارند انجام دهند، تا مطمئن شود که آنها انسان هستند. طنزآمیز اینکه، او خود در ابتدای مصاحبه‌ها رباتیک‌تر شده تا ربات‌ها را شناسایی کند.

نیکول یلند، مدیر روابط عمومی، می‌گوید او اوایل امسال خود را در مقابل دیپ‌فیک یافت. یک کلاهبردار با جعل هویت یک استخدام‌کننده استارتاپ از طریق ایمیل به او نزدیک شد و گفت که به دنبال یک رئیس بخش ارتباطات است، با بسته پیشنهادی که شامل حقوق و مزایای سخاوتمندانه بود. فرد ادعایی حتی یک ارائه جامع، تزئین شده با تصاویر تولید شده توسط هوش مصنوعی، را با او به اشتراک گذاشت که مسئولیت‌ها و مزایای نقش را تشریح می‌کرد. او که وسوسه شده بود، یک مصاحبه برنامه‌ریزی کرد.

با این حال، در طول جلسه ویدیویی، "مدیر استخدام" از صحبت کردن امتناع کرد و در عوض از یلند خواست که پاسخ‌های خود را به سوالات کتبی در بخش چت مایکروسافت تیمز تایپ کند. زنگ‌های هشدار او واقعاً زمانی به صدا درآمد که مصاحبه‌کننده شروع به درخواست از او برای به اشتراک گذاشتن یک سری اسناد خصوصی، از جمله گواهینامه رانندگی‌اش، کرد.

یلند اکنون قبل از تعامل با هر غریبه‌ای آنلاین، یک بررسی سوابق با ابزارهایی مانند Spokeo انجام می‌دهد. او می‌گوید: "این آزاردهنده است و زمان بیشتری می‌برد، اما تعامل با یک اسپمر آزاردهنده‌تر و زمان‌برتر است؛ بنابراین اینجایی است که ما هستیم."

در حالی که پلتفرم‌های کنفرانس ویدیویی مانند تیمز و زوم در تشخیص حساب‌های تولید شده توسط هوش مصنوعی بهتر می‌شوند، برخی کارشناسان می‌گویند که خود تشخیص خطر ایجاد یک چرخه معیوب را دارد. جاسون کیسی، مدیرعامل Beyond Identity، یک شرکت امنیت سایبری که در زمینه سرقت هویت تخصص دارد، می‌گوید داده‌هایی که این پلتفرم‌ها در مورد آنچه جعلی است جمع‌آوری می‌کنند، در نهایت برای آموزش مدل‌های هوش مصنوعی مولد پیچیده‌تر استفاده می‌شوند، که به آنها کمک می‌کنند در فرار از ردیاب‌های جعلی بهتر شوند و "یک مسابقه تسلیحاتی را که مدافعان نمی‌توانند برنده شوند" تغذیه کنند. کیسی و شرکتش معتقدند که تمرکز باید بر احراز هویت شخص باشد. Beyond Identity ابزارهایی را می‌فروشد که می‌توانند به زوم متصل شوند و شرکت‌کنندگان جلسه را از طریق بیومتریک دستگاه و داده‌های مکانی آنها تأیید کنند. اگر مغایرت تشخیص داده شود، این ابزارها فید ویدیوی شرکت‌کنندگان را به عنوان "تأیید نشده" برچسب‌گذاری می‌کنند. ترامرر فلوریان، استاد علوم کامپیوتر در ETH زوریخ، موافق است که احراز هویت احتمالاً برای اطمینان از اینکه همیشه با یک همکار واقعی صحبت می‌کنید، ضروری‌تر خواهد شد.

اکنون تنها نامزدهای شغلی جعلی نیستند که کارآفرینان باید با آنها دست و پنجه نرم کنند، بلکه نسخه‌های جعلی از خودشان نیز هستند. در اواخر سال ۲۰۲۴، کلاهبرداران تبلیغاتی را در فیس‌بوک برای ویدیویی با حضور جاناتان شاو، معاون مدیر موسسه قلب و دیابت بیکر در ملبورن، منتشر کردند. اگرچه فرد درون ویدیو دقیقاً شبیه دکتر شاو به نظر می‌رسید و صحبت می‌کرد، اما صدای او دیپ‌فیک شده و ویرایش شده بود تا بگوید متفورمین – یک درمان خط اول برای دیابت نوع ۲ – "خطرناک" است و بیماران باید به جای آن به یک مکمل غذایی اثبات‌نشده روی آورند. تبلیغ جعلی با یک مصاحبه خبری کتبی جعلی با شاو همراه بود.

چندین بیمار کلینیک او، با اعتقاد به اینکه ویدیو واقعی است، تماس گرفتند و پرسیدند چگونه می‌توانند مکمل را تهیه کنند. شاو به من می‌گوید: "یکی از بیماران قدیمی‌ام از من پرسید چرا من همچنان برای او متفورمین تجویز می‌کنم، در حالی که 'من' در ویدیو گفته بودم که داروی بدی است." او در نهایت توانست فیس‌بوک را متقاعد کند که ویدیو را حذف کند.

سپس مسئله به همان اندازه آزاردهنده و کلافه‌کننده "محتوای بی‌کیفیت هوش مصنوعی" (AI slop) وجود دارد – هجوم تصاویر و متون بی‌کیفیت و تولید انبوه که اینترنت را پر کرده و تشخیص اینکه چه چیزی واقعی است یا جعلی را برای افراد عادی دشوارتر می‌کند. در تحقیقات دی‌رستا، او مواردی را یافت که موتورهای توصیه پلتفرم‌های اجتماعی، محتوای بی‌کیفیت مخرب را تبلیغ کرده‌اند – جایی که کلاهبرداران تصاویر اقلامی مانند املاک اجاره‌ای، لوازم خانگی و موارد دیگر را که وجود خارجی نداشتند، منتشر می‌کردند و کاربران به کرات فریب می‌خوردند و اطلاعات پرداخت خود را لو می‌دادند.

در پینترست، پست‌های "الهام‌بخش" تولید شده توسط هوش مصنوعی، تابلوی الهام‌بخش افراد را پر کرده‌اند – تا حدی که شیرینی‌فروشی کیک لایف (Cake Life Shop) در فیلادلفیا اکنون اغلب سفارشاتی از مشتریان دریافت می‌کند که از آنها می‌خواهند کیک‌هایی را بازسازی کنند که در واقع کیک‌های تولید شده توسط هوش مصنوعی هستند. در یکی از مواردی که با بیزینس اینسایدر به اشتراک گذاشته شد، کیک شبیه یک جنگل بارانی پر از خزه است و دارای یک آبشار عملکردی است. خوشبختانه برای نیما اعتمادی، یکی از بنیان‌گذاران این شیرینی‌فروشی، بیشتر مشتریان "پذیرا هستند تا پس از اینکه حباب هوش مصنوعی آنها را ترکاندیم، درباره آنچه با یک کیک واقعی ممکن است بشنوند"، می‌گوید.

به طور مشابه، کتاب‌های تولید شده توسط هوش مصنوعی آمازون را فراگرفته‌اند و اکنون به فروش ناشران آسیب می‌رسانند.

پائولین فرومر، رئیس ناشر راهنمای سفر فرومر مدیا (Frommer Media)، می‌گوید که راهنماهای سفر تولید شده توسط هوش مصنوعی توانسته‌اند با کمک بررسی‌های جعلی به بالای لیست‌ها برسند. یک ناشر هوش مصنوعی چند عضویت پرایم می‌خرد، قیمت کتاب الکترونیکی راهنما را صفر تعیین می‌کند و سپس با دانلود نسخه‌های رایگان آن، "بررسی‌های تأیید شده" به ظاهر معتبر را ثبت می‌کند. او می‌گوید این اقدامات "عملاً ورود یک برند جدید و قانونی از راهنمای سفر را به این صنعت در حال حاضر غیرممکن می‌کند." ایان لامونت می‌گوید سال گذشته یک راهنمای سفر تولید شده توسط هوش مصنوعی را به عنوان هدیه دریافت کرده است: یک راهنمای سفر فقط متنی برای تایوان، بدون عکس یا نقشه.

در حالی که FTC اکنون انتشار بررسی‌های جعلی محصول که توسط هوش مصنوعی تولید شده‌اند را غیرقانونی می‌داند، سیاست‌های رسمی هنوز به محتوای تولید شده توسط هوش مصنوعی خود نرسیده‌اند. پلتفرم‌هایی مانند پینترست و گوگل شروع به واترمارک و برچسب‌گذاری پست‌های تولید شده توسط هوش مصنوعی کرده‌اند، اما از آنجایی که این کار هنوز بدون خطا نیست، برخی نگرانند که این اقدامات ممکن است بیشتر ضرر داشته باشند تا منفعت. دی‌رستا نگران است که یک پیامد ناخواسته احتمالی برچسب‌گذاری فراگیر هوش مصنوعی، تجربه "خستگی از برچسب" در افراد باشد، جایی که آنها کورکورانه فرض می‌کنند محتوای بدون برچسب همیشه "واقعی" است. او می‌گوید: "این یک فرض بالقوه خطرناک است اگر یک دستکار پیچیده، مانند سرویس اطلاعاتی یک کشور، بتواند محتوای اطلاعات نادرست را از یک برچسب‌گذار عبور دهد."

در حال حاضر، رابین پوگ، مدیر اجرایی Intelligence for Good، یک سازمان غیرانتفاعی که به قربانیان جرایم اینترنتی کمک می‌کند، می‌گوید که صاحبان کسب‌وکارهای کوچک باید هوشیار بمانند. آنها همیشه باید تأیید کنند که با یک انسان واقعی سروکار دارند و پولی که ارسال می‌کنند واقعاً به جایی که قصد دارند، می‌رسد.

اعتمادی از شیرینی‌فروشی کیک لایف اذعان می‌کند که هوش مصنوعی مولد به همان اندازه که می‌تواند به کسب‌وکار او در افزایش کارایی کمک کند، کلاهبرداران نیز از همان ابزارها برای افزایش کارایی خود استفاده خواهند کرد. او می‌گوید: "انجام تجارت آنلاین هر سال ضروری‌تر و پرخطرتر می‌شود. هوش مصنوعی فقط بخشی از آن است."

شوبهام آگاروال یک روزنامه‌نگار فناوری آزاد از احمدآباد، هند است که آثارش در Wired، The Verge، Fast Company و نشریات دیگر منتشر شده است.

داستان‌های "بحث" بیزینس اینسایدر دیدگاه‌هایی را در مورد مهمترین مسائل روز ارائه می‌دهند که با تحلیل، گزارش و تخصص همراه هستند.