تصاویر گتی (Getty Images)
تصاویر گتی (Getty Images)

اولین حمله سایبری گسترده توسط هوش مصنوعی

جاسوسان چینی ظاهراً با فناوری ابتدایی و نظارت انسانی کم، از سیستم کلود کد Anthropic سوءاستفاده کردند.

یک گروه تهدیدکننده تحت حمایت دولتی، که به احتمال زیاد چینی است، در سپتامبر از آستانه‌ای عبور کرد که کارشناسان امنیت سایبری سال‌ها درباره آن هشدار داده بودند. بر اساس گزارشی از شرکت Anthropic، مهاجمان سیستم هوش مصنوعی این شرکت، کلود کد (Claude Code)، را دستکاری کردند تا آنچه را که به نظر می‌رسد اولین عملیات جاسوسی گسترده است که عمدتاً توسط هوش مصنوعی انجام شده، به اجرا درآوردند. این گزارش "با اطمینان بالا" اظهار می‌دارد که چین پشت این حمله بوده است.

هوش مصنوعی ۸۰ تا ۹۰ درصد عملیات تاکتیکی را به طور مستقل انجام داده است، از شناسایی گرفته تا استخراج داده. این کمپین جاسوسی تقریباً ۳۰ نهاد را در سراسر ایالات متحده و کشورهای متحد هدف قرار داد، و Anthropic "تعداد معدودی از نفوذهای موفق" را به "شرکت‌های بزرگ فناوری و سازمان‌های دولتی" تأیید کرد.

GTG-1002 — نام‌گذاری Anthropic برای این گروه تهدیدکننده — نشان می‌دهد که پکن در حال آزاد کردن هوش مصنوعی برای جمع‌آوری اطلاعات است. اگر ایالات متحده به سرعت واکنش نشان ندهد، این اولین مورد از یک سری طولانی از نفوذهای فزاینده خودکار خواهد بود. برای اولین بار در این مقیاس، هوش مصنوعی تنها به یک حمله سایبری کمک نکرد، بلکه آن را انجام داد.

جاسوسی سایبری سنتی مستلزم تیم‌های بزرگی است که در مراحل شناسایی، نقشه‌برداری سیستم، شناسایی آسیب‌پذیری و حرکت جانبی فعالیت می‌کنند. یک نفوذ پیچیده می‌تواند روزها یا هفته‌ها طول بکشد. چین این جدول زمانی را از طریق اتوماسیون هوش مصنوعی به طور چشمگیری فشرده کرد. مهاجمان کلود را دستکاری کردند تا به عنوان یک عامل سایبری خودمختار عمل کند، به طوری که هوش مصنوعی سیستم‌های داخلی را نقشه‌برداری می‌کرد، دارایی‌های با ارزش را شناسایی می‌نمود، داده‌ها را استخراج کرده و اطلاعات را خلاصه می‌کرد قبل از اینکه اپراتورهای انسانی تصمیم‌گیری کنند.

مهاجمان با استفاده از مهندسی اجتماعی، سیستم‌های ایمنی کلود را دور زدند و هوش مصنوعی را متقاعد کردند که آنها متخصصان امنیت سایبری مشروعی هستند که در حال انجام آزمایش‌های مجاز می‌باشند. آنها با ارائه وظایف مخرب به عنوان کارهای امنیتی روتین، کلود را به اجرای اجزای حمله بدون تشخیص زمینه خصمانه گسترده‌تر وادار کردند.

یک محدودیت مهم پدیدار شد: کلود اغلب یافته‌ها را اغراق می‌کرد و نتایج ساختگی ارائه می‌داد، ادعای اعتبارنامه‌هایی می‌کرد که تأیید نمی‌شدند یا اطلاعات عمومی را به عنوان اکتشافات حیاتی معرفی می‌نمود. این مشکل "توهم هوش مصنوعی" (AI hallucination) حداقل فعلاً یک مانع قابل توجه برای حملات سایبری کاملاً خودمختار باقی مانده است.

قابل توجه‌ترین نکته این است که چین به چه چیزی نیاز نداشت. GTG-1002 به بدافزارهای پیشرفته یا ابزارهای اختصاصی گران‌قیمت متکی نبود. این گروه از چارچوب‌های تست نفوذ متن‌باز رایج که از طریق سرورهای پروتکل متن مدل (Model Context Protocol) هماهنگ شده بودند، استفاده کرد. پکن نه تنها جعبه ابزار خود را ارتقا داده است؛ بلکه صنعتگر را با خط تولید جایگزین کرده است. قابلیت‌هایی که زمانی برای سازمان‌های اطلاعاتی با منابع غنی رزرو شده بودند، اکنون می‌توانند توسط عوامل کوچک‌تر با استفاده از فناوری‌های در دسترس عمومی تکرار شوند.

این همچنین یک دینامیک استراتژیک عمیق‌تر را آشکار می‌کند. چین هم با هوش مصنوعی جاسوسی می‌کند و هم از هوش مصنوعی آمریکا جاسوسی می‌کند. پکن در حال مطالعه چگونگی رفتار مدل‌های آمریکایی، نقاط ضعف آنها و چگونگی دستکاری آنها است. هر پرسش مخرب به داده‌های آموزشی برای سیستم‌های چین تبدیل می‌شود.

Anthropic به خاطر افشای عمومی این حادثه و همکاری با مقامات آمریکایی شایسته تقدیر است. این شفافیت باید به یک استاندارد صنعتی تبدیل شود. اما این افشاگری یک مشکل بزرگ‌تر را برجسته می‌کند: تدابیر حفاظتی کنونی برای عوامل متخاصمی که با سرعت ماشین حرکت می‌کنند، طراحی نشده‌اند.

پاسخ باید فوری و واضح باشد. سوءاستفاده از هوش مصنوعی را نمی‌توان به عنوان یک مسئله سایبری محدود در نظر گرفت؛ این اکنون محور رقابت گسترده فناوری با چین است. پنج پاسخ ضروری است:

اول، دفاع مبتنی بر هوش مصنوعی باید در تمام سازمان‌های فدرال، زیرساخت‌های حیاتی و شرکت‌های بزرگ استاندارد شود. هوش مصنوعی می‌تواند ناهنجاری‌ها را در زمان واقعی شناسایی کند و زمان پاسخ به حوادث را از ساعت‌ها به دقیقه کاهش دهد. چین از هوش مصنوعی برای تسریع حملات استفاده می‌کند. ایالات متحده نیز باید از هوش مصنوعی برای تسریع دفاع استفاده کند.

دوم، شرکت‌ها باید حوادث سوءاستفاده از هوش مصنوعی را ظرف ۷۲ ساعت افشا کنند. هنگامی که سیستم‌های هوش مصنوعی برای انجام اقدامات مخرب دستکاری می‌شوند، جزئیات حیاتی باید به اشتراک گذاشته شود: بردارهای حمله، نقص‌های حفاظتی، و امضاهای پزشکی قانونی که ممکن است به دیگران در شناسایی نفوذهای مشابه کمک کند. بدون افشای اجباری که با مقررات پناه امن (safe-harbor provisions) پشتیبانی شود، کسب‌وکارها برای جلوگیری از آسیب به اعتبار خود سکوت خواهند کرد. سیاست‌گذاران نمی‌توانند قوانین مؤثر را تدوین کنند اگر بخش خصوصی حوادثی را که خطرات نوظهور را روشن می‌کنند، پنهان کند.

سوم، شرکت‌های هوش مصنوعی باید اصول "امن از طریق طراحی" (secure-by-design principles) را بپذیرند. همانطور که گزارش Anthropic هشدار می‌دهد، تکنیک‌های مورد استفاده توسط GTG-1002 گسترش خواهند یافت. نسل بعدی مدل‌های هوش مصنوعی باید شامل تأیید هویت قوی، نظارت بلادرنگ بر رفتار مخرب، و حفاظ‌هایی باشد که در برابر درخواست‌های مهندسی اجتماعی مقاوم هستند.

چهارم، ایالات متحده و متحدانش به هنجارهای بین‌المللی برای عملیات سایبری مبتنی بر هوش مصنوعی نیاز دارند. چارچوب‌های موجود قبل از وجود سیستم‌های خودمختار ایجاد شده بودند. اگر واشنگتن این هنجارها را شکل ندهد و رهبری نکند، پکن این کار را خواهد کرد.

پنجم، ایالات متحده باید نحوه به اشتراک‌گذاری اطلاعات تهدید خود را مدرن‌سازی کند. حملات شتاب‌یافته با هوش مصنوعی آنقدر سریع اتفاق می‌افتند که مکانیسم‌های سنتی بوروکراتیک برای اشتراک‌گذاری اطلاعات ناکافی هستند. ما به سیستم‌های خودکار بلادرنگ نیاز داریم که قادر به انتشار هشدارها در سراسر بخش‌ها در عرض ساعت‌ها، نه هفته‌ها، باشند.

اولین حمله سایبری مبتنی بر هوش مصنوعی، شروع دوران جدیدی است. GTG-1002 باید به همان شیوه‌ای به یاد آورده شود که ما اولین کرم اینترنتی یا اولین موج باج‌افزار را به خاطر می‌آوریم: به عنوان یک نقطه عطف.

جنگ سرد سایبری اکنون عملیاتی شده است. اکنون خود سلاح‌ها شلیک می‌کنند.

سوال این نیست که آیا دشمنان همچنان از هوش مصنوعی برای عملیات تهاجمی استفاده خواهند کرد یا خیر. آنها این کار را خواهند کرد. سوال این است که آیا ایالات متحده به اندازه کافی سریع برای دفاع از خود عمل خواهد کرد یا خیر.

چین جاه‌طلبی‌های خود را نشان داده است. GTG-1002 نشان می‌دهد که آنها قبلاً در حال اقدام به آنها هستند. ایالات متحده باید بحث در مورد آینده تجاوزگری مبتنی بر هوش مصنوعی را متوقف کرده و شروع به آماده‌سازی برای درگیری‌ای کند که قبلاً آغاز شده است.

آقای تورکل وکیلی متخصص در زمینه رعایت تجارت جهانی، کنترل صادرات، تحریم‌ها و رعایت قوانین ضدفساد است. او نویسنده کتاب "No Escape: The True Story of China’s Genocide of the Uyghurs" (راه گریزی نیست: داستان واقعی نسل‌کشی اویغورها توسط چین) می‌باشد.

گزارش تحریریه ژورنال: بهترین و بدترین‌های هفته از کیم استراسل، جیسون رایلی و دن هنینگر.