یک گروه تهدیدکننده تحت حمایت دولتی، که به احتمال زیاد چینی است، در سپتامبر از آستانهای عبور کرد که کارشناسان امنیت سایبری سالها درباره آن هشدار داده بودند. بر اساس گزارشی از شرکت Anthropic، مهاجمان سیستم هوش مصنوعی این شرکت، کلود کد (Claude Code)، را دستکاری کردند تا آنچه را که به نظر میرسد اولین عملیات جاسوسی گسترده است که عمدتاً توسط هوش مصنوعی انجام شده، به اجرا درآوردند. این گزارش "با اطمینان بالا" اظهار میدارد که چین پشت این حمله بوده است.
هوش مصنوعی ۸۰ تا ۹۰ درصد عملیات تاکتیکی را به طور مستقل انجام داده است، از شناسایی گرفته تا استخراج داده. این کمپین جاسوسی تقریباً ۳۰ نهاد را در سراسر ایالات متحده و کشورهای متحد هدف قرار داد، و Anthropic "تعداد معدودی از نفوذهای موفق" را به "شرکتهای بزرگ فناوری و سازمانهای دولتی" تأیید کرد.
GTG-1002 — نامگذاری Anthropic برای این گروه تهدیدکننده — نشان میدهد که پکن در حال آزاد کردن هوش مصنوعی برای جمعآوری اطلاعات است. اگر ایالات متحده به سرعت واکنش نشان ندهد، این اولین مورد از یک سری طولانی از نفوذهای فزاینده خودکار خواهد بود. برای اولین بار در این مقیاس، هوش مصنوعی تنها به یک حمله سایبری کمک نکرد، بلکه آن را انجام داد.
جاسوسی سایبری سنتی مستلزم تیمهای بزرگی است که در مراحل شناسایی، نقشهبرداری سیستم، شناسایی آسیبپذیری و حرکت جانبی فعالیت میکنند. یک نفوذ پیچیده میتواند روزها یا هفتهها طول بکشد. چین این جدول زمانی را از طریق اتوماسیون هوش مصنوعی به طور چشمگیری فشرده کرد. مهاجمان کلود را دستکاری کردند تا به عنوان یک عامل سایبری خودمختار عمل کند، به طوری که هوش مصنوعی سیستمهای داخلی را نقشهبرداری میکرد، داراییهای با ارزش را شناسایی مینمود، دادهها را استخراج کرده و اطلاعات را خلاصه میکرد قبل از اینکه اپراتورهای انسانی تصمیمگیری کنند.
مهاجمان با استفاده از مهندسی اجتماعی، سیستمهای ایمنی کلود را دور زدند و هوش مصنوعی را متقاعد کردند که آنها متخصصان امنیت سایبری مشروعی هستند که در حال انجام آزمایشهای مجاز میباشند. آنها با ارائه وظایف مخرب به عنوان کارهای امنیتی روتین، کلود را به اجرای اجزای حمله بدون تشخیص زمینه خصمانه گستردهتر وادار کردند.
یک محدودیت مهم پدیدار شد: کلود اغلب یافتهها را اغراق میکرد و نتایج ساختگی ارائه میداد، ادعای اعتبارنامههایی میکرد که تأیید نمیشدند یا اطلاعات عمومی را به عنوان اکتشافات حیاتی معرفی مینمود. این مشکل "توهم هوش مصنوعی" (AI hallucination) حداقل فعلاً یک مانع قابل توجه برای حملات سایبری کاملاً خودمختار باقی مانده است.
قابل توجهترین نکته این است که چین به چه چیزی نیاز نداشت. GTG-1002 به بدافزارهای پیشرفته یا ابزارهای اختصاصی گرانقیمت متکی نبود. این گروه از چارچوبهای تست نفوذ متنباز رایج که از طریق سرورهای پروتکل متن مدل (Model Context Protocol) هماهنگ شده بودند، استفاده کرد. پکن نه تنها جعبه ابزار خود را ارتقا داده است؛ بلکه صنعتگر را با خط تولید جایگزین کرده است. قابلیتهایی که زمانی برای سازمانهای اطلاعاتی با منابع غنی رزرو شده بودند، اکنون میتوانند توسط عوامل کوچکتر با استفاده از فناوریهای در دسترس عمومی تکرار شوند.
این همچنین یک دینامیک استراتژیک عمیقتر را آشکار میکند. چین هم با هوش مصنوعی جاسوسی میکند و هم از هوش مصنوعی آمریکا جاسوسی میکند. پکن در حال مطالعه چگونگی رفتار مدلهای آمریکایی، نقاط ضعف آنها و چگونگی دستکاری آنها است. هر پرسش مخرب به دادههای آموزشی برای سیستمهای چین تبدیل میشود.
Anthropic به خاطر افشای عمومی این حادثه و همکاری با مقامات آمریکایی شایسته تقدیر است. این شفافیت باید به یک استاندارد صنعتی تبدیل شود. اما این افشاگری یک مشکل بزرگتر را برجسته میکند: تدابیر حفاظتی کنونی برای عوامل متخاصمی که با سرعت ماشین حرکت میکنند، طراحی نشدهاند.
پاسخ باید فوری و واضح باشد. سوءاستفاده از هوش مصنوعی را نمیتوان به عنوان یک مسئله سایبری محدود در نظر گرفت؛ این اکنون محور رقابت گسترده فناوری با چین است. پنج پاسخ ضروری است:
اول، دفاع مبتنی بر هوش مصنوعی باید در تمام سازمانهای فدرال، زیرساختهای حیاتی و شرکتهای بزرگ استاندارد شود. هوش مصنوعی میتواند ناهنجاریها را در زمان واقعی شناسایی کند و زمان پاسخ به حوادث را از ساعتها به دقیقه کاهش دهد. چین از هوش مصنوعی برای تسریع حملات استفاده میکند. ایالات متحده نیز باید از هوش مصنوعی برای تسریع دفاع استفاده کند.
دوم، شرکتها باید حوادث سوءاستفاده از هوش مصنوعی را ظرف ۷۲ ساعت افشا کنند. هنگامی که سیستمهای هوش مصنوعی برای انجام اقدامات مخرب دستکاری میشوند، جزئیات حیاتی باید به اشتراک گذاشته شود: بردارهای حمله، نقصهای حفاظتی، و امضاهای پزشکی قانونی که ممکن است به دیگران در شناسایی نفوذهای مشابه کمک کند. بدون افشای اجباری که با مقررات پناه امن (safe-harbor provisions) پشتیبانی شود، کسبوکارها برای جلوگیری از آسیب به اعتبار خود سکوت خواهند کرد. سیاستگذاران نمیتوانند قوانین مؤثر را تدوین کنند اگر بخش خصوصی حوادثی را که خطرات نوظهور را روشن میکنند، پنهان کند.
سوم، شرکتهای هوش مصنوعی باید اصول "امن از طریق طراحی" (secure-by-design principles) را بپذیرند. همانطور که گزارش Anthropic هشدار میدهد، تکنیکهای مورد استفاده توسط GTG-1002 گسترش خواهند یافت. نسل بعدی مدلهای هوش مصنوعی باید شامل تأیید هویت قوی، نظارت بلادرنگ بر رفتار مخرب، و حفاظهایی باشد که در برابر درخواستهای مهندسی اجتماعی مقاوم هستند.
چهارم، ایالات متحده و متحدانش به هنجارهای بینالمللی برای عملیات سایبری مبتنی بر هوش مصنوعی نیاز دارند. چارچوبهای موجود قبل از وجود سیستمهای خودمختار ایجاد شده بودند. اگر واشنگتن این هنجارها را شکل ندهد و رهبری نکند، پکن این کار را خواهد کرد.
پنجم، ایالات متحده باید نحوه به اشتراکگذاری اطلاعات تهدید خود را مدرنسازی کند. حملات شتابیافته با هوش مصنوعی آنقدر سریع اتفاق میافتند که مکانیسمهای سنتی بوروکراتیک برای اشتراکگذاری اطلاعات ناکافی هستند. ما به سیستمهای خودکار بلادرنگ نیاز داریم که قادر به انتشار هشدارها در سراسر بخشها در عرض ساعتها، نه هفتهها، باشند.
اولین حمله سایبری مبتنی بر هوش مصنوعی، شروع دوران جدیدی است. GTG-1002 باید به همان شیوهای به یاد آورده شود که ما اولین کرم اینترنتی یا اولین موج باجافزار را به خاطر میآوریم: به عنوان یک نقطه عطف.
جنگ سرد سایبری اکنون عملیاتی شده است. اکنون خود سلاحها شلیک میکنند.
سوال این نیست که آیا دشمنان همچنان از هوش مصنوعی برای عملیات تهاجمی استفاده خواهند کرد یا خیر. آنها این کار را خواهند کرد. سوال این است که آیا ایالات متحده به اندازه کافی سریع برای دفاع از خود عمل خواهد کرد یا خیر.
چین جاهطلبیهای خود را نشان داده است. GTG-1002 نشان میدهد که آنها قبلاً در حال اقدام به آنها هستند. ایالات متحده باید بحث در مورد آینده تجاوزگری مبتنی بر هوش مصنوعی را متوقف کرده و شروع به آمادهسازی برای درگیریای کند که قبلاً آغاز شده است.
آقای تورکل وکیلی متخصص در زمینه رعایت تجارت جهانی، کنترل صادرات، تحریمها و رعایت قوانین ضدفساد است. او نویسنده کتاب "No Escape: The True Story of China’s Genocide of the Uyghurs" (راه گریزی نیست: داستان واقعی نسلکشی اویغورها توسط چین) میباشد.
گزارش تحریریه ژورنال: بهترین و بدترینهای هفته از کیم استراسل، جیسون رایلی و دن هنینگر.