تصویرگری از آتلانتیک. منبع: X.
تصویرگری از آتلانتیک. منبع: X.

ناپدید شدن مرموز یک فعال ضد هوش مصنوعی

سم کرشنر می‌خواهد جهان را از ابرهوش مصنوعی نجات دهد. او دو هفته است که ناپدید شده است.

قبل از ناپدید شدن سم کرشنر، پیش از آنکه پلیس سانفرانسیسکو هشدار دهد که او ممکن است مسلح و خطرناک باشد، و قبل از آنکه اوپن‌ای‌آی (OpenAI) دفاتر خود را به دلیل تهدید احتمالی تعطیل کند، کسانی که با او برخورد داشتند، او را یک فعال عادی اما پرشور می‌دانستند.

فیبی توماس سورگن چند ماه پیش در پایگاه نیروی هوایی تراویس، در شمال شرقی سانفرانسیسکو، در اعتراضی علیه سیاست مهاجرت و کمک نظامی ایالات متحده به اسرائیل، با کرشنر ملاقات کرد. سورگن، یک فعال قدیمی که اولین اعتراضاتش علیه جنگ ویتنام بود، قصد داشت با شش زن مسن‌تر دیگر ورودی پایگاه را مسدود کند. کرشنر، ۲۷ ساله، با چند عضو دیگر از گروه جدیدی به نام «توقف هوش مصنوعی» (Stop AI) آنجا بود و همه توافق کردند که در صورت درگیری با پلیس، با تلفن‌های خود ویدئو ضبط کنند.

سورگن به من گفت: «به اعتقاد من، آنها عمدتاً برای جذب افرادی آنجا بودند که ممکن است مایل به شرکت در نافرمانی مدنی بدون خشونت باشند، که آن را کلید توقف ابرهوش مصنوعی می‌دانند» — روشی که سورگن آن را بسیار هوشمندانه می‌دانست. پس از آن، او شروع به شرکت در جلسات هفتگی «توقف هوش مصنوعی» در برکلی کرد و درباره صنعت هوش مصنوعی اطلاعات کسب کرد و هدف این گروه فعال را به عنوان یکی از اهداف خود پذیرفت. او تحت تأثیر کرشنر و دیگر رهبران قرار گرفته بود، که به نظرش پرشور و آگاه می‌آمدند. آنها تحقیقات خود را در مورد هوش مصنوعی و جنبش‌های اعتراضی انجام داده بودند؛ می‌دانستند در مورد چه چیزی صحبت می‌کنند و چه کاری باید انجام دهند. او گفت: «آنها هم به دلایل اخلاقی و هم به صورت استراتژیک، متعهد به عدم خشونت بودند.»

آنها از یک برنامه فعالیت مدنی معمول پیروی می‌کردند. آنها اعلامیه پخش می‌کردند و در مهمانی ساخت تی‌شرت، پیتزا و آبجو سرو می‌کردند. آنها تظاهرات ماهانه برگزار کرده و در مورد ایده‌های مختلف برای جلب توجه عمومی بحث می‌کردند. گروه «توقف هوش مصنوعی»، که خواستار ممنوعیت جهانی دائمی توسعه ابرهوش مصنوعی است، همیشه کمی رادیکال‌تر —و اعضایش آشکارا مایل به دستگیری— از برخی دیگر از گروه‌های معترض به توسعه هوش مصنوعی عمومی (AGI) بوده است، اما سورگن به من گفت که رهبران نیز در هر مرحله، به وضوح بیان می‌کردند که خشونت از نظر اخلاقی قابل قبول نیست و بخشی از یک استراتژی پیروزمندانه نمی‌باشد. او خاطرنشان کرد: «خشونت بازی امپراتوری است. ما حتی اگر می‌خواستیم، نمی‌توانستیم در آن سطح رقابت کنیم.» به سازمان‌دهگانی که در یک چت سیگنال (Signal) «توقف هوش مصنوعی» گرد هم می‌آمدند، تنها یک بار در مورد فکر کردن یا حتی شوخی درباره اقدامات خشونت‌آمیز هشدار داده می‌شد. پس از آن، آنها اخراج می‌شدند.

کرشنر، که سال گذشته از سیاتل به سانفرانسیسکو نقل مکان کرده و «توقف هوش مصنوعی» را در آنجا تأسیس کرده بود، بارها به طور عمومی تعهد خود را به عدم خشونت ابراز کرده بود و دوستان و متحدانش می‌گویند که او را باور داشتند. با این حال، آنها همچنین می‌گویند که او می‌توانست تندخو و متعصب باشد، و به نظر می‌رسید که تحت فشار این باور قرار داشت که ایجاد هوش مصنوعی باهوش‌تر از انسان قریب‌الوقوع است و تقریباً به طور قطع به پایان تمام زندگی بشر منجر خواهد شد. او اغلب در مورد احتمال اینکه هوش مصنوعی می‌تواند خواهرش را بکشد صحبت می‌کرد و به نظر می‌رسید که این ترس او را تحریک می‌کرد.

سورگن گفت: «من شدتی را حس می‌کردم.» او گاهی با کرشنر در مورد کاهش شدت و آرامش گرفتن برای خیر «توقف هوش مصنوعی» که به حمایت گسترده نیاز داشت، صحبت می‌کرد. اما او همدل بود، زیرا خودش تجربه اعتراض به گسترش سلاح‌های هسته‌ای را در جوانی و فرو رفتن در افسردگی عمیق وقتی با بی‌تفاوتی مواجه شد، داشت. «تأمل در مورد پایان گونه‌های ما – درک اینکه این احتمال بسیار زیاد است – بسیار استرس‌زا است. این می‌تواند از نظر عاطفی دشوار باشد.»

دلیل دقیق یا رویداد تحریک‌کننده هر چه که باشد، به نظر می‌رسد کرشنر اخیراً و حداقل برای مدت کوتاهی، ایمان خود را به استراتژی عدم خشونت از دست داده است. این لحظه بحرانی ادعایی منجر به اخراج او از «توقف هوش مصنوعی»، مجموعه‌ای از تماس‌های ۹۱۱ که توسط همکارانش برقرار شد، و ظاهراً ناپدید شدن او گردید. دوستانش می‌گویند هر روز به دنبال او بوده‌اند، اما نزدیک به دو هفته است که هیچ اثری از او نیست.

اگرچه در حال حاضر نمی‌توان از نیت واقعی کرشنر آگاه شد و داستان او مبهم باقی مانده است، اما طرح کلی آن برای الهام بخشیدن به گفتگویی نگران‌کننده در مورد کل جنبش ایمنی هوش مصنوعی کافی بوده است. کارشناسان در مورد خطر وجودی هوش مصنوعی اختلاف نظر دارند، و برخی افراد معتقدند که ایده نابودی تمام زندگی بشر توسط ابرهوش مصنوعی چیزی بیش از یک خیال‌پردازی نیست، در حالی که برای دیگران تقریباً اجتناب‌ناپذیر است. ویند کافمن (Wynd Kaufmyn)، یکی از سازمان‌دهندگان اصلی «توقف هوش مصنوعی»، در مورد کرشنر به من گفت: «او بار سنگین جهان را بر دوش خود حس می‌کرد.» اگر شما واقعاً چنین احساسی داشتید، چه می‌کردید؟

کرشنر اندکی پیش از ساعت ۴ صبح به وقت اقیانوسی در جمعه، ۲۱ نوامبر، در شبکه ایکس (X) خود نوشت: «من دیگر بخشی از توقف هوش مصنوعی نیستم.» بعدها در همان روز، اوپن‌ای‌آی دفاتر خود در سانفرانسیسکو را به دلیل تهدید احتمالی تعطیل کرد، همانطور که وایرد (Wired) گزارش داد، و به کارمندان خود اعلام کرد که اطلاعاتی دریافت کرده است که نشان می‌دهد کرشنر «به ابراز علاقه برای وارد کردن آسیب فیزیکی به کارمندان اوپن‌ای‌آی» پرداخته است.

به گفته کافمن و متیو هال (Matthew Hall)، رهبر تازه انتخاب شده «توقف هوش مصنوعی» که با نام یاکو (Yakko) شناخته می‌شود، مشکل از یکشنبه پیش آغاز شد. در یک جلسه برنامه‌ریزی، کرشنر در مورد نحوه نگارش پیامی برای یک تظاهرات آینده با دیگران اختلاف نظر پیدا کرد؛ کافمن و هال به من گفتند که او آنقدر ناراحت شد که جلسه کاملاً از هم پاشید و کرشنر جلسه را ترک کرد و گفت که ایده خود را به تنهایی پیش خواهد برد. بعدها در همان شب، او ظاهراً با یاکو روبرو شد و درخواست دسترسی به وجوه «توقف هوش مصنوعی» را کرد. یاکو به من گفت: «با توجه به رفتارش، نگران بودم که او ممکن است آن پول را صرف چه کاری کند.» او گفت وقتی از دادن پول به کرشنر خودداری کرد، کرشنر چندین بار به سرش مشت زد. کافمن در جریان این حمله ادعایی حضور نداشت، اما او با یاکو به بیمارستان رفت، و طبق گفته هر دو نفر، یاکو برای بررسی ضربه مغزی معاینه شد. (یاکو همچنین فرم ترخیص از اورژانس خود را با من به اشتراک گذاشت. من نتوانستم برای گرفتن اظهار نظر با کرشنر تماس بگیرم.)

به گفته یاکو، صبح روز دوشنبه، کرشنر عذرخواهی کرد اما به نظر می‌رسید در تضاد فکری بود. او ابراز داشت که از کندی پیشرفت جنبش به ستوه آمده و فکر نمی‌کند عدم خشونت کارساز باشد. یاکو گفت: «فکر می‌کنم کلمات دقیق او این بود: 'کشتی عدم خشونت برای من از ساحل رفته است.'» یاکو و کافمن به من گفتند که اعضای «توقف هوش مصنوعی» در این مرحله با پلیس سانفرانسیسکو تماس گرفتند تا نگرانی‌هایی در مورد کاری که کرشنر ممکن است انجام دهد ابراز کنند، اما از این تماس چیزی حاصل نشد.

پس از آن، به مدت چند روز، «توقف هوش مصنوعی» به صورت خصوصی به این موضوع رسیدگی کرد. کرشنر به دلیل درگیری خشونت‌آمیز ادعایی، دیگر نمی‌توانست عضوی از «توقف هوش مصنوعی» باشد، اما وضعیت قابل مدیریت به نظر می‌رسید. اعضای گروه زمانی دوباره نگران شدند که کرشنر در جلسه دادگاه برنامه‌ریزی شده مربوط به دستگیری‌اش در فوریه به دلیل مسدود کردن درهای دفتر اوپن‌ای‌آی، حاضر نشد. آنها به آپارتمان کرشنر در وست اوکلند رفتند و آن را باز و خالی یافتند، در این زمان احساس کردند موظف‌اند دوباره به پلیس اطلاع دهند و همچنین به شرکت‌های مختلف هوش مصنوعی اطلاع دهند که از محل کرشنر بی‌خبرند و این احتمال وجود دارد که او خطرناک باشد.

کافمن و سورگن هر دو گمان می‌کنند که کرشنر احتمالاً در جایی کمپ کرده است—او دوچرخه‌اش را با خود برده اما وسایل دیگرش از جمله لپ‌تاپ و تلفنش را جا گذاشته است. آنها تصور می‌کنند که او احساس زخم‌خوردگی و خیانت می‌کند، و شاید از پیامدهای فروپاشی عصبی ادعایی‌اش هراسان است. یاکو به من گفت که از وضعیت روحی کرشنر مطمئن نیست، اما باور ندارد که کرشنر به وجوهی دسترسی داشته باشد که او را قادر سازد تا پیشنهادهای خشونت‌آمیز ادعایی خود را عملی کند. رملت الن (Remmelt Ellen)، مشاور «توقف هوش مصنوعی»، به من گفت که نگران ایمنی کرشنر است، به ویژه اگر او در حال تجربه یک بحران سلامت روان باشد.

تقریباً دو هفته پس از ناپدید شدن کرشنر، وضعیت او بدتر شده است. نشریه سانفرانسیسکو استاندارد (The San Francisco Standard) اخیراً گزارش داد که یک اطلاعیه داخلی در پلیس سانفرانسیسکو در تاریخ ۲۱ نوامبر منتشر شده که به دو تماس‌گیرنده اشاره دارد که هشدار داده بودند کرشنر به طور خاص تهدید کرده است که سلاح‌های قدرتمند خریداری کرده و افراد را در اوپن‌ای‌آی خواهد کشت. هم کافمن و هم یاکو به من گفتند که از این گزارش گیج شده‌اند. یاکو گفت: «تا جایی که من می‌دانم، سم هیچ تهدید مستقیمی برای اوپن‌ای‌آی یا هیچ کس دیگری نکرده بود.» از دیدگاه او، احتمال خطرناک بودن کرشنر پایین بود، اما گروه نمی‌خواست هیچ خطری را بپذیرد. (نماینده‌ای از پلیس سانفرانسیسکو از اظهار نظر در مورد این اطلاعیه خودداری کرد؛ اوپن‌ای‌آی به درخواست برای اظهار نظر پاسخ نداد.)

واکنش از سوی جنبش گسترده‌تر ایمنی هوش مصنوعی سریع و یکپارچه بود. بسیاری خشونت را محکوم کردند. یک گروه به نام «پاز ای‌آی» (PauseAI)، که یک گروه فعال ایمنی هوش مصنوعی بسیار بزرگ‌تر از «توقف هوش مصنوعی» است، به طور خاص کرشنر را محکوم کرد. «پاز ای‌آی» به طور قابل توجهی آرام‌تر است—مثلاً، آسیب رساندن به اموال را در تعریف خشونت خود جای می‌دهد و به داوطلبان اجازه نمی‌دهد هیچ کار غیرقانونی یا اخلال‌گرانه‌ای انجام دهند، مانند زنجیر کردن خود به درها، مسدود کردن دروازه‌ها و به هر شکل دیگر تجاوز یا ایجاد اختلال در عملیات شرکت‌های هوش مصنوعی. ماکسیم فورنس (Maxime Fournes)، مدیرعامل این گروه، به من گفت: «نوع اعتراضاتی که ما انجام می‌دهیم شامل ایستادن افراد در یک مکان و شاید بیان یک پیام است، اما مانع شدن از رفتن افراد به سر کار یا مسدود کردن خیابان‌ها نیست.»

این یکی از دلایلی بود که «توقف هوش مصنوعی» در وهله اول تأسیس شد. کرشنر و دیگران، که در سرور دیسکورد (Discord) «پاز ای‌آی» ملاقات کرده بودند، فکر می‌کردند که این رویکرد مؤدبانه ناکافی است. در عوض، «توقف هوش مصنوعی» خود را در سنت اعتراضات مقابله‌جویانه‌تر قرار داد و به کتاب کلاسیک سال ۱۹۷۳ جین شارپ (Gene Sharp) با عنوان «روش‌های اقدام بدون خشونت» (The Methods of Nonviolent Action) رجوع کرد، که تاکتیک‌هایی مانند تحصن، «انسداد بدون خشونت» و «تلاش برای زندانی شدن» را شامل می‌شود.

در مراحل اولیه خود، جنبش علیه توسعه هوش مصنوعی غیرقابل کنترل، با همان سؤالاتی مواجه شده است که هر جنبش اجتماعی نوپای دیگری با آن روبرو می‌شود: چگونه حمایت گسترده‌ای کسب کنید؟ چگونه می‌توانید هم مورد پسند و جذاب باشید و هم به اندازه کافی هدفمند، به اندازه کافی افراطی برای جلب توجه اما نه آنقدر که به خودتان آسیب بزنید؟ اگر به گفته شما مخاطرات تا این حد بالا هستند، چگونه باید رفتار کنید؟

مایکل ترازی (Michaël Trazzi)، فعال مدنی که در ماه سپتامبر در مقابل مقر گوگل دیپ‌مایند (Google DeepMind) در لندن اعتصاب غذا کرد، نیز معتقد است که هوش مصنوعی می‌تواند به انقراض بشر منجر شود. او به من گفت که باور دارد افراد می‌توانند کارهایی انجام دهند که به اندازه کافی افراطی باشد تا «نشان دهد ما در شرایط اضطراری هستیم» در حالی که همچنان بدون خشونت و بدون ایجاد اختلال باشد. («پاز ای‌آی» نیز اعضای خود را از اعتصاب غذا منع می‌کند.)

بزرگترین تفاوت بین «پاز ای‌آی» و «توقف هوش مصنوعی»، در نام‌هایشان نهفته است. «پاز ای‌آی» از توقف توسعه ابرهوش مصنوعی حمایت می‌کند تا زمانی که بتواند به طور ایمن، یا «هم‌راستا» با نتایج ایده‌آل دموکراتیک، پیش برود. موضع «توقف هوش مصنوعی» این است که چنین هم‌راستایی یک خیال است و نباید اجازه داد هوش مصنوعی فراتر از آنچه در حال حاضر به هوش فراانسانی رسیده است، پیشرفت کند. به همین دلیل، بلاغت آنها به اندازه تاکتیک‌هایشان متفاوت است. فورنس گفت: «شما نباید از کانال‌های رسمی «پاز ای‌آی» بشنوید که می‌گویند 'ما همه با قطعیت کامل خواهیم مرد.'» در مقابل، «توقف هوش مصنوعی» پیام‌رسانی بسیار صریح را انتخاب کرده است. سازمان‌دهندگان در اکتبر گذشته، هنگام اعلام برنامه‌هایی برای مسدود کردن درهای دفتر اوپن‌ای‌آی در سانفرانسیسکو، بیانیه‌ای مطبوعاتی منتشر کردند که بخشی از آن چنین بود: «اوپن‌ای‌آی در تلاش است چیزی هوشمندتر از انسان بسازد و این همه ما را خواهد کشت!» اخیراً، این گروه تبلیغ یک اعتراض دیگر را با یک اعلامیه دیجیتالی انجام داد که می‌گفت: «اوپن‌ای‌آی را تعطیل کنید وگرنه همه خواهیم مرد!»

جاناتان کالای (Jonathan Kallay)، یک فعال ۴۷ ساله که مقیم سانفرانسیسکو نیست اما در سرور دیسکورد «توقف هوش مصنوعی» با کمتر از ۴۰۰ نفر شرکت می‌کند، به من گفت که «توقف هوش مصنوعی» «گروهی بزرگ و متنوع از افراد» است که به دلایل مختلفی نگران هوش مصنوعی هستند—از دست دادن شغل، تأثیر زیست‌محیطی، حقوق مالکیت خلاقانه و غیره. همه آنها از پایان قریب‌الوقوع جهان نمی‌ترسند. اما همه آنها برای نسخه‌ای از این جنبش ثبت‌نام کرده‌اند که این احتمال را در کانون توجه قرار می‌دهد.

یاکو، که اوایل سال جاری به «توقف هوش مصنوعی» پیوست، در ۲۸ اکتبر به عنوان رهبر جدید گروه انتخاب شد. او به من گفت که او و دیگران در «توقف هوش مصنوعی» کاملاً با پیام‌رسانی تاریکی که کرشنر ترجیح می‌داد موافق نبودند، و این یکی از دلایل اختلاف بود: «فکر می‌کنم این باعث شد او احساس خیانت و ترس کند.»

یاکو گفت که در آینده، «توقف هوش مصنوعی» بر روی پیامی امیدوارکننده‌تر تمرکز خواهد کرد و تلاش خواهد کرد تا بر این نکته تأکید کند که آینده‌ای جایگزین هنوز ممکن است «به جای اینکه فقط مردم را بترساند، حتی اگر حقیقت ترسناک باشد.» یکی از ایده‌های او این است که به سازماندهی یک اعتصاب عمومی جهانی کمک کند (و این کار را قبل از آنکه هوش مصنوعی سهم کافی از مشاغل انسانی را به خود اختصاص دهد که برای توقف کار دیر شده باشد، انجام دهد).

«توقف هوش مصنوعی» تنها گروهی نیست که در مورد نحوه صحبت درباره این مشکل فکر و بازنگری می‌کند. این بحث‌ها بر سر بلاغت و تاکتیک‌ها در یک محفل فرهنگی بسته جریان داشته است که در آن، رشته‌های بحث در انجمن‌ها به وضوح زنده می‌شوند. گاهی اوقات، پیگیری اینکه چه کسی در کدام جبهه است، دشوار می‌شود. به عنوان مثال، «توقف هوش مصنوعی» ممکن است متحد طبیعی الیزر یودکوفسکی (Eliezer Yudkowsky)، یک منتقد معروف هوش مصنوعی که کتاب اخیرش با عنوان «اگر کسی آن را بسازد، همه می‌میرند»، که با همکاری نیت سوارس (Nate Soares) نوشته شده است، انقراض بشر را در عنوان خود پیش‌بینی می‌کند، به نظر برسد. اما آنها در واقع با هم در تضاد هستند. (یودکوفسکی از طریق نماینده‌ای، از اظهار نظر برای این مقاله خودداری کرد.)

امیل پی. توررس (Émile P. Torres)، فیلسوف و مورخی که با کرشنر دوست بود و در تابستان امسال در یک اعتراض «توقف هوش مصنوعی» شرکت کرد، یودکوفسکی را مورد انتقاد قرار داد که در یک آزمایش فکری در مورد اینکه چند نفر را می‌توان از نظر اخلاقی اجازه داد بمیرند تا از سلطه یک هوش مصنوعی فوق‌هوشمند بر جهان جلوگیری شود، شرکت کرده است. او همچنین تلاش کرد کرشنر و دیگر رهبران «توقف هوش مصنوعی» را متقاعد کند تا رویکردی ظریف‌تر در صحبت در مورد انقراض بشر به عنوان نتیجه محتمل توسعه پیشرفته هوش مصنوعی اتخاذ کنند، زیرا او فکر می‌کند که این نوع بلاغت ممکن است خشونت را تحریک کند، یا با موجه جلوه دادن آن یا با آشفته کردن مردم تا حد رفتار کاملاً غیرمنطقی. نگرانی دوم صرفاً حدس و گمان نیست: یک گروه بدنام که از پایان جهان توسط هوش مصنوعی می‌ترسید، به یک فرقه تبدیل شد و سپس با چندین قتل مرتبط شد (اگرچه هیچ یک از این قتل‌ها به نظر نمی‌رسید ربطی به توسعه هوش مصنوعی داشته باشد).

توررس به من گفت: «نوعی طرز فکر آخرالزمانی وجود دارد که افراد ممکن است به آن دچار شوند.» او افزود: «مخاطرات عظیم هستند و به معنای واقعی کلمه نمی‌توانند بالاتر باشند. این نوع بلاغت در سراسر سیلیکون‌ولی یافت می‌شود.» او هرگز نگران نبود که کسی در «توقف هوش مصنوعی» به خشونت متوسل شود؛ او همیشه بیشتر از گروه خردگرا وحشت‌زده بود، کسانی که ممکن است از «بلندمدت‌گرایی» (longtermism) به عنوان توجیهی اخلاقی ضعیف برای خشونت در زمان حال استفاده کنند (کشتن چند نفر اکنون برای جلوگیری از انقراض در آینده). اما او فکر می‌کرد که تعهد به یک چارچوب آخرالزمانی به طور کلی می‌تواند خطرناک باشد. او گفت: «من نگران بوده‌ام که افراد در گروه ایمنی هوش مصنوعی به خشونت متوسل شوند. کسی می‌تواند آن طرز فکر را داشته باشد و خود را متعهد به عدم خشونت کند، اما این طرز فکر افراد را به سمت این تفکر سوق می‌دهد که، خب، شاید هر اقدامی موجه باشد

الن، مشاور «توقف هوش مصنوعی»، نگرانی‌های توررس را دارد. اگرچه او در مورد آنچه در نوامبر برای کرشنر اتفاق افتاد حضور نداشت (الن در هنگ‌کنگ زندگی می‌کند و هرگز کرشنر را حضوری ندیده است، به من گفت)، اما حس او از صحبت‌های مکرر با او در دو سال گذشته این بود که کرشنر تحت فشار زیادی قرار داشت زیرا احساس می‌کرد جهان در شرف پایان است. او گفت: «سم وحشت‌زده بود. فکر می‌کنم او احساس ناتوانی می‌کرد و حس می‌کرد باید کاری انجام دهد.» پس از آنکه «توقف هوش مصنوعی» بیانیه خود را در مورد حمله ادعایی و تماس‌ها با پلیس منتشر کرد، الن پست خودش را نوشت و از مردم خواست «لطفاً حرف‌های 'هوش مصنوعی عمومی (AGI) ممکن است ما را تا سال ۲۰۲۷ بکشد' را متوقف کنند.»

با وجود این درخواست، او فکر نمی‌کند که بلاغت آخرالزمانی تنها دلیل آنچه اتفاق افتاده است باشد. او گفت: «من افراد دیگری را می‌شناسم که نگران یک رویداد انقراض قریب‌الوقوع در سال‌های آینده هستند و هرگز حتی به انجام اقدامات خشونت‌آمیز فکر نمی‌کنند.» و او با چارچوب آخرالزمانی، جدا از ایده مبهمی که می‌تواند افراد را به خشونت سوق دهد، مشکلاتی دارد. او همچنین نگران است که این رویکرد «جنبش را در موقعیتی قرار می‌دهد که مورد تمسخر واقع شود» اگر، به عنوان مثال، حباب هوش مصنوعی بترکد، توسعه کند شود و آخرالزمان در زمانی که هشداردهندگان گفتند، فرا نرسد. آنها ممکن است در آنجا به نظر مسخره بیایند، مانند یک فرقه آخرالزمان شکست‌خورده.

ترس دیگر او در مورد آنچه با کرشنر رخ داد یا نداد (یا رخ می‌دهد یا نمی‌دهد) این است که «برای بدنام کردن گسترده» جنبش ایمنی هوش مصنوعی استفاده خواهد شد و شرکت‌کنندگان را افراطی و تروریست به تصویر خواهد کشید. او ماه گذشته گفتگوهایی از این دست را مشاهده کرد، زمانی که وکیلی که نماینده «توقف هوش مصنوعی» بود، در طول سخنرانی سم آلتمن (Sam Altman) روی صحنه پرید تا برای او احضاریه صادر کند—یک پست پربازدید در پاسخ به آن حادثه، این گروه را «خطرناک» و «نامتعادل» خوانده بود. و در واکنش به اخبار مربوط به کرشنر، بحث‌های جدیدی در مورد اینکه چگونه فعالان ممکن است در انتظار افراطی‌گری باشند، شکل گرفته است. این تاکتیکی است که افراد قدرتمند اغلب برای بی‌اعتبار کردن منتقدان خود از آن استفاده می‌کنند: پیتر تیل (Peter Thiel) شروع به استدلال کرده است که کسانی که علیه هوش مصنوعی صحبت می‌کنند، خطر واقعی هستند، نه خود فناوری.

کرشنر در مصاحبه‌ای در سال گذشته گفت: «ما کاملاً حامی عدم خشونت هستیم و هرگز به خشونت روی نخواهیم آورد.» در همان مصاحبه، او گفت که حاضر است برای هدفش بمیرد. هر دو این اظهارات از آن دسته جملاتی هستند که مستقیم به نظر می‌رسند اما نمی‌توان به راحتی به آنها اعتماد کرد—اثبات اینکه آیا او واقعاً منظورشان را داشت و اگر داشت، چگونه منظورشان را داشت، غیرممکن است. با شنیدن اظهار نظر دوم، در مورد تمایل کرشنر به مرگ، برخی او را یک رادیکال با مأموریتی جنون‌آمیز دیدند. برخی دیگر او را فردی دیدند که تعهد خالصانه خود را به شکلی نامناسب بیان می‌کرد. (یا شاید او فقط دراماتیک بود.)

الن گفت که فعالان قدیمی‌تری که با آنها صحبت کرده بود، این جمله را با نیت خیر اما با این حال یک پرچم قرمز تفسیر کرده بودند. عموماً وقتی خود را وقف یک هدف می‌کنید، انتظار ندارید برای پیروزی بمیرید. انتظار دارید سال‌ها مبارزه کنید، احساس کنید در حال باختن هستید و به آرامی پیش بروید. مشکل این است که کرشنر، به گفته بسیاری از کسانی که او را می‌شناسند، واقعاً باور دارد که بشریت زمان زیادی ندارد.