قبل از ناپدید شدن سم کرشنر، پیش از آنکه پلیس سانفرانسیسکو هشدار دهد که او ممکن است مسلح و خطرناک باشد، و قبل از آنکه اوپنایآی (OpenAI) دفاتر خود را به دلیل تهدید احتمالی تعطیل کند، کسانی که با او برخورد داشتند، او را یک فعال عادی اما پرشور میدانستند.
فیبی توماس سورگن چند ماه پیش در پایگاه نیروی هوایی تراویس، در شمال شرقی سانفرانسیسکو، در اعتراضی علیه سیاست مهاجرت و کمک نظامی ایالات متحده به اسرائیل، با کرشنر ملاقات کرد. سورگن، یک فعال قدیمی که اولین اعتراضاتش علیه جنگ ویتنام بود، قصد داشت با شش زن مسنتر دیگر ورودی پایگاه را مسدود کند. کرشنر، ۲۷ ساله، با چند عضو دیگر از گروه جدیدی به نام «توقف هوش مصنوعی» (Stop AI) آنجا بود و همه توافق کردند که در صورت درگیری با پلیس، با تلفنهای خود ویدئو ضبط کنند.
سورگن به من گفت: «به اعتقاد من، آنها عمدتاً برای جذب افرادی آنجا بودند که ممکن است مایل به شرکت در نافرمانی مدنی بدون خشونت باشند، که آن را کلید توقف ابرهوش مصنوعی میدانند» — روشی که سورگن آن را بسیار هوشمندانه میدانست. پس از آن، او شروع به شرکت در جلسات هفتگی «توقف هوش مصنوعی» در برکلی کرد و درباره صنعت هوش مصنوعی اطلاعات کسب کرد و هدف این گروه فعال را به عنوان یکی از اهداف خود پذیرفت. او تحت تأثیر کرشنر و دیگر رهبران قرار گرفته بود، که به نظرش پرشور و آگاه میآمدند. آنها تحقیقات خود را در مورد هوش مصنوعی و جنبشهای اعتراضی انجام داده بودند؛ میدانستند در مورد چه چیزی صحبت میکنند و چه کاری باید انجام دهند. او گفت: «آنها هم به دلایل اخلاقی و هم به صورت استراتژیک، متعهد به عدم خشونت بودند.»
آنها از یک برنامه فعالیت مدنی معمول پیروی میکردند. آنها اعلامیه پخش میکردند و در مهمانی ساخت تیشرت، پیتزا و آبجو سرو میکردند. آنها تظاهرات ماهانه برگزار کرده و در مورد ایدههای مختلف برای جلب توجه عمومی بحث میکردند. گروه «توقف هوش مصنوعی»، که خواستار ممنوعیت جهانی دائمی توسعه ابرهوش مصنوعی است، همیشه کمی رادیکالتر —و اعضایش آشکارا مایل به دستگیری— از برخی دیگر از گروههای معترض به توسعه هوش مصنوعی عمومی (AGI) بوده است، اما سورگن به من گفت که رهبران نیز در هر مرحله، به وضوح بیان میکردند که خشونت از نظر اخلاقی قابل قبول نیست و بخشی از یک استراتژی پیروزمندانه نمیباشد. او خاطرنشان کرد: «خشونت بازی امپراتوری است. ما حتی اگر میخواستیم، نمیتوانستیم در آن سطح رقابت کنیم.» به سازماندهگانی که در یک چت سیگنال (Signal) «توقف هوش مصنوعی» گرد هم میآمدند، تنها یک بار در مورد فکر کردن یا حتی شوخی درباره اقدامات خشونتآمیز هشدار داده میشد. پس از آن، آنها اخراج میشدند.
کرشنر، که سال گذشته از سیاتل به سانفرانسیسکو نقل مکان کرده و «توقف هوش مصنوعی» را در آنجا تأسیس کرده بود، بارها به طور عمومی تعهد خود را به عدم خشونت ابراز کرده بود و دوستان و متحدانش میگویند که او را باور داشتند. با این حال، آنها همچنین میگویند که او میتوانست تندخو و متعصب باشد، و به نظر میرسید که تحت فشار این باور قرار داشت که ایجاد هوش مصنوعی باهوشتر از انسان قریبالوقوع است و تقریباً به طور قطع به پایان تمام زندگی بشر منجر خواهد شد. او اغلب در مورد احتمال اینکه هوش مصنوعی میتواند خواهرش را بکشد صحبت میکرد و به نظر میرسید که این ترس او را تحریک میکرد.
سورگن گفت: «من شدتی را حس میکردم.» او گاهی با کرشنر در مورد کاهش شدت و آرامش گرفتن برای خیر «توقف هوش مصنوعی» که به حمایت گسترده نیاز داشت، صحبت میکرد. اما او همدل بود، زیرا خودش تجربه اعتراض به گسترش سلاحهای هستهای را در جوانی و فرو رفتن در افسردگی عمیق وقتی با بیتفاوتی مواجه شد، داشت. «تأمل در مورد پایان گونههای ما – درک اینکه این احتمال بسیار زیاد است – بسیار استرسزا است. این میتواند از نظر عاطفی دشوار باشد.»
دلیل دقیق یا رویداد تحریککننده هر چه که باشد، به نظر میرسد کرشنر اخیراً و حداقل برای مدت کوتاهی، ایمان خود را به استراتژی عدم خشونت از دست داده است. این لحظه بحرانی ادعایی منجر به اخراج او از «توقف هوش مصنوعی»، مجموعهای از تماسهای ۹۱۱ که توسط همکارانش برقرار شد، و ظاهراً ناپدید شدن او گردید. دوستانش میگویند هر روز به دنبال او بودهاند، اما نزدیک به دو هفته است که هیچ اثری از او نیست.
اگرچه در حال حاضر نمیتوان از نیت واقعی کرشنر آگاه شد و داستان او مبهم باقی مانده است، اما طرح کلی آن برای الهام بخشیدن به گفتگویی نگرانکننده در مورد کل جنبش ایمنی هوش مصنوعی کافی بوده است. کارشناسان در مورد خطر وجودی هوش مصنوعی اختلاف نظر دارند، و برخی افراد معتقدند که ایده نابودی تمام زندگی بشر توسط ابرهوش مصنوعی چیزی بیش از یک خیالپردازی نیست، در حالی که برای دیگران تقریباً اجتنابناپذیر است. ویند کافمن (Wynd Kaufmyn)، یکی از سازماندهندگان اصلی «توقف هوش مصنوعی»، در مورد کرشنر به من گفت: «او بار سنگین جهان را بر دوش خود حس میکرد.» اگر شما واقعاً چنین احساسی داشتید، چه میکردید؟
کرشنر اندکی پیش از ساعت ۴ صبح به وقت اقیانوسی در جمعه، ۲۱ نوامبر، در شبکه ایکس (X) خود نوشت: «من دیگر بخشی از توقف هوش مصنوعی نیستم.» بعدها در همان روز، اوپنایآی دفاتر خود در سانفرانسیسکو را به دلیل تهدید احتمالی تعطیل کرد، همانطور که وایرد (Wired) گزارش داد، و به کارمندان خود اعلام کرد که اطلاعاتی دریافت کرده است که نشان میدهد کرشنر «به ابراز علاقه برای وارد کردن آسیب فیزیکی به کارمندان اوپنایآی» پرداخته است.
به گفته کافمن و متیو هال (Matthew Hall)، رهبر تازه انتخاب شده «توقف هوش مصنوعی» که با نام یاکو (Yakko) شناخته میشود، مشکل از یکشنبه پیش آغاز شد. در یک جلسه برنامهریزی، کرشنر در مورد نحوه نگارش پیامی برای یک تظاهرات آینده با دیگران اختلاف نظر پیدا کرد؛ کافمن و هال به من گفتند که او آنقدر ناراحت شد که جلسه کاملاً از هم پاشید و کرشنر جلسه را ترک کرد و گفت که ایده خود را به تنهایی پیش خواهد برد. بعدها در همان شب، او ظاهراً با یاکو روبرو شد و درخواست دسترسی به وجوه «توقف هوش مصنوعی» را کرد. یاکو به من گفت: «با توجه به رفتارش، نگران بودم که او ممکن است آن پول را صرف چه کاری کند.» او گفت وقتی از دادن پول به کرشنر خودداری کرد، کرشنر چندین بار به سرش مشت زد. کافمن در جریان این حمله ادعایی حضور نداشت، اما او با یاکو به بیمارستان رفت، و طبق گفته هر دو نفر، یاکو برای بررسی ضربه مغزی معاینه شد. (یاکو همچنین فرم ترخیص از اورژانس خود را با من به اشتراک گذاشت. من نتوانستم برای گرفتن اظهار نظر با کرشنر تماس بگیرم.)
به گفته یاکو، صبح روز دوشنبه، کرشنر عذرخواهی کرد اما به نظر میرسید در تضاد فکری بود. او ابراز داشت که از کندی پیشرفت جنبش به ستوه آمده و فکر نمیکند عدم خشونت کارساز باشد. یاکو گفت: «فکر میکنم کلمات دقیق او این بود: 'کشتی عدم خشونت برای من از ساحل رفته است.'» یاکو و کافمن به من گفتند که اعضای «توقف هوش مصنوعی» در این مرحله با پلیس سانفرانسیسکو تماس گرفتند تا نگرانیهایی در مورد کاری که کرشنر ممکن است انجام دهد ابراز کنند، اما از این تماس چیزی حاصل نشد.
پس از آن، به مدت چند روز، «توقف هوش مصنوعی» به صورت خصوصی به این موضوع رسیدگی کرد. کرشنر به دلیل درگیری خشونتآمیز ادعایی، دیگر نمیتوانست عضوی از «توقف هوش مصنوعی» باشد، اما وضعیت قابل مدیریت به نظر میرسید. اعضای گروه زمانی دوباره نگران شدند که کرشنر در جلسه دادگاه برنامهریزی شده مربوط به دستگیریاش در فوریه به دلیل مسدود کردن درهای دفتر اوپنایآی، حاضر نشد. آنها به آپارتمان کرشنر در وست اوکلند رفتند و آن را باز و خالی یافتند، در این زمان احساس کردند موظفاند دوباره به پلیس اطلاع دهند و همچنین به شرکتهای مختلف هوش مصنوعی اطلاع دهند که از محل کرشنر بیخبرند و این احتمال وجود دارد که او خطرناک باشد.
کافمن و سورگن هر دو گمان میکنند که کرشنر احتمالاً در جایی کمپ کرده است—او دوچرخهاش را با خود برده اما وسایل دیگرش از جمله لپتاپ و تلفنش را جا گذاشته است. آنها تصور میکنند که او احساس زخمخوردگی و خیانت میکند، و شاید از پیامدهای فروپاشی عصبی ادعاییاش هراسان است. یاکو به من گفت که از وضعیت روحی کرشنر مطمئن نیست، اما باور ندارد که کرشنر به وجوهی دسترسی داشته باشد که او را قادر سازد تا پیشنهادهای خشونتآمیز ادعایی خود را عملی کند. رملت الن (Remmelt Ellen)، مشاور «توقف هوش مصنوعی»، به من گفت که نگران ایمنی کرشنر است، به ویژه اگر او در حال تجربه یک بحران سلامت روان باشد.
تقریباً دو هفته پس از ناپدید شدن کرشنر، وضعیت او بدتر شده است. نشریه سانفرانسیسکو استاندارد (The San Francisco Standard) اخیراً گزارش داد که یک اطلاعیه داخلی در پلیس سانفرانسیسکو در تاریخ ۲۱ نوامبر منتشر شده که به دو تماسگیرنده اشاره دارد که هشدار داده بودند کرشنر به طور خاص تهدید کرده است که سلاحهای قدرتمند خریداری کرده و افراد را در اوپنایآی خواهد کشت. هم کافمن و هم یاکو به من گفتند که از این گزارش گیج شدهاند. یاکو گفت: «تا جایی که من میدانم، سم هیچ تهدید مستقیمی برای اوپنایآی یا هیچ کس دیگری نکرده بود.» از دیدگاه او، احتمال خطرناک بودن کرشنر پایین بود، اما گروه نمیخواست هیچ خطری را بپذیرد. (نمایندهای از پلیس سانفرانسیسکو از اظهار نظر در مورد این اطلاعیه خودداری کرد؛ اوپنایآی به درخواست برای اظهار نظر پاسخ نداد.)
واکنش از سوی جنبش گستردهتر ایمنی هوش مصنوعی سریع و یکپارچه بود. بسیاری خشونت را محکوم کردند. یک گروه به نام «پاز ایآی» (PauseAI)، که یک گروه فعال ایمنی هوش مصنوعی بسیار بزرگتر از «توقف هوش مصنوعی» است، به طور خاص کرشنر را محکوم کرد. «پاز ایآی» به طور قابل توجهی آرامتر است—مثلاً، آسیب رساندن به اموال را در تعریف خشونت خود جای میدهد و به داوطلبان اجازه نمیدهد هیچ کار غیرقانونی یا اخلالگرانهای انجام دهند، مانند زنجیر کردن خود به درها، مسدود کردن دروازهها و به هر شکل دیگر تجاوز یا ایجاد اختلال در عملیات شرکتهای هوش مصنوعی. ماکسیم فورنس (Maxime Fournes)، مدیرعامل این گروه، به من گفت: «نوع اعتراضاتی که ما انجام میدهیم شامل ایستادن افراد در یک مکان و شاید بیان یک پیام است، اما مانع شدن از رفتن افراد به سر کار یا مسدود کردن خیابانها نیست.»
این یکی از دلایلی بود که «توقف هوش مصنوعی» در وهله اول تأسیس شد. کرشنر و دیگران، که در سرور دیسکورد (Discord) «پاز ایآی» ملاقات کرده بودند، فکر میکردند که این رویکرد مؤدبانه ناکافی است. در عوض، «توقف هوش مصنوعی» خود را در سنت اعتراضات مقابلهجویانهتر قرار داد و به کتاب کلاسیک سال ۱۹۷۳ جین شارپ (Gene Sharp) با عنوان «روشهای اقدام بدون خشونت» (The Methods of Nonviolent Action) رجوع کرد، که تاکتیکهایی مانند تحصن، «انسداد بدون خشونت» و «تلاش برای زندانی شدن» را شامل میشود.
در مراحل اولیه خود، جنبش علیه توسعه هوش مصنوعی غیرقابل کنترل، با همان سؤالاتی مواجه شده است که هر جنبش اجتماعی نوپای دیگری با آن روبرو میشود: چگونه حمایت گستردهای کسب کنید؟ چگونه میتوانید هم مورد پسند و جذاب باشید و هم به اندازه کافی هدفمند، به اندازه کافی افراطی برای جلب توجه اما نه آنقدر که به خودتان آسیب بزنید؟ اگر به گفته شما مخاطرات تا این حد بالا هستند، چگونه باید رفتار کنید؟
مایکل ترازی (Michaël Trazzi)، فعال مدنی که در ماه سپتامبر در مقابل مقر گوگل دیپمایند (Google DeepMind) در لندن اعتصاب غذا کرد، نیز معتقد است که هوش مصنوعی میتواند به انقراض بشر منجر شود. او به من گفت که باور دارد افراد میتوانند کارهایی انجام دهند که به اندازه کافی افراطی باشد تا «نشان دهد ما در شرایط اضطراری هستیم» در حالی که همچنان بدون خشونت و بدون ایجاد اختلال باشد. («پاز ایآی» نیز اعضای خود را از اعتصاب غذا منع میکند.)
بزرگترین تفاوت بین «پاز ایآی» و «توقف هوش مصنوعی»، در نامهایشان نهفته است. «پاز ایآی» از توقف توسعه ابرهوش مصنوعی حمایت میکند تا زمانی که بتواند به طور ایمن، یا «همراستا» با نتایج ایدهآل دموکراتیک، پیش برود. موضع «توقف هوش مصنوعی» این است که چنین همراستایی یک خیال است و نباید اجازه داد هوش مصنوعی فراتر از آنچه در حال حاضر به هوش فراانسانی رسیده است، پیشرفت کند. به همین دلیل، بلاغت آنها به اندازه تاکتیکهایشان متفاوت است. فورنس گفت: «شما نباید از کانالهای رسمی «پاز ایآی» بشنوید که میگویند 'ما همه با قطعیت کامل خواهیم مرد.'» در مقابل، «توقف هوش مصنوعی» پیامرسانی بسیار صریح را انتخاب کرده است. سازماندهندگان در اکتبر گذشته، هنگام اعلام برنامههایی برای مسدود کردن درهای دفتر اوپنایآی در سانفرانسیسکو، بیانیهای مطبوعاتی منتشر کردند که بخشی از آن چنین بود: «اوپنایآی در تلاش است چیزی هوشمندتر از انسان بسازد و این همه ما را خواهد کشت!» اخیراً، این گروه تبلیغ یک اعتراض دیگر را با یک اعلامیه دیجیتالی انجام داد که میگفت: «اوپنایآی را تعطیل کنید وگرنه همه خواهیم مرد!»
جاناتان کالای (Jonathan Kallay)، یک فعال ۴۷ ساله که مقیم سانفرانسیسکو نیست اما در سرور دیسکورد «توقف هوش مصنوعی» با کمتر از ۴۰۰ نفر شرکت میکند، به من گفت که «توقف هوش مصنوعی» «گروهی بزرگ و متنوع از افراد» است که به دلایل مختلفی نگران هوش مصنوعی هستند—از دست دادن شغل، تأثیر زیستمحیطی، حقوق مالکیت خلاقانه و غیره. همه آنها از پایان قریبالوقوع جهان نمیترسند. اما همه آنها برای نسخهای از این جنبش ثبتنام کردهاند که این احتمال را در کانون توجه قرار میدهد.
یاکو، که اوایل سال جاری به «توقف هوش مصنوعی» پیوست، در ۲۸ اکتبر به عنوان رهبر جدید گروه انتخاب شد. او به من گفت که او و دیگران در «توقف هوش مصنوعی» کاملاً با پیامرسانی تاریکی که کرشنر ترجیح میداد موافق نبودند، و این یکی از دلایل اختلاف بود: «فکر میکنم این باعث شد او احساس خیانت و ترس کند.»
یاکو گفت که در آینده، «توقف هوش مصنوعی» بر روی پیامی امیدوارکنندهتر تمرکز خواهد کرد و تلاش خواهد کرد تا بر این نکته تأکید کند که آیندهای جایگزین هنوز ممکن است «به جای اینکه فقط مردم را بترساند، حتی اگر حقیقت ترسناک باشد.» یکی از ایدههای او این است که به سازماندهی یک اعتصاب عمومی جهانی کمک کند (و این کار را قبل از آنکه هوش مصنوعی سهم کافی از مشاغل انسانی را به خود اختصاص دهد که برای توقف کار دیر شده باشد، انجام دهد).
«توقف هوش مصنوعی» تنها گروهی نیست که در مورد نحوه صحبت درباره این مشکل فکر و بازنگری میکند. این بحثها بر سر بلاغت و تاکتیکها در یک محفل فرهنگی بسته جریان داشته است که در آن، رشتههای بحث در انجمنها به وضوح زنده میشوند. گاهی اوقات، پیگیری اینکه چه کسی در کدام جبهه است، دشوار میشود. به عنوان مثال، «توقف هوش مصنوعی» ممکن است متحد طبیعی الیزر یودکوفسکی (Eliezer Yudkowsky)، یک منتقد معروف هوش مصنوعی که کتاب اخیرش با عنوان «اگر کسی آن را بسازد، همه میمیرند»، که با همکاری نیت سوارس (Nate Soares) نوشته شده است، انقراض بشر را در عنوان خود پیشبینی میکند، به نظر برسد. اما آنها در واقع با هم در تضاد هستند. (یودکوفسکی از طریق نمایندهای، از اظهار نظر برای این مقاله خودداری کرد.)
امیل پی. توررس (Émile P. Torres)، فیلسوف و مورخی که با کرشنر دوست بود و در تابستان امسال در یک اعتراض «توقف هوش مصنوعی» شرکت کرد، یودکوفسکی را مورد انتقاد قرار داد که در یک آزمایش فکری در مورد اینکه چند نفر را میتوان از نظر اخلاقی اجازه داد بمیرند تا از سلطه یک هوش مصنوعی فوقهوشمند بر جهان جلوگیری شود، شرکت کرده است. او همچنین تلاش کرد کرشنر و دیگر رهبران «توقف هوش مصنوعی» را متقاعد کند تا رویکردی ظریفتر در صحبت در مورد انقراض بشر به عنوان نتیجه محتمل توسعه پیشرفته هوش مصنوعی اتخاذ کنند، زیرا او فکر میکند که این نوع بلاغت ممکن است خشونت را تحریک کند، یا با موجه جلوه دادن آن یا با آشفته کردن مردم تا حد رفتار کاملاً غیرمنطقی. نگرانی دوم صرفاً حدس و گمان نیست: یک گروه بدنام که از پایان جهان توسط هوش مصنوعی میترسید، به یک فرقه تبدیل شد و سپس با چندین قتل مرتبط شد (اگرچه هیچ یک از این قتلها به نظر نمیرسید ربطی به توسعه هوش مصنوعی داشته باشد).
توررس به من گفت: «نوعی طرز فکر آخرالزمانی وجود دارد که افراد ممکن است به آن دچار شوند.» او افزود: «مخاطرات عظیم هستند و به معنای واقعی کلمه نمیتوانند بالاتر باشند. این نوع بلاغت در سراسر سیلیکونولی یافت میشود.» او هرگز نگران نبود که کسی در «توقف هوش مصنوعی» به خشونت متوسل شود؛ او همیشه بیشتر از گروه خردگرا وحشتزده بود، کسانی که ممکن است از «بلندمدتگرایی» (longtermism) به عنوان توجیهی اخلاقی ضعیف برای خشونت در زمان حال استفاده کنند (کشتن چند نفر اکنون برای جلوگیری از انقراض در آینده). اما او فکر میکرد که تعهد به یک چارچوب آخرالزمانی به طور کلی میتواند خطرناک باشد. او گفت: «من نگران بودهام که افراد در گروه ایمنی هوش مصنوعی به خشونت متوسل شوند. کسی میتواند آن طرز فکر را داشته باشد و خود را متعهد به عدم خشونت کند، اما این طرز فکر افراد را به سمت این تفکر سوق میدهد که، خب، شاید هر اقدامی موجه باشد.»
الن، مشاور «توقف هوش مصنوعی»، نگرانیهای توررس را دارد. اگرچه او در مورد آنچه در نوامبر برای کرشنر اتفاق افتاد حضور نداشت (الن در هنگکنگ زندگی میکند و هرگز کرشنر را حضوری ندیده است، به من گفت)، اما حس او از صحبتهای مکرر با او در دو سال گذشته این بود که کرشنر تحت فشار زیادی قرار داشت زیرا احساس میکرد جهان در شرف پایان است. او گفت: «سم وحشتزده بود. فکر میکنم او احساس ناتوانی میکرد و حس میکرد باید کاری انجام دهد.» پس از آنکه «توقف هوش مصنوعی» بیانیه خود را در مورد حمله ادعایی و تماسها با پلیس منتشر کرد، الن پست خودش را نوشت و از مردم خواست «لطفاً حرفهای 'هوش مصنوعی عمومی (AGI) ممکن است ما را تا سال ۲۰۲۷ بکشد' را متوقف کنند.»
با وجود این درخواست، او فکر نمیکند که بلاغت آخرالزمانی تنها دلیل آنچه اتفاق افتاده است باشد. او گفت: «من افراد دیگری را میشناسم که نگران یک رویداد انقراض قریبالوقوع در سالهای آینده هستند و هرگز حتی به انجام اقدامات خشونتآمیز فکر نمیکنند.» و او با چارچوب آخرالزمانی، جدا از ایده مبهمی که میتواند افراد را به خشونت سوق دهد، مشکلاتی دارد. او همچنین نگران است که این رویکرد «جنبش را در موقعیتی قرار میدهد که مورد تمسخر واقع شود» اگر، به عنوان مثال، حباب هوش مصنوعی بترکد، توسعه کند شود و آخرالزمان در زمانی که هشداردهندگان گفتند، فرا نرسد. آنها ممکن است در آنجا به نظر مسخره بیایند، مانند یک فرقه آخرالزمان شکستخورده.
ترس دیگر او در مورد آنچه با کرشنر رخ داد یا نداد (یا رخ میدهد یا نمیدهد) این است که «برای بدنام کردن گسترده» جنبش ایمنی هوش مصنوعی استفاده خواهد شد و شرکتکنندگان را افراطی و تروریست به تصویر خواهد کشید. او ماه گذشته گفتگوهایی از این دست را مشاهده کرد، زمانی که وکیلی که نماینده «توقف هوش مصنوعی» بود، در طول سخنرانی سم آلتمن (Sam Altman) روی صحنه پرید تا برای او احضاریه صادر کند—یک پست پربازدید در پاسخ به آن حادثه، این گروه را «خطرناک» و «نامتعادل» خوانده بود. و در واکنش به اخبار مربوط به کرشنر، بحثهای جدیدی در مورد اینکه چگونه فعالان ممکن است در انتظار افراطیگری باشند، شکل گرفته است. این تاکتیکی است که افراد قدرتمند اغلب برای بیاعتبار کردن منتقدان خود از آن استفاده میکنند: پیتر تیل (Peter Thiel) شروع به استدلال کرده است که کسانی که علیه هوش مصنوعی صحبت میکنند، خطر واقعی هستند، نه خود فناوری.
کرشنر در مصاحبهای در سال گذشته گفت: «ما کاملاً حامی عدم خشونت هستیم و هرگز به خشونت روی نخواهیم آورد.» در همان مصاحبه، او گفت که حاضر است برای هدفش بمیرد. هر دو این اظهارات از آن دسته جملاتی هستند که مستقیم به نظر میرسند اما نمیتوان به راحتی به آنها اعتماد کرد—اثبات اینکه آیا او واقعاً منظورشان را داشت و اگر داشت، چگونه منظورشان را داشت، غیرممکن است. با شنیدن اظهار نظر دوم، در مورد تمایل کرشنر به مرگ، برخی او را یک رادیکال با مأموریتی جنونآمیز دیدند. برخی دیگر او را فردی دیدند که تعهد خالصانه خود را به شکلی نامناسب بیان میکرد. (یا شاید او فقط دراماتیک بود.)
الن گفت که فعالان قدیمیتری که با آنها صحبت کرده بود، این جمله را با نیت خیر اما با این حال یک پرچم قرمز تفسیر کرده بودند. عموماً وقتی خود را وقف یک هدف میکنید، انتظار ندارید برای پیروزی بمیرید. انتظار دارید سالها مبارزه کنید، احساس کنید در حال باختن هستید و به آرامی پیش بروید. مشکل این است که کرشنر، به گفته بسیاری از کسانی که او را میشناسند، واقعاً باور دارد که بشریت زمان زیادی ندارد.