تصویرگری: برت رایدر
تصویرگری: برت رایدر

اسب سیاه آزمایشگاه‌های هوش مصنوعی

چگونه شور و شوق رسالتی شرکت Anthropic موفقیت تجاری آن را شعله‌ور می‌کند

شاید اجتناب‌ناپذیر باشد که Anthropic، آزمایشگاه هوش مصنوعی (AI) که توسط نیکوکاران تأسیس شده است، در سیلیکون ولی مورد تمسخر قرار گیرد. این شرکت، که مأموریت ایمنی خود را بالاتر از کسب درآمد قرار می‌دهد، یک فیلسوف داخلی و یک ربات چت به نام «کلود» (Claude) با نامی فرانسوی دارد. با این حال، مشخصات برخی از کسانی که اخیراً به Anthropic حمله کرده‌اند، قابل توجه است.

یکی از آن‌ها جنسن هوانگ، مدیرعامل انویدیا (Nvidia)، باارزش‌ترین شرکت روی زمین، است. پس از اینکه داریو آمودی (Dario Amodei)، مدیرعامل Anthropic، از خطر از دست دادن تعداد زیادی شغل در نتیجه پیشرفت‌های هوش مصنوعی سخن گفت، آقای هوانگ با صراحت پاسخ داد: «من تقریباً با هرچیزی که او می‌گوید مخالفم.» دیگری دیوید ساکس (David Sacks)، سرمایه‌گذار خطرپذیر (VC) و یکی از نزدیک‌ترین مشاوران فنی رئیس‌جمهور دونالد ترامپ است. در یک پادکست اخیر، او و همکارانش Anthropic را متهم کردند که بخشی از یک «مجموعه صنعتی فاجعه‌گرا» است.

آقای آمودی این انتقادات را جدی نمی‌گیرد. در مصاحبه‌ای در آستانه انتشار «برنامه اقدام هوش مصنوعی» ترامپ، او افسوس می‌خورد که بادهای سیاسی علیه ایمنی چرخیده‌اند. با این حال، حتی در حالی که او در واشنگتن تنها به نظر می‌رسد، Anthropic به آرامی در حال تبدیل شدن به یک قدرت بزرگ در هوش مصنوعی تجاری به تجاری (B2B) است. آقای آمودی به سختی می‌تواند هیجان خود را پنهان کند. پس از اینکه درآمد تکراری سالانه شرکت او در طول سال گذشته تقریباً ده برابر شد و به یک میلیارد دلار رسید، اکنون «به طور قابل توجهی فراتر» از ۴ میلیارد دلار است و Anthropic احتمالاً «در مسیر یک رشد ۱۰ برابری دیگر» در سال ۲۰۲۵ قرار دارد. او نمی‌خواهد به این پیش‌بینی پایبند باشد، اما از این موضوع بسیار خوشحال است: «فکر نمی‌کنم چنین سابقه‌ای در تاریخ سرمایه‌داری وجود داشته باشد.»

کج‌ذوقی (Schadenfreude) نیز کمک می‌کند. آقای آمودی و هم‌بنیان‌گذارانش، از جمله خواهرش دانیلا، Anthropic را پس از ترک OpenAI در سال ۲۰۲۱ به دلیل نگرانی‌های ایمنی تأسیس کردند. رقیب آن‌ها با راه‌اندازی ChatGPT تاریخ‌ساز شد. درآمد OpenAI، که در ماه ژوئن به نرخ سالانه ۱۰ میلیارد دلار رسید، به مراتب از درآمد آزمایشگاه آقای آمودی پیشی گرفته است. همچنین ارزش‌گذاری اخیر آن، حدود ۳۰۰ میلیارد دلار، تقریباً پنج برابر Anthropic است. با این حال، حتی در حالی که محبوبیت ChatGPT همچنان در حال افزایش است، Anthropic وارد بازار کسب‌وکارهای سازمانی OpenAI شده است. ۸۰ درصد از درآمد Anthropic از بخش B2B است و داده‌های آن نشان می‌دهد که اکنون در ارائه دسترسی شرکت‌ها به مدل‌ها از طریق پلاگین‌هایی به نام API پیشتاز است. جدیدترین مدل آن، کلود ۴ (Claude 4)، در میان استارت‌آپ‌های کدنویسی با رشد سریع مانند Cursor، و همچنین توسعه‌دهندگان نرم‌افزار در شرکت‌های معتبرتر، موفقیت‌آمیز بوده است. Anthropic معتقد است که برنامه‌نویسان اولین پذیرندگان فناوری هستند و امیدوار است که آن‌ها درهای سایر شرکت‌ها را باز کنند.

در میان برخی از بنیان‌گذاران Anthropic، این موفقیت تجاری مانند یک رویا است. بسیاری از آن‌ها افراد علمی هستند، نه اشراف‌زاده‌های پول‌پرست. تخصص آن‌ها در قوانین مقیاس‌گذاری – هرچه قدرت محاسباتی بیشتری به یک مدل اختصاص دهید، بهتر می‌شود – و ایمنی است، نه فروش. وقتی برای شام دور هم جمع می‌شوند، درباره «عجیب بودن» رشد شرکتشان صحبت می‌کنند. Anthropic همچنان محصولات را از نظر ایمنی آزمایش می‌کند، در حالی که رقبا در آستانه عرضه محصولات خود هستند. کلود کد (Claude Code)، یک ربات برنامه‌نویسی با رشد سریع که برای استفاده داخلی ساخته شده بود، تنها به عنوان یک فکر بعدی تجاری شد.

اما در حالی که ایمنی در مأموریت Anthropic محوری است، مشخص شده که این خود یک مزیت فروش نیز هست. Anthropic در اوایل تصمیم گرفت که نگرانی‌های اخلاقی آن، مانع از ساخت محصولات سرگرمی یا اوقات فراغت می‌شود که به طور بالقوه اعتیادآور هستند. در عوض، بر روی کار تمرکز کرد، جایی که اکثر مردم بیشتر وقت خود را می‌گذرانند. آقای آمودی می‌گوید که این امر با مأموریت ایمنی «هم‌افزایی» پیدا کرده است. شرکت‌ها نیز مانند Anthropic، هوش مصنوعی قابل اعتماد و اطمینان می‌خواهند. آن‌ها به علاقه Anthropic در تفسیر مدل‌ها برای درک دلایل بروز خطا احترام می‌گذارند. در عین حال، تمرکز Anthropic بر مقیاس‌گذاری، آن را رقابتی نگه داشته است. شرکت‌ها به بهترین مدل‌ها نیاز دارند. کلود ۴، که برای دوره‌های طولانی به طور خودکار کار می‌کند و قادر به استفاده از سایر برنامه‌های کامپیوتری است، به شرکت‌ها امکان می‌دهد کارهای پردرآمد را برون‌سپاری کنند.

هزینه گزاف آموزش مدل‌های Anthropic مشکل‌ساز است. مانند همتایان خود، این شرکت در حال سوزاندن پول نقد است. این امر نیازمند جذب سرمایه منظم است. Anthropic یک بار دیگر به نظر می‌رسد که در حال آماده شدن برای درخواست کمک مالی از سرمایه‌گذاران است. گزارش‌های مطبوعاتی گمانه‌زنی می‌کنند که آمازون در حال بررسی افزایش سهم خود است و برخی از سرمایه‌گذاران خطرپذیر مایل به ارائه پول با ارزش‌گذاری ۱۰۰ میلیارد دلار هستند که از ۶۱.۵ میلیارد دلار در ماه مارس بیشتر است.

اما این شتاب برای جذب نقدینگی، پارادوکس‌های آشکاری را برجسته می‌کند، زیرا نیازهای مادی Anthropic با شور رسالتی آن در تضاد است. در ۲۱ ژوئیه، نشریه فناوری وایرد (Wired)، پیام اسلک (Slack) پُر دردسر آقای آمودی را فاش کرد که در آن او به همکارانش توضیح داده بود چرا با اکراه تصمیم گرفته از کشورهای حاشیه خلیج فارس پول جذب کند. او نوشت: «اینکه هیچ آدم بدی نباید از موفقیت ما سود ببرد، اصل بسیار دشواری برای اداره یک کسب‌وکار است.» او به اکونومیست می‌گوید که همچنان نگرانی‌های امنیتی درباره ساخت مراکز داده توسط شرکت‌های آمریکایی در منطقه خلیج فارس دارد. اما در مورد سرمایه‌گذاری از این منطقه، تردیدهای او کاهش یافته است. «آن‌ها منابع بزرگ سرمایه هستند.»

آقای آمودی استدلال می‌کند که مأموریت ایمنی Anthropic، گرچه گاهی اوقات ممکن است دست‌وپاگیر باشد، اما رقابت برای رسیدن به بهترین‌ها را تقویت می‌کند، زیرا سایر شرکت‌ها مجبور می‌شوند از نمونه Anthropic پیروی کنند. اعتقادات او عمیقاً ریشه‌دار به نظر می‌رسند. او معتقد است که هوش مصنوعی پتانسیل اقتصادی عظیمی دارد و قدرت درمان «بیماری‌هایی که برای هزاران سال غیرقابل درمان بوده‌اند» را داراست، اما استدلال می‌کند که توجه به چگونگی مدیریت هزینه‌های اجتماعی، از جمله از دست دادن شغل، حیاتی است. او معتقد است که قدرت اعطا شده توسط هوش مصنوعی در دستان یک دموکراسی مانند آمریکا امن‌تر از یک حکومت خودکامه مانند چین خواهد باشد. از نظر آقای آمودی، اینکه ترامپ در پاسخ به لابی‌گری آقای هوانگ از انویدیا، صادرات تراشه‌های هوش مصنوعی به چین را کاهش داده است، «یک اشتباه ژئوپلیتیک عظیم» است.

"انشیتفیکاسیون" هوش مصنوعی

دفاع از آرمانش کاری دشوار است. اما راوی مهاتره (Ravi Mhatre) از لایت‌اسپید ونچر پارتنرز (Lightspeed Venture Partners)، یکی از حامیان بزرگ Anthropic، می‌گوید که وقتی روزی مدل‌ها از مسیر خود منحرف شوند، تمرکز آزمایشگاه هوش مصنوعی بر ایمنی نتیجه‌بخش خواهد بود. او می‌گوید: «هنوز لحظه "ای وای" را تجربه نکرده‌ایم.»