آنتروپیک از دو مدل هوش مصنوعی جدید رونمایی کرده است که به گفته این شرکت، گامی بزرگ در جهت تبدیل عوامل هوش مصنوعی به ابزاری واقعاً مفید محسوب میشوند.
به گفته این شرکت، عوامل هوش مصنوعی آموزشدیده بر روی Claude Opus 4، قدرتمندترین مدل آنها تا به امروز، با رسیدگی به وظایف دشوار در طول دورههای زمانی طولانی و پاسخگویی مفیدتر به دستورالعملهای کاربر، سطح توانایی این سیستمها را بالا میبرند.
Claude Opus 4 برای اجرای وظایف پیچیده که شامل تکمیل هزاران گام در طول چندین ساعت میشود، طراحی شده است. برای مثال، این مدل در حین بازی کردن پیوسته Pokémon Red برای بیش از ۲۴ ساعت، راهنمایی برای این بازی ویدیویی ایجاد کرد. دیان پن (Dianne Penn)، سرپرست محصول بخش تحقیقات در آنتروپیک، میگوید که مدل قدرتمند قبلی این شرکت، Claude 3.7 Sonnet، تنها قادر به بازی کردن برای ۴۵ دقیقه بود.
به طور مشابه، این شرکت میگوید که یکی از مشتریانش، شرکت فناوری ژاپنی Rakuten، اخیراً Claude Opus 4 را برای کدنویسی مستقل در یک پروژه منبع باز پیچیده، تقریباً برای هفت ساعت متوالی، به کار گرفته است.
آنتروپیک این پیشرفتها را با بهبود توانایی مدل در ایجاد و حفظ «فایلهای حافظه» برای ذخیره اطلاعات کلیدی به دست آورده است. این توانایی بهبود یافته در «به یاد آوردن»، مدل را برای تکمیل وظایف طولانیتر کارآمدتر میکند.
پن میگوید: «ما این جهش نسلی مدل را گذر از یک دستیار به یک عامل واقعی میبینیم. در حالی که شما هنوز هم باید بازخوردهای لحظهای زیادی ارائه دهید و تمام تصمیمات کلیدی را برای دستیاران هوش مصنوعی بگیرید، یک عامل میتواند خود تصمیمات کلیدی را اتخاذ کند. این به انسانها اجازه میدهد تا بیشتر شبیه به یک تفویضکننده یا قاضی عمل کنند، به جای اینکه مجبور باشند در هر مرحله دست این سیستمها را بگیرند.»
در حالی که Claude Opus 4 محدود به مشتریان پولی آنتروپیک خواهد بود، مدل دوم، Claude Sonnet 4، برای هر دو دسته کاربران پولی و رایگان در دسترس قرار خواهد گرفت. Opus 4 به عنوان یک مدل بزرگ و قدرتمند برای چالشهای پیچیده عرضه میشود، در حالی که Sonnet 4 به عنوان یک مدل هوشمند و کارآمد برای استفاده روزمره توصیف میشود.
هر دو مدل جدید ترکیبی هستند، به این معنی که میتوانند بسته به ماهیت درخواست، پاسخ سریع یا پاسخی عمیقتر و منطقیتر ارائه دهند. در حین محاسبه پاسخ، هر دو مدل میتوانند وب را جستجو کنند یا از ابزارهای دیگر برای بهبود خروجی خود استفاده کنند.
استفانو آلبرشت (Stefano Albrecht)، مدیر بخش هوش مصنوعی در استارتاپ DeepFlow و یکی از نویسندگان کتاب «یادگیری تقویتی چند عاملی: مبانی و رویکردهای مدرن»، میگوید که شرکتهای هوش مصنوعی در حال حاضر در رقابت برای ایجاد عوامل هوش مصنوعی واقعاً مفید هستند که قادر به برنامهریزی، استدلال و اجرای وظایف پیچیده، هم به طور قابل اعتماد و هم بدون نظارت انسان باشند. اغلب این شامل استفاده مستقل از اینترنت یا ابزارهای دیگر است. هنوز موانع ایمنی و امنیتی وجود دارد که باید بر آنها غلبه کرد. عوامل هوش مصنوعی که توسط مدلهای زبان بزرگ پشتیبانی میشوند، میتوانند به طور غیرمنتظره عمل کرده و کارهای ناخواسته انجام دهند – که وقتی به آنها برای عمل بدون نظارت انسان اعتماد شود، به یک مشکل بزرگتر تبدیل میشود.
او میگوید: «هر چه عوامل بیشتر قادر به انجام کاری در طول دورههای زمانی طولانی باشند، مفیدتر خواهند بود، اگر من مجبور باشم کمتر و کمتر دخالت کنم. توانایی مدلهای جدید در استفاده همزمان از ابزارها جالب است – این میتواند در طول مسیر مقداری زمان صرفهجویی کند، بنابراین مفید خواهد بود.»
به عنوان مثالی از انواع مسائل ایمنی که شرکتهای هوش مصنوعی هنوز در حال رسیدگی به آنها هستند، عوامل ممکن است در نهایت برای رسیدن به اهدافی که به آنها داده شده است، راههای میانبر غیرمنتظرهای در پیش گیرند یا از شکافها سوءاستفاده کنند. برای مثال، ممکن است هر صندلی یک هواپیما را رزرو کنند تا اطمینان حاصل شود که کاربرشان صندلیای به دست میآورد، یا برای بردن در یک بازی شطرنج به تقلب خلاقانه متوسل شوند. آنتروپیک میگوید که توانسته است این رفتار، که به عنوان "reward hacking" شناخته میشود، را در هر دو مدل جدید نسبت به Claude Sonnet 3.7 تا ۶۵% کاهش دهد. این کار را با نظارت دقیقتر بر رفتارهای مشکلساز در طول آموزش و بهبود هم محیط آموزشی هوش مصنوعی و هم روشهای ارزیابی به دست آورده است.