مریدیت ویتاکر، رئیس سیگنال، در کنفرانس SXSW 2025 در آستین گفت که عوامل هوش مصنوعی خطر امنیتی "عمیقی" دارند. (عکس از سوزان کوردیرو/خبرگزاری فرانسه از طریق گتی ایمیجز)
مریدیت ویتاکر، رئیس سیگنال، در کنفرانس SXSW 2025 در آستین گفت که عوامل هوش مصنوعی خطر امنیتی "عمیقی" دارند. (عکس از سوزان کوردیرو/خبرگزاری فرانسه از طریق گتی ایمیجز)

پرامپت: خطرات حریم خصوصی «شبح‌وار» برای عوامل هوش مصنوعی

به پرامپت خوش آمدید،

مریدیت ویتاکر، رئیس سیگنال، در کنفرانس فناوری SXSW در آستین این هفته گفت: با وجود تمام تبلیغاتی که برای عوامل هوش مصنوعی (نرم‌افزاری که می‌تواند در وب جستجو کند، برنامه‌های متعدد را در دستگاه شما اجرا کند و وظایفی را از طرف شما انجام دهد) شده است، این عوامل مملو از خطرات واقعی امنیتی و حریم خصوصی هستند. ویتاکر گفت که این سیستم‌ها مانند قرار دادن "مغز شما در یک شیشه" هستند، زیرا عوامل هوش مصنوعی باید به داده‌های حساسی مانند اطلاعات کارت اعتباری یا مخاطبین تلفن دسترسی داشته باشند و همچنین برای استفاده از برنامه‌ها از طرف شما نیاز به دسترسی دارند. او گفت که در حال حاضر هیچ مدل رمزگذاری شده‌ای برای ارسال و دریافت آن داده‌ها وجود ندارد، که باید در فضای ابری پردازش شوند.

حالا بیایید به تیترهای خبرها بپردازیم.

بازی‌های بزرگ

پس از اینکه DeepSeek در ماه ژانویه موجی به راه انداخت، استارت‌آپ هوش مصنوعی چینی دیگری به نام Butterfly Effect در آخر هفته با نمایش عامل هوش مصنوعی خود به نام Manus در رسانه‌های اجتماعی مطرح شد، که ادعا می‌کند می‌تواند وظایفی مانند غربالگری رزومه‌ها، جستجوی املاک و تحلیل سهام را تا حد زیادی به تنهایی انجام دهد. گزارش شده است که این سیستم هوش مصنوعی بر روی مدل‌های هوش مصنوعی موجود که توسط شرکت‌های دیگر مانند Anthropic مستقر در سان فرانسیسکو توسعه یافته‌اند، ساخته شده است، نه اینکه از ابتدا آموزش داده شود. به نظر نمی‌رسد که این تبلیغات چندان اساسی داشته باشند، زیرا بسیاری از افرادی که این ابزار را امتحان کرده‌اند، مشکلاتی را در انجام وظایف ساده مانند سفارش فست فود یا رزرو پرواز گزارش کرده‌اند.

جنگ تراشه‌ها

به گزارش رویترز، غول رسانه‌های اجتماعی متا، در تلاش برای دور شدن از وابستگی خود به سخت‌افزار انویدیا، آزمایش یک تراشه جدید داخلی را آغاز کرده است که به‌طور خاص برای آموزش مدل‌های هوش مصنوعی طراحی شده است. متا، که خانواده مدل‌های هوش مصنوعی آن به نام Llama گزارش شده است که سال گذشته از مرز 600 میلیون کاربر ماهانه عبور کرده است، تنها بازیکنی نیست که سیلیکون خود را طراحی می‌کند. OpenAI، مایکروسافت و گوگل همگی میلیاردها دلار در تراشه‌های خود سرمایه‌گذاری کرده‌اند.

معضلات داده

نادیده گرفتن حجم عظیمی از نیروی کار انسانی که صرف توسعه مدل‌های هوش مصنوعی می‌شود، آسان است. و همانطور که خود مدل‌ها در انجام وظایف پیشرفته بهتر و توانمندتر می‌شوند، صلاحیت‌های آموزش‌دهندگان آنها نیز افزایش می‌یابد. شرکت 14 میلیارد دلاری برچسب‌گذاری داده Scale AI، که به شرکت‌هایی مانند OpenAI، گوگل و متا در آموزش مدل‌ها کمک می‌کند، به طور فزاینده‌ای به دنبال متخصصان دامنه (از جمله افراد دارای مدرک دکترا) در داخل ایالات متحده است تا اینکه برون‌سپاری کند و پیمانکاران را در خارج از کشور استخدام کند. این تغییر بخشی از فلسفه جدید "اول آمریکا" الکس وانگ، مدیرعامل و میلیاردر، تحت دولت ترامپ است.

معامله هوش مصنوعی هفته

به گزارش نیویورک تایمز، Lila Sciences، یک استارت‌آپ مستقر در ماساچوست که در حال ساخت یک سیستم هوش مصنوعی برای کشف علمی است، 200 میلیون دلار بودجه اولیه جمع‌آوری کرده است. این فناوری برای انجام آزمایش‌ها و ایجاد نوآوری‌ها در زمینه‌های مختلف استفاده شده است.

همچنین قابل توجه است: ServiceNow شرکت سازنده نرم‌افزار هوش مصنوعی سازمانی Moveworks را به قیمت حدود 3 میلیارد دلار خریداری کرده است، به گزارش رویترز.


تحلیل عمیق

تسلا دیگر نباید به عنوان یک تولید کننده خودروهای الکتریکی دیده شود. اگر حرف مدیرعامل ایلان ماسک را باور کنید، این یک شرکت هوش مصنوعی است. اعتماد به نفس او به یک مجموعه داده منحصر به فرد گره خورده است: پتابایت‌ها ویدئویی که از خودروهای این شرکت جمع‌آوری شده است، زیرا مشتریان تسلا میلیون‌ها مایل رانندگی را در سراسر جهان ثبت می‌کنند.

از نظر تئوری، تمام آن داده‌های دنیای واقعی دقیقاً همان چیزی است که تسلا برای آموزش خودروهای خود برای کارکردن بدون هیچ گونه کمک انسانی به آن نیاز دارد، هدفی که هسته اصلی دیدگاه ماسک برای آینده تسلا است. اما یک مشکل وجود دارد: این داده‌ها لزوماً به اندازه ادعای ماسک مفید نیستند. برخی از آنها اصلاً مفید نیستند.

ساخت هوش مصنوعی که بتواند به خوبی یک انسان یک خودرو را براند، چالشی به مراتب متفاوت‌تر از ساخت یک ربات چت پردازش زبان طبیعی مانند ChatGPT است که بر روی میلیاردها کلمه که از اینترنت جمع‌آوری شده‌اند، آموزش داده شده است. در حالی که هدف از ChatGPT و سیستم‌های رقیب مانند Grok xAI استفاده از تشخیص الگو برای ارائه اطلاعات و پاسخ‌های قابل اعتماد به سؤالات است، نتایج اغلب به طرز شرم‌آوری کم می‌آورند. اما اگر هوش مصنوعی که یک وسیله نقلیه را کنترل می‌کند، اشتباه کند، ممکن است افراد جان خود را از دست بدهند.

رانندگی یک خودرو یک پیشنهاد بسیار متفاوت با متغیرهای بسیار بیشتر است: شرایط رانندگی، آب و هوا، ساخت و ساز، تغییر الگوهای ترافیکی، نحوه حرکت سایر وسایل نقلیه. با موفقیت مهار کردن همه آن متغیرها و آماده بودن برای واکنش نشان دادن به تحولات غیرمنتظره، هسته اصلی هوش مصنوعی رانندگی خودکار است. آموزش دادن آن بر روی ویدیوهای بی‌پایان از رانندگی افراد در بزرگراه‌ها کمک زیادی به هوش مصنوعی نمی‌کند تا یاد بگیرد چگونه با آنچه بیشتر به آن نیاز دارد، مقابله کند: موارد حاشیه‌ای که باعث تصادف یا سایر سناریوهای خطرناک می‌شوند.

یان لکون، دانشمند ارشد هوش مصنوعی متا و استاد علوم کامپیوتر در دانشگاه نیویورک، نیز متقاعد نشده است که داده‌های تسلا به آن مزیت رقابتی می‌دهد.

او گفت: "تأثیر داده‌ها عموماً بیش از حد ارزیابی می‌شود: با افزایش داده‌ها، عملکرد بهبود می‌یابد، اما بازدهی کاهشی وجود دارد." "دو برابر شدن حجم داده‌ها بهبودهای جزئی به همراه دارد که هنوز با قابلیت اطمینان انسانی فاصله زیادی دارد." حتی با حجم عظیمی از داده‌ها، هیچ شرکتی به اصطلاح خودمختاری سطح 5 را توسعه نداده است، نقطه‌ای که در آن یک وسیله نقلیه می‌تواند در تمام شرایطی که یک انسان می‌تواند رانندگی کند، خود را براند.

لکون گفت: "با این حال، هر فرد 17 ساله می‌تواند در حدود 20 ساعت تمرین رانندگی را یاد بگیرد." "این به شما می‌گوید که معماری‌های هوش مصنوعی فعلی چیزی بزرگ را در توانایی خود برای درک جهان و یادگیری از مقادیر محدود داده یا آزمایش از دست می‌دهند."

مقادیر زیادی از داده‌های دوربین مفید است، اما فوراً تسلا را به یک رهبر بازار هوش مصنوعی تبدیل نمی‌کند. الکس رتنر، دانشمند کامپیوتر و مدیرعامل Snorkel AI، که نرم‌افزاری برای کمک به خودکارسازی برچسب‌گذاری داده‌های خام می‌سازد، گفت: "دسترسی به فیدهای داده منحصربه‌فرد قطعاً نوعی مزیت است."

داستان کامل را در فوربس بخوانید.

رفتار مدل

بر اساس مطالعه جدیدی توسط Columbia Journalism Review (CJR)، موتورهای جستجوی هوش مصنوعی در ذکر منابع خبری به طرز اسفباری شکست می‌خورند، CJR کارشناسانی را از 10 مقاله تصادفی در ربات‌های چت قرار داد و از آنها خواست ناشر، مقاله و تاریخ انتشار را شناسایی کنند. CJR شانزدهصد پرسش را در هشت سیستم هوش مصنوعی از جمله Perplexity، ChatGPT، Gemini و دیگران اجرا کرد. Grok به ویژه بد بود و به 94٪ از سؤالات به اشتباه پاسخ داد. حتی زمانی که آنها به منابع استناد می‌کنند، مردم واقعاً روی آنها کلیک نمی‌کنند. همانطور که هفته گذشته گزارش دادیم، موتورهای جستجوی هوش مصنوعی 96٪ ترافیک کمتری نسبت به گوگل قدیمی و غیرهوش مصنوعی هدایت می‌کنند.