
به گفته افراد آشنا به موضوع، مایکروسافت و OpenAI در حال بررسی این موضوع هستند که آیا دادههای خروجی فناوری OpenAI به طور غیرمجاز توسط گروهی مرتبط با استارت آپ هوش مصنوعی چینی DeepSeek به دست آمده است یا خیر.
به گفته این افراد که به دلیل محرمانه بودن موضوع خواستند نامشان فاش نشود، محققان امنیتی مایکروسافت در پاییز مشاهده کردند که افرادی که معتقدند ممکن است با DeepSeek مرتبط باشند، مقدار زیادی داده را با استفاده از رابط برنامه نویسی کاربردی OpenAI یا API خارج می کنند. توسعه دهندگان نرم افزار می توانند برای استفاده از API برای ادغام مدل های هوش مصنوعی اختصاصی OpenAI در برنامه های کاربردی خود، هزینه مجوز پرداخت کنند.
به گفته این افراد، مایکروسافت، شریک فناوری OpenAI و بزرگترین سرمایه گذار آن، این فعالیت را به OpenAI اطلاع داده است. به گفته این افراد، چنین فعالیتی می تواند شرایط خدمات OpenAI را نقض کند یا نشان دهد که این گروه برای حذف محدودیت های OpenAI در مورد میزان داده هایی که می توانند به دست آورند، اقدام کرده است.
DeepSeek اوایل این ماه یک مدل هوش مصنوعی منبع باز جدید به نام R1 را منتشر کرد که می تواند نحوه استدلال انسان ها را تقلید کند و بازاری را که توسط OpenAI و رقبای آمریکایی مانند گوگل و متا پلتفرم ها تحت سلطه بود، متحول کند. این استارت آپ چینی گفت که R1 در تعدادی از معیارهای صنعتی، از جمله برای وظایف ریاضی و دانش عمومی، با محصولات توسعه دهندگان پیشرو ایالات متحده رقابت می کند یا از آنها بهتر عمل می کند - و با کسری از هزینه ساخته شده است. تهدید بالقوه برای برتری شرکت های آمریکایی در این صنعت، باعث شد سهام فناوری مرتبط با هوش مصنوعی، از جمله مایکروسافت، انویدیا، اوراکل و آلفابت، شرکت مادر گوگل، روز دوشنبه سقوط کند و در مجموع تقریباً 1 تریلیون دلار از ارزش بازار آنها از بین برود.
OpenAI به درخواست برای اظهار نظر پاسخ نداد و مایکروسافت از اظهار نظر خودداری کرد. DeepSeek و صندوق تامینی High-Flyer، جایی که DeepSeek در آن راه اندازی شد، بلافاصله به درخواست ها برای اظهار نظر از طریق ایمیل پاسخ ندادند.
بیشتر بخوانید: DeepSeek فرضیات سیلیکون ولی در مورد هزینه های هوش مصنوعی را به چالش می کشد
دیوید ساکس، تزار هوش مصنوعی دونالد ترامپ، روز سهشنبه گفت که «شواهد قابل توجهی» وجود دارد که نشان میدهد DeepSeek برای کمک به توسعه فناوری خود به خروجی مدلهای OpenAI تکیه کرده است. ساکس در مصاحبه با فاکس نیوز، تکنیکی به نام تقطیر را توصیف کرد که در آن یک مدل هوش مصنوعی از خروجی های دیگری برای اهداف آموزشی برای توسعه قابلیت های مشابه استفاده می کند.

ساکس بدون ذکر جزئیات شواهد گفت: "شواهد قابل توجهی وجود دارد که نشان می دهد کاری که DeepSeek در اینجا انجام داده است این است که دانش را از مدل های OpenAI تقطیر کرده است و من فکر نمی کنم OpenAI از این موضوع بسیار خوشحال باشد."
OpenAI در بیانیه ای در پاسخ به اظهارات ساکس، مستقیماً به اظهارات او در مورد DeepSeek اشاره نکرد. یک سخنگوی OpenAI در این بیانیه با اشاره به جمهوری خلق چین گفت: «ما میدانیم که شرکتهای مستقر در PRC و دیگران دائماً در تلاش هستند تا مدلهای شرکتهای پیشرو هوش مصنوعی ایالات متحده را تقطیر کنند. بهعنوان سازنده پیشرو هوش مصنوعی، ما برای محافظت از IP خود، از جمله فرآیندی دقیق برای تعیین اینکه کدام قابلیتهای پیشرفته در مدلهای منتشر شده گنجانده شوند، به اقدامات متقابل میپردازیم و معتقدیم که با پیشرفت، همکاری نزدیک با دولت ایالات متحده برای بهترین محافظت از تواناترین مدلها در برابر تلاشهای دشمنان و رقبا برای تصاحب فناوری ایالات متحده بسیار مهم است.»