OpenAI обвинила DeepSeek в «паразитировании» на американских ИИ-моделях

13.02.2026Дмитрий Летов

OpenAI заявила, что китайская компания DeepSeek использовала продвинутые методы для извлечения результатов из ведущих американских моделей искусственного интеллекта с целью обучения собственного чат-бота R1.

В документе утверждается, что DeepSeek применяла так называемые техники дистилляции — подход, при котором одна модель ИИ использует ответы другой для обучения и воспроизведения схожих возможностей. По версии OpenAI, китайская компания разработала «замаскированные методы» обхода защитных механизмов, предназначенных для предотвращения неправомерного использования технологий.

Расследование возможных нарушений OpenAI начала совместно с Microsoft вскоре после выхода модели R1. Компании проверяют, могли ли данные быть получены несанкционированным способом. В OpenAI подчеркивают, что подобные практики становятся все более изощренными, несмотря на действующие ограничения и условия использования.

Компания также указала на коммерческие и геополитические риски. В отличие от американских разработчиков, DeepSeek и другие китайские игроки не взимают подписку за доступ к своим моделям, что создает конкурентное давление на OpenAI и Anthropic, инвестировавшие миллиарды долларов в инфраструктуру и монетизирующие премиум-функции.

Кроме того, OpenAI обратила внимание на вопросы национальной безопасности, заявив, что модель DeepSeek ограничивает ответы на темы, чувствительные для китайских властей, включая Тайвань и события на площади Тяньаньмэнь. По мнению компании, при использовании дистилляции защитные механизмы могут теряться, что повышает риски злоупотреблений, в том числе в таких сферах, как биология и химия.