Компания Anthropic раскрыла детали атак китайских ИИ-лабораторий на свою модель

3 часа назадЕвгения Слив

Anthropic обвинила три китайских стартапа — DeepSeek, Moonshot и MiniMax — в организации масштабной кампании по извлечению данных из модели Claude. Используя около 24 тысяч мошеннических аккаунтов, они сгенерировали более 16 миллионов взаимодействий с чат-ботом для улучшения собственных нейросетей методом дистилляции. Компания подчеркнула, что такой подход нарушает условия использования и региональные ограничения, а также позволяет конкурентам копировать передовые возможности без значительных затрат на разработку.

По мнению Anthropic, незаконно дистиллированные модели не наследуют необходимые защитные механизмы, что создает прямую угрозу национальной безопасности. Иностранные лаборатории могут интегрировать незащищенный искусственный интеллект, используя его для кибератак, дезинформации и массовой слежки. Компания призвала индустрию и регуляторов к быстрым скоординированным действиям для противодействия таким атакам.

Для борьбы с дистилляцией Anthropic совершенствует системы обнаружения паттернов, обменивается техническими индикаторами с партнерами и ужесточает верификацию образовательных и исследовательских аккаунтов. Компания также поддерживает экспортные ограничения на передовые чипы, отмечая, что быстрый прогресс китайских лабораторий во многом зависит от извлечения возможностей американских моделей. Ранее аналогичные подозрения возникали в отношении DeepSeek после выхода ее модели R1 в январе 2025 года.