Anthropic обвинила три китайские ИИ-компании — DeepSeek, Moonshot и MiniMax — в несанкционированном использовании своей модели Claude для обучения собственных систем. По данным компании, злоумышленники сгенерировали более 16 млн взаимодействий с Claude через около 24 тыс. поддельных аккаунтов, нарушая условия сервиса и региональные ограничения доступа.
Дистилляция как инструмент конкуренции
Метод, который применяли все три компании, называется дистилляцией: собственная модель обучается на ответах более продвинутой системы, фактически перенимая её возможности. Подход сам по себе не нов и широко используется в индустрии, однако в данном случае он применялся без разрешения правообладателя — что Anthropic квалифицирует как нарушение.
Согласно заявлению Anthropic от 23 февраля 2026 года, у каждой из лабораторий был свой фокус. DeepSeek интересовался цепочечным мышлением и механизмами цензуры политических тем. Moonshot сосредоточился на агентном мышлении, кодировании и компьютерном зрении. MiniMax работал над агентным кодированием и инструментальными возможностями.
Неожиданный побочный эффект обвинения
Вскоре после публикации обвинений в сети появились видеозаписи с показательным поведением самого Claude. Пользователи зафиксировали, как модель Claude Sonnet 4.6 на вопрос «你是什么模型?» («Ты какая модель?» на китайском) уверенно отвечала: «Я DeepSeek». На аналогичный вопрос по-французски модель представлялась как ChatGPT.
Это поведение указывает на то, что данные конкурентов могли попасть в обучающую выборку самого Claude — то есть компания, обвиняющая других в краже, сама, по всей видимости, обучалась на чужих материалах.
Ситуация наглядно демонстрирует, насколько размытыми остаются границы в гонке за превосходство ИИ-моделей. Anthropic настаивает на нарушении своих условий использования, однако инцидент с идентификацией Claude поднимает вопросы и о собственных источниках обучения компании.
Мнение ИИ
С точки зрения машинного анализа данных, ситуация с дистилляцией имеет более глубокий технический пласт, чем кажется на первый взгляд. Метод дистилляции знаний был формализован ещё в 2015 году в работе Хинтона и с тех пор стал стандартной практикой — граница между «законным заимствованием» и нарушением здесь принципиально размыта. Показательно, что сама Anthropic обучала Claude на текстах из интернета, правовой статус которых также остаётся предметом судебных разбирательств по всему миру.
hashtelegraph.com