/ Source

Anthropic опубликовала подробный отчёт о том, как три китайские лаборатории — DeepSeek, Moonshot и MiniMax — систематически извлекали возможности Claude через поддельные аккаунты. Масштаб впечатляет: более 16 миллионов обменов через примерно 24 тысячи фиктивных учётных записей. MiniMax одна сгенерировала 13 миллионов запросов. Когда Anthropic выпустила новую модель, MiniMax за сутки перенаправила половину трафика на неё.

Еще в прошлом году OpenAI обвиняла DeepSeek в использовании рассуждений o1 для обучения своей R1.

Но, если честно, у меня смешанное отношение к этим заявлениям. Даже не потому, что сейчас в твиттере несется злорадство, вот, мол, как модель на пиратских книгах обучать, так fair use, а как на модели обучать другую модель, так нечестно становится.

Но я прямо сейчас тоже занимаюсь дистилляцией — скармливаю в тот же Claude блоки текста, чтобы тот исправил все ошибки, а потом таким же Claude конвертирую часть этих исправлений в правила для LanguageTool. Я ничего случайно не нарушаю?