Anthropic обвинил DeepSeek и ИИ-тигров из Китая в обучении на его модели Claude
DeepSeek в феврале может представить новейшую ИИ-модель — спустя год, после того как другой ее релиз привел к обвалу рынка США

Anthropic обвинил китайские компании в обучении их моделей с помощью ИИ Claude / Фото: miss.cabul / Shutterstock.com
Создатель ИИ-модели Claude Anthropic заявил о масштабных атаках на нее со стороны китайских ИИ-тигров — так в стране называют стартапы, которые могут стать потенциальными национальными лидерами в области генеративного ИИ. По оценке Anthropic, конкуренты из КНР могли сделать в Claude более 16 млн запросов через тысячи аккаунтов, чтобы воспроизвести его возможности с меньшими затратами.
Детали
Anthropic сообщил, что зафиксировал организованные автоматизированные кампании по массовому использованию Claude китайскими разработчиками ИИ-инструментов, включая DeepSeek. По данным американской компании, использовалось около 24 тысяч учетных записей и прокси-сервисы для обхода региональных ограничений. Всего, как утверждает Anthropic, DeepSeek и «ИИ-тигры» провели более 16 млн взаимодействий с моделью.
Компания квалифицирует эти действия как «дистилляционную атаку». Дистилляция — это метод, при котором менее мощная модель обучается на ответах более развитой системы, чтобы воспроизвести его возможности с меньшим количеством временных и финансовых затрат, чем потребовалось бы при самостоятельной разработке.
Каждая из китайских компаний, по оценке Anthropic, пыталась извлечь определенные навыки:
— DeepSeek собирала примеры пошаговых рассуждений и логического анализа, чтобы обучить свою модель решать сложные задачи. Кроме того, она направляла запросы по политически чувствительным темам, добиваясь формулировок, которые можно использовать для настройки собственной системы с учетом требований цензуры.
— Moonshot AI, как рассказал Anthropic, делала упор на развитии функций ИИ-агентов — способности модели пользоваться инструментами, работать с кодом и данными и выполнять последовательность действий без участия человека.
— MiniMax сосредоточилась на обучении своей системы самостоятельно решать сложные задачи по программированию с использованием внешних инструментов и сервисов — фактически воспроизводя поведение продвинутого цифрового помощника. MiniMax отправила наибольшее количество запросов — 13 млн, сообщил Anthropic.
В ответ он внедрил системы для обнаружения дистилляционных шаблонов, усилил проверку подлинности учетных записей и начал разрабатывать защиту от таких атак.
Контекст
DeepSeek планирует до конца месяца выпустить ИИ-бот нового поколения V4, сообщало издание The Information. По данным его источников, модель обладает мощными возможностями программирования и в ходе внутреннего тестирования обошла конкурентов от Anthropic и OpenAI. Reuters уточняет, что релиз может состояться на следующей неделе. При этом обучалась V4 на самых передовых чипах Nvidia Blackwell, несмотря на запрет на их поставки в Китай, рассказал агентству высокопоставленный чиновник администрации президента США Дональда Трампа.
Релиз другой модели DeepSeek — R1 — в январе 2025 года привел к распродаже акций Nvidia и других ИИ-компаний.
Тогда же о признаках попыток дистилляции своих моделей сообщал разработчик ChatGPT OpenAI. Его основной партнер и инвестор — Microsoft — заявил о подозрениях в нарушении лицензионных условий использования ChatGPT со стороны DeepSeek.
Сама по себе дистилляция широко применяется в индустрии для создания более компактных и дешевых версий моделей, но как правило только для внутреннего использования. Anthropic признал, что бизнес использует этот подход в собственных разработках, однако назвал недопустимым систематическое извлечение возможностей сторонней модели.