Лапшин Иван

Иван Лапшин

Anthropic обвинил китайские компании в обучении их моделей с помощью ИИ Claude / Фото: miss.cabul / Shutterstock.com

Anthropic обвинил китайские компании в обучении их моделей с помощью ИИ Claude / Фото: miss.cabul / Shutterstock.com

Создатель ИИ-модели Claude Anthropic заявил о масштабных атаках на нее со стороны китайских ИИ-тигров — так в стране называют стартапы, которые могут стать потенциальными национальными лидерами в области генеративного ИИ. По оценке Anthropic, конкуренты из КНР могли сделать в Claude более 16 млн запросов через тысячи аккаунтов, чтобы воспроизвести его возможности с меньшими затратами. 

Детали

Anthropic сообщил, что зафиксировал организованные автоматизированные кампании по массовому использованию Claude китайскими разработчиками ИИ-инструментов, включая DeepSeek. По данным американской компании, использовалось около 24 тысяч учетных записей и прокси-сервисы для обхода региональных ограничений. Всего, как утверждает Anthropic, DeepSeek и «ИИ-тигры» провели более 16 млн взаимодействий с моделью.

Компания квалифицирует эти действия как «дистилляционную атаку». Дистилляция — это метод, при котором менее мощная модель обучается на ответах более развитой системы, чтобы воспроизвести его возможности с меньшим количеством временных и финансовых затрат, чем потребовалось бы при самостоятельной разработке.

Каждая из китайских компаний, по оценке Anthropic, пыталась извлечь определенные навыки:

— DeepSeek собирала примеры пошаговых рассуждений и логического анализа, чтобы обучить свою модель решать сложные задачи. Кроме того, она направляла запросы по политически чувствительным темам, добиваясь формулировок, которые можно использовать для настройки собственной системы с учетом требований цензуры. 

— Moonshot AI, как рассказал Anthropic, делала упор на развитии функций ИИ-агентов — способности модели пользоваться инструментами, работать с кодом и данными и выполнять последовательность действий без участия человека.

— MiniMax сосредоточилась на обучении своей системы самостоятельно решать сложные задачи по программированию с использованием внешних инструментов и сервисов — фактически воспроизводя поведение продвинутого цифрового помощника. MiniMax отправила наибольшее количество запросов — 13 млн, сообщил Anthropic.

В ответ он внедрил системы для обнаружения дистилляционных шаблонов, усилил проверку подлинности учетных записей и начал разрабатывать защиту от таких атак.

Контекст

DeepSeek планирует до конца месяца выпустить ИИ-бот нового поколения V4, сообщало издание The Information. По данным его источников, модель обладает мощными возможностями программирования и в ходе внутреннего тестирования обошла конкурентов от Anthropic и OpenAI. Reuters уточняет, что релиз может состояться на следующей неделе. При этом обучалась V4 на самых передовых чипах Nvidia Blackwell, несмотря на запрет на их поставки в Китай, рассказал агентству высокопоставленный чиновник администрации президента США Дональда Трампа.

Релиз другой модели DeepSeek — R1 — в январе 2025 года привел к распродаже акций Nvidia и других ИИ-компаний. 

Тогда же о признаках попыток дистилляции своих моделей сообщал разработчик ChatGPT OpenAI. Его основной партнер и инвестор — Microsoft — заявил о подозрениях в нарушении лицензионных условий использования ChatGPT со стороны DeepSeek.

Сама по себе дистилляция широко применяется в индустрии для создания более компактных и дешевых версий моделей, но как правило только для внутреннего использования. Anthropic признал, что бизнес использует этот подход в собственных разработках, однако назвал недопустимым систематическое извлечение возможностей сторонней модели.

Поделиться