Пентагон может разорвать связи с Anthropic. Чем это грозит?
Пентагон «пересматривает» отношения с разработчиком Claude: стартап против использования ИИ в военных целях

ИИ-стартап против использования ИИ Claude в военных целях / Фото: Frontpage / Shutterstock.com
Пентагон близок к разрыву партнерства с ИИ-стартапом Anthropic и может признать компанию риском для цепочки поставок, сообщил Axios. Минобороны недовольно ограничениями на использование технологий Anthropic в военных целях, поясняет издание.
Детали
Пентагон несколько месяцев вел переговоры со стартапом о том, как именно военные могут применять инструмент Claude, пишет Axios со ссылкой на источник. Anthropic запрещает использовать свой ИИ для массовой слежки за гражданами или для разработки вооружений, которые могут применяться без участия человека, говорится в статье. Пентагон считает это чрезмерно ограниченным подходом и указывает на многочисленные серые зоны, которые сделали бы работу в таких рамках непрактичной. В переговорах с Anthropic и тремя другими крупными ИИ-лабораториями — OpenAI, Google и xAI — представители Пентагона настаивают на том, чтобы военные могли использовать их инструменты «для всех законных целей», пишет Axios.
«Отношения Департамента войны с Anthropic находятся на пересмотре, — заявил Axios представитель Пентагона Шон Парнелл. — Наша страна требует, чтобы наши партнеры были готовы помогать нашим бойцам побеждать в любом конфликте. В конечном счете речь идет о наших военнослужащих и безопасности американского народа».
Чем это грозит
Если ИИ-стартап признают риском для цепочки поставок, любая компания, желающая вести бизнес с военными, должна будет разорвать связи с Anthropic, сообщает Axios со ссылкой на высокопоставленного чиновника Пентагона. «Это будет чертовски болезненно распутывать, и мы позаботимся о том, чтобы они заплатили цену за то, что вынудили нас к этому», — цитирует его Axios. Портал отмечает, что обычно подобные санкции применяются к иностранным противникам.
Представитель Anthropic сообщил Axios, что компания ведет «продуктивные переговоры в духе доброй воли» с Пентагоном и привержена использованию ИИ в интересах национальной безопасности.
Минобороны уже глубоко интегрировало ПО Anthropic
В прошлом году Anthropic заключил с Пентагоном двухлетнее соглашение, предусматривающее использование прототипа моделей Claude Gov и Claude for Enterprise. Переговоры с Anthropic могут задать тон обсуждениям с OpenAI, Google и xAI, которые пока не используются для работы с секретными материалами, отмечает Axios. Сейчас Claude от Anthropic — единственная модель ИИ, доступная в засекреченных системах военного ведомства и чиновники Пентагона высоко оценивают возможности продукта, подчеркивает издание.
По данным Axios, программное обеспечение Anthropic уже интегрировано в военные структуры и Claude использовался во время рейда против Мадуро в январе.