Рамос Габриэла

Габриэла Рамос

Сопредседатель Рабочей группы по вопросам неравенства и раскрытия социально важной финансовой информации
Не всем странам нужно противостоять крупным технофирмам на мировой арене. Но у себя дома правительства должны навести порядок, установив четкие правила и обеспечив контроль за их соблюдением — Габриэла Рамос

Не всем странам нужно противостоять крупным технофирмам на мировой арене. Но у себя дома правительства должны навести порядок, установив четкие правила и обеспечив контроль за их соблюдением — Габриэла Рамос

Конфликт между компанией Anthropic и администрацией президента США Дональда Трампа показал, насколько проблематично нынешнее состояние регулирования искусственного интеллекта. Частная компания оказалась явно больше озабочена соблюдением этических ограничений, чем сильнейшая армия в мире — так в своей колонке для Project Syndicate утверждает сопредседатель Рабочей группы по вопросам неравенства и раскрытия социально важной финансовой информации Габриэла Рамос.

Крупные технофирмы не должны устанавливать правила для ИИ

В начале марта министерство обороны США признало компанию Anthropic «риском в производственно-сбытовых цепочках». Это необычное решение было принято после того, как компании начала настаивать на мерах предосторожности, не позволяя использовать свои технологии для массовой слежки за американцами или в полностью автономном оружии. В ответ Пентагон включил Anthropic в список, который обычно предназначен лишь для иностранных организаций, признаваемых угрозой национальной безопасности.

Anthropic уже подала иск, оспорив это решение (и проиграла — Прим. Oninvest)

Что бы вы ни думали о мотивах Anthropic, эта история показывает, как сильно могут различаться принципы управления. Если ответственность за соблюдение базовых этических ограничений перекладывается на частные фирмы, значит, системы, призванные защищать интересы общества от потенциально опасных технологий, явно не справляются.

Обнадеживает, что, как показал февральский саммит AI Impact в Индии, еще не поздно сменить курс. По всему миру стартапы создают системы, предназначенные специально для безопасного и этичного применения, а организации гражданского общества

используют ИИ для решения насущных социальных проблем, в том числе для борьбы с насилием против женщин и девочек. В то же время стоимость программ ИИ снизилась за последние годы на целых 90%, а расширение экосистем с открытым кодом делает эти мощные инструменты доступными небольшим игрокам.

Это та самая ИИ-революция, на которую многие из нас давно надеялись: технический прогресс определяется демократическими ценностями и соблюдением прав человека. Эта концепция легла в основу моей работы в ЮНЕСКО над «Рекомендациями по этике ИИ» (первым глобальным документом такого рода) и над «Принципами ИИ» в ОЭСР.

Опыт Индии служит полезным примером для стран, стремящихся использовать ИИ в интересах общества. Активно инвестируя в цифровую общественную инфраструктуру, особенно в систему биометрической идентификации Aadhaar и «Единый платежный интерфейс» (EPI), эта страна показала, как можно масштабно внедрять технологии для удовлетворения повседневных нужд граждан.

Однако конфликт с Anthropic подчеркивает усиливающиеся противоречия между разумным регулированием ИИ и желанием властей привлечь инвестиции. Бизнес-модели горстки компаний США, господствующих сейчас на передовых ИИ-рубежах, определяются жесткой конкуренцией — между ними и с их китайскими коллегами, и власти не спешат вводить правила, которые могут их отпугнуть.

Эти тенденции стали очевидны на прошлогоднем саммите AI Action в Париже, освещая который, пресса сосредоточилась на инвестиционных обещаниях, полученных Францией от крупных технофирм, а не на инициативах, представляющих общественный интерес, включая Current AI и Коалицию за устойчивое развитие с помощью спорта (CSDTS).

В результате подобные саммиты все чаще превращаются в площадки, где правительства объявляют об инвестициях и соглашениях о дата-центрах. Показательно, что главной картинкой после саммита AI Impact в Индии стала фотография премьер-министра Нарендра Моди в окружении глав технокомпаний, включая Сундара Пичаи из Alphabet, Сэма Альтмана из OpenAI и Дарио Амодеи из Anthropic.

Изначальной целью этих мероприятий было развитие многостороннего сотрудничества в сфере управления преобразующими технологиями. Их превращение в площадки для привлечения инвестиций показывает, как трудно стало обеспечивать значимый надзор.

Власти пробовали разные подходы — от добровольных принципов до обязывающих законодательных норм, подобных закону Евросоюза «Об искусственном интеллекте». Но геополитическая конкуренция и коммерческие интересы подталкивают правительства к участию в гонке по нисходящей.

Да, не всем странам нужно противостоять крупным технофирмам на мировой арене. Но у себя дома правительства должны навести порядок, установив четкие правила и обеспечив контроль за их соблюдением.

Что делать?

Мощным рычагом являются госзакупки, на долю которых приходится примерно 13% ВВП стран ОЭСР. Закупочные контракты могут содержать требования локализации данных и прозрачности алгоритмов, а также определять эффективные механизмы обжалования решений алгоритмов, причинивших вред. Можно также обязать проводить тестирование безопасности систем с высоким уровнем риска перед их внедрением, поощряя компании, которые соблюдают этические стандарты, и исключая те, которые их не соблюдают.

Но одних закупок недостаточно; следующий шаг — законодательство.

Один из наиболее значимых шагов, которые могли бы сделать власти: гарантировать, чтобы ИИ-системы никогда не признавались юридически ответственным лицом. Ответственность всегда должна лежать на человеке или организации.

И должен быть введен строгий запрет на сбор данных без согласия, массовую слежку и использование ИИ для составления психологического профиля людей и политических манипуляций.

Не каждая страна способна создавать собственные базовые модели ИИ, и не каждая должна пытаться их создать. Есть более практичный путь — инвестировать в меньшие модели с открытым кодом, которые адаптированы к местному языку, нуждам и ценностям. Хотя такая стратегия все равно требует инвестиций, институтов, инфраструктуры и формирования надлежащих интересов (так называемые четыре «И»), потенциально она способна обеспечить масштабный результат.

На сегодня европейский закон «Об ИИ» является наиболее амбициозной попыткой применить этот подход. Критики осуждают его как бюрократический и обременительный, а от Еврокомиссии усиленно требуют отсрочить его выполнение. Но этот закон просто подтверждает базовый принцип: технология не может быть выше закона. Фармацевтические фирмы должны соблюдать стандарты безопасности, начиная выпуск новых лекарств, а строительные фирмы должны подтвердить структурную безопасность мостов, которые они возводят. Системы ИИ с высоким риском должны подвергаться столь же строгому контролю.

Темпы развития ИИ подчеркивают неотложность этой задачи. Страны, которые не смогут заложить подобный фундамент, не просто отстанут в нынешней технологической гонке. В мире, где сила все чаще определяет результат, а ответственность становится факультативной, они рискуют утратить контроль над тем, как используются новые технологии.

Хорошая новость в том, что у правительств и потребителей еще есть рычаги воздействия.

Доступ к рынкам дает странам реальное влияние на то, как именно внедряются ИИ-продукты, а организации гражданского общества регулярно демонстрируют, как скоординированное общественное давление помогает изменить поведение корпораций.

Демократические общества не могут отдавать на аутсорсинг частным компаниям защиту своих ценностей. Они должны создавать институты, законы и механизмы, которые избавят их от такой необходимости, причем до того, как цена бездействия станет слишком высока.

Мнение автора может не совпадать с мнением редакции

@Project Syndicate, 2026.

Поделиться