Проблема на $40 млрд: как дипфейки привели к появлению бизнеса на доверии

Berkshire Hathaway сообщила, что на YouTube распространяются ролики с дипфейками гендиректора компании Уоррена Баффетта, сгенерированные ИИ. Один из них — на этом скриншоте. Фото: скриншот / YouTube
Распространение дипфейков, созданных с помощью ИИ, привело к развитию относительно новой индустрии «Доверие как Услуга» (TaaS). Бизнес сам предлагает решения, способные дать защиту от таких подделок. Почему это лучше, чем попытки государств решить проблему, рассуждает рассуждает советник президента «Алматы Менеджмент Университета» (AlmaU) Вадим Новиков.
«Это не я»: чем опасны дипфейки
В четверг, 6 ноября, компания Berkshire Hathaway сообщила, что на YouTube распространяются ролики с дипфейками гендиректора компании Уоррена Баффетта, сгенерированные искусственным интеллектом. В них он якобы делает заявления по ситуации на рынке, в том числе дает советы по инвестициям. Релиз вышел с заголовком «Это не я».
Образ «Оракула из Омахи», как называют Баффета, — лишь один пример того, как мошенники используют ИИ для создания реалистичных видео с известной личностью. Ранее в сети появлялись дипфейки миллиардера Илона Маска и основателя фонда Ark Invest Кэти Вуд — они «рекламировали» платформу, которая воровала криптовалюту пользователей. В 2024-м сотрудник компании Arup перевел $25,5 млн мошенникам, поговорив с дипфейк-копиями своего руководства.
Только за первый квартал 2025 прямой финансовый ущерб от дипфейков превысил $200 млн, по данным Deepfake Incident Report. Deloitte прогнозирует, что в США потери от мошенничества, вызванные использованием ИИ, могут вырасти с $12,3 млрд до $40 млрд к 2027 году.
По прогнозу Biometric Update, к 2027-му ожидается около 9,9 млрд проверок дипфейков, которые принесут почти $4,95 млрд выручки компаниям, которые этим занимаются.
Революция искусственного интеллекта привела к одной серьезной проблеме — мы столкнулись с феноменом «инфляции доверия». И здесь важно понимать: это не вполне прежняя проблема «мошенничества», которую можно решить старыми законами.
Дипфейки создали две новые, экзистенциальные угрозы. Во-первых, коллапс скорости: ущерб наносится за минуты, до того, как правосудие успеет среагировать. Фейк можно разослать за минуты тысячам людей. Такой масштаб был недостижим для наперсточников прошлого. Во-вторых, коллапс доказуемости, или «дивиденд лжеца»: теперь любое подлинное видео можно объявить фейком, и суд больше не может с уверенностью верить доказательствам.
Как c этим бороться?
Государственные регуляторы зачастую прибегают к грубым, неизбирательным запретам. Это не точный скальпель хирурга, точечно удаляющий угрозу, это слепой «молот», бьющий по всей индустрии.
К примеру, Дания планирует предложить радикальный метод — дать гражданам «копирайт на собственное лицо». В июне в стране появились поправки к закону об авторском праве, которые дадут людям права на собственный облик. Министр культуры Дании Якоб Энгель-Шмидт сказал, что эти меры могут вступить в силу уже зимой 2025 года, сообщило издание Tech Policy Press.
Насколько этот метод окажется действенным? Этот ход нелеп с юридической точки зрения. Он смешивает две разные правовые системы: личные неимущественные права (право на образ, которое неотчуждаемо) и авторское право (которое является отчуждаемым и создано для защиты результатов творчества).
Этот «молот» не только неэффективен, он опасен: он создает риск превращения личности в торгуемый актив.
Более того, он же создает глобальный регуляторный хаос. К примеру, в то время как Дания пытается расширить авторское право на «лицо», принятый парламентом Казахстана и ожидающий подписания проект закона РК «Об искусственном интеллекте», наоборот, сужает его. В стране ИИ-работы авторским правом не охраняются, но при этом планируется, что этот проект обяжет вводить обязательную маркировку использования ИИ для генерации образов людей.
Датский проект игнорирует фундаментальный факт: он создает избыточное регулирование. По сути это удар по инструменту — по ИИ, а не по преступнику.
Цена регуляторной ошибки
Почему этот «молот» не просто избыточен, но и экономически опасен? Ответ лежит в одной из самых влиятельных работ по экономическому анализу права — статье судьи Фрэнка Истербрука The Limits of Antitrust (1984).
Истербрук описал два типа ошибок регулятора. Первая ошибка, она же ложная тревога: вмешаться, когда не следовало, то есть ошибочно «убить» полезную инновацию. Ошибка второго рода, она же пропуск: не вмешаться, когда следовало (пропустить реальное злоупотребление).
Главный тезис Истербрука: эти ошибки фатально несимметричны. Если регулятор допустил ошибку второго рода, то есть пропустил зло, рынок сам это исправит — ущерб временный. Но если он допустил первую ошибку, то есть ложно вмешался и «убил» инновацию — она мертва, пока жив запрет. В таком случае ущерб может длиться десятилетиями.
В этой парадигме «инфляция доверия» — это болезненный, но временный хаос. Рынок уже реагирует на него, создавая решения. Государственный «молот» — это ошибка первого рода, риск необратимого удушения инноваций в ИИ.
Против эволюции рыночных «скальпелей»
Этот хаос и есть рыночный механизм самоизлечения. Он делает доверие дорогим, дефицитным активом. И рынок немедленно реагирует, создавая не одно, а целую экосистему решений.
Первой попыткой был «поиск фейков» — решения, которые позволяют обнаружить использование ИИ. Но это гонка вооружений, которую «невозможно выиграть». Исследования показывают, что в реальных условиях (а не в лаборатории) точность современных детекторов падает на 45–50%. Академические исследования 2025 года лишь подтверждают это: дипфейки уже «научились сердцебиению», обманывая старые биометрические детекторы, которые проверяли микро-изменения цвета кожи.
Поэтому индустрия сместила фокус: не искать подделку, а доказывать подлинность.
Первым и главным ответом стал стандарт C2PA (Content Credentials), продвигаемый альянсом гигантов (Adobe, Microsoft, Intel, BBC). Его суть — встроить в файл криптографически подписанный «цифровой паспорт», который записывает всю «цепочку поставок» контента: кем создан, когда, какие правки вносились.
Так родилась новая индустрия — «Доверие как Услуга» (TaaS). Но C2PA — это не панацея. Это, скорее, первое крупное решение среди конкурирующих идей. И как только у C2PA обнаружились уязвимости (платформы «снимают» метаданные с пометками о происхождении образов, как признают исследователи Google), рынок немедленно ответил эволюцией, создав решения для других ниш:
— Детекция в реальном времени, или liveness — проверка «наличия» живого человека с другой стороны экрана. Стартапы, вроде Deepfake Guard c (Deepfake Captcha для Zoom) и Netarx (со «светофором доверия», визуальным индикатором в углу экрана, который краснеет при подозрении на дипфейк), решают проблему «живого» мошенничества, предупреждая сотрудника об атаке во время звонка, а не после того, как деньги уже ушли.
— Устойчивые водяные знаки. Их задача — позволить ИИ-генераторам (OpenAI, Google) вплавлять в синтетический контент невидимую метку «Сделано ИИ». Стартап Steg.AI заявляет о водяном знаке, который выживает даже после пересъемки с экрана, решая проблему «отмывания» фейков через компрессию в мессенджерах.
— Аппаратный провенанс: Sony встраивает криптографическую подпись прямо в свои камеры (Alpha 9 III).
— Децентрализованный провенанс: Numbers Protocol и OpenOrigins используют блокчейн для создания «цифровых паспортов» контента как альтернативы централизованному C2PA.
— Платформы TaaS. Рынок сегментируется. Появляются стартапы в Insurtech (страхование от прямых финансовых потерь в результате атак с использованием дипфейков, как у DeepSecure), PR-tech (системы раннего оповещения, которые, как PhonyEye, сканируют соцсети на появление фейков с лицом CEO) и сервисы «цифрового нотариуса», как Attestiv, которые сохраняют «слепок» подлинного контента в блокчейн для использования в суде.
Это хаотичная, но продуктивная экосистема, созданная без участия регуляторов.
Инвестиционный тезис: ставка на экосистему
«Инфляция доверия» — не конец света. Это болезненная, но временная цена ошибки второго рода (невмешательства). Это та самая «болезнь», которая заставляет экономический организм вырабатывать «антитела».
Рынок Prooftech — это не просто часть сектора кибербезопасности. Это индустрия, которая строит фундамент для нового дефицитного актива — верифицируемой правды.
Инвестиционный тезис прост. Компании теряют реальные деньги и готовы платить за защиту. Вся ИИ-индустрия вынуждена инвестировать в любые решения, чтобы доказать свою безопасность и избежать тотального государственного регулирования («молота»), цена которого, как показал Истербрук, необратима.
Победят не те, кто пытается запретить дипфейки. Победит эволюционный отбор. Конечно, это несовершенное решение: это хаос стандартов, а платформы (Meta, TikTok) сопротивляются их внедрению. Но, как и в вечной невыигранной борьбе с мошенничеством, вся эта конкурирующая экосистема и есть настоящее рыночное «самоизлечение».
На нее ставят не потому, что она идеальна, а потому, что она — менее ошибочна. Как говорят в экономике, лучше быть примерно правым, чем точно неправым, как в случае с государственным «молотом».
Мы становимся свидетелями того, как эта суетливая экосистема TaaS строит новую экономическую реальность. В ней доверие — уже не воздух, которым все дышат, а чистый кислород, который продается в баллонах.