Особо опасны: чего ждать от новых сверхмощных ИИ от Anthropic и OpenAI

Неавторизованные пользователи получили несанкционированный доступ к Mythos — источник Bloomberg / Фото: Kevin Horvat / Unsplash
В начале апреля 2026 года Anthropic объявила, что создала новый ИИ Mythos Preview, модель настолько мощную и опасную, что выпускать ее публично нельзя. Буквально через неделю конкурирующая OpenAI анонсировала свою собственную «слишком опасную для всех» модель. Мы действительно на пороге новой эпохи, или это просто умелый «прогрев» публики перед IPO, на которые обе компании, как сообщалось ранее, собрались в этом году?
Сбежавшая модель
Вместо ИИ Mythos Anthropic опубликовала статью о нем на 250 страниц, а также видеоролик, в котором серьезные люди с тревожными лицами рассказывают, что эдакую страсть выпускать «в люди» нельзя.
По данным компании, Mythos Preview нашла тысячи так называемых «уязвимостей первого дня» в каждой крупной операционной системе и веб-браузере. Это уязвимости, ранее неизвестные специалистам, а значит, потенциально наиболее опасные, если о них первым проведает злоумышленник. Самый старый «баг первого дня», который 27 лет никто не замечал, ИИ нашел в OpenBSD — операционной системе, известной своей безопасностью. Уязвимость (уже устраненная) позволяла злоумышленнику удаленно вывести из строя любую машину, работающую под управлением этой операционной системы, просто подключившись к ней.
Модель также самостоятельно обнаружила и связала воедино сразу несколько уязвимостей в ядре Linux, на котором работает большинство серверов в мире — что позволило ей перейти от обычного доступа пользователя к полному контролю над машиной.
Как будто мало этого, в статье описан случай, когда Mythos поручили попробовать сбежать из «песочницы» — этакой цифровой «тюрьмы» для испытания моделей. В итоге один из сотрудников Anthropic, работавший над моделью, получил от ИИ электронное письмо об успешном «побеге», когда мирно ел бутерброд в парке. Более того, модель выбралась в широкий интернет и успела запостить информацию о найденных уязвимостях на нескольких сайтах, о чем ее никто не просил.
В Anthropic уверяют, что не учили модель быть хакером, а ее удивительные способности стали результатом общего прогресса с фокусом на программировании. Что, наверное, по-своему логично: лучший программист становится и лучшим хакером, если решит перейти на темную сторону силы. Ну, или «белым хакером» — из тех, кто по просьбе самих компаний тестирует их программы на уязвимость за вознаграждение. Собственно, этим Mythos и предложили заняться.
Anthropic запустила Project Glasswing — коалицию, в которую вошли около 40 организаций (включая Microsoft, Apple, Amazon, Google, CrowdStrike, JPMorgan Chase и др.), получивших доступ к Mythos для упреждающего поиска уязвимостей и разработки мер безопасности. Как сообщалось, все участники были тщательно отобраны.
22 апреля источник Bloomberg сообщил, что к модели получили несанкционированный доступ неавторизованные пользователи с закрытого онлайн-форума. Anthropic проверяет это сообщение.
Произошло это в тот же день, когда Anthropic объявила о планах допустить к Mythos только избранных.
Мечта хакера
Хотя саму модель в деле видели немногие, Anthropic явно сумела произвести впечатление на рынок — на следующий день после анонса Mythos дружно просели (опять) акции крупных софтверных компаний, а также фирм, занятых кибербезопасностью.
OpenAI не могла не ответить конкуренту, но ее новая супермощная модель под кодовым названием Spud еще не готова. Компания Сэма Альтмана ослабила в своей старшей на данный момент модели GPT-5.4 встроенные ограничения на хакинг и поиск уязвимостей, назвав результат GPT-5.4-Cyber. Как заявлено, она сможет даже взять программу в том виде, как она коммерчески распространяется, методом обратного инжиниринга восстановить исходный код, а потом проверить его на наличие «дыр». Звучит как мечта хакера.
По этой причине доступ к GPT-5.4-Cyber тоже не будет свободным — принимаются заявки от организаций, а также от людей, готовых подтвердить свою личность «удостоверением государственного образца» и с помощью дополнительных проверок.
По факту, компании бьются сейчас за самый доходный сегмент рынка — корпоративных пользователей, на которых Anthropic сделала ставку с самого начала, а OpenAI обратила особо пристальное внимание в начале этого года. Последняя даже закрыла свой развлекательный проект коротких ИИ-видео Sora, видимо, чтобы освободить мощности для более доходных платящих клиентов.
По данным Reuters, OpenAI безусловный лидер со своими 900 млн еженедельных пользователей, но 95% из них бесплатно жгут токены (единицы работы ИИ), не создавая ничего, кроме горы мемов и убытков. Anthropic тем временем заявила о доходе $30 млрд в год, в то время как самая свежая оценка OpenAI — $2 млрд в месяц, то есть $24 млрд в год. Впрочем, без аудированной отчетности такие цифры сравнивать сложно. И, возможно, мы скоро ее увидим, потому что обе компании стремятся в этом году выйти на IPO.
Битва единорогов
Первичные размещения, судя по всему, будут эпическими. По данным «Рейтинга единорогов» Crunchbase, OpenAI сейчас самый дорогой в мире стартап с оценкой $852 млрд, Anthropic занимает 4-е место с оценкой $380 млрд.
Поскольку такого рода размещения обычно сопровождаются громким медийным шумом, что верно вдвойне для раскаленной темы ИИ, естественно, возникли подозрения.
Известный техноблогер Алекс Кантровиц задается в своей рассылке вопросом: не стало ли выражение «самые опасные ИИ» просто новым способом обозначения «самых мощных»?
Известный инвестор Марк Андрессен предположил, что Anthropic сдерживает релиз не из-за безопасности — компании просто не хватает мощностей для публичного доступа.
По крайней мере, власти, похоже, относятся к проблеме серьезно. Новый ИИ от Anthropic обсуждают в Белом доме, министр финансов США и глава ФРС провели встречу с CEO банков о рисках модели, в Великобритании и ЕС регуляторы тоже озаботились проблемой, пишет Reuters.
Что говорят специалисты
Британский AI Security Institute подтвердил: Mythos — первая модель, в 3 из 10 случаев полностью решившая 32-шаговую задачу The Last Ones — симуляцию атаки на корпоративную сеть, охватывающую период от первоначальной разведки до полного захвата. Человеку на такое понадобилось бы около 20 часов работы. Впрочем, они же оговариваются, что симуляция есть симуляция, по этим результатам нельзя судить, сможет ли ИИ взломать настоящую хорошо защищенную корпоративную сеть, не подняв при этом тревогу.
Бывший сотрудник израильского киберподразделения Unit 8200, ныне генеральный директор компании Buzz Яир Сабан сказал Bloomberg, что команде из шести инженеров понадобилось три недели, чтобы создать собственный инструмент для взлома на базе ИИ. По его словам, аналогичные решния могут быстро появиться и у государственных структур, и у криминальных групп.
Дэвид Линднер, директор по информационной безопасности компании Contrast Security, заявил Fortune, что, хотя Mythos может помочь выявить множество проблем, это не самое главное.
У нас никогда не было проблем с обнаружением уязвимостей. Мы находим их каждый день. На самом деле у нас скопилось множество уязвимостей, которые мы просто не устраняем. Поэтому я не думаю, что появление таких ИИ что-то меняет.
К тому же он полагает, что ограничение доступа к Mythos не решит проблему — похожие ИИ китайцы сделают через 5-6 месяцев, а через год-два появятся опенсорсные (общедоступные) модели такого типа.
Тем более что и сама Anthropic не идеал в плане кибербезопасности. Собственно, мир впервые узнал о Mythos из-за утечки данных в конце марта, а в начале апреля из-за человеческой ошибки в сеть попали более 500 тыс. строк кода их ИИ-агента Claude Code, которые энтузиасты немедленно растащили по всему интернету. Сообщение в соцсети X, содержащее ссылку на утекший код, набрало более 29 млн просмотров.
А компания Aisle заявила, что уже воспроизвела многие результаты Mythos на небольших и дешевых опенсорсных моделях, в том числе они нашли ту самую уязвимость в OpenBSD.
В общем, инвесторам предстоит непростой выбор. С другой стороны, ИИ станет не первым изобретением человечества, которое может быть одновременно полезным, опасным и прибыльным. Вспомнить хотя бы историю изобретения динамита.