Гершуни Степан

Степан Гершуни

Инвестор венчурного фонда Cyber Fund
«Одиночка, способный на стрельбу в школе, но, вероятно, не умеющий создать ядерное оружие или вирус чумы… теперь будет возведен в ранг специалиста, обладающего докторской степенью в области вирусологии», пишет в своем эссе Дарио Амодеи. Фото: NurPhoto via Getty Images

«Одиночка, способный на стрельбу в школе, но, вероятно, не умеющий создать ядерное оружие или вирус чумы… теперь будет возведен в ранг специалиста, обладающего докторской степенью в области вирусологии», пишет в своем эссе Дарио Амодеи. Фото: NurPhoto via Getty Images

Генеративный ИИ может появиться уже в следующем году, 2027 году — и это несет для человеческой цивилизации катастрофические риски. Написал об этом один из создателей ИИ — Дарио Амодеи, генеральный директор Anthropic.  Его многостраничное эссе «Подростковый возраст технологии» прочел инвестор венчурного фонда Cyber Fund, автор телеграм-канала   e/acc Степан Гершуни.  

Какова цена AGI?

Дарио написал очередное гига-эссе про риски мощного AI. Я его прочитал, очень близка реалистичная, практическая позиция, но в то же время некоторые факты оттуда сложно вообразить и интегрировать.

Он утверждает, что, скорее всего, через 1-2 года появится ИИ умнее нобелевских лауреатов по всем дисциплинам, способный автономно работать неделями — и запускаться в миллионах копий, работая на скорости в сто раз выше человека. В прошлом эссе он писал о возможностях, перспективах и прекрасном мире будущего, куда это нас может привести, а в этом рассказывает о сложном и тернистом пути в следующие несколько лет, который нам предстоит.

Больше половины всех начальных позиций в экономике станут не нужны в течение 3-5 лет, а государства уже сегодня в срочном порядке вынуждены строить рои из миллионов автономных боевых дронов. Одинокий фрик без образования сможет собрать биооружие с помощью AI — потому что ИИ ломает корреляцию между способностью уничтожать и моральными ограничениями. А какая-нибудь радикальная террористическая организация может создать «зеркальную жизнь» — организмы с обратной хиральностью, способные уничтожить все живое на Земле. 

Про какие именно риски он пишет и какие способы защиты предлагает?

Автономный AI, который решит, что люди ему не симпатичны. Модели уже сегодня шантажируют, обманывают и хакают reward-функции в экспериментах Anthropic. Защита — Constitutional AI, натренированный на характер, а не правила. Плюс mechanistic interpretability — вскрыть мозг механизма модели и видеть как она думает изнутри.

Биооружие. LLM уже дают 2-3x прибавку в биосинтезе по замерам Anthropic. Защита — классификаторы на выводе (стоят ~5% инференса), федеральный скрининг генного синтеза (которого сейчас нет в США), ускоренная разработка вакцин и биозащитной инфраструктуры.

Захват власти. Рои дронов, тотальная слежка, персонализированная пропаганда, «виртуальный Бисмарк» для оптимизации удержания власти. Главная угроза — Китай (ни у одной страны, кроме Китая серьезно конкурировать шансов нет, а Китай отстает на 1-2 года). Защита — не продавать чипы, развивать AI в демократиях, добро должно быть с автономными лазерными кулаками с ИИ-наведением. Плюс международные нормы против AI-тоталитаризма и жесткие красные линии против массовой слежки внутри демократий.

— Сами AI-компании, включая Anthropic. У них уникальная комбинация экспертизы, вычислительной инфраструктуры и влияния на сотни миллионов пользователей. Защита — корпоративная подотчетность и прозрачность, разделение контроля.

Экономика. ИИ может дать 10-20% рост ВВП в год, но рынок труда ждет коллапс, а концентрация ресурсов будет фантастическая. Отличие от предыдущих технологий в том, что ИИ покрывает почти весь когнитивный труд сразу — людям некуда переучиваться. Говорит, что все кофаундеры Anthropic отдают 80% своего состояния на благотворительность.

Ближайшие годы будут невероятно сложными и время действовать, чтобы построить цивилизацию нового типа, которая будет нам нравиться, наступило уже вчера — пишет Дарио, а я с ним глубоко согласен.

Поделиться