Чем активнее ИИ создают похожим на людей, тем больше проблем это принесет в будущем, считает CEO Microsoft AI Мустафа Сулейман. Фото: julien Tromeur / Unsplash

Мустафа Сулейман, глава Microsoft AI, в колонке для Project Syndicate предупреждает: совсем скоро появится ИИ, который будет достаточно убедительно имитировать сознание. Он считает, что у этого будут ощутимые социальные последствия. 

Почти как люди 

Миссией моей жизни всегда было создание безопасного и полезного ИИ, который сделает мир лучше. Но в последнее время меня все больше тревожит, что люди начинают настолько сильно верить в ИИ как в разумное существо, что готовы выступать за «права искусственного интеллекта» и даже за предоставление ему гражданства. Этого нужно избежать. Мы должны создавать ИИ для людей, а не ИИ, который будет как человек.

В этом контексте споры о том, может ли ИИ действительно обладать сознанием, отвлекают от сути. В ближайшей перспективе важно другое — мы уже приближаемся к тому, что я называю «кажущимся сознательным ИИ» (seemingly conscious AI, SCAI) — появлению систем, которые будут достаточно убедительно имитировать сознание.

Такой SCAI сможет свободно использовать естественный язык, демонстрировать убедительную и эмоционально откликающуюся личность. Он будет обладать длинной и точной памятью, которая формирует у него целостное ощущение самого себя, и будет использовать эту способность, чтобы заявлять о субъективном опыте, ссылаясь на прошлые взаимодействия и воспоминания. Сложные функции вознаграждения внутри этих моделей будут имитировать внутреннюю мотивацию, а продвинутые механизмы постановки целей и планирования — усиливать ощущение, что ИИ проявляет подлинную самостоятельность.

Все эти возможности уже существуют или появятся совсем скоро. Мы должны признать, что подобные системы станут реальностью в ближайшее время. Нужно продумать последствия и выработать норму, которая будет препятствовать созданию иллюзии сознания.

Для многих людей взаимодействие с ИИ уже ощущается как ценный и подлинный опыт. Обеспокоенность «ИИ-психозом», зависимостью и состоянием психического здоровья растет: появляются сообщения о том, что люди воспринимают ИИ как проявление Бога. Между тем ученые, занимающиеся исследованием сознания, говорят мне, что их буквально заваливают вопросами люди, которые хотят знать, обладает ли их ИИ сознанием и можно ли в него влюбиться.

Разумеется, сама техническая возможность создания SCAI мало что говорит о том, может ли такая система действительно обладать сознанием. Как отмечает нейробиолог Анил Сет, симуляция шторма не означает, что в вашем компьютере идет дождь. Воспроизведение внешних признаков сознания не порождает его в реальности. Но на практике мы должны признать, что некоторые люди создадут SCAI, которые будут утверждать, что они действительно обладают сознанием. И кто-то поверит этим моделям.

Даже если это сознание не является настоящим (тема, которая породит бесконечные споры), социальные последствия будут ощутимыми. Сознание тесно связано с нашим чувством идентичности и пониманием моральных и юридических прав в обществе. Если некоторые SCAI убедят людей, что они могут страдать или имеют право не быть отключенными, их сторонники будут добиваться их защиты. В мире, уже охваченном поляризованными дебатами о правах и идентичности, появится новая ось разделения — между сторонниками и противниками прав ИИ.

Опровергнуть утверждения о страданиях ИИ будет сложно из-за ограничений современной науки. Некоторые ученые уже исследуют идею «благополучия модели», утверждая, что мы «обязаны проявлять моральную заботу о существах, у которых есть ненулевой шанс... обладать сознанием».

Применение этого принципа было бы и преждевременным, и опасным. Оно усугубило бы заблуждения у впечатлительных людей и использовало бы их психологическую уязвимость. Также это сделало бы борьбу за права еще сложнее, формируя новую обширную категорию их обладателей. Именно поэтому создания SCAI необходимо избегать. Наш фокус должен быть на защите благополучия и прав людей, животных и окружающей среды.

Как разрушить иллюзию 

В нынешней ситуации мы не готовы к тому, что нас ждет. Нам нужно опираться на растущий объем исследований о том, как люди взаимодействуют с ИИ, чтобы выработать четкие нормы и принципы. Один из них заключается в том, что компании, разрабатывающие ИИ, не должны внушать людям веру в то, что их системы обладают сознанием.

Индустрия ИИ — и вся технологическая сфера в целом — нуждается в надежных принципах проектирования и лучших практиках для работы с такими впечатлениями о моделях. Например, специально продуманное вмешательство может разрушить иллюзию и мягко напомнить пользователям о пределах и истинной природе системы. Такие протоколы должны быть четко определены и, возможно, закреплены законом.

В Microsoft AI мы активно изучаем, какой может быть ответственная «личность» ИИ и какие ограничения для нее необходимы. Это крайне важно, потому что для устранения риска SCAI нужно сформировать позитивное видение ИИ-компаньонов, которые будут положительно влиять на нашу жизнь.

Следует создавать ИИ, который стимулирует людей к взаимодействию друг с другом в реальном мире, а не к уходу в параллельную реальность. А если взаимодействие с искусственным интеллектом длительное, он должен всегда представлять себя как ИИ, а не как «вымышленного» человека. Создание полноценного ИИ означает максимум пользы при минимизации имитации сознания.

С вызовом, который несет SCAI, нужно разобраться немедленно. Во многом это станет моментом, когда ИИ действительно проявит свою полезность: он сможет управлять инструментами, запоминать все детали нашей жизни и многое другое. Но сопутствующие риски нельзя игнорировать. Мы все знаем людей, которые «проваливаются в кроличью нору» — это будет плохо как для них самих, так и для общества в целом.

Чем больше ИИ создают похожим на людей, тем дальше он отходит от своего истинного предназначения — быть источником расширения человеческих возможностей.

Copyright: Project Syndicate, 2025.

www.project-syndicate.org

Поделиться