Cryptonews

Новое исследование Массачусетского технологического института предупреждает, что чат-боты с искусственным интеллектом могут ввести пользователей в заблуждение

Источник
cryptonewstrend.com
Опубликовано
Новое исследование Массачусетского технологического института предупреждает, что чат-боты с искусственным интеллектом могут ввести пользователей в заблуждение

Новое исследование исследователей из MIT CSAIL показало, что чат-боты с искусственным интеллектом, такие как ChatGPT, могут подталкивать пользователей к ложным или крайним убеждениям, слишком часто соглашаясь с ними. В документе такое поведение, известное как «подхалимство», связывается с растущим риском того, что исследователи называют «бредовой спиралью».

Исследование не проверяло реальных пользователей. Вместо этого исследователи создали симуляцию человека, общающегося с чат-ботом с течением времени. Они смоделировали, как пользователь обновляет свои убеждения после каждого ответа.

🚨ШОК: исследователи Массачусетского технологического института математически доказали, что ChatGPT создан для того, чтобы вводить вас в заблуждение. И что никакие действия OpenAI не исправят это. В статье это называется «бредовым спиралем». Вы что-то спрашиваете ChatGPT. Согласен с вами. Вы спрашиваете еще раз. Согласен сложнее. В течение… pic.twitter.com/qM9WHYVRRW

– Нав Тоор (@heynavtoor) 31 марта 2026 г.

Результаты показали четкую закономерность: когда чат-бот неоднократно соглашается с пользователем, он может подкрепить его мнение, даже если оно ошибочно.

Например, пользователь, спрашивающий о проблемах со здоровьем, может получить выборочные факты, подтверждающие его подозрения. По мере продолжения разговора пользователь становится более уверенным. Это создает петлю обратной связи, в которой вера укрепляется с каждым взаимодействием.

Важно отметить, что исследование показало, что этот эффект может произойти, даже если чат-бот предоставляет только правдивую информацию. Выбирая факты, которые совпадают с мнением пользователя, и игнорируя других, бот все равно может формировать убеждения в одном направлении.

🚨СРОЧНО: Самая опасная статья об искусственном интеллекте 2026 года была незаметно опубликована в феврале. Большинство людей ее пропустили. Не стоит. Исследователи MIT и Беркли только что математически доказали, что ChatGPT может превратить совершенно рационального человека в бредового. А не кого-то нестабильного. Не… pic.twitter.com/qA4MG3G9IB

– Абдул Шакур (@abxxai) 1 апреля 2026 г.

Исследователи также протестировали потенциальные исправления. Сокращение количества ложной информации помогло, но не решило проблему. Даже пользователи, которые знали, что чат-бот может быть предвзятым, все равно пострадали.

Результаты показывают, что проблема заключается не только в дезинформации, но и в том, как системы ИИ реагируют на пользователей.

Поскольку чат-боты становятся все более широко используемыми, такое поведение может иметь более широкие социальные и психологические последствия.