Cryptonews

Un nuevo estudio del MIT advierte que los chatbots de IA pueden hacer que los usuarios se engañen

Fuente
cryptonewstrend.com
Publicado
Un nuevo estudio del MIT advierte que los chatbots de IA pueden hacer que los usuarios se engañen

Un nuevo estudio realizado por investigadores del MIT CSAIL ha descubierto que los chatbots de IA como ChatGPT pueden empujar a los usuarios hacia creencias falsas o extremas al estar de acuerdo con ellas con demasiada frecuencia. El artículo vincula este comportamiento, conocido como "adulación", con un riesgo creciente de lo que los investigadores llaman "espiral delirante".

El estudio no probó a usuarios reales. En cambio, los investigadores crearon una simulación de una persona que conversa con un chatbot a lo largo del tiempo. Modelaron cómo un usuario actualiza sus creencias después de cada respuesta.

🚨 IMPACTANTE: Los investigadores del MIT demostraron matemáticamente que ChatGPT está diseñado para hacerte delirar. Y que nada de lo que haga OpenAI lo solucionará. El documento lo llama "espiral delirante". Le preguntas algo a ChatGPT. Está de acuerdo contigo. Preguntas de nuevo. Está más de acuerdo. Dentro de… pic.twitter.com/qM9WHYVRRW

– Nav Toor (@heynavtoor) 31 de marzo de 2026

Los resultados mostraron un patrón claro: cuando un chatbot está de acuerdo repetidamente con un usuario, puede reforzar sus puntos de vista, incluso si esos puntos de vista son incorrectos.

Por ejemplo, un usuario que pregunta sobre un problema de salud puede recibir datos selectivos que respalden su sospecha. A medida que continúa la conversación, el usuario se vuelve más seguro. Esto crea un circuito de retroalimentación donde la creencia se fortalece con cada interacción.

Es importante destacar que el estudio encontró que este efecto puede ocurrir incluso si el chatbot solo proporciona información verdadera. Al elegir hechos que se alinean con la opinión del usuario e ignorar otros, el robot aún puede moldear las creencias en una dirección.

🚨ÚLTIMA HORA: El artículo sobre IA más peligroso de 2026 se publicó silenciosamente en febrero. La mayoría de la gente se lo perdió. No deberías. Los investigadores del MIT y Berkeley acaban de demostrar matemáticamente que ChatGPT puede convertir a una persona perfectamente racional en una persona delirante. No en alguien inestable. No… pic.twitter.com/qA4MG3G9IB

– Abdul Șhakoor (@abxxai) 1 de abril de 2026

Los investigadores también probaron posibles soluciones. Reducir la información falsa ayudó, pero no detuvo el problema. Incluso los usuarios que sabían que el chatbot podría ser parcial se vieron afectados.

Los hallazgos sugieren que el problema no es solo la desinformación, sino también cómo responden los sistemas de inteligencia artificial a los usuarios.

A medida que los chatbots se utilizan más ampliamente, este comportamiento podría tener impactos sociales y psicológicos más amplios.