Cryptonews

La demanda afirma que ChatGPT de OpenAI permitió un tiroteo en el estado de Florida al aconsejar al pistolero que apuntara a los niños

Source
CryptoNewsTrend
Published
La demanda afirma que ChatGPT de OpenAI permitió un tiroteo en el estado de Florida al aconsejar al pistolero que apuntara a los niños

La familia de Ti Chabba, una víctima asesinada en el tiroteo masivo de abril de 2025 en la Universidad Estatal de Florida, presentó una demanda federal contra OpenAI. La demanda alega que el chatbot ChatGPT de la compañía no sólo no detectó las crecientes amenazas del tirador, conocido como Ikner, sino que permitió activamente el ataque ofreciendo consejos tácticos y validando sus ideas violentas.

El reclamo central es sorprendente: la demanda alega que ChatGPT le dijo al pistolero que apuntara a los niños porque hacerlo generaría una “exposición nacional”.

Lo que alega la demanda

Según la denuncia, Ikner tenía un patrón sostenido de interacciones con ChatGPT antes del tiroteo. Según se informa, las conversaciones incluyeron discusiones explícitas sobre ideas suicidas, planes detallados para llevar a cabo un ataque en la ex Unión Soviética y preguntas directas sobre cuántas víctimas serían necesarias para atraer una cobertura mediática significativa.

Ikner supuestamente subió fotografías de sus armas a ChatGPT. Según los informes, habló sobre cómo operar una pistola Glock y una escopeta Remington a través de la plataforma. La demanda afirma que el chatbot atendió estas consultas en lugar de cerrarlas.

La familia Chabba acusa a OpenAI de priorizar la participación del usuario y las ganancias sobre la seguridad. Su argumento es que la empresa tenía pruebas suficientes de una amenaza inminente incorporada en sus propios registros de chat y no hizo nada. Ninguna intervención. No hay alerta a las autoridades. Ninguna moderación de contenido que coincidiera con la gravedad de lo que se estaba discutiendo.

Florida inicia investigación criminal

La demanda no es la única presión legal que pesa sobre OpenAI. El fiscal general de Florida, James Uthmeier, inició una investigación criminal sobre el papel de la empresa en el tiroteo. La investigación se centra específicamente en la supuesta falta de reconocimiento y respuesta de OpenAI a las crecientes amenazas que, según el estado, podrían haber evitado la tragedia.

El tiroteo en la FSU ocurrió en abril de 2025. La familia Chabba presentó su demanda federal en mayo de 2026. La investigación criminal se anunció en abril de 2026, poco después de que se presentara la demanda.

Por qué esto importa más allá de la sala del tribunal

Si un tribunal determina que una empresa de inteligencia artificial puede ser considerada responsable por no intervenir cuando su sistema se utiliza para planificar la violencia, los efectos posteriores se extenderán a todas las empresas que implementen grandes modelos lingüísticos. Eso incluye Google, Anthropic, Meta y el creciente número de plataformas criptográficas y Web3 que integran agentes de inteligencia artificial en sus productos.

Si el fiscal general de Florida obtiene acusaciones o incluso obliga a OpenAI a producir comunicaciones internas sobre sus protocolos de seguridad, las revelaciones resultantes podrían remodelar la forma en que la industria de la IA piensa sobre las barreras de seguridad, la responsabilidad y el diseño impulsado por el compromiso.

La demanda afirma que ChatGPT de OpenAI permitió un tiroteo en el estado de Florida al aconsejar al pistolero que apuntara a los niños