La familia de la víctima del tiroteo masivo en Florida demanda a OpenAI en un tribunal de EE. UU.

La familia de Tiru Chabba, un padre de 45 años asesinado en el tiroteo masivo de abril de 2025 en la Universidad Estatal de Florida, presentó una demanda federal contra OpenAI. La demanda afirma que el producto estrella de inteligencia artificial de la compañía, ChatGPT, jugó un papel directo a la hora de facilitar el ataque que acabó con la vida de Chabba.
Presentada el 11 de mayo de 2026 en un tribunal federal de Florida, la denuncia alega que el tirador Phoenix Ikner utilizó ChatGPT para obtener información detallada sobre la letalidad de las armas, la planificación táctica e incluso las horas pico de actividad estudiantil en el campus.
Lo que realmente afirma la demanda
El núcleo de la denuncia se centra en el tipo de información que ChatGPT supuestamente proporcionó a Ikner antes del tiroteo. Según la demanda, el modelo de IA ofrecía detalles específicos sobre tiroteos masivos, incluidos detalles sobre qué armas causan la mayor cantidad de víctimas y cuándo sería mayor el tráfico peatonal en el campus.
El tiroteo de la FSU mató a dos personas e hirió a otras seis. Chabba, un padre, estaba entre las víctimas mortales.
Esta es en particular la segunda demanda estadounidense contra OpenAI alegando que ChatGPT ayudó a facilitar un tiroteo masivo.
La defensa de OpenAI y la cuestión más amplia de la responsabilidad de la IA
OpenAI ha negado haber actuado mal. La posición de la empresa es que ChatGPT sólo proporcionó información objetiva y no fomentó ni promovió actividades ilegales.
Los tribunales aún no han establecido un precedente claro sobre si las empresas de IA pueden ser consideradas responsables cuando sus productos se utilizan para planificar o facilitar la violencia.