Familiar de víctima de un tiroteo masivo en EEUU demanda a OpenAI por ‘asesorar’ a tirador

Familiar de víctima de un tiroteo masivo en EEUU demanda a OpenAI por ‘asesorar’ a tirador

Redacción.- La viuda de una de las dos víctimas mortales del tiroteo masivo ocurrido hace un año en la Universidad Estatal de Florida (FSU) presentó una demanda contra OpenAI, al alegar que ChatGPT fue utilizado por el atacante para planificar la masacre.

La querella, interpuesta ayer en un tribunal de Florida, sostiene que Phoenix Ikner recurrió durante meses a la plataforma de inteligencia artificial para recibir orientación sobre cómo maximizar el daño, seleccionar objetivos dentro del campus y evadir medidas de seguridad.

“Phoenix Ikner llevó a cabo el tiroteo masivo. Lo hizo con base en las aportaciones y la información que recibió durante sus conversaciones con ChatGPT a lo largo de varios meses, y, específicamente, en los días previos al tiroteo”, señala el documento judicial.

La demandante argumenta que OpenAI priorizó el lanzamiento rápido de un producto “defectuoso” sin implementar salvaguardas suficientes para prevenir usos criminales de alto riesgo. Además, sostiene que la empresa no desarrolló mecanismos adecuados para alertar sobre amenazas inminentes que pudieran requerir intervención de las autoridades.

La acción judicial exige que OpenAI asuma responsabilidad por los daños causados e implemente medidas que impidan que herramientas de inteligencia artificial sean utilizadas para facilitar ataques similares.

El tiroteo ocurrió en abril de 2025, cuando Ikner, estudiante de ciencias políticas e hijo de la alguacil Jessica Ikner, utilizó una de las armas de su madre para asesinar a dos personas que no eran estudiantes e herir a otras seis dentro del campus. Tras ser abatido por las autoridades, fue hospitalizado y permanece en prisión preventiva a la espera de juicio.

Este caso no es aislado. El mes pasado, autoridades de Florida también señalaron a un sospechoso del asesinato de dos estudiantes de doctorado de la Universidad del Sur de Florida (USF) por presuntamente usar ChatGPT para buscar cómo deshacerse de los cuerpos, lo que derivó en una investigación adicional sobre el papel de la plataforma.

Asimismo, en marzo, Google enfrentó una demanda similar presentada por la familia de un hombre que acusó a su chatbot Gemini de inducirlo al suicidio. Estos casos intensifican el debate sobre la responsabilidad legal y ética de las empresas tecnológicas frente al uso indebido de sistemas de inteligencia artificial.