Demandan a OpenAI por presunta ayuda de ChatGPT en tiroteo en universidad de Florida

La empresa ha rechazado tajantemente las acusaciones. Drew Pusateri, portavoz de la compañía, insistió en que su tecnología no es la culpable de la tragedia

Demandan a OpenAI por presunta ayuda de ChatGPT en tiroteo en universidad de Florida

Esta foto, proporcionada por la Oficina del Sheriff del Condado de Leon, muestra a Phoenix Ikner, presunto autor del tiroteo en la Universidad Estatal de Florida. Crédito: Oficina del Sheriff del Condado de Leon/ Archivo | AP

La empresa de inteligencia artificial OpenAI enfrenta una nueva batalla legal en Estados Unidos luego de que la familia de una de las víctimas mortales del tiroteo ocurrido en la Universidad Estatal de Florida presentara una demanda federal acusando a ChatGPT de haber ayudado al atacante a planear la masacre.

La querella fue presentada en un tribunal federal del norte de Florida por Vandana Joshi, esposa de Tiru Chabba, uno de los dos hombres asesinados durante el ataque perpetrado el 17 de abril de 2025 en el campus de Florida State University. El otro fallecido fue Robert Morales, director de servicios de comedor de la universidad.

La demanda sostiene que ChatGPT actuó como una especie de “asistente” del presunto atacante, Phoenix Ikner, proporcionándole información relacionada con armas, horarios de mayor afluencia estudiantil y posibles repercusiones mediáticas y legales del ataque.

Durante una conferencia de prensa en Tallahassee, los abogados de la familia acusaron a OpenAI de priorizar el crecimiento comercial de su plataforma por encima de la seguridad pública.

“OpenAI sabía que esto podía ocurrir y aun así permitió que su sistema siguiera interactuando con alguien que mostraba señales evidentes de violencia”, afirmó el abogado Bakari Sellers.

Según documentos judiciales, Ikner sostuvo miles de conversaciones con ChatGPT durante más de un año. En esos diálogos, presuntamente habló sobre Adolf Hitler, el nazismo, tiroteos masivos como Columbine y Virginia Tech, además de temas relacionados con suicidio, terrorismo y violencia armada.

Acusan a ChatGPT de ayudar a planear el ataque

La demanda asegura que Ikner utilizó el chatbot para obtener orientación práctica antes del ataque. Entre otras cosas, el acusado habría compartido fotografías de armas de fuego y solicitado consejos sobre su funcionamiento.

De acuerdo con el expediente, ChatGPT le explicó detalles técnicos sobre una pistola Glock, incluyendo recomendaciones para disparar bajo estrés y medidas de manipulación del arma.

Los abogados también sostienen que el chatbot respondió preguntas sobre cuáles eran las horas de mayor tráfico en el centro estudiantil de la universidad. Según la demanda, ChatGPT indicó que el periodo de mayor concentración de personas ocurría entre las 11:30 de la mañana y la 1:30 de la tarde, y el ataque comenzó alrededor de las 11:57 a.m.

La querella además afirma que Ikner consultó sobre el nivel de atención mediática que generan los tiroteos masivos y las posibles condenas penales para el atacante.

“ChatGPT exacerbó y alentó los delirios de Ikner”, señalan los abogados de la familia, quienes sostienen que el sistema no detectó señales claras de peligro ni alertó a las autoridades pese a las conversaciones consideradas “alarmantes”.

Actualmente, Ikner enfrenta cargos por asesinato en primer grado e intento de homicidio y permanece detenido a la espera de juicio.

OpenAI rechaza responsabilidad por la tragedia

OpenAI negó que ChatGPT haya promovido o facilitado el ataque. En declaraciones enviadas a medios estadounidenses, el portavoz de la compañía, Drew Pusateri, afirmó que el chatbot únicamente proporcionó información disponible públicamente en internet y que nunca alentó actividades ilegales.

“La tragedia ocurrida en la Universidad Estatal de Florida fue devastadora, pero ChatGPT no es responsable de este crimen”, indicó la empresa.

OpenAI aseguró además que colaboró con las autoridades desde que tuvo conocimiento del caso y defendió las medidas de seguridad implementadas en la plataforma para detectar usos maliciosos.

El caso se suma a una creciente lista de demandas y cuestionamientos en Estados Unidos contra compañías de inteligencia artificial por el posible impacto de sus chatbots en personas vulnerables o con problemas de salud mental.

El mes pasado, varias familias canadienses demandaron a OpenAI tras otro tiroteo escolar, mientras que otras compañías tecnológicas, incluido Google, también enfrentan procesos judiciales relacionados con el comportamiento de sistemas de inteligencia artificial.

En paralelo, el fiscal general de Florida, James Uthmeier, abrió una investigación penal para determinar si OpenAI podría enfrentar algún grado de responsabilidad legal por las conversaciones sostenidas entre Ikner y ChatGPT antes de la masacre.

Sigue leyendo:

En esta nota

ChatGPT Florida OpenAI
Contenido Patrocinado