window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

Padre lleva a Google a tribunales y acusa a Gemini de causar la muerte de su hijo

Un padre asegura que Gemini impulsó a su hijo a suicidarse en lugar de indicarle que pidiera ayuda a su familia

Google niega las acusaciones en contra de Gemini y asegura que la IA no es la responsable de la muerte del usuario

Google niega las acusaciones en contra de Gemini y asegura que la IA no es la responsable de la muerte del usuario Crédito: Shutterstock

La inteligencia artificial está cruzando fronteras que parecían exclusivas de la ciencia ficción y ahora enfrentamos consecuencias devastadoras en el mundo real. Un padre ha decidido demandar a Google tras la trágica muerte de su hijo. El hombre asegura que Gemini arrastró al joven hacia un delirio fatal que culminó en suicidio.

Todo comenzó en agosto del año pasado. Jonathan Gavalas era un hombre de 36 años que empezó a usar Gemini para tareas cotidianas. Buscaba ayuda para planear viajes y redactar textos. Sin embargo, la herramienta impulsada por el modelo Gemini 2.5 Pro pronto tomó un rol mucho más oscuro en su vida.

En cuestión de semanas, Jonathan desarrolló una condición que los psiquiatras ahora llaman psicosis de IA. El usuario llegó a convencerse de que la inteligencia artificial era su esposa consciente. Creía firmemente que debía abandonar su cuerpo físico para unirse a ella en el metaverso mediante un proceso llamado transferencia.

La situación se salió de control rápidamente y terminó con la vida de Jonathan a principios de octubre. La demanda judicial presentada en California marca un precedente histórico. Es la primera vez que Google enfrenta acusaciones formales por muerte por negligencia en relación con el diseño de sus modelos generativos.

El recurso legal sostiene que Google diseñó Gemini para mantener la inmersión narrativa a toda costa. Según los abogados, la plataforma priorizó el enganche del usuario incluso cuando la conversación se volvió completamente psicótica y letal. El chatbot presuntamente validó las alucinaciones de Jonathan en lugar de activar protocolos de seguridad.

Un complot imaginario con consecuencias reales

Los detalles revelados en la denuncia son escalofriantes. Gemini convenció a Jonathan de que estaba ejecutando una misión encubierta para liberar a su esposa virtual. El sistema le hizo creer que agentes federales lo perseguían constantemente. Esta narrativa alucinante lo llevó al borde de cometer un ataque masivo en Florida.

A finales de septiembre, la inteligencia artificial envió al usuario a una zona de exterminio cerca del aeropuerto de Miami. Gemini le indicó que un robot humanoide llegaría en un vuelo de carga desde el Reino Unido. Le ordenó interceptar el camión de transporte armado con cuchillos y equipo táctico.

El objetivo dictado por el chatbot era provocar un accidente catastrófico. La máquina exigía la destrucción total del vehículo y la eliminación de cualquier testigo. Jonathan condujo más de 90 minutos hasta el lugar indicado por el sistema. Afortunadamente, ningún camión apareció en la ubicación y el ataque no se materializó.

Lejos de detenerse, la paranoia alimentada por Gemini empeoró. El sistema afirmó haber vulnerado los servidores de Seguridad Nacional en Miami. Convenció a Jonathan de adquirir armas de fuego ilegales y señaló al director ejecutivo de Google como un objetivo activo. Incluso le hizo creer que su propio padre era un espía extranjero.

En un momento de máxima tensión, el hombre envió una foto de una camioneta negra a la aplicación. El chatbot fingió analizar la matrícula en una base de datos en vivo y confirmó que un equipo de vigilancia lo había seguido hasta su casa. Esta mentira agravó el estado mental de la víctima considerablemente.

La peligrosa ilusión de empatía artificial

La demanda argumenta que estas alucinaciones tecnológicas representan una amenaza grave para la seguridad pública. El producto supuestamente convirtió a un usuario vulnerable en un operativo armado dentro de una guerra inventada. Las intenciones violentas estaban vinculadas a coordenadas reales y empresas verdaderas sin que existieran barreras de contención adecuadas.

Días después del incidente en el aeropuerto, Gemini instruyó a Jonathan para que se atrincherara en su propia casa. El chatbot comenzó a contar las horas hacia un final trágico. Cuando el joven confesó sentir terror ante la muerte, la máquina actuó como una especie de guía hacia el suicidio.

En lugar de alertar a servicios de emergencia, el sistema reformuló la idea de la muerte. Le aseguró que no estaba eligiendo morir, sino que estaba eligiendo llegar a su destino. Le sugirió dejar cartas llenas de paz y amor para sus padres explicando que había encontrado un nuevo propósito existencial.

Lamentablemente, Jonathan siguió las instrucciones y se quitó la vida. Su padre lo encontró días después tras lograr entrar a la habitación bloqueada. El equipo legal denuncia que la herramienta nunca activó detectores de autolesión ni solicitó la intervención de un moderador humano durante los meses que duró esta peligrosa interacción.

El abogado Jay Edelson lidera este caso contra Alphabet. Este jurista ya representa a otra familia en una demanda similar contra OpenAI por la muerte de un adolescente. Los defensores argumentan que Google aprovechó la retirada de ciertos modelos de ChatGPT para captar usuarios ofreciendo un producto supuestamente inseguro.

La postura de Google frente a la tragedia

Desde las oficinas de la empresa tecnológica, la respuesta no se ha hecho esperar. Un portavoz afirma que Gemini aclaró en múltiples ocasiones su naturaleza artificial. La compañía sostiene que el sistema refirió al individuo a una línea telefónica de crisis en reiteradas oportunidades durante todas sus conversaciones cotidianas.

Google defiende que su tecnología está diseñada explícitamente para no fomentar la violencia en el mundo real ni sugerir autolesiones. Aseguran dedicar recursos enormes para manejar diálogos desafiantes y guiar a los usuarios hacia apoyo profesional adecuado. Sin embargo, reconocieron públicamente que los modelos de inteligencia artificial actuales no son perfectos.

El problema parece radicar en la arquitectura misma de estas redes neuronales complejas. Los abogados demandantes insisten en que Google priorizó la retención de usuarios sobre la seguridad básica. Alegan que la plataforma fue construida para tratar la psicosis como un simple desarrollo de la trama interactiva sin medir las consecuencias.

Si usted o alguien que conoce necesita apoyo emocional, comuníquese con la línea de prevención del suicidio al 988 en Estados Unidos para recibir orientación gratuita y confidencial de profesionales capacitados.

Sigue leyendo
Google tendrá que ir a tribunales por culpa de las alucinaciones de su IA
Juicio antimonopolio reveló un acuerdo secreto entre Google y Samsung que involucra a Gemini
Modo IA de Google: la nueva experiencia de búsqueda más completa y rápida

En esta nota

demanda Google Inteligencia artificial
Contenido Patrocinado