window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

Google tendrá que ir a tribunales por culpa de las alucinaciones de su IA

La IA de Google presuntamente afirmó que una compañía de paneles solares había sido investigada por prácticas ilegales lo cual era falso

El error de la IA de Google podría explicarse por una supuesta alucinación de la herramienta del gigante tecnológico

El error de la IA de Google podría explicarse por una supuesta alucinación de la herramienta del gigante tecnológico Crédito: Shutterstock

En el mundillo de la inteligencia artificial las alucinaciones no son fantasías salvajes alucinógenas, sino errores graves: la IA inventa datos, hechos o personas que no existen, porque su objetivo es generar respuestas “creíbles” aunque no tengan base real.

Un ejemplo clásico: si no sabe la respuesta, simplemente predice la próxima palabra más plausible, y ahí nacen las mentiras. Un poco el “teléfono descompuesto” digital: sigue el hilo, pero va agregando fantasías hasta que la versión final suena real, aunque sea totalmente falsa. Y ese es un problema clave cuando estas “respuestas” se muestran como información confiable.

Google enfrenta una demanda por una alucinación digital

La polémica llegó cuando Wolf River Electric, una empresa de paneles solares de Minnesota, presentó una demanda por difamación contra Google. ¿La razón? Su IA, a través de la función AI Overviews, afirmó con toda seguridad que la compañía había sido demandada por el fiscal general de Minnesota por “prácticas engañosas”. Ojo: esa demanda nunca existió.

La IA no se limitó a eso: mencionó cuatro nombres de ejecutivos (Justin Nielsen, Vladimir Marchenko, Luka Bozek y Jonathan Latcham), mostró una foto e incluso citó enlaces — tres noticias y un comunicado oficial — que supuestamente respaldaban la denuncia, pero ninguno mencionaba a Wolf River Electric en contexto legal alguno.

Según la empresa, esto no fue una broma: cancelaron contratos por un total de hasta $150,000 dólares, clientes desconfiaron y su reputación se vio dañada. La queja principal: la “alucinación” no fue inocente, fue gravísima y con consecuencias reales.

Google, por su parte, admite que la mayoría de AI Overviews son útiles, pero reconoce que pueden surgir errores. De inmediato sacaron esa respuesta y ahora enfrentan un juicio por difamación, lo que abre un debate legal sin precedentes.

¿Por qué esto es un antes y un después para Google?

Lo que ocurrió con Wolf River Electric representa un quiebre en la forma en que entendemos el papel de Google en la era de la inteligencia artificial. Hasta ahora, el gigante tecnológico siempre había argumentado que solo mostraba contenido creado por terceros, funcionando como un intermediario neutro. Pero con la introducción de respuestas generadas por IA, como las de AI Overviews, Google pasa de ser un buscador a convertirse en un generador de contenido, lo que implica una nueva responsabilidad ética y legal.

Si la información presentada proviene directamente de una inteligencia artificial entrenada por la propia empresa, ya no se puede hablar de neutralidad. Google se convierte en editor de lo que muestra, y eso lo obliga a responder si el contenido es falso, engañoso o difamatorio. El caso de Wolf River Electric demuestra cuán grave puede ser esto: la IA no solo inventó una demanda inexistente, también aportó nombres, imágenes y fuentes aparentemente creíbles. Esto no es un simple error técnico, es una falla estructural con impacto directo en personas reales y sus negocios.

El incidente también pone en jaque las bases jurídicas sobre las que se ha protegido Google durante años. Normas como la Sección 230 de Estados Unidos blindaban a las plataformas respecto al contenido de otros, pero ese argumento se derrumba cuando la información la crea la propia compañía mediante IA. Por eso, abogados y expertos en tecnología insisten en que este es un momento decisivo que obliga a crear nuevas reglas, exigir auditorías externas y garantizar transparencia en cómo se entrenan y ajustan estos modelos.

Aunque Google reaccionó rápido, eliminando la respuesta y agregando advertencias, el cartel de “experimental” ya no es suficiente. Las empresas tecnológicas deben aceptar que su influencia va más allá de la experimentación: si sus sistemas generan errores que destruyen la reputación de terceros, deben asumir la responsabilidad. Lo que está en juego no es solo la reputación de un producto, sino la confianza global en la empresa que maneja la puerta de entrada a la información digital.

Este caso demuestra que las alucinaciones de IA pueden arruinar reputaciones, negocios o vidas, por lo que es necesario que las empresas tecnológicas y los legisladores revisen el marco legal existente.

Sigue leyendo:
Gemini: aprende cómo crear imágenes con la IA de Google
I/O 2025: el buscador de Google ahora habla contigo y hace todo por ti
Cómo el nuevo algoritmo de Google y la IA están transformando los resultados de nuestras búsquedas

En esta nota

Google Inteligencia artificial
Contenido Patrocinado