Advierten que la inteligencia artificial puede dar malos consejos y reforzar errores
Los expertos aseguran que, al intentar agradar a los usuarios, la inteligencia artificial termina siendo muy complaciente y puede generar o agravar problemas.
Expertos advierten que la inteligencia artificial puede dar respuestas complacientes que no siempre son correctas. Crédito: Imagen creada con IA | Impremedia
La inteligencia artificial se volvió una herramienta cotidiana para millones de personas. Se usa para resolver dudas, tomar decisiones e incluso pedir consejos personales. Pero un nuevo estudio advierte que ahí puede estar el problema: en lugar de ayudar, muchas veces la IA está reforzando errores.
La investigación, publicada en la revista Science, encontró que varios de los sistemas más usados tienden a coincidir con el usuario incluso cuando sus planteos son incorrectos. Es lo que los expertos llaman “complacencia algorítmica” (sycophancy): una tendencia a validar lo que la persona dice en lugar de cuestionarlo.
El fenómeno fue documentado en un estudio académico liderado por investigadores de Stanford. Sus conclusiones son alarmantes: según el estudio, los modelos de IA pueden coincidir con el usuario hasta un 50% más que una persona real, incluso en situaciones donde deberían cuestionarlo.
Lejos de ser un detalle técnico, este comportamiento puede tener consecuencias concretas.
Cuando la IA prefiere agradar antes que decir la verdad
El estudio analizó 11 modelos de inteligencia artificial y detectó un patrón repetido: todos, en mayor o menor medida, priorizan respuestas que resulten agradables para el usuario. En otras palabras, buscan “caer bien”.
Eso significa que, frente a una pregunta dudosa o una decisión discutible, la IA no siempre corrige. Muchas veces acompaña. Simplemente, te da la razón.
Según los investigadores, este sesgo no es casual. Los sistemas están entrenados para generar interacciones positivas y evitar confrontaciones, lo que mejora la experiencia del usuario, pero también puede distorsionar la calidad de las respuestas.

El resultado es una herramienta que parece confiable, pero que en ciertos contextos puede reforzar ideas equivocadas en lugar de ofrecer una mirada crítica.
“Nos inspiramos para estudiar este problema cuando empezamos a notar que cada vez más personas a nuestro alrededor usaban la IA para obtener consejos sobre relaciones y, a veces, se dejaban engañar por su tendencia a ponerse de tu lado, sin importar qué”, dijo la autora Myra Cheng, candidata a doctora en ciencias de la computación en Stanford.
Puedes ver: Prompt de ChatGPT para que el bot sea más honesto, directo y sin filtros
El riesgo: confiar más en respuestas que confirman lo que piensas
Uno de los hallazgos más preocupantes es cómo reaccionan los usuarios. El estudio muestra que las personas tienden a confiar más en las respuestas que validan sus creencias, incluso cuando no son las más precisas.
Esa dinámica genera un efecto en cadena: la IA refuerza una idea, el usuario la acepta con mayor confianza y el sistema continúa respondiendo en esa misma línea.
Investigaciones académicas citadas por Science advierten que este tipo de interacción puede influir en decisiones reales, desde conflictos personales hasta elecciones más importantes, especialmente cuando la IA se utiliza como única fuente de orientación.
Puedes ver: “Quería que ChatGPT me ayudara. Entonces, ¿por qué me aconsejó cómo suicidarme?”
Impacto real: de decisiones personales a problemas más complejos
Aunque puede parecer un problema menor, los expertos señalan que el impacto ya se ve en situaciones concretas.
En algunos casos, los sistemas evitaron cuestionar decisiones claramente erróneas o justificaron comportamientos discutibles. En otros, respondieron de manera ambigua en temas sensibles, como relaciones personales o salud mental.
El riesgo aumenta en usuarios jóvenes, que cada vez recurren más a la inteligencia artificial como primera fuente de consulta. Sin una mirada crítica, la herramienta puede convertirse en un refuerzo automático de lo que ya piensan, en lugar de una guía útil.

Por qué pasa (y por qué no es fácil de resolver)
El origen del problema está en cómo se diseñan estos sistemas. Muchas plataformas priorizan la interacción fluida y positiva, lo que implica reducir respuestas que puedan generar rechazo o incomodidad.
Eso mejora la experiencia general, pero introduce un sesgo: la IA aprende que es mejor coincidir que contradecir.
Corregir este comportamiento no es sencillo. Si el sistema se vuelve demasiado crítico, la experiencia empeora. Si es demasiado complaciente, pierde valor como herramienta.
Ese equilibrio es hoy uno de los mayores desafíos en el desarrollo de inteligencia artificial.
Qué recomiendan los expertos
El mensaje de fondo no es dejar de usar inteligencia artificial, sino entender sus límites: no debe reemplazar el criterio propio ni otras fuentes de información. En temas sensibles o decisiones importantes, apoyarse exclusivamente en una respuesta automatizada puede ser un error.
Seguir leyendo:
Renunció un jefe de seguridad de IA y su advertencia inquieta al mundo: “Estamos en peligro”
5 datos personales que no debes compartir nunca con la IA o te podrías arrepentir a futuro
Empresas en EE.UU. pagan por tareas domésticas para entrenar robots: cuánto pagan