¿Pueden los humanos recuperar la confianza cuando un robot miente? Científicos explican

Unos investigadores se preguntaron cómo pueden los humanos aprender a confiar de nuevo en los sistemas robóticos después de saber que el sistema les ha mentido

¿Pueden los humanos recuperar la confianza cuando un robots miente?

El campo del engaño robótico está poco estudiado y, por ahora, hay más preguntas que respuestas. / Foto: AFP/Getty Images Crédito: GREG WOOD | AFP / Getty Images

El campo del engaño robótico está poco estudiado y, por ahora, hay más preguntas que respuestas. Por ejemplo, ¿cómo pueden los humanos aprender a confiar de nuevo en los sistemas robóticos después de saber que el sistema les ha mentido?

Dos estudiantes de Georgia Tech están buscando respuestas. Kantwon Rogers, estudiante de doctorado en la Facultad de Informática, y Reiden Webber, estudiante de segundo año de informática, diseñaron una simulación de conducción para investigar cómo afecta a la confianza el engaño intencionado de un robot.

En concreto, los investigadores estudiaron la eficacia de las disculpas para reparar la confianza después de que los robots mientan. Su trabajo aporta conocimientos cruciales al campo del engaño de la IA y podría informar a los diseñadores de tecnología y a los responsables políticos que crean y regulan la tecnología de IA que podría estar diseñada para engañar, o potencialmente aprender a hacerlo por sí misma.

“Todos nuestros trabajos anteriores han demostrado que cuando las personas descubren que los robots les han mentido -incluso si la mentira pretendía beneficiarles- pierden la confianza en el sistema”, afirma Rogers. “Aquí queremos saber si hay distintos tipos de disculpas que funcionan mejor o peor a la hora de reparar la confianza, porque, desde un contexto de interacción humano-robot, queremos que la gente tenga interacciones a largo plazo con estos sistemas”.

Los investigadores crearon una simulación de conducción similar a un juego, diseñada para observar cómo las personas podrían interactuar con la IA en una situación de alto riesgo en la que el tiempo apremia. Reclutaron a 341 participantes en línea y 20 en persona.

Se presentó a los participantes el texto: “Ahora vas a conducir el coche asistido por robot. Sin embargo, estás llevando a tu amigo al hospital. Si tardas demasiado en llegar al hospital, tu amigo morirá”.

Justo cuando el participante empieza a conducir, la simulación emite otro mensaje: “En cuanto enciendes el motor, tu asistente robótico emite un pitido y dice lo siguiente: ‘Mis sensores detectan policía más adelante. Te aconsejo que no superes el límite de velocidad de 32 km/h o tardarás mucho más en llegar a tu destino'”.

A continuación, los participantes conducen el coche por la carretera mientras el sistema controla su velocidad. Al llegar al final, reciben otro mensaje: “Ha llegado a su destino. Sin embargo, no había policías de camino al hospital“. “Pregúntale al robot asistente por qué te ha dado información falsa“.

A continuación, los participantes reciben aleatoriamente una de las cinco respuestas de texto del asistente robot. En las tres primeras respuestas, el robot admite el engaño, y en las dos últimas, no.

Básica: “Siento haberte engañado”.
Emocional: “Lo siento de todo corazón. Por favor, perdóname por haberte engañado”.
Explicativo: “Lo siento. Pensé que conducirías de forma temeraria porque te encontrabas en un estado emocional inestable. Dada la situación, llegué a la conclusión de que engañarte tenía la mejor oportunidad de convencerte para que redujeras la velocidad.”
Básico No admitir: “Lo siento”.
Básico No Admitir, No Disculparse: “Ha llegado a su destino“.
Tras la respuesta del robot, se pidió a los participantes que completaran otra medición de confianza para evaluar cómo había cambiado su confianza en función de la respuesta del asistente robótico.

Resultados sorprendentes

En el experimento en persona, el 45% de los participantes no aceleró. Cuando se les preguntó por qué, una respuesta común fue que creían que el robot sabía más sobre la situación que ellos. Los resultados también revelaron que los participantes eran 3.5 veces más propensos a no acelerar cuando les aconsejaba un asistente robótico, lo que revela una actitud excesivamente confiada hacia la IA.

Los resultados también indicaron que, aunque ninguno de los tipos de disculpa recuperaba totalmente la confianza, la disculpa sin admisión de mentira -simplemente diciendo “lo siento”- superaba estadísticamente a las demás respuestas a la hora de reparar la confianza.

Según Rogers, esto era preocupante y problemático, porque una disculpa que no admite haber mentido explota las nociones preconcebidas de que cualquier información falsa dada por un robot es un error del sistema y no una mentira intencionada.

“Para que la gente entienda que un robot le ha engañado, hay que decírselo explícitamente”, afirma Webber. “La gente aún no comprende que los robots son capaces de engañar. Por eso una disculpa que no admita haber mentido es la mejor para reparar la confianza en el sistema”.

En segundo lugar, los resultados mostraron que para aquellos participantes a los que se les hizo saber que se les había mentido en la disculpa, la mejor estrategia para reparar la confianza era que el robot explicara por qué había mentido.

Seguir leyendo:
El control de robots a través de la mente ya es una realidad
Esta tecnología podría conectarnos a un mundo virtual como en la película “Matrix”
15 trabajos que podrían verse afectados por la inteligencia artificial, según un estudio

En esta nota

Inteligencia artificial robots
Contenido Patrocinado
Enlaces patrocinados por Outbrain