Un chatbot mete a Air Canadá en problemas con la justicia

Una decisión judicial estableció que la aerolínea canadiense deberá responder por las afirmaciones realizadas por un chatbot integrado en su sitio web

Air Canada

El chatbot de Air Canada ofreció a los usuarios una promoción especial que no existía Crédito: Shutterstock

El reciente fallo judicial que ordena a Air Canada compensar a un cliente por información errónea proporcionada por su chatbot ha generado un intenso debate sobre la responsabilidad de las empresas en el uso de herramientas de inteligencia artificial. Este caso, el primero de su tipo en Canadá, destaca los desafíos que enfrentan las empresas al automatizar servicios y subraya la necesidad de una supervisión adecuada.

El incidente comenzó cuando Jake Moffatt, residente de Columbia Británica, contactó a Air Canada para obtener información sobre las tarifas por duelo y la posibilidad de reembolsos retroactivos. Según las capturas de pantalla de la conversación con el chatbot de la aerolínea, Moffatt fue informado de que podía solicitar un reembolso dentro de los 90 días posteriores a la emisión de su boleto, completando un formulario en línea. Confirmando esta información, Moffatt reservó boletos para asistir al funeral de un familiar en Toronto.

Sin embargo, cuando Moffatt solicitó el reembolso, Air Canada negó su solicitud, argumentando que las tarifas por duelo no se aplicaban a los viajes completados, y remitió a la sección de duelo en su sitio web. Más tarde, la aerolínea admitió que el chatbot había proporcionado información incorrecta, calificando las palabras utilizadas como “engañosas”. Esta discrepancia llevó a Moffatt a presentar una demanda por la diferencia de tarifa.

Explicación de Air Canada

En su defensa, Air Canada argumentó que el chatbot era una “entidad jurídica independiente” y, por lo tanto, era responsable de sus acciones. Sin embargo, el tribunal rechazó este argumento, señalando que, independientemente de la naturaleza interactiva del chatbot, era parte integral del sitio web de Air Canada y, como tal, la empresa era responsable de toda la información que proporcionaba.

El juez Christopher Rivers destacó que la aerolínea no había explicado por qué ciertas secciones de su sitio web eran más confiables que otras, y concluyó que no había razón para que Moffatt supiera que la información del chatbot era menos precisa que la de otras partes del sitio. En consecuencia, el tribunal ordenó a Air Canada pagar a Moffatt la diferencia entre el precio que pagó por su vuelo y una tarifa con descuento por duelo, junto con intereses y honorarios legales.

Este caso subraya la importancia de la transparencia y la precisión en la implementación de tecnologías de inteligencia artificial por parte de las empresas. Si bien el uso de chatbots y otras herramientas automatizadas puede mejorar la eficiencia y la accesibilidad de los servicios al cliente, también plantea riesgos en términos de responsabilidad y confiabilidad. Las empresas deben garantizar una supervisión adecuada de estas herramientas y asumir la responsabilidad por cualquier información incorrecta proporcionada por ellas.

A raíz de este fallo, es probable que otras empresas revisen sus prácticas en cuanto al uso de chatbots y tecnologías similares, con un enfoque renovado en la precisión y la transparencia. Además, este caso podría sentar un precedente importante en el ámbito legal en Canadá y en otros lugares, en términos de la responsabilidad de las empresas en relación con el uso de inteligencia artificial y tecnologías automatizadas.

Sigue leyendo:
Cómo es Dialogflow la herramienta de Google que te permite crear un chatbot en minutos
Nvidia presenta Chat with RTX el nuevo chatbot que promete superar a ChatGPT
Google diseña un chatbot con IA capaz de ofrecer diagnósticos médicos

En esta nota

aerolinea Inteligencia artificial
Contenido Patrocinado
Enlaces patrocinados por Outbrain