Nueva herramienta de inteligencia artificial aleja a los usuarios del lenguaje incendiario

Investigadores desarrollaron una herramienta capaz de seguir debates en línea en tiempo real, detectar cuándo se está produciendo una escalada de tensión y evitar que los usuarios utilicen un lenguaje incendiario

La investigación muestra indicios prometedores de que los métodos de previsión conversacional en el campo del procesamiento del lenguaje natural podrían resultar útiles

La investigación muestra indicios prometedores de que los métodos de previsión conversacional en el campo del procesamiento del lenguaje natural podrían resultar útiles Crédito: JIM WATSON | AFP / Getty Images

Los debates en línea pueden ser tan intensos que al final los participantes pueden llegar a usar un lenguaje incendiario para atacar a su oponente, pero un grupo de investigadores desarrolló una herramienta para evitar eso.

Investigadores de la Universidad de Cornell han desarrollado una herramienta de inteligencia artificial capaz de seguir estas conversaciones en tiempo real, detectar cuándo se está produciendo una escalada de tensión y evitar que los usuarios utilicen un lenguaje incendiario.

“Los polemistas bienintencionados son humanos. En medio de un debate acalorado, en un tema que te importa mucho, puede ser fácil reaccionar emocionalmente y no darse cuenta hasta después de los hechos”, afirma Jonathan Chang, estudiante de doctorado en el campo de la informática.

La herramienta, llamada ConvoWizard, es una extensión del navegador que funciona con una red neuronal profunda. Esa red se entrenó a partir de montañas de datos lingüísticos extraídos del subreddit Change My View, un foro que da prioridad a los debates de buena fe sobre temas potencialmente candentes relacionados con la política, la economía y la cultura.

Cuando los usuarios de Change My View activan ConvoWizard, la herramienta les informa de cuándo la conversación empieza a ponerse tensa. También puede informar a los usuarios, en tiempo real mientras escriben sus respuestas, de si su comentario puede aumentar la tensión. Según los investigadores, el estudio sugiere que la información proporcionada por la IA puede ser eficaz para guiar al usuario hacia un lenguaje que fomente un debate constructivo.

Si el comentario aumenta la tensión, ConvoWizard avisa y el cuadro de texto se pondría rojo. Los desarrolladores aseguran que la herramienta solo avisa cuando detecta un lenguaje que puede ser considerado incendiario, pero no le sugiere al usuario qué decir.

Así probaron la herramienta

Para probar ConvoWizard, los investigadores de Cornell colaboraron con el subreddit Change My View, donde unos 50 moderadores y miembros de foros participantes pusieron en práctica la herramienta.

Los resultados fueron positivos: el 68% consideró que las estimaciones de riesgo de la herramienta eran tan buenas o mejores que su propia intuición, y más de la mitad de los participantes afirmaron que las advertencias de ConvoWizard les impidieron publicar un comentario del que luego se habrían arrepentido.

Chang también señaló que, antes de utilizar ConvoWizard, se preguntó a los participantes si alguna vez habían publicado algo de lo que se hubieran arrepentido. Más de la mitad respondió afirmativamente.

“Estos resultados confirman que, sí, incluso los usuarios bienintencionados pueden caer en este tipo de comportamiento y sentirse mal por ello”, afirmó.

También podría interesarte:

ChatGPT: cómo puede ayudar a disminuir la carga laboral en algunas profesiones

Google contraataca: lanzarán su propio chatbot con IA durante las próximas semanas

En esta nota

Inteligencia artificial
Contenido Patrocinado
Enlaces patrocinados por Outbrain