Lanzan herramienta para detectar trampas con textos escritos por inteligencia artificial
Open AI anunció que ponía ha disposición de los internautas un clasificador de texto de IA que podría ayudarte a determinar si el texto que estás leyendo ha sido escrito por la IA o por un humano
Tras el escándalo generado por el uso de su producto ChatGPT por parte de estudiantes para engañar a sus profesores con textos creados con inteligencia artificial, la empresa Open AI lanzó hoy una herramienta para detectar ese tipo de escritos.
Open AI anunció que ponía ha disposición de los internautas un clasificador de texto de IA que podría ayudarte a determinar si el texto que estás leyendo ha sido escrito por la IA o por un humano.
“Hemos entrenado un clasificador para distinguir entre texto escrito por un humano y texto escrito por IA de diversos proveedores”, explicó la empresa en el anuncio del lanzamiento de su nueva herramienta.
La compañía considerada como pionera en la generación de contenido con AI, destacó que puso este clasificador a disposición del público para recabar opiniones sobre la utilidad de herramientas.
Open AI reconoce que su clasificador no es del todo fiable, pues por ahora tiene bajos niveles de identificación de textos hechos por máquinas, pero destaca que sigue trabajando para mejorarlo.
“Nuestro clasificador no es totalmente fiable. En nuestras evaluaciones sobre un “conjunto de desafíos” de textos en inglés, nuestro clasificador identifica correctamente el 26% de los textos escritos por IA (verdaderos positivos) como “probablemente escritos por IA”, mientras que etiqueta incorrectamente como escrito por IA un texto escrito por humanos el 9% de las veces (falsos positivos)”, informó Open AI.
La fiabilidad del clasificador, subraya la firma tecnológica, suele mejorar a medida que aumenta la longitud del texto de entrada. En comparación con su clasificador anterior, asegura, este nuevo clasificador es mucho más fiable con textos de sistemas de IA más recientes.
Herramientas para profesores
El escándalo surgió por el uso de ChatGPT en las escuelas, donde alumnos recurrieron a ese software para crear ensayos o escritos que les pedían sus maestros y algunos de ellos notaron la trampa.
Ante esa situación, Open AI dijo que desarrolló un recurso preliminar sobre el uso de ChatGPT para educadores, en el que se describen algunos de los usos y las limitaciones y consideraciones asociadas.
“Reconocemos que la identificación de textos escritos con IA ha sido un importante tema de debate entre los educadores, y que es igualmente importante reconocer los límites y las repercusiones de los clasificadores de texto generados por IA en el aula”, escribió la empresa en un comunicado.
“Estamos trabajando con educadores de Estados Unidos para saber qué ven en sus aulas y debatir sobre las capacidades y limitaciones de ChatGPT, y seguiremos ampliando nuestro alcance a medida que vayamos aprendiendo”, agregó.
Open AI también dice que en un futuro espera que su clasificador y las herramientas de clasificación asociadas tengan un impacto en periodistas, investigadores de la desinformación y otros grupos.
También podría interesarte:
El robot conversacional ChatGPT aprueba el examen de la facultad de Derecho de Estados Unidos
ChatGPT: 5 trabajos que podrían desaparecer con el chatbot de inteligencia artificial