Irán intentó utilizar ChatGPT para atacar las elecciones en EE UU

OpenAI logró identificar las cuentas involucradas en el intento de ataque por lo que procedió a desactivarlas

ChatGPT

OpenAI eliminó las cuentas involucradas en el ataque al detectar la actividad irregular Crédito: Shutterstock

Una reciente investigación ha revelado un preocupante intento por parte de hackers iraníes de manipular las elecciones presidenciales de Estados Unidos utilizando ChatGPT, el popular modelo de generación de texto de OpenAI. Este esfuerzo forma parte de una operación de influencia más amplia que pretendía desestabilizar el proceso democrático estadounidense a través de la difusión de noticias falsas y contenido manipulador en redes sociales.

ChatGPT en el medio de la polémica

Según la información proporcionada por OpenAI, los hackers iraníes aprovecharon la capacidad de ChatGPT para generar textos coherentes y persuasivos, con el fin de crear artículos y comentarios en redes sociales que parecían auténticos. Estos textos abordaban temas sensibles relacionados con la política estadounidense y se distribuyeron en plataformas como X (anteriormente conocida como Twitter), Instagram y otras, con la intención de polarizar la opinión pública y sembrar dudas sobre la legitimidad del proceso electoral.

Esta operación, conocida como “Storm-2035”, fue diseñada para influir en la percepción de los votantes en un año electoral crítico. Aunque el impacto directo de esta campaña fue limitado, su existencia subraya los crecientes riesgos asociados con el uso indebido de herramientas de inteligencia artificial en contextos políticos. Afortunadamente, OpenAI identificó y desactivó las cuentas relacionadas con esta operación antes de que pudieran causar un daño significativo.

Respuesta de OpenAI y el futuro de la seguridad en la IA

OpenAI, en colaboración con agencias gubernamentales y socios de la industria, ha intensificado sus esfuerzos para monitorear y contrarrestar este tipo de actividades maliciosas. La compañía ha reiterado su compromiso de mejorar la transparencia y seguridad en el uso de la inteligencia artificial, especialmente en el contexto de las elecciones.

La identificación y eliminación de las cuentas involucradas en esta operación es un ejemplo de cómo las empresas tecnológicas están tomando medidas para evitar que sus productos sean utilizados para propósitos nefastos. No obstante, este incidente también pone de relieve la necesidad urgente de desarrollar marcos regulatorios y éticos más robustos para el uso de la inteligencia artificial en procesos democráticos.

Implicaciones globales

El caso de “Storm-2035” no es un hecho aislado, sino parte de un patrón más amplio de intentos por parte de actores estatales y no estatales de manipular procesos electorales utilizando tecnología avanzada. A medida que las elecciones en Estados Unidos y otras partes del mundo se acercan, es probable que veamos un aumento en los intentos de desinformación asistida por IA.

Este incidente refuerza la importancia de la colaboración internacional en la lucha contra la desinformación y subraya el papel crítico que juegan las empresas tecnológicas en la protección de la integridad electoral. Las elecciones de 2024 en Estados Unidos serán una prueba decisiva no solo para el sistema democrático estadounidense, sino también para la capacidad de la comunidad global de resistir la manipulación digital.

Sigue leyendo:
Modo de voz de ChatGPT podría estrenarse muy pronto
OpenAI no facilitará la detección de textos creados con ChatGPT
OpenAI no se detiene y ya trabaja en ChatGPT 5

En esta nota

ChatGPT
Contenido Patrocinado
Enlaces patrocinados por Outbrain