Es posible que ChatGPT esté filtrando por error tus conversaciones privadas
Un usuario de ChatGPT reportó que en su cuenta aparecieron chats correspondientes a otra persona lo que hace creer que un error está permitiendo a terceros acceder a información privada
En las últimas horas, se ha revelado una preocupante situación en torno a ChatGPT, la inteligencia artificial de procesamiento de lenguaje natural desarrollada por OpenAI. Según un informe revelado por el sitio ArsTechnica, varios usuarios han reportado incidentes de errores y filtraciones de datos, incluyendo contraseñas, en la plataforma.
La alarma se disparó cuando un usuario específico compartió capturas de pantalla que mostraban múltiples conjuntos de nombres de usuario y contraseñas, aparentemente vinculados a un sistema de soporte utilizado por los empleados de un portal de medicamentos recetados de farmacia. Este descubrimiento plantea la preocupante posibilidad de que ChatGPT esté filtrando accidentalmente información confidencial.
Acceso a chats privados
El usuario en cuestión relató su experiencia en un correo electrónico, explicando que realizó una consulta para encontrar nombres inteligentes para los colores de una paleta. Sin embargo, al regresar después de un breve lapso, notó la presencia de conversaciones adicionales en su historial que no correspondían a sus interacciones previas. Estas conversaciones, aparentemente ajenas al usuario, incluían detalles sobre el trabajo de alguien en una presentación, información sobre una propuesta de investigación inédita y hasta un script en el lenguaje de programación PHP.
Este incidente resuena con un episodio previo en marzo de 2023, cuando OpenAI desconectó temporalmente ChatGPT después de que un error expusiera títulos del historial de chat de un usuario activo a personas no relacionadas. La repetición de problemas relacionados con la privacidad genera inquietudes sobre la seguridad y el manejo de datos sensibles por parte de la inteligencia artificial.
Problemas de privacidad
Cabe destacar que, según el informe de noviembre del año pasado, los investigadores ya habían demostrado la vulnerabilidad de ChatGPT. Utilizando consultas específicas, lograron que la IA revelara direcciones de correo electrónico, números de teléfono, direcciones físicas y otros datos privados presentes en el conjunto de entrenamiento del modelo. Este antecedente agrega un contexto más amplio a la actual preocupación sobre la seguridad de las conversaciones en la plataforma.
OpenAI, como desarrollador de ChatGPT, ahora enfrenta la presión de abordar de manera inmediata estos problemas de privacidad. Los usuarios, preocupados por la posibilidad de que sus conversaciones privadas estén siendo expuestas, exigen respuestas claras y medidas correctivas por parte de la empresa.
En respuesta a estos informes, OpenAI aún no ha emitido un comunicado oficial. Sin embargo, es crucial que la empresa se pronuncie sobre las acciones que está tomando para abordar este problema y fortalecer las medidas de seguridad de su plataforma.
La comunidad de usuarios de ChatGPT se encuentra en alerta máxima debido a la posible filtración involuntaria de conversaciones privadas. Este incidente plantea preguntas críticas sobre la seguridad de la plataforma y destaca la necesidad de una revisión exhaustiva de las políticas de privacidad y las medidas de seguridad implementadas por OpenAI.
Sigue leyendo:
– OpenIA sorprende a todos con nuevas funciones de ChatGPT
– OpenAI facilitará que puedas ganar dinero con ChatGPT gracias a esta función
– Revista Nature eligió a ChatGPT como una de las personalidades de 2023