5 Datos personales que no debes compartir nunca con la IA o te podrías arrepentir a futuro
Compartir información personal con una IA como ChatGPT es un error que puede permitir a terceros clonar tu identidad en el peor de los casos
Al interactuar con modelos de IA como ChatGPT o Claude debes tener mucho cuidado sobre la cantidad de información personal que puedes compartir con ella Crédito: Shutterstock
La IA generativa se siente como hablar con alguien de confianza. Le escribes, te responde, y todo parece quedar en la pantalla. El detalle es que muchas plataformas registran conversaciones para depurar fallos, prevenir abuso y, en algunos casos, mejorar modelos (a veces con opciones de exclusión, otras veces no tan claras).
Ese rastro puede vivir más tiempo del que imaginas, y si lo compartes desde una cuenta laboral o un chat “normal”, puede terminar en sistemas de análisis, revisiones internas o conjuntos de datos de entrenamiento, dependiendo del servicio y tus ajustes de privacidad.
El riesgo no es solo “la IA te espía”. El riesgo real es seguridad: si pegas datos sensibles en una conversación, abres la puerta a robo de identidad, fraude financiero, suplantación, extorsión o doxxing. Y aunque tu proveedor sea serio, ningún sistema es perfecto ya que existen filtraciones, accesos indebidos, fallos de configuración y también errores humanos (por ejemplo, cuando parte del contenido se usa para revisión o para mejorar filtros de seguridad).
Además, hay un factor que casi nadie considera y es que cuando tú compartes datos personales, no controlas cómo se “reutilizan” después. Un modelo entrenado o ajustado con conversaciones puede llegar a memorizar fragmentos (especialmente si son únicos o repetidos), y un tercero podría intentar “extraer” esa información con prompts maliciosos. No es ciencia ficción: se llama extracción de datos y ya es un tema de investigación y mitigación en el mundo de la IA.
5 datos personales que nunca deberías compartir con una IA
Si vas a usar IA para redactar, traducir o resolver cosas rápidas, perfecto. Pero ponle límites claros. Estos son cinco tipos de datos que conviene mantener fuera del chat, incluso si “solo es para que entienda mejor”.
1. Contraseñas (y también códigos 2FA, llaves de recuperación, tokens de sesión): si alguien accede a ese chat, o si lo copias/pegas donde no es, perdiste la cuenta sin discusión. La IA no necesita tu clave para ayudarte, puede explicarte cómo restablecerla o crear una contraseña fuerte sin verla.
2. Documentos de identidad: cédula/DNI, pasaporte, licencia, número de seguro social, fotos del documento o cualquier combinación “nombre + número + fecha de nacimiento”. Con esose arma un kit de suplantación en minutos, y además sirve para abrir cuentas, hacer trámites o pasar verificaciones.
3. Banca y pagos: números de tarjeta, cuenta bancaria, IBAN/ABA, capturas de pantalla de movimientos, comprobantes con referencias completas, o tu dirección de facturación. Aunque tapes “algunas” cifras, muchas veces queda suficiente contexto para correlacionar datos. Un fraude típico empieza con “solo necesito validar una transferencia”.
4. Salud: resultados médicos, diagnósticos, recetas, número de póliza, autorizaciones, fotos de exámenes, información de salud mental o cualquier dato altamente sensible. No solo es privacidad: esa información puede usarse para ingeniería social, estafas dirigidas o discriminación si termina en manos equivocadas.
5. Ubicación y rutinas: tu dirección exacta, ubicación en tiempo real, itinerarios (“salgo el viernes y vuelvo el lunes”),datos de escuela de tus hijos, y hábitos (“a esta hora la casa queda sola”). Esto es oro para acosadores y ladrones. Si necesitas recomendaciones, usa zonas amplias (“zona este”, “cerca del metro”) y evita horarios exactos.
Imagina que le pides a la IA “ayúdame a redactar un reclamo al banco” y pegas una captura con tu nombre completo, número de cuenta, dirección y transacción. Ese mensaje puede quedar registrado, reenviado a sistemas de soporte o revisado para moderación. Si algo falla en la cadena, ya regalaste todo lo que un estafador necesita para hacerse pasar por ti.
¿Cómo usar IA sin regalar tu privacidad?
No se trata de entrar en pánico, sino de usar la IA con criterio. La regla práctica es simple: si no lo publicarías en redes o no se lo dirías a un desconocido, no se lo pegues al chat. Prioriza privacidad por diseño y no por esperanza.
Algunas buenas prácticas fáciles y muy efectivas que puedes aplicar:
- Redacta con “placeholders”: cambia “Mi DNI es…” por “Mi ID es [ID]”, y pega solo el contexto mínimo necesario.
- Recorta capturas: si necesitas analizar un recibo, borra/oculta nombre, dirección, códigos de barras y referencias completas.
- Revisa ajustes del servicio: busca opciones como “no usar mis datos para entrenamiento”, “modo privado” o “historial desactivado” (si existe).
- Evita pegar documentos completos: mejor resume en tus palabras lo que dice el texto y pregunta sobre el procedimiento.
- Usa herramientas empresariales o locales si trabajas con info sensible: muchas organizaciones ofrecen entornos con políticas más estrictas de retención.
Sigue leyendo:
• Tus conversaciones con ChatGPT pueden estar apareciendo en Google sin que lo sepas
• La IA china DeepSeek expuso información personal de usuarios sin autorización
• Las fotos de tus hijos podrían estar siendo usadas para entrenar IA