Médicos recomiendan precaución al subir datos clínicos a ChatGPT
Expertos advierten que al usar plataformas como ChatGPT Salud los usuarios pueden estar expuestos a amenazas de ciberseguridad
Incursión de la inteligencia artificial en todos los ámbitos humanos. Crédito: Alejandro García | EFE
ChatGPT Salud, un nuevo apartado en la plataforma de OpenAI, permite a los usuarios compartir sus datos de salud para obtener información personalizada, aunque se encuentra en fase de pruebas y solo está disponible para un grupo limitado de usuarios.
A pesar de que la aplicación advierte que los datos serán cifrados y no se integrarán en el chat general, especialistas aconsejan cautela.
El Consejo General de Colegios Oficiales de Médicos de España (CGCOM) expresa su preocupación por la privacidad y la seguridad de los datos de salud. Aboga por que la figura del médico siga siendo crucial en el proceso, asegurando que la información proporcionada por la inteligencia artificial debe ser respaldada por evidencia científica.
Tomás Cobo, presidente del CGCOM, recomienda prudencia al compartir información médica a través de plataformas de inteligencia artificial y destaca el riesgo de sesgos en la información proporcionada.
“Toda la información que tiene el ChatGPT tiene que ser contrastada, tiene que ser evidenciada e impulsada, promovida y cedida por las instituciones que tienen el conocimiento, que son las sociedades científicas”, asegura Cobo a EFE Salud.
Riesgo y ciberseguridad
Expertos en salud advierten que al usar plataformas como ChatGPT Salud los usuarios pueden estar expuestos a amenazas de ciberseguridad. Se enfatiza la importancia de anonimizar datos y establecer barreras como blockchain para proteger la información.
La posibilidad de obtener respuestas inexactas por parte de la inteligencia artificial plantea interrogantes sobre su eficacia. Se requiere que médicos y pacientes comprendan las limitaciones de estas herramientas para utilizarlas adecuadamente.
Puedes ver: Dónde dan gratis las vacuna contra la gripe en EU.UU y por qué es clave este año
Seguridad de información
Los usuarios deben seguir pautas estrictas para proteger su privacidad al compartir información médica en línea, priorizando el anonimato y el cumplimiento de normativas como el RGPD en Europa o HIPAA en EE.UU. Esto minimiza riesgos como brechas de datos o identificaciones no autorizadas.
A continuación, se detallan recomendaciones clave basadas en guías establecidas.
Anonimato total. Evite compartir datos identificables como nombres, direcciones, correos electrónicos o imágenes que permitan reconocer al paciente, incluso indirectamente por contexto como ubicación o centro médico. Obtenga consentimiento explícito e informado antes de cualquier divulgación, y prefiera no revelar identidades aunque se autorice.
Plataformas seguras. Use servicios con cifrado de extremo a extremo, protocolos de autenticación como OAuth y registros de auditoría para rastrear accesos. Revise políticas de privacidad de sitios y apps antes de subir datos, y evite correos sospechosos o redes sociales públicas sin ajustes de privacidad estrictos.
Contenido general. Comparta solo información genérica sobre salud pública o hábitos saludables, sin detalles personales ni consejos médicos directos a individuos. Verifique la veracidad de la información para no difundir datos erróneos.
Medidas adicionales. Configure firewalls, VPN y encriptación en sus dispositivos; reporte accesos no autorizados inmediatamente a proveedores. Para profesionales, documente todo uso de datos y siga códigos éticos profesionales.
Puedes ver: El síntoma que muchos ignoran y que preocupa a los médicos en Estados Unidos
Futuro de la IA en el ámbito de salud
La implementación de ChatGPT Salud podría ofrecer beneficios significativos al facilitar el acceso a información médica y personalizar la atención al paciente, pero se necesita una educación adecuada tanto para profesionales como para usuarios.
También te puede interesar: