WeTransfer se convierte en el centro de la polémica por sus nuevos términos y condiciones de IA
WeTransfer anunció que al utilizar su servicio los usuarios aceptan que sus archivos sean utilizados para entrenar a su modelo de Inteligencia Artificial

WeTransfer explicó que su objetivo es poder utilizar herramientas para moderar automáticamente contenido inapropiado Crédito: Shutterstock
En las últimas semanas, WeTransfer, la popular plataforma para transferir archivos grandes, ha estado en el centro de una controversia por un cambio en sus términos y condiciones. Lo que parecía un ajuste técnico derivó rápidamente en una ola de críticas por parte de usuarios creativos, especialmente fotógrafos, ilustradores y músicos, quienes expresaron preocupación al interpretar que sus archivos podrían ser usados para entrenar modelos de inteligencia artificial.
A mediados de julio, la empresa actualizó la sección 6.3 de sus términos, indicando que al utilizar el servicio, los usuarios otorgaban permiso para que sus archivos pudieran ser utilizados para mejorar modelos de aprendizaje automático. También se mencionaba que WeTransfer podía modificar, reproducir o distribuir públicamente los contenidos subidos. Esa redacción encendió todas las alarmas: ¿estaban dando permiso sin saberlo para que su trabajo alimentara una IA?
Reacción colectiva y desconfianza entre los usuarios
La reacción fue inmediata. En redes sociales, numerosos usuarios comenzaron a expresar su preocupación. Muchos asumieron que la plataforma estaba empezando a utilizar los archivos que comparten millones de personas a diario para alimentar sistemas de inteligencia artificial, sin una notificación clara ni un consentimiento explícito. “¿Están usando mis fotos o mis diseños para entrenar una IA sin decírmelo?”, se preguntaban.
Ante la creciente presión, WeTransfer salió al paso para desmentir la situación. La compañía aseguró que no utiliza aprendizaje automático para procesar el contenido compartido en su plataforma, y que tampoco vende archivos a terceros. Explicaron que el propósito de ese apartado legal era permitir el uso de sistemas automatizados para detectar contenido ilegal o dañino, no entrenar IA con los archivos de los usuarios.
Pese a la aclaración, la confianza se vio afectada. No fueron pocos los que recordaron casos similares, como el de Dropbox a finales de 2023, donde también se vivió una controversia relacionada con el uso de archivos en modelos de IA. El simple hecho de que el lenguaje legal diera pie a malas interpretaciones fue suficiente para despertar el escepticismo.
WeTransfer corrige la redacción y defiende su postura
En un intento por calmar las aguas, WeTransfer actualizó nuevamente sus términos. En la versión más reciente, vigente desde el 15 de julio y aplicable desde el 8 de agosto, la empresa aclara que los archivos solo se utilizarán para mejorar el servicio conforme a su política de privacidad, eliminando cualquier mención directa a “modelos de aprendizaje automático”.
Además, la empresa reconoció que el problema fue una falla en la comunicación. Aceptaron que la redacción original no fue clara y pudo generar confusión, especialmente entre usuarios preocupados por la privacidad de su trabajo creativo. El objetivo —según indicaron— siempre fue legalizar el uso de herramientas para moderar automáticamente contenido inapropiado, no apropiarse de los archivos.
Aun así, el incidente dejó en evidencia un problema mayor: la falta de claridad en los términos de uso puede afectar gravemente la reputación de una empresa, sobre todo en sectores sensibles como el creativo, donde los derechos de autor y la propiedad intelectual son esenciales.
¿Logrará WeTransfer recuperar la confianza perdida?
Aunque WeTransfer ha aclarado su postura y corregido el documento legal, la polémica deja una cicatriz. Algunos usuarios han comenzado a explorar plataformas alternativas, mientras que otros siguen utilizando el servicio con más cautela.
Esta situación sirve como recordatorio para todas las compañías tecnológicas: en plena era de la inteligencia artificial, los usuarios exigen más transparencia que nunca. Ya no basta con cubrirse legalmente; ahora es necesario comunicar con claridad, anticiparse a los malentendidos y actuar con sensibilidad frente a las preocupaciones legítimas de la comunidad.
El futuro de WeTransfer no está en juego, pero sí su relación de confianza con millones de usuarios que, durante años, han confiado en su plataforma para compartir trabajos delicados, confidenciales o inéditos. En un entorno donde la IA puede percibirse tanto como aliada como amenaza, la claridad en los términos de uso es más importante que nunca.
Sigue leyendo:
• Meta está usando tus fotos privadas para entrenar su IA
• OpenAI cree que DeepSeek utilizó datos de ChatGPT para entrenar a su IA
• Las fotos de tus hijos podrían estar siendo usadas para entrenar IA