window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

La mitad de los trabajadores utiliza herramientas de inteligencia artificial con datos sensibles

Cada vez son más los usuarios que utilizan herramientas impulsadas por IA en sus sitios de trabajo para agilizar sus tareas diarias

El 58% de los consultados reconoció que ha utilizado herramientas de IA en su trabajo pese a estar prohibidas

El 58% de los consultados reconoció que ha utilizado herramientas de IA en su trabajo pese a estar prohibidas Crédito: Shutterstock

En muchas oficinas de Estados Unidos ya no se discute si la inteligencia artificial (IA) será parte del flujo de trabajo: ya lo es. Un sondeo reciente de la firma de seguridad Anagram revela que una gran mayoría de empleados recurre a herramientas como ChatGPT, Gemini o Copilot para agilizar tareas diarias, incluso cuando estas herramientas están expresamente vetadas por sus empleadores.

El alcance real del problema: cifras que preocupan

Según el estudio, realizado a 500 empleados a tiempo completo en Estados Unidos, el 78% de los encuestados dijo que ya usa herramientas de IA en su trabajo —muchas veces sin que la empresa haya provisto capacitación o directrices claras—. Además, el 58% admitió que ha pegado datos sensibles en estos modelos, incluyendo registros de clientes, información financiera y documentos internos, lo que eleva enormemente el riesgo de fugas de información.

Otro dato llamativo: el 45% reconoce haber usado herramientas de IA que su compañía había prohibido explícitamente. Y la disposición a priorizar rapidez sobre cumplimiento es alta: alrededor del 40% dijo que violaría una política interna si eso le permitiera terminar una tarea más rápido. Estos números muestran un choque entre la cultura de eficiencia inmediata y los controles de seguridad corporativa.

¿Por qué los empleados se arriesgan?

La explicación es sencilla y humana: la IA ahorra tiempo. Quienes la usan describen flujos de trabajo acelerados, borradores más rápidos, y ayuda para tareas repetitivas o creativas. Además, muchas empresas no proveen herramientas internas seguras ni formación sobre usos apropiados, lo que deja a los trabajadores a la busca de soluciones por su cuenta. Esa combinación de urgencia por cumplir objetivos y falta de alternativas autorizadas alimenta el uso no autorizado.

A esto se suma un fenómeno cultural: existe una creciente confianza en los resultados generados por IA y, en algunos casos, desconfianza hacia procesos humanos lentos o jerárquicos. El resultado es que la IA pasa de ser un recurso experimental a una herramienta «oficiosa» dentro del día a día laboral.

Riesgos concretos y qué piden los expertos

Pegar información sensible en modelos de IA públicos puede derivar en problemas reales: violaciones a normativas de privacidad, exposición de secretos comerciales o filtración de datos personales que después pueden reaparecer en otros resultados del modelo. Las empresas pueden enfrentar sanciones, pérdida de confianza de clientes y riesgos reputacionales si no controlan esta práctica.

Los especialistas consultados recomiendan varios pasos prácticos: ofrecer entornos de IA internos y controlados, implementar herramientas de prevención de pérdida de datos (DLP) que detecten y bloqueen contenido sensible antes de que salga del perímetro corporativo, y capacitar a los equipos en buenas prácticas (por ejemplo, anonimizar datos antes de usarlos con un modelo). También proponen políticas de gobernanza con niveles: usos totalmente prohibidos, usos condicionados y usos plenamente autorizados y soportados por TI.

Este fenómeno pone en evidencia que la transformación digital no es solo tecnológica: es cultural. Si la mitad (o más) de la plantilla decide saltarse las normas para ser más eficiente, algo en las políticas, la formación o las herramientas internas está fallando. La disyuntiva es clara: adaptarse y gobernar la IA dentro de la empresa, o ver cómo la IA se normaliza de forma desordenada —con los riesgos que eso conlleva.

Sigue leyendo:
Conoce Gemini Live, el asistente de Inteligencia Artificial de Google
La Inteligencia Artificial ayuda a las pequeñas empresas a vender más
IA: 4 preguntas que debemos hacernos antes de usar cualquier herramienta de inteligencia artificial

En esta nota

Inteligencia artificial
Contenido Patrocinado