El 33% de los trabajadores admite haber compartido datos sensibles de su empresa en plataformas online

Una parte importante tiene que ver con el uso en la sombra de la inteligencia artificial. Se trata de situaciones en las que los empleados utilizan herramientas de IA sin que exista una política formal dentro de la empresa.

La irrupción de la inteligencia artificial generativa en el entorno laboral está transformando la manera en que los profesionales trabajan, analizan información y automatizan tareas. Sin embargo, esta adopción acelerada también está generando nuevas preocupaciones en materia de seguridad digital. Cada vez más estudios muestran que una parte significativa de los empleados ha compartido datos sensibles de su empresa en plataformas online sin ser plenamente consciente de las consecuencias.

La difusión de datos sensibles en herramientas digitales se ha convertido en uno de los principales riesgos corporativos en la era de la IA. En muchos casos, los trabajadores utilizan aplicaciones para redactar textos, resumir informes o generar código, sin reparar en que parte de la información introducida puede contener datos sensibles relacionados con clientes, procesos internos o estrategias comerciales.

Publicidad

La inteligencia artificial se integra en el trabajo diario

El uso de herramientas de inteligencia artificial en el ámbito profesional ha crecido de forma exponencial en los últimos años. Según la Guía del Mercado Laboral elaborada por Hays, el 52% de los profesionales en España utiliza actualmente IA generativa en su actividad diaria, frente al 34% registrado el año anterior.

Este crecimiento se produce en paralelo a la adopción empresarial de estas tecnologías. Más de la mitad de las compañías ya promueven activamente el uso de estas herramientas para mejorar la productividad, automatizar tareas repetitivas y optimizar procesos internos.

El problema surge cuando, en ese proceso, los trabajadores introducen datos sensibles en plataformas externas. Muchas veces lo hacen para mejorar la redacción de un documento, analizar una propuesta comercial o revisar un informe técnico. Sin embargo, estas acciones pueden exponer datos sensibles si no existen protocolos claros sobre qué tipo de información puede compartirse.

El riesgo del uso “en la sombra” de la IA

Una parte relevante del fenómeno está relacionada con el llamado uso en la sombra de la inteligencia artificial. Se trata de situaciones en las que los empleados utilizan herramientas de IA sin que exista una política formal dentro de la empresa.

Este uso informal aumenta el riesgo de exposición de datos sensibles porque los trabajadores no siempre conocen los límites de seguridad de estas plataformas. Copiar fragmentos de contratos, informes internos o bases de datos puede parecer una acción inocente cuando se busca optimizar una tarea, pero en realidad puede implicar la transferencia de datos sensibles a sistemas externos.

El 33 de los trabajadores admite haber compartido datos sensibles de su empresa en plataformas online 2 Merca2.es
Los datos sensibles son usados en la IA sin control empresarial.

Un estudio realizado por la National Cybersecurity Alliance (NCA) y CybSafe revela que el 38% de los empleados que utilizan inteligencia artificial en su trabajo ha llegado a introducir información laboral confidencial en estas herramientas sin el conocimiento de su empresa.

La formación como herramienta para proteger la información

Ante este escenario, las organizaciones están comenzando a apostar por programas de formación que ayuden a los empleados a comprender los riesgos asociados al uso de estas tecnologías. La educación digital se ha convertido en un elemento clave para evitar la exposición de datos sensibles.

En este contexto, la empresa española Game Strategies ha desarrollado iniciativas orientadas a mejorar la cultura digital dentro de las compañías. Sus programas formativos utilizan simulaciones y metodologías basadas en el aprendizaje interactivo para enseñar a los profesionales a trabajar con inteligencia artificial sin comprometer datos sensibles.

Según su director ejecutivo, el principal problema no reside en la tecnología, sino en los hábitos de uso. Muchos trabajadores copian información interna en herramientas digitales sin preguntarse qué ocurre con esos contenidos una vez que se procesan.

Videojuegos y simulaciones para aprender a usar la IA

Una de las iniciativas formativas más destacadas consiste en utilizar videojuegos educativos para enseñar a los empleados a identificar situaciones de riesgo relacionadas con el uso de la inteligencia artificial.

Estas simulaciones recrean escenarios reales del entorno laboral en los que los participantes deben tomar decisiones sobre cómo gestionar datos sensibles mientras utilizan herramientas tecnológicas. El objetivo es que los profesionales comprendan en la práctica qué tipo de información no debe compartirse.

El aprendizaje basado en simulaciones permite que los empleados experimenten situaciones cotidianas sin poner en riesgo datos sensibles reales. Esta metodología resulta especialmente útil porque aborda los hábitos diarios que suelen generar vulnerabilidades en la seguridad corporativa.

Un desafío creciente para las empresas

El crecimiento del uso de la inteligencia artificial ha creado un nuevo desafío para las organizaciones: encontrar el equilibrio entre innovación tecnológica y protección de datos sensibles.

Los expertos en ciberseguridad coinciden en que la mayoría de las filtraciones no se producen por ataques externos, sino por errores humanos o prácticas poco seguras dentro de las propias empresas. La falta de concienciación sobre el valor de los datos sensibles es uno de los factores más determinantes.

Por ello, cada vez más compañías están desarrollando políticas internas para regular el uso de inteligencia artificial en el trabajo. Estas normativas suelen incluir directrices claras sobre qué información puede utilizarse en herramientas digitales y qué datos sensibles deben permanecer siempre dentro de los sistemas corporativos.

En un entorno donde la inteligencia artificial continuará expandiéndose en los próximos años, la protección de datos sensibles dependerá tanto de la tecnología como de la formación y la cultura digital de los profesionales.

Publicidad

Publicidad