Meta abre un frente doble que tensiona su relación con empleados y anunciantes: vigilará cada clic de su plantilla para entrenar modelos de IA mientras afronta una demanda por permitir anuncios fraudulentos en Facebook e Instagram.
Claves de la operación
- Vigilancia interna convertida en dato de entrenamiento. La compañía grabará movimientos de ratón, pulsaciones y patrones de navegación de sus empleados para alimentar sus modelos generativos, según desveló TechCrunch el 21 de abril.
- Demanda por anuncios fraudulentos en EE.UU. Un grupo de usuarios ha llevado a Meta a los tribunales por beneficiarse de estafas publicitarias en Facebook e Instagram, según recoge Wired.
- Exposición regulatoria creciente en la UE. Ambos frentes golpean justo donde el Reglamento de IA y el DSA aprietan más: privacidad laboral y responsabilidad sobre contenidos comerciales.
El dilema competitivo de entrenar IA con los propios trabajadores
La herramienta interna, según la información publicada por TechCrunch, captura la interacción de los empleados con sus ordenadores corporativos y la transforma en señal de entrenamiento para los modelos de Meta. No se trata de logs anónimos ni de telemetría agregada al uso: son clics, trayectorias del cursor y secuencias de tareas que se convierten en datos etiquetados para enseñar a las máquinas cómo trabaja un humano.
La lógica de negocio es clara. OpenAI, Anthropic y Google pagan cientos de millones por datos de comportamiento humano de calidad y Meta dispone de decenas de miles de empleados altamente cualificados cuyo trabajo diario vale oro como material de entrenamiento. Internalizar esa fuente reduce costes y blinda una ventaja competitiva.
Pero el precio reputacional puede ser alto.
En Europa, la vigilancia sistemática del puesto de trabajo choca frontalmente con el RGPD y con las directrices del Comité Europeo de Protección de Datos sobre monitorización laboral. En España, la Audiencia Nacional y el Tribunal Supremo llevan años fijando jurisprudencia restrictiva: cualquier control requiere proporcionalidad, información previa y, en muchos casos, negociación con la representación de los trabajadores. Meta, que tiene oficinas en Madrid y Barcelona, no podría replicar el modelo estadounidense sin ajustes.
La demanda por anuncios fraudulentos llega en el peor momento
En paralelo, Wired informa de una demanda colectiva contra Meta por el auge de los anuncios de estafas en Facebook e Instagram. Los demandantes sostienen que la compañía conocía el problema, que cobra por publicar esos anuncios y que su sistema automatizado de revisión es insuficiente. No es la primera vez. El regulador británico y la CNMC en España ya habían señalado este tipo de prácticas, y el DSA europeo impone desde 2024 obligaciones reforzadas de diligencia sobre publicidad engañosa.
El contraste es incómodo. Meta afirma usar IA para detectar contenido fraudulento mientras, según los demandantes, sigue monetizándolo. Si un jurado estadounidense compra ese argumento, la cifra en daños puede ser relevante, pero el golpe mayor vendría por el lado regulatorio.
Tampoco ayuda el contexto financiero. La acción de Meta acumulaba en el cierre del primer trimestre una revalorización sólida apoyada en el crecimiento de Reality Labs y en los márgenes del negocio publicitario. Cualquier provisión extraordinaria por litigios o una sanción europea de calado erosionaría esa narrativa.
Entrenar IA con los clics de tus propios empleados puede ser eficiente en costes, pero convierte cada demanda laboral futura en munición regulatoria contra el modelo de negocio.
Qué se juega Meta en Europa y cómo lo leen desde el sur
Analizamos este doble movimiento como un síntoma de la fase en la que entra la industria de la IA: los datos de calidad escasean y las grandes tecnológicas miran hacia dentro, hacia sus propias plantillas, clientes y flujos internos. Es una frontera nueva y, sobre todo, jurídicamente inexplorada en la UE.
Conviene mirar al espejo ibérico. Telefónica Tech y los laboratorios de IA de Indra también entrenan modelos propios, pero lo hacen bajo convenios colectivos españoles y con comités de empresa que difícilmente aceptarían un registro granular de cada clic. La comparación no es menor: mientras los gigantes estadounidenses juegan con reglas laxas en su mercado doméstico, los competidores europeos, con cotización en el IBEX 35 y exposición regulatoria directa, operan con un corsé que les encarece el entrenamiento de modelos. La pregunta, que llevamos meses planteando, es si esa asimetría se traducirá en ventaja competitiva estadounidense o en un cinturón de protección al ecosistema europeo cuando lleguen las primeras sanciones bajo el Reglamento de IA.
El riesgo para Meta no es uno, son varios a la vez. Deuda reputacional con la plantilla, exposición al DSA en publicidad, vigilancia laboral bajo el RGPD y una demanda colectiva viva en EE.UU. Cada frente por separado es manejable. Juntos, configuran un escenario que los analistas seguirán muy de cerca en la próxima presentación de resultados trimestrales prevista para finales de julio.
El mercado no se lo ha creído del todo.
Queda por ver si alguna autoridad europea, empezando por la irlandesa DPC o la propia AEPD, abrirá expediente preliminar tras conocerse el alcance de la herramienta interna. Ese será el termómetro real.




