La noticia de que Meta va a instalar en los ordenadores de sus empleados estadounidenses una herramienta capaz de registrar movimientos de ratón, clics, pulsaciones de teclado y capturas ocasionales de pantalla para entrenar sus modelos de inteligencia artificial no es simplemente una anécdota más sobre la obsesión de Mark Zuckerberg con la inteligencia artificial. Es, más bien, una magnífica radiografía del momento en que nos encontramos: la empresa ya no solo quiere medir lo que hacen sus empleados, sino convertir la forma en que lo hacen en datos para automatizarlo.
La iniciativa, llamada Model Capability Initiative, no ofrece posibilidad de exclusión en los portátiles corporativos. La frase clave la ha dado Andrew Bosworth, CTO de la compañía: el futuro que Meta imagina es uno en el que los agentes «hacen principalmente el trabajo» y los empleados «dirigen, revisan y les ayudan a mejorar». Traducido: primero observamos cómo trabajas, después entrenamos a una máquina para hacerlo, y finalmente te explicamos que tu nuevo papel consiste en supervisar a tu sustituto.
La justificación técnica es impecable, como suelen serlo todas las malas ideas cuando se presentan en una sala de producto. Si queremos que los agentes de inteligencia artificial aprendan a usar ordenadores como los humanos, necesitamos ejemplos reales de cómo los humanos usan ordenadores: menús desplegables, atajos de teclado, movimientos de ratón, pequeñas decisiones aparentemente triviales. Lo que se plantea, por tanto, es entrenar modelos para que interactúen mejor con aplicaciones y completen tareas de oficina. Pero ahí está precisamente el problema. Lo que se presenta como una cuestión de eficiencia es, en realidad, una redefinición completa de la relación laboral. El empleado deja de ser únicamente trabajador para convertirse también en fuente de datos, sujeto experimental y proveedor involuntario de ejemplos para un sistema que puede terminar reduciendo el valor de su propio trabajo.
La vigilancia laboral no es nueva. Las empresas llevan décadas monitorizando correos, accesos, productividad, tiempos de respuesta o uso de herramientas corporativas. Lo nuevo es el cambio de finalidad y de escala. Antes se vigilaba para controlar; ahora se vigila para aprender. Antes el jefe quería saber si trabajabas: ahora la máquina quiere saber cómo trabajas. Y esa diferencia es enorme, porque convierte cada gesto digital en entrenamiento, cada rutina en un patrón extraíble, cada pequeña heurística personal en propiedad de la compañía. El viejo taylorismo analógico medía movimientos para optimizar la fábrica. El nuevo taylorismo algorítmico mide interacciones para entrenar agentes capaces de operar la oficina.
El caso de Meta resulta especialmente revelador porque afecta a trabajadores altamente cualificados, no a repartidores, teleoperadores o empleados de almacén, que han sido históricamente los primeros afectados por estas tecnologías. Muchas tecnologías disciplinarias empiezan aplicándose a trabajadores con menor capacidad de resistencia y van ascendiendo después por la escala corporativa hasta normalizarse también en el trabajo de cuello blanco. Esa es la verdadera curva de adopción de la vigilancia: empieza donde hay menos poder negociador y termina donde parecía impensable. La oficina, durante años presentada como espacio de autonomía, creatividad y criterio profesional, se está convirtiendo en un laboratorio de captura conductual.
El paso siguiente, aún más inquietante, es la llamada «emotion AI«: sistemas que pretenden inferir atención, entusiasmo, frustración, amabilidad o compromiso a partir de la voz, el rostro, los mensajes o el comportamiento en reuniones. Un mercado en expansión que promete medir no solo la productividad, sino la disposición emocional del trabajador. Ya no basta con hacer el trabajo: hay que parecer suficientemente motivado, positivo, colaborativo y emocionalmente alineado con la cultura corporativa. Es la vieja exigencia de «actitud» convertida en métrica, en dashboard y en señal algorítmica.
En Europa, al menos, el legislador parece haber entendido parte del problema. La Comisión Europea ha publicado sus directrices sobre prácticas prohibidas por el AI Act, y análisis como el de Future of Privacy Forum subrayan que la inferencia de emociones en el lugar de trabajo basada en datos biométricos queda prohibida salvo excepciones muy específicas. La razón es obvia: en una relación laboral no existe un consentimiento genuinamente libre. Cuando la alternativa a aceptar la monitorización es perder oportunidades, quedar señalado o, simplemente, perder el empleo, hablar de consentimiento es una broma de mal gusto.
La Organización Internacional del Trabajo también ha empezado a advertir sobre los riesgos psicosociales de la inteligencia artificial en el trabajo: vigilancia intrusiva, pérdida de autonomía, intensificación laboral, erosión de la dignidad y falta de transparencia. No hablamos únicamente de privacidad en sentido estrecho. Hablamos de qué significa trabajar cuando cada acción puede ser registrada, evaluada, correlacionada y reutilizada. Hablamos de si el trabajador conserva un margen de agencia o se convierte en una pieza observada permanentemente por sistemas que no entiende y que rara vez puede impugnar.
El argumento empresarial será siempre el mismo: los datos no se utilizarán para evaluar el rendimiento, existen salvaguardas, el ámbito está limitado a aplicaciones de trabajo, todo se hace para mejorar la tecnología… Pero la historia de la tecnología corporativa demuestra que las infraestructuras de vigilancia rara vez permanecen limitadas a su propósito inicial. Una vez que el dato existe, aparece la tentación de reutilizarlo. Una vez que la empresa puede medir algo, alguien querrá optimizarlo. Y una vez que se normaliza que trabajar implica que tu actividad sea capturada con todo detalle, la frontera se desplaza.
La pregunta, por tanto, no es si Meta puede legalmente hacerlo en determinados contextos. La pregunta es si queremos empresas en las que la innovación consista en observar a sus propios empleados hasta convertirlos en datasets. Una compañía tan disfuncional como su fundador, que ahora pretende lanzar una plataforma para que cualquiera pueda crear agentes de inteligencia artificial personales: una idea que no sería mala si no fuese porque sabemos positivamente que la única función de esos agentes es contárselo todo a Meta para que pueda comercializar tu perfil mejor. Como dice una persona implicada en el proyecto, «hay un déficit de confianza tan grande como el cañón del Colorado»…
La inteligencia artificial puede ser una herramienta extraordinaria para liberar a las personas de tareas repetitivas, ampliar capacidades y mejorar procesos. Pero cuando se desarrolla mediante vigilancia obligatoria, asimetría informativa y captura masiva de comportamiento, deja de ser una herramienta de emancipación y se convierte en una tecnología de extracción.
Meta está mostrando, quizá sin pretenderlo, una de las grandes tensiones de la próxima década: la batalla por decidir si la inteligencia artificial en el trabajo será una prótesis que aumenta nuestras capacidades o una infraestructura que nos observa, nos modela y finalmente nos reemplaza. Y conviene no engañarse: cuando una compañía te dice que necesita registrar cómo trabajas para construir agentes que trabajen como tú, no está hablando solo de productividad. Está hablando de poder.


Meta seguramente es la primera (o la que más llama la atención), pero detrás de ella lo harán muchas otras y seguramente es inevitable.
Tengo claro que todo lo automatizable se va a automatizar y que la labor de los trabajadores (los que queden) será radicalmente diferente.
Esto puede ser terrible si el poder y la riqueza se concentran y puede ser increiblemente positivo si se reparten. Esa si que va a ser la verdadera batalla.