Cuando la inteligencia artificial deja de ser «una opción»: el nuevo contrato laboral (y académico) ya está aquí

IMAGE: A hyper-realistic scene of a professor in a modern classroom interacting with a luminous AI hologram while students observe, symbolizing the integration of artificial intelligence into everyday academic life

Durante un tiempo, la conversación sobre inteligencia artificial en las organizaciones se mantuvo en esa zona cómoda de los verbos aspiracionales: «animar», «explorar», «experimentar», «probar». Pero esa fase se está agotando. Un artículo en el Wall Street Journal, «Tech firms aren’t just encouraging their workers to use AI. They’re enforcing it«, lo describe claramente y sin eufemismos: en muchas tecnológicas, usar inteligencia artificial ya no es un extra simpático ni una habilidad diferencial, sino un requisito monitorizable, evaluable y, en la práctica, exigible. Se puntúa la «competencia en inteligencia artificial», se convierte en variable de desempeño, se observa en paneles, se integra en promociones y se filtra en la contratación. La inteligencia artificial no es una herramienta: es una norma cultural que, cuando madura, se convierte en política.

Lo interesante no es que esto ocurra en startups con obsesión por la productividad, donde un CEO puede declarar sin rubor que usa «zanahorias y palos» y asigna una puntuación de 1 a 5 a cada empleado en función de cómo utiliza inteligencia artificial, premiando incluso con incentivos económicos a quien diseñe el mejor proceso «AI-driven». Lo verdaderamente relevante es que las grandes también están cruzando esa frontera: Amazon Web Services con paneles de uso para ingeniería, Google incorporando el uso de IA a algunas evaluaciones, Meta cuantificando código escrito con ayuda de inteligencia artificial, Microsoft pidiendo que se justifique y se cuantifique cómo se usa, Salesforce midiendo «adopción» y asumiendo que quien no usa inteligencia artificial probablemente está «rindiendo por debajo de sus posibilidades».

Cuando una organización invierte muchísimo en construir herramientas de inteligencia artificial (o en comprarlas y desplegarlas), la adopción deja de ser un «nice to have» y pasa a ser el modo de demostrar retorno. En el propio artículo se explica el mecanismo con una claridad inquietante: llega un punto de inflexión, «hay ya suficientes personas que usan una herramienta, y llega el mandato de usarla», y de pronto hasta procesos internos como solicitar las vacaciones se canalizan obligatoriamente a través de un agente de inteligencia artificial. Y entonces aparece la frase que debería encender todas las alarmas, o como mínimo, obligarnos a pensar: «probablemente no sobrevivirán a largo plazo», hablando de quienes se resisten.

Y si esta es la nueva normalidad en la empresa, en la universidad no debería sorprendernos que apareciese un fenómeno paralelo. Porque la universidad, aunque a veces pretenda vivir en una cápsula de excepcionalidad, no está al margen de las tecnologías de propósito general: las absorbe, las discute, las regula… y, finalmente, las institucionaliza. En IE University, esa institucionalización no se está produciendo de manera clandestina ni vergonzante, sino explícita y con voluntad de gobernanza. El Institutional Statement on Artificial Intelligence lo plantea como parte del ADN de la institución y como una oportunidad para mejorar pedagogía y productividad, insistiendo además en el papel de la mediación humana, del pensamiento crítico y de un enfoque humanista de la innovación. Y, lo más importante para lo que estamos discutiendo aquí: deja claro que hay equipos académicos y pedagógicos adaptando programas y metodologías, diseñando contenidos y materiales, y desarrollando programas específicos para estudiantes, profesores y staff.

Eso tiene consecuencias prácticas, y no pequeñas. En IE University, los profesores no solo «podemos» usar inteligencia artificial: se espera que la usemos, se nos forma para ello, y la cartera de herramientas se amplía y se perfecciona de manera continua. No como moda, sino como infraestructura. Y se hace, además, con una condición que cambia por completo el debate: transparencia radical. No se trata de «ocultar» que se ha usado IA, ni de «disfrazarla» de producción humana, ni de convertirla en un atajo vergonzante. Se trata de decirlo, explicarlo, y trabajar con ello delante de los estudiantes. Porque cuando el uso es transparente y evoluciona desde el muy primario «lo pregunto, lo copio y lo pego» a modelos más razonables y de más valor añadido, el foco se desplaza: ya no discutimos si «se ha hecho trampa», sino si el diseño de la actividad, el criterio y la evaluación están bien construidos.

Aquí entra la parte que más me interesa: el resultado no se mide solo por «ahorrar tiempo» (esa promesa fácil, y a menudo decepcionante), sino por calidad supervisada. La inteligencia artificial funciona bien cuando está insertada en procesos con control, revisión, trazabilidad y mejora continua, no cuando se tira sobre una mesa como si fuera una calculadora mágica. Precisamente por eso, el manifiesto de IE University insiste en la necesidad de un enfoque ético, de políticas académicas para el uso en el aula, y de una perspectiva «human-centered» que no renuncie a las humanidades como herramienta para gestionar riesgos y oportunidades.

Y entonces aparece la pregunta que muchos preferirían no formular: ¿se puede trabajar como profesor en IE University si no quieres usar inteligencia artificial? Por supuesto que sí, porque la libertad de cátedra no es un eslogan: está tan incrustada en la cultura desde su fundación que nadie la discute seriamente. Pero sería ingenuo ignorar la otra capa: la cultura organizativa empuja. Empuja porque hay formación, herramientas, acompañamiento, y porque el diferencial de calidad, cuando se hace bien, se hace evidente. Empuja porque los estudiantes lo piden, porque el mercado lo demanda, porque la investigación lo acelera, y porque, sencillamente, la alternativa empieza a parecer cada vez más anacrónica. No porque alguien «te obligue» con un formulario, sino porque, cuando todos a tu alrededor están elevando su productividad y su capacidad de diseño docente con inteligencia artificial, tu negativa se termina convirtiendo en una opción complicada.

La discusión, en realidad, no es «inteligencia artificial sí o inteligencia artificial no», igual que ya no discutimos «internet sí o internet no». La discusión es qué tipo de institución quieres ser: una que finge que nada cambia, o una que define reglas claras, invierte en formación, exige transparencia y supervisa resultados. UNESCO, en su guía sobre inteligencia artificial generativa en educación e investigación, insiste precisamente en la necesidad de desarrollar capacidad humana, políticas, y una visión centrada en las personas para que estas tecnologías no se conviertan en un atajo irresponsable. Y la OCDE, desde otro ángulo, plantea salvaguardas para un uso efectivo y equitativo de la IA en educación.

En el mundo corporativo, ya estamos viendo cómo la exigencia se formaliza: Accenture, por ejemplo, aparece vinculando promociones a la adopción regular de herramientas de inteligencia artificial y monitorizando el uso. En la universidad, hacer coerción explícita sería sin duda un error cultural… pero la normalización seguramente acabe siendo igual de potente. La diferencia es que, si hacemos bien nuestro trabajo, la universidad puede ser el lugar donde esa normalización no derive en obediencia ciega, sino en competencia crítica: usar inteligencia artificial porque mejora los resultados, pero entenderla, auditarla, discutirla y enseñarla con honestidad.

La ironía final es deliciosa: durante años, muchas instituciones educativas estudiaron a las empresas para «modelizar la innovación». Hoy, en cambio, la empresa está enseñándonos otra cosa: cómo una tecnología se convierte en obligación sin necesidad de decretos grandilocuentes. Basta con medirla, entrenarla, incorporarla al flujo de trabajo, añadir feedback, mejorarla, y premiar sus resultados cuando efectivamente son buenos. En IE University, el reto y la oportunidad es demostrar que esa transición puede hacerse sin perder nuestra alma académica: con libertad, sí, pero también con responsabilidad. Con entusiasmo, sí, pero también con criterio. Con inteligencia artificial, sí, pero siempre con supervisión humana y con transparencia total. Para los viejos del lugar, que vivimos la llegada de internet y su incorporación a todo, es interesantísimo tener la oportunidad de volver a vivir algo parecido, ahora con la inteligencia artificial. Y si ese es el nuevo contrato, más vale que lo escribamos nosotros antes de que lo escriba, literalmente, una máquina.

6 comentarios

  • #001
    D. FALKEN - 27 febrero 2026 - 11:36

    Para los viejos del lugar, que vivimos la llegada de internet y su incorporación a todo, es interesantísimo tener la oportunidad de volver a vivir algo parecido, ahora con la inteligencia artificial.

    …Y la llegada del «ordenador personal» antes, Enrique. X-D

    Tres reflexiones sobre tu exposición:

    1.- Si, en consecuencia, el propio acceso a la inteligencia artificial puede acabar cristalizandose como un nuevo elemento de discriminación social.
    2.- Si vamos a dar por hecho que estas nuevas competencias personales vengan intrínsecas en los curriculums, sin hacer previamente un esfuerzo formativo a gran escala.
    3.- En un escenario tecnológico inmaduro, en el sentido que aun no son claras las líneas de desarrollo, por ejemplo cuestiones como LLMs, modelos del mundo, u otras aplicaciones directas sobre redes neuronales… ¿No se estaría corriendo demasiado rápido en una carrera de fondo?

    Responder
    • Benji - 27 febrero 2026 - 12:48

      Yo ya veo que esto será como lo de «hablas inglés» -> nivel medio todos los españoles.

      La gente cree que usar AI es «escribir en Gemini como hacer una salsa de tomate» cuando en realidad es más tipo Agentes Copilot, captación de requisitos, resúmenes ejecutivos, extracción de información desestructurada para concretarla, ubicación de documentos clave, funciones programáticas, traducción en tiempo real o a posteriori, aportación de datos desconocidos o mucho más.

      Pongo un ejemplo, la semana pasada fui a dar un workshop de captura de requerimentos a Manchester. Es una empresa farmacéutica de la que poco sabía y monté un agente AI que buscó por todo internet cual era su CEO, la dirección de la empresa, sus objetivos 2030 (o los que hubieran sido), la dirección que sus responsables digitales quieren dar, etc.

      Eso me dio una ventaja competitiva increíble a la hora de presentar nuestro proyecto, porque tengo outsider e insider info de cualquier PDF que se haya publicado online, notas de prensa, entrevistas en publicaciones especializadas, etc.

      Mis competidores tienen acceso a las mismas herramientas (supongo) pero si no las han usado o se niegan, pues peor para ellos. Estoy seguro de que me llevaré el proyecto a casa porque sinceramente entre la AI y nuestro equipo nos lo curramos y sabíamos que teclas había que tocar y en que dirección quiere ir el cliente. Nos sumamos a él, no somos un cortapisas o vendehumos. Ni siquiera hablamos mucho de nuestro software, sino de la dirección que quieren tomar y como les podemos ayudar. Y eso es mejor que hablar de lo maravilloso y brillante es nuestro producto (cosa que ya han hecho todos los anteriores).

      Así que no me extraña que otros CEO lo acaben poniendo como requisito y no como un hobby

      Responder
      • BUZZWORD - 27 febrero 2026 - 13:25

        Benji

        El caso de uso que explicas es para lo que entiendo que vale la pena una IA. Es decir en usarla como una herramienta para ser más productivo, delegarle trabajo no esencial pero necesario (recopilatorio, clasificación, sumarios), que te da mas conocimiento del cliente a menor coste, y preparar en este caso para las personas de desarrollo de negocio la mejor estrategia para preparar una proposición con valor añadido y que muestre vuestro conocimiento del sector y de esa compañía.

        Pero se equivocan las empresas que meten con calzador el uso de una IA a sus empleados.

        Es tan sencillo como que los empleados que logren éxitos, ya la usen adecuadamente, ya prescindan de la IA, se llevarán el pato al agua, y los que no… logren éxitos serán reemplazados… da igual si usan una IA o no…

        Responder
      • D. FALKEN - 27 febrero 2026 - 15:25

        La gente cree que usar AI es «escribir en Gemini como hacer una salsa de tomate» cuando en realidad es más tipo Agentes Copilot, captación de requisitos, resúmenes ejecutivos, extracción de información desestructurada para concretarla, ubicación de documentos clave, funciones programáticas, traducción en tiempo real o a posteriori, aportación de datos desconocidos o mucho más.

        Cierto. Añadiría otro perfil medio, no profesional de TI, como es el mío por ejemplo, que podría tener un conocimiento más profundo del funcionamiento de IA, pero que se encuentran con barreras técnicas para implementar sus ideas. Aqui te encuentras en una brecha. Tareas como la estructuracion de la información, la automatizacion que te requiere python o si no, estar contratando servicios externos, el manejo de api’s. Pero aun así, resulta que si consigues el output que buscas, resulta que luego el interface con aplicaciones habituales, o no existe, o a nivel de decision empresarial ya dependes de la voluntad del proveedor. No se mi me explico.

        Responder
  • #005
    Luis Hernandez - 27 febrero 2026 - 11:59

    Cada vez parece más claro que el elemento diferenciador no es «utilizar IA» o «no utilizarla», sino utilizarla adecuadamente.

    La IA genera una paradoja: tiene el potencial de hacernos más listos (productivos) o más tontos (dependientes), dependiendo de cómo se utilice.

    La clave no es la tecnología en sí, sino la «pereza cognitiva» que provoca al delegar el pensamiento crítico.

    Responder
  • #006
    Javier - 27 febrero 2026 - 13:47

    Vaya artículo el del WSJ… realmente me hizo pensar. Es inquietante ver la deriva que está empezando a tomar todo esto, casi como si estuviéramos entrando en una nueva era laboral donde las habilidades técnicas son lo único que importa.

    Lo que más me preocupa es el sesgo inherente a esta situación. El artículo menciona que los CEOs están presionados por los accionistas y que la necesidad de ROI está impulsando estas políticas, pero ¿qué pasa con los empleados? Se habla de «competencia» y «fluidez en IA», pero no se aborda realmente el miedo a perder el trabajo o la sensación de estar siendo constantemente medido y vigilado.

    Es cierto que la tecnología avanza rápido y que hay que adaptarse, pero obligar a la gente a usar herramientas que quizás ni entienden completamente, bajo amenaza de una mala evaluación o incluso despido, me parece un enfoque bastante agresivo. Me recuerda a las primeras revoluciones industriales, donde se exigía a los trabajadores adoptar nuevas máquinas sin tener en cuenta su bienestar o sus preocupaciones.

    Lo de Salesforce obligando al uso de agentes de IA para tareas administrativas es particularmente alarmante. ¿Dónde queda la autonomía del empleado? ¿Dónde queda el espacio para la creatividad y la iniciativa si todo pasa a estar controlado por algoritmos?

    Me pregunto si esto no va a generar una reacción en cadena, con empleados buscando alternativas laborales o incluso organizándose para resistir esta imposición tecnológica. Quizás necesitamos más regulaciones que protejan los derechos de los trabajadores frente a esta «nueva normalidad».

    En fin, es un tema complejo y espero que se abra un debate más amplio sobre cómo queremos que sea el futuro del trabajo en la era de la inteligencia artificial. No podemos permitirnos sacrificar el bienestar humano en nombre de la eficiencia o la innovación.

    Responder

Dejar un Comentario a D. FALKEN

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.