El emperador está desnudo: los LLM nunca fueron diseñados para dirigir una empresa

IMAGE: A modern office scene shows a nearly naked emperor wearing a crown and a translucent cloak, standing confidently while stressed employees work around him; large screens behind display "LLM" systems with errors, symbolizing the illusion of powerful AI in corporate environments

La magia era real. La conclusión, equivocada.

Cuando ChatGPT se lanzó en noviembre de 2022, la reacción fue inmediata y visceral: esto funciona. Por primera vez, millones de personas experimentaron la inteligencia artificial no como una promesa lejana, sino como algo útil, intuitivo y, incluso con sus fallos, asombrosamente capaz.

Ese instinto era correcto. La conclusión que vino después, no. Porque lo que funciona de forma brillante para un individuo frente a un teclado ha demostrado ser sorprendentemente ineficaz dentro de una organización. Dos años después, tras miles de millones en inversión, innumerables pilotos y una avalancha interminable de «copilots», empieza a emerger otra realidad: la inteligencia artificial generativa es excepcional produciendo lenguaje. Pero las empresas no funcionan con lenguaje: funcionan con memoria, contexto, retroalimentación y restricciones. Ahí está la brecha. Y por eso tantas iniciativas de inteligencia artificial empresarial están fracasando en silencio.

Alta adopción, bajo impacto… y una sensación creciente de déjà vu

Esta no es la historia de una tecnología que no ha conseguido tracción. Es justo lo contrario. Un análisis ampliamente citado, respaldado por el MIT, concluye que alrededor del 95% de los pilotos de inteligencia artificial generativa en empresas no logran resultados significativos, y que solo un 5% llega a producción sostenida. Otros análisis apuntan en la misma dirección: experimentación masiva, transformación mínima.

Y la explicación es reveladora: el problema no es la falta de entusiasmo, ni siquiera de capacidad. Es que las herramientas no se traducen en cambios operativos reales.

No es un problema de adopción. Es un problema de arquitectura.

La paradoja incómoda: todo el mundo usa inteligencia artificial, pero nada cambia

Hoy, en la mayoría de las empresas, conviven dos realidades: por un lado, los empleados utilizan herramientas como ChatGPT de forma constante. Redactan, resumen, generan ideas y aceleran su trabajo de maneras que resultan naturales y eficaces. Por otro, las iniciativas oficiales de inteligencia artificial empresarial tienen dificultades para escalar más allá de pilotos cuidadosamente controlados.

El mismo análisis habla de una «brecha de aprendizaje» creciente: los individuos encuentran valor rápidamente, pero las organizaciones no consiguen integrar ese valor en flujos de trabajo relevantes. El resultado es algo muy cercano a una shadow AI: las personas usan lo que funciona, mientras las empresas invierten en lo que no.

Eso no es resistencia al cambio. Es una señal.

El error fundamental: tratar un modelo de lenguaje como si fuera un sistema operativo

La mayoría de las explicaciones sobre este fracaso se centran en la ejecución: datos deficientes, casos de uso poco claros, falta de formación. Todo eso es cierto. Todo eso es secundario.

El problema real es más simple y mucho más fundamental: los grandes modelos de lenguaje están diseñados para predecir texto. Punto. Todo lo demás (razonamiento, resumen, conversación…) es una propiedad emergente de esa capacidad.

Pero las empresas no operan como secuencias de texto. Operan como sistemas dinámicos con estado, memoria, dependencias, incentivos y restricciones.

Ahí está el desajuste: como ya he defendido en otras ocasiones, este es el fallo arquitectónico central de la inteligencia artificial actual: los LLM no «ven» el mundo. No mantienen estado persistente. No aprenden de la retroalimentación del mundo real a menos que se diseñen explícitamente para ello.

Generan lenguaje convincente sobre la realidad. No operan dentro de ella.

No puedes dirigir una empresa con predicciones de palabras

Esto conduce a un patrón que debería resultarnos familiar: pídele a un LLM que aumente tus ventas, que diseñe una estrategia de lanzamiento o que mejore el rendimiento de tu equipo, y obtendrás una respuesta. A menudo, una muy buena. Estructurada, articulada y persuasiva. Y casi completamente desconectada del sistema real que se supone debe influir.

Porque un LLM no puede seguir un pipeline, gestionar incentivos, integrar datos de CRM ni adaptarse en función de resultados. Puede describir una estrategia. Pero no puede ejecutarla. Y los estudios lo confirman: estas herramientas funcionan bien para tareas individuales y flexibles, pero se rompen en entornos empresariales donde se requiere adaptación, aprendizaje e integración.

Dicho de otro modo: un LLM puede escribir el memo. Pero no puede dirigir la empresa.

Más capacidad de computación no solucionará el problema

La respuesta de la industria ha sido predecible: modelos más grandes, más infraestructura, más escala. Pero escalar no corrige un fallo de diseño: si un sistema carece de anclaje en la realidad, más parámetros no se lo darán. Si carece de memoria, más tokens no se la proporcionarán. Si carece de bucles de retroalimentación, más centros de datos no los crearán.

La escala amplifica lo que ya existe. No crea lo que falta. Y aquí lo que falta no es más lenguaje. Es más mundo.

La siguiente capa no va de mejores respuestas

La próxima fase de la inteligencia artificial empresarial no vendrá definida por mejores interfaces conversacionales o LLM más potentes. Vendrá definida por algo completamente distinto: sistemas capaces de mantener estado, integrarse en flujos de trabajo, aprender de los resultados y operar bajo restricciones.

Sistemas que no solo generan texto, sino que actúan dentro de entornos reales. Por eso el futuro de la inteligencia artificial en las empresas no se construirá únicamente sobre LLMs, sino sobre arquitecturas que los integren dentro de modelos más ricos de la realidad.

O, como he defendido en otros textos, por qué los modelos del mundo acabarán siendo una capacidad fundamental y no un concepto marginal.

Decir en voz alta lo que muchos ya saben

Si todo esto suena obvio, es porque muchas personas dentro de las organizaciones ya lo ven: han ejecutado los pilotos, han visto las demos y han experimentado la brecha. Pero decirlo en voz alta sigue siendo incómodo.

Hay demasiado impulso, demasiada inversión y demasiado relato construido en torno a la idea de que escalar los LLM acabará resolviéndolo todo. No lo hará.

El emperador no solo está desnudo. Es que lleva la ropa equivocada.

La verdadera oportunidad

Esto no es el fin de la inteligencia artificial empresarial. Es el fin de un malentendido. Los modelos de lenguaje no son arquitectura empresarial: son una capa de interfaz. Una muy potente, pero insuficiente por sí sola.

Las empresas que lo entiendan primero no solo desplegarán mejor la inteligencia artificial: construirán algo fundamentalmente distinto. Y cuando eso ocurra, volverá a parecer magia.

Pero esta vez, no será una ilusión.


(This article was previously published on Fast Company)

3 comentarios

  • #001
    Konamiman - 3 mayo 2026 - 12:40

    Este (muy buen) artículo es la versión larga del famoso «A computer can never be held accountable, therefore a computer must never make a management decision», frase acuñada por IBM nada menos que en 1979.

    Responder
  • #002
    Xaquín - 3 mayo 2026 - 15:30

    A computer can never be held accountable.
    Therefore a computer must never make a management decision. (IBM, 1979). Graciñas Konamiman…

    Me repito, por ser IBM una empresa, que, antes de la Era Silicónica, sabía bien de lo que hablaba. En modo USA, pero «sabia»… Y teniendo en cuenta que el Modo Silicónico de Pensar, ya empezó mucho antes (en los USA) de que se engendrara Silicon Valley.

    Responder
  • #003
    Javier - 3 mayo 2026 - 16:22

    Por razones que no vienen al caso, conozco personalmente a una alta ejecutiva de una gran (GRAN) empresa dedicada al comercio minorista en EE. UU. La relación es muy cercana y de mucha confianza personal: hemos convivido en su casa y conozco detalles de ella y de su familia que difícilmente serían conocidos por quienes no forman parte de su círculo de confianza. En resumen, esta gente me tiene un genuino aprecio personal, confía en mí y, cuando necesita algún tipo de asesoramiento en tecnología (y otros temas), recurre a mí. Lo menciono porque tiene relación con la anécdota que voy a contar.

    No hablamos muy a menudo porque, en verdad, es la típica ejecutiva que está volando varias veces por semana a varios países, haciendo acuerdos con proveedores y atendiendo los temas del negocio. Pero tenemos conocidos en común que nos mantienen al tanto de las idas y vueltas de cada uno.

    La cosa es que hace un tiempo, gracias a varias conversaciones con estos conocidos, supe que ella acababa de participar en una ponencia, por encargo de su empresa, en una feria o summit relacionado con su área: el «Produce Department» (Frutas y verduras). Sin embargo, también tenía que (de nuevo, por encargo de su empresa) abarcar el tema de la Inteligencia Artificial en los negocios y, específicamente, en su área, algo que no pudo hacer por no tener a quien recurrir.

    Por su parte, ella se enteró de mí, de que «tenía conocimientos» (las comillas son mías) en lo que a LLMs se refiere, pero lo supo un par de días después de que terminó ese encuentro.

    Bastó que se enterara de mis actividades y «conocimientos» con los LLMs para que se pusiera en contacto directamente mediante una videollamada (algo rarísimo e infrecuente que suceda) y, de inmediato, empezó un lamento acerca de cómo le hubiera encantado que yo hubiera estado con ella allí en esa feria para poderla ayudar y asesorar con ese tema que a ella se le hace muy ajeno y «del que no sabe nada de nada», más que hacerle preguntas a ChatGPT. Y que la próxima vez, yo como «experto» (de nuevo, las comillas son mías) estaría ahí con ella para que no volviese a pasar… etc., etc.

    [PAUSA] Antes de seguir, quiero destacar esto. Gente: como ven, les acabo de relatar mi experiencia: a más de dos años de que esta tecnología esté entre nosotros, los ALTOS MANDOS (tanto ella como sus colegas) de una gran empresa no tienen más conocimientos de manejo de LLMs que los que puede tener cualquier vecino con el «feisbu» abierto, pero a un nivel que me hizo levantar las cejas por lo paupérrimo que es. No estoy diciendo que tengan que saber qué son los pesos, qué es un token o qué es el few-shot prompting, pero estamos hablando de gente que, por la posición en la que está, tiene una herramienta que potencialmente le podría servir para tener nuevas perspectivas a la hora de tomar decisiones, y carece de una alfabetización mínima sobre el tema. Yo imaginaba que, a esta altura, al menos a los altos cargos los iban a embeber, aunque sea un poco, del tema, para que desde ellos hacia abajo lo pudieran aprovechar… pero nada de nada.[FIN]

    Después de dejarla hablar, le dije que no, que yo no era un experto, que solo soy un pobre aprendiz de brujo, que ni loco le iba a dar asesoramiento en algo que, hasta el día de hoy, siento que me supera por mucho, y que, además, por favor, dejara de creer en el hype de que esto es el futuro de los negocios y cosas por el estilo.

    Le expliqué que, en base a lo poco que me informo, esto es una tecnología que todavía está «menos que verde» en cuanto a lo que se espera de ella, y mencioné más cosas que no vienen al caso.

    Y para ejemplificarle el estado actual de la situación con la IA y el comercio minorista, le pasé el enlace donde empleados del Wall Street Journal engañaban inocentemente a un LLM para esquilmarlo, cual maleantes inmisericordes:
    https://www.wsj.com/tech/ai/anthropic-claude-ai-vending-machine-agent-b7e84e34
    Como dice la bajada del título:

    Anthropic’s Claude ran a snack operation in the WSJ newsroom. It gave away a free PlayStation, ordered a live fish—and taught us lessons about the future of AI agents.

    Al final, entendió un poco más la situación. Le quedó claro que esto es algo a lo que le falta mucho y que hay más humo que otra cosa, al menos en lo mainstream de la IA.

    Como extra, le pasé un par de prompts que sí la ayudaron mucho con su actividad. Después me llamó para agradecerme y contarme lo bien que esos prompts la ayudaron a quedar bien con sus jefes.

    Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.