El emperador está desnudo: los LLM nunca fueron diseñados para dirigir una empresa

IMAGE: A modern office scene shows a nearly naked emperor wearing a crown and a translucent cloak, standing confidently while stressed employees work around him; large screens behind display "LLM" systems with errors, symbolizing the illusion of powerful AI in corporate environments

La magia era real. La conclusión, equivocada.

Cuando ChatGPT se lanzó en noviembre de 2022, la reacción fue inmediata y visceral: esto funciona. Por primera vez, millones de personas experimentaron la inteligencia artificial no como una promesa lejana, sino como algo útil, intuitivo y, incluso con sus fallos, asombrosamente capaz.

Ese instinto era correcto. La conclusión que vino después, no. Porque lo que funciona de forma brillante para un individuo frente a un teclado ha demostrado ser sorprendentemente ineficaz dentro de una organización. Dos años después, tras miles de millones en inversión, innumerables pilotos y una avalancha interminable de «copilots», empieza a emerger otra realidad: la inteligencia artificial generativa es excepcional produciendo lenguaje. Pero las empresas no funcionan con lenguaje: funcionan con memoria, contexto, retroalimentación y restricciones. Ahí está la brecha. Y por eso tantas iniciativas de inteligencia artificial empresarial están fracasando en silencio.

Alta adopción, bajo impacto… y una sensación creciente de déjà vu

Esta no es la historia de una tecnología que no ha conseguido tracción. Es justo lo contrario. Un análisis ampliamente citado, respaldado por el MIT, concluye que alrededor del 95% de los pilotos de inteligencia artificial generativa en empresas no logran resultados significativos, y que solo un 5% llega a producción sostenida. Otros análisis apuntan en la misma dirección: experimentación masiva, transformación mínima.

Y la explicación es reveladora: el problema no es la falta de entusiasmo, ni siquiera de capacidad. Es que las herramientas no se traducen en cambios operativos reales.

No es un problema de adopción. Es un problema de arquitectura.

La paradoja incómoda: todo el mundo usa inteligencia artificial, pero nada cambia

Hoy, en la mayoría de las empresas, conviven dos realidades: por un lado, los empleados utilizan herramientas como ChatGPT de forma constante. Redactan, resumen, generan ideas y aceleran su trabajo de maneras que resultan naturales y eficaces. Por otro, las iniciativas oficiales de inteligencia artificial empresarial tienen dificultades para escalar más allá de pilotos cuidadosamente controlados.

El mismo análisis habla de una «brecha de aprendizaje» creciente: los individuos encuentran valor rápidamente, pero las organizaciones no consiguen integrar ese valor en flujos de trabajo relevantes. El resultado es algo muy cercano a una shadow AI: las personas usan lo que funciona, mientras las empresas invierten en lo que no.

Eso no es resistencia al cambio. Es una señal.

El error fundamental: tratar un modelo de lenguaje como si fuera un sistema operativo

La mayoría de las explicaciones sobre este fracaso se centran en la ejecución: datos deficientes, casos de uso poco claros, falta de formación. Todo eso es cierto. Todo eso es secundario.

El problema real es más simple y mucho más fundamental: los grandes modelos de lenguaje están diseñados para predecir texto. Punto. Todo lo demás (razonamiento, resumen, conversación…) es una propiedad emergente de esa capacidad.

Pero las empresas no operan como secuencias de texto. Operan como sistemas dinámicos con estado, memoria, dependencias, incentivos y restricciones.

Ahí está el desajuste: como ya he defendido en otras ocasiones, este es el fallo arquitectónico central de la inteligencia artificial actual: los LLM no «ven» el mundo. No mantienen estado persistente. No aprenden de la retroalimentación del mundo real a menos que se diseñen explícitamente para ello.

Generan lenguaje convincente sobre la realidad. No operan dentro de ella.

No puedes dirigir una empresa con predicciones de palabras

Esto conduce a un patrón que debería resultarnos familiar: pídele a un LLM que aumente tus ventas, que diseñe una estrategia de lanzamiento o que mejore el rendimiento de tu equipo, y obtendrás una respuesta. A menudo, una muy buena. Estructurada, articulada y persuasiva. Y casi completamente desconectada del sistema real que se supone debe influir.

Porque un LLM no puede seguir un pipeline, gestionar incentivos, integrar datos de CRM ni adaptarse en función de resultados. Puede describir una estrategia. Pero no puede ejecutarla. Y los estudios lo confirman: estas herramientas funcionan bien para tareas individuales y flexibles, pero se rompen en entornos empresariales donde se requiere adaptación, aprendizaje e integración.

Dicho de otro modo: un LLM puede escribir el memo. Pero no puede dirigir la empresa.

Más capacidad de computación no solucionará el problema

La respuesta de la industria ha sido predecible: modelos más grandes, más infraestructura, más escala. Pero escalar no corrige un fallo de diseño: si un sistema carece de anclaje en la realidad, más parámetros no se lo darán. Si carece de memoria, más tokens no se la proporcionarán. Si carece de bucles de retroalimentación, más centros de datos no los crearán.

La escala amplifica lo que ya existe. No crea lo que falta. Y aquí lo que falta no es más lenguaje. Es más mundo.

La siguiente capa no va de mejores respuestas

La próxima fase de la inteligencia artificial empresarial no vendrá definida por mejores interfaces conversacionales o LLM más potentes. Vendrá definida por algo completamente distinto: sistemas capaces de mantener estado, integrarse en flujos de trabajo, aprender de los resultados y operar bajo restricciones.

Sistemas que no solo generan texto, sino que actúan dentro de entornos reales. Por eso el futuro de la inteligencia artificial en las empresas no se construirá únicamente sobre LLMs, sino sobre arquitecturas que los integren dentro de modelos más ricos de la realidad.

O, como he defendido en otros textos, por qué los modelos del mundo acabarán siendo una capacidad fundamental y no un concepto marginal.

Decir en voz alta lo que muchos ya saben

Si todo esto suena obvio, es porque muchas personas dentro de las organizaciones ya lo ven: han ejecutado los pilotos, han visto las demos y han experimentado la brecha. Pero decirlo en voz alta sigue siendo incómodo.

Hay demasiado impulso, demasiada inversión y demasiado relato construido en torno a la idea de que escalar los LLM acabará resolviéndolo todo. No lo hará.

El emperador no solo está desnudo. Es que lleva la ropa equivocada.

La verdadera oportunidad

Esto no es el fin de la inteligencia artificial empresarial. Es el fin de un malentendido. Los modelos de lenguaje no son arquitectura empresarial: son una capa de interfaz. Una muy potente, pero insuficiente por sí sola.

Las empresas que lo entiendan primero no solo desplegarán mejor la inteligencia artificial: construirán algo fundamentalmente distinto. Y cuando eso ocurra, volverá a parecer magia.

Pero esta vez, no será una ilusión.


(This article was previously published on Fast Company)

Un comentario

Dejar un Comentario a Konamiman

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.