En un artículo anterior, defendí que los grandes modelos de lenguaje no son arquitectura empresarial. El feedback y las respuestas que recibí fueron claras: ese argumento es difícil de rebatir. La pregunta más difícil es qué viene después: o sea, «si no es esto, entonces ¿qué?»
Es la pregunta correcta. Porque el problema nunca fue que la inteligencia artificial no funcionara. Funciona, claramente. El problema es que intentamos colocarla en la capa equivocada.
Fallamos al decidir dónde poner la inteligencia artificial
Durante los dos últimos años, las empresas han invertido decenas de miles de millones en inteligencia artificial generativa. El resultado no es ambigüedad. Es claridad. Un cuerpo creciente de investigación, incluyendo un estudio del MIT ampliamente citado, muestra que alrededor del 95% de las iniciativas empresariales de inteligencia artificial generativa no logran producir un impacto de negocio medible, a pesar de una adopción muy extendida.
No es porque los modelos no funcionen: es porque fueron insertados en las organizaciones como herramientas, no como sistemas. Intentamos atornillar inteligencia a los flujos de trabajo, cuando lo que necesitamos son sistemas en los que la inteligencia sea el flujo de trabajo.
De herramientas sin estado a sistemas persistentes
Los grandes modelos de lenguaje son, por diseño, sistemas sin estado: cada interacción empieza desde cero salvo que reconstruyamos artificialmente el contexto. Las empresas son lo contrario. Son sistemas con estado: acumulan decisiones, siguen relaciones, evolucionan en el tiempo y dependen de la continuidad.
Este desajuste no es una incomodidad menor. Es estructural. La investigación sobre fracasos de inteligencia artificial empresarial apunta de forma consistente al mismo problema: los sistemas no fallan porque generen malas respuestas, sino porque no pueden integrarse en procesos continuos ni mantener contexto a lo largo del tiempo.
La inteligencia artificial empresarial no puede estar basada en sesiones. Tiene que recordar.
De respuestas a resultados
Optimizamos la inteligencia artificial para responder preguntas. Pero las empresas necesitan sistemas que cambien resultados. Aquí es donde la brecha se vuelve evidente: un LLM puede generar una estrategia comercial convincente, pero no puede seguir si funcionó, adaptarse en función de los resultados, coordinar la ejecución entre equipos ni mejorar con el tiempo.
Eso no es una limitación de implementación: es una limitación de diseño.
La misma investigación del MIT describe una “brecha GenAI”: organizaciones atrapadas en una alta adopción pero baja transformación, precisamente porque los sistemas actuales no cierran el bucle entre acción y resultado.
Las respuestas no cambian las empresas. Los sistemas sí.
De prompts a restricciones
Buena parte de la conversación actual sobre IA gira en torno a los prompts. Pero los prompts son solo una interfaz. Las empresas no operan mediante prompts: operan mediante restricciones, reglas de cumplimiento, permisos, umbrales de riesgo y límites operativos.
Y ahí es donde se rompen la mayoría de los sistemas de inteligencia artificial. Generan dentro de probabilidades. Las empresas operan dentro de restricciones.
Esta es una de las razones menos discutidas y más importantes por las que las iniciativas de inteligencia artificial empresarial se atascan. Incluso la investigación más amplia en inteligencia artificial muestra que los proyectos fallan cuando los sistemas no están alineados con restricciones reales, flujos de trabajo y contextos de decisión.
Los prompts son UX. Las restricciones son arquitectura.
De copilots a sistemas de acción
La metáfora dominante de los dos últimos años ha sido la del «copilot». Suena atractiva, pero también es engañosa. Un copiloto sólo sugiere, una empresa necesita sistemas que actúen. La diferencia importa, porque sugerir es barato, pero ejecutar es difícil.
La ejecución exige
- Integración con sistemas de registro
- Coordinación entre procesos
- Responsabilidad sobre los resultados
- Adaptación en el tiempo.
Y ahí es precisamente donde colapsan la mayoría de los enfoques actuales. No porque estén mal implementados, sino porque nunca fueron diseñados para eso.
El cambio de arquitectura del que casi nadie habla
¿Qué sustituye entonces a esto? No mejores prompts, ni modelos más grandes, y desde luego no más infraestructura. La siguiente fase de la inteligencia artificial empresarial estará definida por algo completamente distinto:
Sistemas que combinen:
- Estado persistente
- Flujos de trabajo embebidos
- Aprendizaje continuo a partir de resultados
- Operación bajo restricciones
- Integración con entornos reales.
En otras palabras: sistemas que no solo generen lenguaje sobre el mundo, sino que operen dentro de él.
La investigación y la práctica están convergiendo en la misma conclusión: el éxito no viene de herramientas genéricas, sino de sistemas que se adaptan, aprenden y se integran en los flujos de trabajo.
Por qué este cambio parecerá una discontinuidad
Todavía estamos al principio de esta transición. La mayoría de las organizaciones invierte en la capa visible: modelos, interfaces, infraestructura. Pero el verdadero cambio está ocurriendo una capa más abajo.
Y cuando se haga visible, no parecerá una mejora incremental: parecerá una discontinuidad. Porque no estamos pasando de una «inteligencia artificial peor» a una «inteligencia artificial mejor». Estamos pasando de herramientas que hablan a sistemas que actúan.
La verdadera oportunidad
Esto no es el final de la inteligencia artificial empresarial: es el final de un malentendido. Los modelos de lenguaje por sí solos no son arquitectura empresarial, son una capa de interfaz. Una muy potente, pero completamente insuficiente por sí sola.
Las empresas que lo entiendan primero no solo desplegarán mejor la inteligencia artificial. Construirán algo que sus competidores no reconocerán… hasta que sea demasiado tarde.
(This article was previously published on Fast Company)

