A los directivos de las compañías les gusta decir que están «integrando la inteligencia artificial», algo que ya se ha convertido en una frase cliché. Pero la mayoría aún trata la inteligencia artificial como una función, no como un fundamento: añaden un chatbot aquí, un informe automatizado allá, y lo llaman transformación. Es el mismo error que cometieron las empresas en los inicios de la web: crear páginas web a modo de folletos publicitarios, en lugar de replantear sus modelos de negocio en torno a la interacción digital.
La inteligencia artificial no es una función: es una capa arquitectónica que remodelará cada flujo de trabajo, decisión y producto. Quienes la traten como un adorno se desvanecerán, quienes la traten como estructura serán los que liderarán.
De la automatización a la gestión estratégica
Como señaló el estratega de producto Connor Davis, «toda gran empresa contará pronto con una capa de gestión estratégica, un sistema que no solo automatiza tareas, sino que también las coordina entre las distintas áreas». Esta distinción es fundamental.
La automatización se centra en la eficiencia: realizar las tareas existentes de forma más rápida o económica. La gestión estratégica se centra en la delegación: permitir que el sistema tome decisiones, coordine acciones e incluso gestione otro software en su nombre. Piénsalo: como pasar de herramientas que ejecutan comandos a asistentes que comprenden el contexto.
El salto es sutil, pero profundo. Cuando un equipo de finanzas utiliza un LLM para resumir los informes trimestrales, eso es automatización. Cuando el mismo sistema detecta anomalías de forma proactiva, ajusta las previsiones y alerta al director financiero con recomendaciones, eso es gestión estratégica.
Las empresas que comprenden este cambio ya se están reorganizando en torno a él. No están añadiendo inteligencia artificial a los flujos de trabajo: están creando flujos de trabajo en torno a la inteligencia artificial.
Qué significa realmente una transición centrada en la inteligencia artificial
Priorizar la inteligencia artificial no significa usar el último modelo ni añadir funciones generativas: significa diseñar productos y procesos que asuman la inteligencia continua como base.
Andrew Bolis lo expresó muy bien: «La inteligencia artificial se convertirá en la capa de orquestación de todas las herramientas SaaS. En lugar de que los humanos salten entre aplicaciones, los agentes ejecutarán sus intenciones a través de todos los sistemas».
Ese es el futuro del software empresarial. La arquitectura SaaS actual obliga a los humanos a ser el intermediario: copiar datos entre CRM, hojas de cálculo y paneles de control. La capa de agentes del futuro realizará ese trabajo automáticamente, transformando los sistemas empresariales de silos a «organismos» únicos y adaptativos. Y aquí lo afirma nada menos que un biólogo, con varios años de antelación.
Esta evolución refleja lo que sucedió cuando las API transformaron la web. Al principio, las empresas creaban aplicaciones web aisladas; luego, las API las conectaron. Ahora, los agentes de inteligencia artificial se encargarán de la conexión… y de la toma de decisiones.
Los tres pilares de una arquitectura centrada en la inteligencia artificial
Según lo que observamos en diversos sectores, las organizaciones centradas en la inteligencia artificial comparten tres características fundamentales:
- Un sustrato de datos, no un almacén de datos
Los sistemas de datos tradicionales almacenan información; los sistemas centrados en la IA la comprenden. Esto implica la creación de capas contextuales (desde incrustaciones hasta grafos de conocimiento y sistemas de recuperación) que permiten recuperar datos en lenguaje natural y utilizarlos en tiempo real. - Una interfaz semántica
Si tu equipo aún navega por paneles de control haciendo clic, se está quedando atrás. La empresa centrada en la IA interactúa mediante el lenguaje: voz, texto o avisos contextuales. La interfaz se vuelve conversacional porque el flujo de trabajo se vuelve cognitivo. - Una capa de agentes
Toda empresa centrada en la inteligencia artificial necesita una capa de orquestación que pueda actuar de forma autónoma dentro de límites definidos. Los agentes gestionan no solo la recuperación de información, sino también la ejecución de tareas, la generación de código, la programación, las compras, la respuesta al cliente y las comprobaciones de cumplimiento. El desafío no reside en si funcionan, sino en cuánta confianza depositamos en ellos para tomar decisiones.
El cambio cultural que los directivos deben liderar
Nn proyecto tecnológico: es un proyecto cultural. Construir una organización centrada en la inteligencia artificial requiere, como digo constantemente en mis clases y conferencias, que los líderes desaprendan décadas de pensamiento lineal sobre procesos y jerarquía.
La pregunta ya no es cómo puede la tecnología apoyar a nuestros empleados, sino cómo pueden los empleados supervisar la tecnología que trabaja junto a ellos. El gerente del futuro cercano no solo supervisará personas: coordinará agentes.
Los ejecutivos que piensan en términos de adopción de software pasarán por alto esto por completo. La pregunta correcta no es qué herramienta de inteligencia artificial de qué proveedor comprar, sino qué decisiones estás dispuesto a delegar a una máquina.
Este cambio exige un nuevo tipo de gobernanza: límites éticos claros, transparencia de datos y mecanismos de supervisión que garanticen que las recomendaciones de la inteligencia artificial sigan siendo auditables y explicables. Las empresas que no definan esos límites desde el principio terminarán con una inteligencia artificial que funciona… pero que funciona para objetivos equivocados.
La nueva ventaja competitiva
La ventaja competitiva en la era de la inteligencia artificial no radicará en el acceso al modelo más grande ni en la mayor cantidad de GPU: residirá en la adaptabilidad organizacional, es decir, en la capacidad de incorporar la toma de decisiones basada en inteligencia artificial sin perder la responsabilidad.
En cada sector, surgirá un patrón similar: las empresas líderes integrarán la inteligencia artificial como una funcionalidad, mientras que las emergentes reconstruirán su infraestructura tecnológica en torno a ella. La diferencia se manifestará en la velocidad: las empresas que traten la inteligencia artificial como infraestructura reducirán los ciclos de decisión de semanas a horas. Aquellas que no lo hagan se moverán a la velocidad humana, mientras que sus competidores lo harán a la velocidad de las máquinas.
Pero no hay que confundir velocidad con caos. Las mejores empresas que priorizan la inteligencia artificial no automatizan indiscriminadamente: orquestan de forma inteligente. Diseñan arquitecturas human-in-the-loop, con intervención humana donde los humanos conservan la autoridad moral y estratégica, y la inteligencia artificial se encarga de la ejecución a gran escala.
Construyendo responsablemente el futuro de la inteligencia artificial
La tentación, por supuesto, es delegar todo. Al fin y al cabo, si los agentes pueden optimizar el gasto en marketing, las cadenas de suministro y el despliegue de código, ¿por qué no dejar que lo hagan? La razón es simple: la confianza se gana, no se automatiza.
Los agentes de inteligencia artificial deben ser auditables: sus decisiones explicables y reversibles. Sin esto, una organización corre el riesgo de sufrir el «síndrome de la caja negra», que ya ha afectado a las implementaciones de inteligencia artificial a gran escala. Ya escribí sobre este riesgo en Fast Company: cuando se construye sobre sistemas que no se comprenden, se pierde el control.
Los sistemas de inteligencia artificial hacen que esa pérdida de control resulte atractiva. No fallan, simplemente cumplen. Y es precisamente por eso que son peligrosos si se dejan sin supervisión. Recordemos el ejemplo del maximizador de clips…
Pasos prácticos para ejecutivos
Para los líderes que inician su camino hacia la inteligencia artificial, aquí tienen una guía:
- Que comiencen con una cadena de valor
Elijan un proceso con resultados medibles, como atención al cliente, logística o informes internos, y creen un prototipo de versión automatizada. No empiecen con chatbots, sino con el impacto. - Que formen un comité de gobernanza de inteligencia artificial
Combinen la supervisión técnica y ética desde el principio. Ambas son necesarias para escalar de forma segura. - Que inviertan en capacitación
Sus equipos no necesitan ingenieros que respondan de inmediato: necesitan personas que definan los problemas y comprendan qué se puede y qué no se puede delegar. - Que mantengan los datos abiertos dentro de la empresa
La inteligencia artificial prospera con la accesibilidad, no con los silos de información. Establezcan políticas para compartir información internamente de forma responsable. - Y que midan la latencia de las decisiones, no el volumen de producción
La verdadera ventaja de un diseño centrado en la inteligencia artificial no es poder producir más, sino poder tomar decisiones más rápido.
De la funcionalidad a la base
La inteligencia artificial ya no es el complemento del producto: es el elemento esencial. Lo transforma todo desde dentro.
Las empresas que comprendan esto diseñarán arquitecturas donde agentes y humanos colaboren fluidamente, los datos fluyan libremente y las decisiones se tomen en tiempo real. Las que no, seguirán añadiendo inteligencia artificial a sistemas obsoletos y preguntándose por qué nada cambia realmente.
El futuro basado en agentes no está por llegar. Ya está aquí. La única pregunta que queda es si tu empresa está lista para dejar de experimentar y empezar a delegar.
This article was previously published on Fast Company


A los directivos de las compañías les gusta decir muchas cosas: every company in 2025
Tengo que confesar que la IA me encanta, pero me gusta en programas de ajedrez, me parece impresionante lo bien que reaccionan los LLMs con un lenguaje, traducciones, hacer OCR, o hacer imágenes desde un prompt. Los «juegos Reunidos Geyper de 2025».
Es decir transforman (que no crean) una realidad en otra que nos parece distinta.
El caso más claro es el de las traducciones, una traducción A → B la información no ha aumentado (en sentido de Shannon) y sí la aumenta la única causa puede ser por “alucinaciones” del modelo. (lo mismo aplica a parafrasear).
Cuando haces una pregunta abierta a un LLM, la respuesta no aumenta la información contenida en el conjunto {pregunta + parámetros del modelo}, porque esa respuesta es una función (determinista o estocástica) de esas variables (P.ej.: Dependerá de la temperatura con que opere el modelo. En ese sentido, no se crea información nueva: ya estaba codificada en los parámetros del modelo y/o en la pregunta.
Pero sí puede haber “aparición de información” relativa a la realidad externa si interpretas la respuesta como un mensaje con contenido factual. Es decir: no aumenta la información interna del sistema, pero puede aumentar la información que tú (como usuario) recibes sobre el mundo.
La única forma REAL de crear información nueva es alucinar, ya que esa información incorrecta no existía anteriormente. Un ejemplo: si el usuario le pregunta ¿Cual es el estado de las ventas? Si el LLM no alucina solo aportará la realidad resumida (no hay información nueva), pero si crea información ERRÓNEA entonces el peligro es evidene. Pero el usuario no sabrá si no dispone de otros medios de chequeo de comprobar si esa información del LLM es válida para tomar decisiones empresariales o estratégicas. Punto esencial que haya métodos deterministas para evaluar esas respuestas
Si una empresa incluye en su cadena de valor IA en sus procesos. Salvo que tenga procesos en paralelo de control realizados de manera determinista ya que no puede asegurar su fiabilidad al 100%.
¿Entonces para que sirve introducir esos procesos con IA? Ese es el gran problema de la IA, que necesita sistemas de verificación.
No siempre es necesario una fiabilidad del 100% para poder utilizarlo. Por ejemplo en soporte al cliente con una eficacia del 60% (es el cliente el que decide si la solución le vale, entonces la reducción de costes para un volumen grande de tickets, el ahorro es bestial. Puede operar en 24×7 y responder en un segundo. La empresa NO DEBE reemplazar a las personas y usar solo IA. Los procesos se deben transformar, y las personas deben verificar, tomar decisiones críticas y el sistema solo debe filtrar lo evidente. Recordemos la IA no CREA información, salvo que ALUCINE, lo que realmente debe hacer en la empresa es como en el ejemplo de la TRADUCCION, responder lo que ya sabe, y es sencillo. Por eso no deben usarse al 100% en decisiones críticas como: medicina diagnóstica, aeronáutica, nuclear, seguridad financiera, cumplimiento legal estricto. En estos casos sí se requiere una capa de control determinista o reglas duras. Pero incluso ahí la IA se usa para asistir, priorizar o analizar, nunca para decidir sola.
Nota: Por no hacer el comentario extenso, no he tratado, el uso de agentes para buscar información externa. Ahí la fiabilidad de la respuesta, está muy mediatizada por la fuente consultada (SAP,PDF,webs)… si metemos esa fuente como parte del sistema A, tampoco hay un aumento de información del sistema, pero si lo hay para el usuario que pregunta y no sabe la respuesta. Y una vez más deberá poner sus mecanismos de control para verificar esa respuesta.
(Un poquito OffTopic):
«Cuando el ministerio del interior utiliza la IA para hacer una infografía con texto y ni lo revisa. Estamos en manos de inútiles. INÚTILES«
Sin supervision las cosas van como van…
Salvando todas las distancias, lo que dices me hace acordar a una frase del libro (…perdón por lo reiterativo…) de Nassim Taleb «Engañados por el azar»:
Totalmente de acuerdo. Yo viví, hace bastantes años, la eclosión de los ERP’s (básicamente de la implantación de SAP en las empresas) y llegué a la conclusión que las decisiones se tomaban, en aquel momento, en los campos de golf o de tenis en los encuentros entre directivos. Me imagino que los comentarios irían por algo así » en mi empresa los informáticos nos han puesto un software al que al darle a un botón me da un informe con todos los detalles que me permiten saber la salud de la misma». Es decir, como ocurre ahora, traducido sería: «a ver si voy a decir alguna barbaridad y con lo inepto que soy para entender esto de la tecnología voy a quedar como un tonto. Yo le doy dinero a mi jefe de Sistemas y que ponga lo mismo que la empresa de al lado pero gastando menos». Algo parecido a la implantación de la ISO 900x en su momento. :-)
Al andar tan perdido, me cuesta seguir todo el texto, pero siempre hay perlas, aunque no sean de la Rosalía cantante (o sí) para matizar…
El apartado de los tres pilares me permite dedicarlo a la IH y ya es muy útil… porque la IH es nada si no se dan esas tres condiciones que indicas: sustrato de datos, no almacén… interfaz conversacional (dentro de la mente)… una buena capa de agentes (yos, una especie de filtros), medianamente controlados, para enriquecer la toma de decisiones.
En fin, que pasaba por aquí…
Como jurista, coincido plenamente en que la adopción de la IA no puede limitarse a integrar herramientas aisladas, sino que exige rediseñar la arquitectura organizativa. Sin embargo, este avance debe ir acompañado de una gobernanza jurídica sólida. La delegación de decisiones en agentes autónomos plantea retos clave en materia de responsabilidad, trazabilidad y protección de datos. Si las empresas no definen desde el inicio marcos claros de auditoría, límites éticos y criterios de supervisión humana, corren el riesgo de generar sistemas eficientes… pero jurídicamente incontrolables. La verdadera ventaja competitiva no estará solo en la velocidad, sino en la capacidad de innovar sin comprometer la seguridad jurídica ni los derechos de las personas.
Hay varios agentes de IA que me aterran.
Por ejemplo un agente reclutador RRHH. que toma datos de Linkedin, Github, redes sociales y selecciona empleados o subcontratas.
Agente de seguridad. Toma datos de las cámaras de de tráfico y otras diversas y envía polis si prevé delitos potenciales
Cálculo de primas de seguros de salud.
Uff. Un montón.
Esto hasta el alcance de cualquiera? En nuestro caso, trabajamos con un ERP vetusto desde hace 20 años, lo veo bastante imposible que sea adaptable a la inteligencia artificial genética. Si médica esto que solo aquellos que trabajan con los grandes estándar de Microsoft, Sage, SAP… Podrán acceder a esto? O quizás no lo estoy entendiendo bien?.
Muchas gracias por iluminarme.
Pues mira que lo vengo diciendo en mi empresa a todo el que quiere escucharme, pero nada, no hay manera. Les da mucha pereza ponerse en serio, aprender. Les he desarrollado un detector de anomalías con redes neuronales, pero no lo usan. Les he mostrado un prototipo de RAG para manejar la información, y tampoco. Me he convertido en una molestia…
En una organización que madura en este sentido, los agentes se encargan de integrar datos entre sistemas, ejecutar tareas repetitivas y proponer decisiones tácticas; mientras que las personas se enfocan en definir objetivos, restricciones, criterios de éxito y en corregir desalineaciones. Es decir, la capa agéntica empieza a parecerse a un nuevo “sistema operativo” de la empresa, y el organigrama deja de estar definido solo por funciones para pasar a estar definido por tipos de decisiones.