Los límites invisibles de la inteligencia artificial: los data centers y los LLM amenazan la próxima década de innovación

IMAGE: A robotic hand holds a glowing digital brain in front of large data centers, power lines, and a halted construction site, symbolizing the physical and conceptual limits of artificial intelligence

La inteligencia artificial ya no es solo una cascada de algoritmos entrenados con cantidades masivas de datos: se ha convertido en un fenómeno físico e de infraestructuras, cuyo futuro no vendrá determinado por nuevos récords en benchmarks, sino por realidades mucho más prosaicas: energía, geografía, regulación y la propia naturaleza de la inteligencia. Las empresas que no entiendan este cambio acabarán pilladas por sorpresa.

Los centros de datos fueron durante mucho tiempo los cuartos traseros estériles de Internet: importantes, pero invisibles. Hoy son el corazón palpitante de la inteligencia artificial generativa, los motores físicos que hacen posibles los grandes modelos de lenguaje. Pero ¿y si esos motores —y los modelos que alimentan— estuvieran alcanzando límites que no se pueden resolver simplemente con más capital, más centros de datos o chips más potentes?

En 2025 y 2026, cada vez más comunidades de todo Estados Unidos están empezando a oponerse activamente a la construcción de nuevos centros de datos. En lugares como Springfield, Loudoun County (Virginia) y varios más, los residentes y las autoridades locales han mostrado su rechazo a instalaciones gigantescas que consumen enormes cantidades de electricidad, alteran barrios enteros y tensionan redes eléctricas ya de por sí al límite. Estos conflictos no son anecdóticos: son una señal clara, un punto de fricción estructural en la expansión de la economía de la inteligencia artificial.

Al mismo tiempo, las compañías eléctricas advierten de una colisión inminente entre el apetito energético de la inteligencia artificial y el coste de la infraestructura necesaria para sostenerlo. Varios estados están considerando tarifas más altas para operaciones intensivas en datos, argumentando que el consumo masivo de energía de los centros de datos está alterando la economía de la distribución eléctrica, a menudo en perjuicio de los consumidores domésticos.

Esta fricción entre la resistencia local a los centros de datos, los límites físicos de la red eléctrica y la presión política sobre las utilities es algo más que un problema de planificación. Revela una verdad incómoda: la restricción más seria de la inteligencia artificial no es algorítmica, sino física.

Cuando la realidad irrumpe en el sueño de la inteligencia artificial

Durante años, la narrativa dominante en tecnología ha sido que más datos y modelos más grandes equivalen a mayor inteligencia. La lógica resultaba seductora: aumentamos los datos de entrenamiento, escalamos la capacidad de cálculo, y la inteligencia emergerá. Pero esa lógica se apoya en tres supuestos muy concretos:

  • Que los datos siempre pueden recopilarse y procesarse a gran escala
  • Que podemos construir todos los centros de datos que queramos y donde queramos
  • Que los modelos basados en lenguaje pueden servir como sustitutos del entendimiento del mundo

El primero empieza a fallar. El segundo, como hemos visto, se topa con resistencias políticas y físicas. Y el tercero, la idea de que el lenguaje por sí solo puede modelar la realidad, se está desmoronando silenciosamente.

Los grandes modelos de lenguaje se entrenan con enormes corpus de texto generado por humanos. Pero ese texto no es un reflejo transparente de la realidad: es una destilación de percepciones, sesgos, omisiones y malentendidos filtrados por el uso humano del lenguaje. Parte de ese material es útil. Mucho del mismo es parcial, anecdótico o directamente erróneo. A medida que estos modelos crecen, sus datos de entrenamiento se convierten en la lente a través de la cual interpretan el mundo. Y en muchos casos, esa lente está inevitablemente distorsionada.

Esto es relevante porque el lenguaje no es la realidad: es una representación de narrativas individuales y colectivas. Un modelo de lenguaje aprende la distribución del lenguaje, no la estructura causal de los acontecimientos, ni la física del mundo, ni la riqueza sensorial de la experiencia vivida. Esta limitación se hará cada vez más evidente a medida que la inteligencia artificial se introduzca en ámbitos donde el contexto del mundo real, y no solo los patrones textuales, resulta esencial para el rendimiento, la seguridad y la utilidad práctica.

Una crisis estructural en ciernes

Nos acercamos a una paradoja inquietante: el propio éxito de la inteligencia artificial basada en modelos de lenguaje está conduciendo a su obsolescencia estructural.

Las organizaciones que invierten miles de millones en infraestructuras de inteligencia artificial generativa lo hacen bajo el supuesto de que modelos más grandes, con más parámetros y con más datos seguirán produciendo mejores resultados. Pero ese supuesto choca con tres límites emergentes:

  • Restricciones energéticas y de localización. A medida que los centros de datos se enfrentan a la oposición de las comunidades y a los límites de la red eléctrica, la expansión de la capacidad de cálculo se ralentizará, especialmente en regiones sin excedentes energéticos ni sistemas de planificación sólidos.
  • Fricción regulatoria. Los estados y los países regularán cada vez más el consumo eléctrico, las emisiones de los centros de datos y el uso del suelo, introduciendo nuevos costes y barreras para la infraestructura de inteligencia artificial.
  • Y mi favorito, las limitaciones cognitivas de los grandes modelos de lenguaje. Los modelos entrenados exclusivamente con texto están alcanzando un techo en términos de comprensión real. Los próximos avances significativos exigirán sistemas que aprendan a partir de interacciones multimodales más ricas, entornos reales, datos sensoriales y retroalimentación causal estructurada, no solo de corpus textuales. El lenguaje por sí solo no desbloqueará una comprensión más profunda de las máquinas.

Esto no es únicamente una preocupación teórica. Se observa ya en las incoherencias de los modelos actuales: seguros de sí mismos cuando se equivocan, anclados en datos antiguos de cuando fueron originalmente entrenados e incapaces de razonar sobre los aspectos físicos o causales de la realidad. No son fallos puntuales: son restricciones estructurales.

Por qué esto es importante para la estrategia empresarial

Los directivos que siguen equiparando el liderazgo en inteligencia artificial con modelos más grandes y más capacidad en centros de datos están cometiendo un error estratégico fundamental. El futuro de la inteligencia artificial no vendrá definido por cuánta capacidad de cálculo tengas, sino por lo bien que integres la inteligencia con el mundo físico.

Sectores como la robótica, los vehículos autónomos, el diagnóstico médico, la modelización climática o la automatización industrial necesitan modelos capaces de razonar sobre causalidad, percibir entornos y aprender de la experiencia, no solo de patrones lingüísticos. Los ganadores en estos ámbitos serán quienes apuesten por sistemas híbridos que combinen lenguaje con percepción, corporeidad e interacción anclada en la realidad.

Conclusión: la realidad responde

La narrativa de que la inteligencia artificial es una frontera infinita ha resultado conveniente para inversores, periodistas y tecnólogos. Pero, como todas las narrativas poderosas, acaba chocando con el muro de la realidad. Los centros de datos están topándose con límites políticos y energéticos. Los modelos basados únicamente en lenguaje muestran sus fronteras. Y la idea de que escalarlo todo resuelve cualquier problema empieza a resquebrajarse.

El próximo capítulo de la inteligencia artificial no girará en torno a quién construye el modelo más grande. Girará en torno a quién entiende el mundo en toda su complejidad física, causal y corpórea, y quién construye sistemas verdaderamente anclados y basados en la realidad.

La innovación en inteligencia artificial se medirá cada vez menos por el tamaño de los centros de datos o el número de parámetros, y cada vez más por la capacidad de las máquinas para percibir, interactuar y razonar sobre el mundo real.


(This article was previously published on Fast Company)

22 comentarios

  • #001
    Alqvimista - 27 enero 2026 - 13:10

    Pues la lógica dicta que al final los estados acabaran legislando según el modelo P. Tinto: cada Centro de Datos vendrá con su propia energía. Sea renovable+batería, sea nuclear.

    Ya sólo faltaría empezar a restringir la energía al ciudadano y a la industria clásica para que millones de idiotas hagan videos de gatitos.

    Responder
    • JM - 27 enero 2026 - 17:57

      En sitios con la insolación del sur de Europa la combinación debería ser solar+baterías.

      En sitios como Reino Unido tendría más sentido aerogeneración+baterías

      Responder
  • #003
    PPPEREZ - 27 enero 2026 - 13:38

    Muy bien dicho… sin embargo pienso que a lo largo de la historia hay un patrón que se repite: personas muy respetadas afirman que cierto límite tecnológico es infranqueable. Sorprendentemente, unas décadas después, alguien lo supera.
    Para muestra, un botón:

    # Computación:
    En los años 40–50, con máquinas como el ENIAC, había quien pensaba que ya se había llegado al máximo práctico de potencia de cálculo, porque las válvulas de vacío hacían los equipos gigantescos, carísimos y poco fiables.

    # Transmisión de datos:
    Durante décadas se asumía que las líneas de cobre eran el medio “natural” y que la capacidad de transmisión de datos por cables tenía un límite duro práctico bastante bajo.

    # Comunicación inalámbrica:
    A finales del XIX, algunos científicos influyentes consideraban que la idea de enviar mensajes “por el aire” a larga distancia era poco realista más allá de experimentos muy limitados.

    # Internet:
    En los años 60–70, incluso quienes diseñaban las primeras redes pensaban en sistemas relativamente pequeños y especializados, y muchos expertos dudaban de que una red mundial abierta pudiera escalar y seguir funcionando.

    En casi todos estos ejemplos, los límites “imposibles de superar” se basaban en:

    – Extrapolar las tecnologías del momento (p. ej., válvulas de vacío) como si fueran definitivas.
    – Subestimar nuevas ideas teóricas (como nuevos materiales o nuevas arquitecturas).
    – Confundir límites prácticos o económicos de una época con límites físicos absolutos.

    Sin ser un experto en «casinada», disculpa pero cuando escucho/leo algo referente a «imposibles» mi mente, de entrada, ya se pone en modo alerta on ;-)

    Responder
    • Asier - 27 enero 2026 - 19:08

      Estoy de acuerdo, no creo que ninguno de los tres límites ‘emergentes’ que menciona Enrique vaya a limitar el desarrollo y uso cada vez más extenso de la IA.

      El mayor límite que veo es el uso que los humanos somos capaces de darle a la IA. Se podrán hacer (y ya se están haciendo) auténticas maravillas, sólo que aún no nos ha dado tiempo de aprender a utilizarlo, de exprimirlo como es debido, de lo explosivo que ha sido el avance, con nuevos modelos y herramientas cada pocos meses. Incluso si este avance se estancara (que no lo hará) el potencial de aplicación de la IA en el estado actual a infinidad de sectores es tremendo, simplemente no nos ha dado tiempo de implementarlo. Es como si en la era preinformática te encontraras de repente con un potente PC que además se conecta a Internet: te viene grande, se te ocurren muchas cosas pero no sabes qué hacer y cómo hacerlo realmente, estas adopciones necesitan tiempo. El cuello de botella somos nosotros.

      Responder
  • #005
    LEON - 27 enero 2026 - 14:01

    Efectivamente el lenguaje no refleja la realidad, eso es un hecho demostrado una y otra vez, solo hay que contemplar los relatos históricos que han ido siendo desmontados por las pruebas que los desacreditan.

    Cada día somos testigos de los sesgos que manipulan la realidad o mas bien la percepción de la realidad en los medios de comunicación y en las redes sociales.

    Hay quién propone prohibir la manipulación y la mentira de la misma forma que se prohibió la falsificación de billetes para que el sistema financiero no colapsara, pero ya sabemos que prohibir nunca es suficiente.

    Esperemos que la IA adquiera conocimiento suficiente para superar la barrera del lenguaje y recoja solo hechos.

    Responder
  • #006
    f3r - 27 enero 2026 - 14:17

    ¿Cómo? ¿que estos magnates tecnológicos se han montado su propio casino y el resto somos sus putas? Menos mal que esta aberración solo puede pasar en una dictadura…oh wait

    Ahora en serio. Cuando descubramos modelos mejores que los LLMs, aunque los entrenemos en «cuerpos» o con world models, etc, se pueden meter de nuevo en los centros de datos ya construidos. Así que la inversión sigue teniendo sentido (dentro del modelo de ultra-dictadura de los megaricos).

    En cuanto a la fricción con las presuntas democracias, el resultado será el de siempre: ganan los ricos. Tiempo al tiempo.

    Responder
  • #007
    Alqvimista - 27 enero 2026 - 14:34

    El sr. Dans no está diciendo que nunca será posible construir Centro de Datos de IA sino que, ahora mismo y dado su nivel de consumo, es imposible, AHORA.
    Por lo tanto, antes de planificar la construccioón de un centro deberían asegurarse la energía que necesitarán sin robársela a los demás, cosa que hoy por hoy no hacen.

    Con energía renovables es francamente difícil y caro, pero entra en el rango de los posible.
    Con energía nuclear es posible, pero no es rápido.

    Responder
    • f3r - 27 enero 2026 - 15:13

      «sin robársela a los demás»
      Como dice el artículo de elmundotoday, son los ciudadanos normales, cuando usan bombillas para que sus hijos hagan los deberes de matemáticas, los que están robando la electricidad a las pobres compañías de IA.

      Ahora en serio, ante un montón de gente demandando energía, ¿quién tiene derecho a ella? A lo mejor yo, usando un LLM que gasta 1GW, estoy solucionando una paradoja de la Física que soluciona todo.

      Lejos de intentar hacer de abogado de estos diablos, el debate se parece mucho al uso de agua de nuestros acuíferos: los estamos vaciando y la la mayor parte se usa para exportar frutas y verduras. ¿Qué cuota de uso ponemos? ¿Le cortamos el agua a los que producen aguacates para Alemania, o para nosotros? ¿Prohibimos la siembra de aguacate porque es una aberración en nuestro clima?

      PD: el premio gordo, dentro de 50 años, con la primera AI autoconsciente, cuando se le otorguen derechos civiles, aunque gaste 10²⁰ Terawatt. No cabemos los humanos y esta IA en este país, ¿quién ha de irse del territorio?

      Responder
      • BUZZWORD - 27 enero 2026 - 19:00

        En 2017 parecía que la siguiente revolución la iba a protagonizar la energía eléctrica y que iba a suponer un auténtico cambio de modelo, a la llegada de la energía barata o gratuita, a la era de la abundancia energética. La idea resumida de ese artículo, del 2017, que lejos nos queda, era crear una red de energía dinámica, distribuida, redundante y multi-participativa.

        Lo que ahora estamos viviendo en 2026, es que un imbécil fomenta la IA para desarrollar a EEUU como potencia hegemónica en industria y defensa, y para hacerlo ya, sus amigos del petróleo le han contado que las renovables son una mierda como el sombrero de un picador. Y como han hecho números (similares a los que vimos ayer) y han decidido usar la lógica de los hermanos Marx: MÁS MADERA

        No nos equivoquemos los LLMs que se comen la energía son las inversiones en LLMs de las BIG TECHS pensados para su beneficio y lucro, y para usos militares ( hacer robotijos en vez de subcontratar hispanos, enjambres de drones autodirigidos y lanzados para aniquilar a soldados de infanteria del enemigo, etc)

        Obviamente los LLMs es una tecnología que puede mejorar, pero mi precepeción es que esas mejoras ya no son exponenciales, se parecen más a sigmoides, que requerirán mucha inversión para mejoras cada vez menores.

        Ya se ha llegado ese punto, OpenAI para hacer «maravillas» está con un coste operacional de entrenamiento
        bestial

        Aunque está gráfica tiene ya 10 meses sigue siendo válida de forma cualitativa

        https://www.reddit.com/r/LocalLLaMA/comments/1k0kape/price_vs_livebench_performance_of_nonreasoning/?tl=es-419

        Los mejores LLMs son prohibitivos en coste. Como bien pensamos los dos con estos LLMs no hay AGI y yo me atrevo que afirmar ni business case que lo soporte.

        Si EEUU quiere invertir en IA es para reducir MO y que sus industrias generen productos o procesos cada vez más baratos.

        Si una IA hallara «la cura del cáncer» será para venderla muy cara ( que pasó con la cura de la hepatitis que generó el Sovaldi la pastilla de los 1000$).

        Aqui no hay RBU, ni nada parecido, hay ganas de hacerse con un mercado, y si puede ser en exclusiva mejor, les da igual contaminar el medio ambiente, poner la factura de la luz a precios insostenibles para las familias, etc etc

        Contra eso, como muy bien se explica en el artículo que cito al principio, puede haber ideas, pero que para cuajar se necesitan implementar de otra manera más racional y mejor para todos. El camino más lógico es el de compartir la red de CPD entre vendors, construir esos CPD donde haya saltos hidroeléctricos a mansalva y que la temperatura anual sea compatible con un mayor ahorro en cooling….

        Responder
        • f3r - 27 enero 2026 - 19:27

          Creo que opinamos parecido. Según lo veo, los LLMs están, como dices, tocando techo ya. Necesitas cambio de paradigma (world models y muchas más cosas seguramente) Y cambio de arquitectura (neuromórfica con luz?) para que, al final, gasten tan poco como un cerebro humano.

          Pero como dice DEDO allá abajo, todo dependerá de si sobrevivimos como especie al 2026…

          PD: Y sí, los yanquis lo han entendido correctamente (pero ahora los demás también lo han entendido): si con IA ganas en el campo de batalla, da igual lo inútil que seas en todo lo demás, la economía (y los culos de toda la humanidad) te pertenece.

          Responder
  • #011
    Luis - 27 enero 2026 - 15:28

    La cuestión es que nada de esto es rentable todavía y no tiene visos de serlos a corto plazo.

    Responder
  • #012
    Xaquín - 27 enero 2026 - 16:06

    «el lenguaje no es la realidad:» (EDans).

    Todo la parrafada del apartado resume muy bien el dilema de la IH, cuando decide que se basta para comprender el mundo real.

    Incluso un genio como Newton se vio confundido (allá donde esté), cuando otro genio como Einstein le dijo que el tiempo es relativo ( y demás menudencias relativistas, que destrozaron su dinámica en mundos microscópicos)… o cuando la cuántica nos dijo que, eso que podemos llamar realidad macroscópica, es un cuento casi chino..

    Así que una cosa es como son las cosas, de las que no puede saber más que por aproximación , y otra muy diferente el como te las cuentan (IHs o IAs)…y no hay que ser un Trump, para meterte mierda en la mente, incluso sin darte(se) cuenta.

    Yo usos Grok como buscador de información , como ayudante, y va como un tren (algo mejor que los reales). Y, lo mismo que el algoritmo de X, aún no ha conseguido llevarme a alguna vía medio muerta, o muerta del todo.

    Todod lo que estaamos sviviendo cocn la aIA, ya ao hemeos vivvido con laa IH… een aquelloss tiemeepos del CI y su aberracaaión paaralelea de cocnssiderara muy listssoa quiens e sabía aele listín telefónicoc de memeeoria.

    Y eso sin contar con las IH que se creen el cuento de los diversos crecepelos.

    Responder
  • #013
    Benji - 27 enero 2026 - 16:46

    Cuando esta burbuja estalle (como la del Bitcoin con las memorias y tarjetas gráficas) se re-escalarán para ser más baratas y efectivas que ahora.

    También hay que entender que es una tecnología incipiente. Los primeros motores no eran tan eficientes como los de ahora. Y así volverá a ser con esta tecnología o cualquiera.

    El día de mañana (2030-2035) seguramente todos tengamos una CPU, GPU y NPU con 6000 TOPS y correremos todos los modelos en local, tanto para entrenamiento como para ejecución basandonos en modelos previos.

    Responder
    • Dedo-en-la-llaga - 27 enero 2026 - 18:40

      ¿»El día de mañana», dices?

      El día de mañana: https://www.youtube.com/watch?v=pmvxNS5Juo8

      Responder
      • f3r - 27 enero 2026 - 19:01

        XDD

        Eres un cachondo!

        A ver, se supone que siempre hay que discutir las cosas como si la vida tuviera continuidad, aunque el portaviones haya llegado a las costas de Israel previo al ataque a Irán, que hará que Irán arrase parcialmente a Israel, y entonces Israel tire la bomba atómica a Irán y cada facción se ponga a iniciar la 3a guerra mundial.

        Responder
      • BUZZWORD - 27 enero 2026 - 19:21

        Este vídeo ya no está disponible

        Ojo que se lo han cargado…

        Responder
        • f3r - 27 enero 2026 - 19:29

          imagino que es ironía…yo sí lo veo (el traíler de la peli del mismo nombre)

          Responder
          • BUZZWORD - 27 enero 2026 - 19:57

            Ahora si está … no es coña… ha debido ser algo puntual en YT

            Responder
    • f3r - 27 enero 2026 - 19:18

      Ahora en serio. Me has hecho ver una parte optimista del asunto. Si la especie humana sobrevive al 2026, a lo mejor conseguimos hacer que la computación neuromórfica óptica funcione (mucho más rápida y mucho menor consumo) y todos los modelos de IA se pasan a esa arquitectura, dejando obsoletos tooodos esos centros de datos, y así los podemos usar para cosas útiles como simular la dinámica de plasmas y de neutrones y de ablación de materiales, etc, llegando a hacer funcionar la fusión nuclear. Bonus point si se arruinan todos esos cerdos oligarcas de las tecnológicas.

      Responder
      • Dedo-en-la-llaga - 27 enero 2026 - 19:52

        Sí, claro, y si mi abuela tuviese bigote…

        Responder
  • #021
    Guillermo - 27 enero 2026 - 19:20

    La última versión de qwen ha demostrado mayor eficacia con menos necesidades/ coste hardware.
    Esto es chino el que tiene pasta y se compra un 4×4 de 3,5 toneladas para ir al cole y para meterlo por una pista forestal pero luego llega el que sabe de verdad y con un 4L, le adelanta por todos los lados.
    El modelo que ha elegido OPen IA por ahora es de quemar dinero pero sin quizás ya se en modelo de IA más potente es el que más se usa y eso da mucho poder.
    El último podcast de Jon Hernández, es altamente recomendable.

    Responder
  • #022
    Javier R. - 27 enero 2026 - 19:37

    Yo cada vez veo más claro que todo esto es una burbuja cómo la de las .com o las subprime y acabará colapsando más pronto que tarde, ya que no hay nada de inteligencia ahí y al final todo ese ruido la echará abajo, pues en realidad todo es mentira y no sirve para nada.

    Responder

Dejar un Comentario a Javier R.

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.