El ecosistema tecnológico en el que vivimos no es un simple desfile de productos, sino una lucha por recursos reales, por el poder de computación, por el control de las infraestructuras y por modelos mentales sobre qué significa «inteligencia» en la economía digital. A finales de 2025, la ofensiva de Google con Gemini, su gran apuesta estratégica para reconfigurar su posición tras varios años perdiendo relevancia frente a OpenAI, ha generado titulares y análisis por doquier. Lo que está en juego no es sólo si Google puede competir con ChatGPT, sino si puede quebrar o al menos desestabilizar a los líderes que han marcado el ritmo hasta ahora: OpenAI en modelos generativos y Nvidia en hardware y escalabilidad de computación.
Ya he insistido en las últimas semanas en la idea de que Google parecía resucitar tras un periodo en que el buscador y sus activos clásicos parecían condenados al estancamiento: la empresa ha pasado de la muerte del buscador a un autentico reset estratégico con todo el arsenal renovado. Sin embargo, esta narrativa choca con la visión tradicional de Google como un gigante que arrastra su propio peso: grandes recursos, sí, pero también inercias culturales y económicas vinculadas a su modelo publicitario histórico, una trampa que ya exploré en otras ocasiones.
La realidad es menos binaria que los titulares: Gemini 3 ha sido bien recibido, con ciertas métricas que superan a las de los modelos de OpenAI en pruebas aisladas, y eso ha provocado que en las últimas semanas se hable de una presión competitiva real que tal vez haga tambalear temporalmente la supremacía de ChatGPT. Sam Altman incluso ha descrito el ingreso de Google al tablero como un «code red«, un estado de emergencia interna que obliga a OpenAI a reorganizar recursos para responder a la amenaza percibida. Pero hablar de que Gemini va a matar a OpenAI es sobredimensionar una victoria táctica.
¿Por qué? Simplemente, porque la arquitectura de la competición es tridimensional: no solo se trata de quién tiene mejor modelo de lenguaje, sino de quién domina la pila completa que va desde el silicio hasta el servicio final. Aquí es donde Nvidia sigue siendo un actor estructuralmente dominante. El análisis reciente de SiliconANGLE subraya que el llamado «moat», o «foso» de Nvidia no está cayendo ante alternativas como los Tensor Processing Units (TPU) o los ASIC de otros, sino que su liderazgo en arquitectura de cómputo de alto rendimiento y su posición como el suministrador principal de infraestructura para entrenamiento e inferencia a gran escala sigue siendo dificilísimo de vulnerar.
Ese liderazgo no es teórico: Nvidia y OpenAI han firmado una alianza estratégica para desplegar más de diez gigavatios en sistemas de inteligencia artificial, con inversiones comprometidas de hasta cien mil millones de dólares para construir la próxima generación de centros de datos de inteligencia artificial. La cifra es descomunal, no solo en términos absolutos, sino en lo que implica sobre la velocidad de innovación y la barrera de salida para competidores menos capitalizados. La alianza casi parece un pacto para preservar la superioridad conjunta de ambos frente a embestidas externas.
Google, por su parte, tiene recursos inmensos, y ese músculo le permite jugar en varias capas simultáneamente: desde integrar Gemini a la columna vertebral de productos como el buscador, las herramientas de productividad o los servicios en la nube, hasta explorar hardware propio, y trabajar con aliados como Meta para hacer que los TPU sean más compatibles con frameworks de desarrollo populares como PyTorch. Pero esos avances, aún prometedores, se enfrentan al problema clásico que ya he señalado anteriormente: Google es grande, sí, pero su grandeza histórica puede ser lastre tanto como ventaja, porque sus rutas de monetización y objetivos de negocio no se alinean perfectamente con la lógica brutal de la competencia por liderazgo en inteligencia artificial.
Más allá de estos tres gigantes, hay más actores que complican aún más el mapa estratégico. Anthropic con Claude, que viene de largo con propuestas de seguridad y rendimiento propias, ya forma parte de la competencia significativa en servicios generativos. Y compañías como xAI de Elon Musk, con vocación de AGI según sus mensajes internos, añaden presión adicional, contraponiéndose a la narrativa binaria Google vs. OpenAI/Nvidia.
La evidencia disponible sugiere que estamos lejos de un dominio absoluto de una sola empresa: más bien, asistimos a un equilibrio dinámico e inestable, donde la capacidad de competir exitosamente dependerá tanto de la innovación tecnológica como de la habilidad para integrar esa tecnología en modelos de negocio eficaces. La maquinaria de Google puede mover piezas rápidamente, pero no es evidente que tenga la agilidad ni la economía de tokens ni la fidelidad de desarrolladores que ha tejido Nvidia en su ecosistema. OpenAI, por su parte, ha demostrado una capacidad de respuesta feroz que revela que aún está viva y es capaz de pivotar rápido ante amenazas estratégicas.
Si algo nos enseñan estos momentos de cambio profundo es que ninguna empresa gana por decreto, sino por consolidación de ventajas en múltiples vectores simultáneos: hardware, software, adopción, comunidad, monetización y gestión del riesgo. Google puede soñar con dominar la inteligencia artificial como en su día dominó la búsqueda, pero el campo de batalla de 2025 se parece menos a 2005 de lo que muchos creen. La supremacía plena sigue siendo un concepto esquivo, y lo más probable es que el liderazgo siga siendo compartido o disputado entre varios titanes, en una carrera que apenas acaba de empezar su fase crítica.
This article is also available in English on Medium, «Google is back… but is that enough to win the AI war?»


¿No será que luchan más por ganar la batalla del relato con el objetivo de ganar posiciones populistas en la guerra multitareas?
En mi opinión, la lucha por la IA se va a dar por conseguir clientes que paguen por el uso de la IA y eso, a mi juicio, solo puede tener dos tipos de ingresos, el procedente de las corporaciones que paguen por el uso de agentes con AI, pero no tengo claro como van a conseguir monetizar los gastos de las AI de los particulares.
Me hace el efecto, que Gemini, esta fagocitando el dinero que antes dejaba la publicidad contextual en las paginas web, que ahora no visitamos porque nos conformamos con la respuesta de la AI
Creo que faltó mencionar a los chinos en este artículo. ¿Qué podrán ganar todas estas empresas occidentales si sacan un producto más barato, más abierto y más útil con solo una fracción de esa capacidad de procesamiento?
Yo no creo que OpenAI o Google tengan ni un solo cliente en la china continental. Es más, creo que nVidia tampoco vende ahí y los chinos se las apañan con hardware «made in china» o con sistemas más antiguos y lo compensan con eficiencia, inteligencia e ingenuidad.
Puede que todo esto sea un monstruoso gigante con pies de barro.
Nvidia vende mucho en China y de hecho las empresas chinas se mueren por que el gobierno chino les deje comprar el H200 que Trump ha autorizado a NVIDIA a vender ahí porque sus chips aún no pueden competir ni remotamente con ellos
La pregunta es ¿quien sigue pagando en Chatgpt?
Cuando sacan su 5.2 y muestran unos benchmarks superiores lo hacen con el modelo HIGH el de 200$ al mes, que para el usuario normal no le aporta mucho. La realidad es que cuando publican su marketing los grandes, hay que comparar tarifas y capacidades, y en eso OpenAI no sale nada beneficiada. Y si hay un código rojo, es porque la gente en su versión gratuita o la de 20$ saca más beneficio de las otras opciones, y pagando hay un trasvase a Gemini.
Lo de los acuerdos en el mundo IA, p.ej. de OpenAI con todo el «mundo», lo leo como una promiscuidad, que lo que hace es que la burbuja está muy interconectado. Los únicos que están limpios, de esa interdepencia, son OTRA vez los chinos… malo para Occidente,
El otro día, sin que venga a cuento, pensé que Apple podría estar jugando con cautela. Parece que están esperando a ver cómo se desarrolla este «cisne negro» o la burbuja de la IA, algo que ya todos estamos comentando. Mi idea es que podrían aprovechar el momento para comprar una empresa importante en IA (como OpenAI o alguna otra) a un precio más bajo y así ponerse al día.
No creo que sea así.
Apple contrató a un genio de la IA-ML que no creía en la IA-Generativa.
Apple hizo grandes avances en IA-ML, pero quedó atrás en la IA-G..
Pero Apple no está en el mercado de los GPTs ni nada por el estilo. No está para competir con la IA como producto sino como servicio interno. Y, además, como servicio de uso en los dispositivos y no en servidores gigantes.
Así que, mientras se pone al día, de momento encarga a terceros dichos servicios: OpenAI para los grandes modelos y Google para un modelo pequeño a ejecutar en dispositivos.
Olvídate de ver a Apple ofreciendo algo como como ChatGPT o NanoBanana de uso general, no, si acaso lo verás ofreciendo algo similar pero dentro de sus aplicaciones.
Si lo consigue o no y con qué prestaciones, esta primavera se verá. O, quién sabe, quizás la veamos cobrando miles de millones de dólares por usar los servicios de Google en vez de desarrollar los propios.
Sin embargo Apple necesita algo similar a ChatGPT para sustituir a Siri de manera que proteja esas conversaciones. La idea de contratar a Gemini para realizar esa labor desde los servidores de Apple, dado que Apple (aún) no ha conseguido algo así refuerza esa idea
De momento eso lo tiene subcontratado con OpenAI, pero anonimizado -OpenAI no individualiza al usuario de las consultas- y, si no ha cambiado, ejecutado en los servidores de propios de Apple.
Ojo, que hablo de Siri, y por ahí todos los rumores y filtraciones hablan de Gemini por 1000 millones al año (corriendo en los servidores de Apple)
Javier
Si algo ha demostrado Elon es que con pasta se puede estar en un breve periodo entre los BIC(Best in class) de cualquier producto.
En leaderboard texto tenemos en primer lugar a gemini y en segundo a grok. Recordemos que el LLM de Elon empezó a desarrollarse tardíamente… que Apple se quisiera sumar a tener su LLM puntero sería ante todo una decisión estratégica no de falta de financiación. Tengo claro que Apple no está y de momento ni se la espera, por algo tan simple como un porque no quiero. El tener una IA interna es algo más sencillo, la propia Meta con su modelo Llama la está usando… es un modelo que se ha quedado atrás (el 4.1) porque simplemente hay otros mejores, pero para dar servicio a un whatsapp o FB les vale, igual que valdría para ser el LLM básico de un Safari o en general de Iphone. De hecho el LLM básico de google es el que muestra en google.com. O el grok básico de X en twitter les sirve para dar contexto a preguntas básicas en un tweet.
Cuando sacaron su «Inteligencia Manzana», lo hicieron con un modelo básico en su último Iphone (siguiendo la estrategia típica de Apple, lo que saco lo aplico como palanca de ventas) y luego se supone que se apoyaba en remoto en el LLM de OpenaAI.
La realidad es que los usuarios «pro» de Apple que conozco (aqui pro es compro lo ultimo siempre), ni una destaca la IA manzana, pero tienen instalada la APP de open-ai o grok de pago…
La realidad del día a día se abre camino en esos usuarios de Apple. ¿quieren IA? Tienen la de los terceros.
Indirectamente es bueno, ya que no son usuarios cautivos, al igual que en otros servicios, han preferido a terceros con servicios que se ajustan mejor a sus gustos o necesidades. Algunos se están liberando del ecosistema, en este caso por razones obvias de calidad en los terceros: gemini, chatgpt, grok,… frente a lo que Apple les puede dar dentro del nido, que es nada o casi nada.
¿Que hace tan diferente un centro de datos de IA con los demás centros de datos de que han existido desde 1950? ¿Acaso un millón de discos duros para hosting web o GPUs para minar bitcoins no consumen una cifra similar?
Esto va tan rápido que nadie sabe en qué va a acabar o con quien va a acabar.