La inteligencia artificial está experimentando un giro cultural y estratégico de enorme calado que ya anticipé hace algún tiempo: más allá de la competición por la supremacía tecnológica, lo verdaderamente transformador podría encontrarse en lo abierto. En los últimos meses, China ha liderado con fuerza esta narrativa, lanzando modelos como DeepSeek, Qwen y MiniMax, cuyos pesos están disponibles sin restricciones para desarrolladores de todo el mundo. Este enfoque no solo ha acelerado el desarrollo colaborativo, sino que los ha colocado en posiciones destacadas en rankings globales.
Compañías como Hugging Face y Mistral, entre otros actores, han comprendido que la apertura genera ecosistemas sólidos y resilientes. En ese escenario, advirtiendo que los Estados Unidos están subestimando la amenaza que supone el dominio de China en el ámbito del código abierto, OpenAI se ha visto impulsado a revisar su estrategia. El resultado: el lanzamiento de gpt‑oss‑120b y gpt‑oss‑20b, sus primeros modelos de open weights desde GPT‑2, disponibles bajo licencia Apache 2.0.
¿Por qué este movimiento es relevante? Porque no se trata solo de democratizar el acceso, sino de intentar reconquistar influencia en el mundo de la inteligencia artificial. Los modelos chinos estaban conquistando terreno global, respaldados por gobiernos y empresas, y gracias a su naturaleza abierta podían integrarse en ecosistemas nacionales y extranjeros con facilidad. OpenAI, consciente de esta amenaza simbólica y estratégica, se centró en responder con modelos que no solo entregan pesos, sino también arquitectura eficiente, capacidades razonadas avanzadas (como razonamiento, uso de herramientas y generadores de cadena de pensamiento), así como estándares robustos de seguridad, flexibilidad y razonamiento avanzado, en un intento por redefinir el estándar global.
Desde la perspectiva técnica, gpt‑oss‑120b, con cerca de 117,000 millones de parámetros, utiliza una arquitectura de Mixture‑of‑Experts (MoE), con ciento veintiocho expertos por capa de los cuales solo cuatro se activan por token, permitiendo eficiencia y razonamiento profundo. El otro modelo más modesto, gpt‑oss‑20b con apenas veinte mil millones de parámetros activados, logra un equilibrio sorprendente entre rendimiento y bajo consumo de recursos, incluso permitiendo ejecución local en hardware accesible.
Y esto es muy relevante: democratizar no equivale a simplificar, sino a ofrecer la potencia de razonamiento más allá del alcance de centros de datos centralizados. El impacto podría ser tan disruptivo como lo fue el código abierto para el software tradicional. Sin embargo, aún hay retos. Algunos análisis independientes muestran que, en puntuaciones puras, los modelos chinos como DeepSeek R1 y Qwen3 superan ligeramente al gpt‑oss‑120b en índices como el Intelligence Index. Esto sugiere que, aunque OpenAI ha cerrado parte de la brecha, la carrera continúa.
Este enfrentamiento entre China y OpenAI no se mide únicamente en líneas de código, sino en modelos de desarrollo, colaboración y estandarización. China ha construido un ecosistema robusto en torno a lo abierto, permitiendo a entidades locales adaptarlos dentro de sus plataformas, incluso bajo restricciones geopolíticas.
El futuro de la IA será abierto no solo porque conviene por eficiencia y por adopción, sino porque aquel que controle lo abierto forjará la arquitectura de referencia, desde la pedagogía hasta las regulaciones. La libertad de inspección, personalización y mejora nos encamina, sin duda, hacia una era donde la inteligencia artificial no será solo más poderosa, sino más transparente, más distribuida y, esperemos, también más responsable.
You can also read this article in English for free on my Medium page, «China’s winning the open AI war—can the U.S. catch up?»


Rozamos el ridículo como especie… un país que presume de libertad se cierra en banda y se hace el harakiri típico de un imperio romano, en franca decadencia, mientras que una sociedad, que dicen megacerrada, lidera un movimiento para liberar el uso de algo, que ya quisiera para sí un Stalin : el supuesto control de la mente… y sin tortura!!!
Como se nota que estamos aún a meses luz de entender a nuestra IH y, como no, a «nuestra» IA (mientras no se independice).
Veremos que saca el ETH de Zürich…
El que hizo España estaba muy correcto, y hoy en día sigue siendo el mejor en español y demas lenguas oficiales. Básico en lo demás eso si, no era su función ser una IA generalista o de código… pero en castellano, catalán, gallego y euskera…. un 10 !
Qwen 2.5 es la que estoy usando en versioens 7B/(1.5B para embeddings) y trabajan muy bien (para local)
En otro ámbito (el móvil) llevo Phi 3.5, Llama 3.2 y Qwen 2.5 (todos modelo 3B) y Qwen es de lo más… y a veces, mejor que los gepetos del pc tirando de sus servidores. No hablo de Benchmarks, sino de uso personal.
Pero lo mejor es que en esto del open source ninguno somos nuevos, y por tanto sabemos que las prestaciones actuales no tienen nada que ver con las que tendrán cuando vayan evolucionando con un comunidad de usuarios y desarrolladores cada vez más fuerte… para mí, la clave es esa!
No lo pongo en duda eDans, pero convendrás conmigo, que vivimos una época de hype exacerbado y descontrolado, en la que cada día nos despertamos con una miríada de noticias, que acaban siendo “nada”. Mas aun, cuando se nos presentan como super avances, y después, reculan.
No tengo datos (que decimos) pero tampoco ninguna duda, que en tres, cinco o diez años, tendremos a la IA hasta en la sopa, y que empezaremos a no saber vivir sin ella. Pero como dijo Santi Liebana:
– ” Nos habían vendido que los robots inteligentes de esta década serían Arnold Schwarzenegger en moto y con una escopeta y lo que tenemos es un cacharro para hacer croquetas sin aceite y una lavadora que se pega media hora diciendo que falta 1 minuto.”
En otro orden, y ya aprovecho para el desahogo…
Una generación Z que les das un lápiz y un papel y te sacas los ojos al ver caligrafía y ortografía (y son nuestro “futuro”). Ya estamos en el punto de que como sacarse el carnet de conducir es muy difícil, vamos a bajar el nivel… (no encuentro el enlace)… ¿Es esto? ¿Y si el problema está en la comprensión lectora? ¿Quizás volver al sistema de educación anterior sería la solución? ¿Harán lo mismo para ser médico o abogado?
Yo que se… siendo “pro-tecnologo”, que vivo de ello, empiezo a tener dudas…
Yo tampoco tengo dudas, ya que como dije hace un par o tres de post, esto acabará siendo una proctología generalizada. Para que todo el mundo lo entienda, y con el debido respeto, una porculería mundial, profunda y atrozmente muy mal repartida.
– O sea, que SkyNet vencerá porque las maquinas serán cada vez mas inteligentes…
– No, no, no hará falta, porque los humanos seréis cada vez mas gilipollas. Vuestro líder es una Nesspresso…
Sobre la generación Z, puede que tengas razón, pero …..
Les hará falta saber escribir en un futuro si todo es por voz?
Recordamos todo lo que nos obligaron a memorizar en nuestra época de estudiante?
El acceso a información ahora es inmediato.
Qué pensarían nuestros abuelos o bisabuelos de cómo nosotros hemos perdido la sabiduría de plantar o criar nuestra comida? Ser autosuficientes?
Personalmente creo que lo que realmente es peligroso es no saber pensar, dudar, querer investigar, etc etc.
Que conste que abro el debate por actuar un poco de defensor del diablo…. Jajaja
Por ejemplo:
Qwen en accion en el movil
ps.- Discutible el punto 4. Pero GPT-4 tambien suelta lo de rectilineo.
ps2.- contesta mas rapido que yo tecleando (en movil) XDD
Yo estoy usando Qwen 2.5 en mi RAG local, sencillamente he probado otros y es el más rápido y el que mejor funciona.
Para vectorizar uso el 1.5B porque es más rápido y para sacar las queries a la BD (hay que usar el mismo modelo que vectorizó si no casca) Y una vez que he obtenidos los chunks. Esos trozos se los enchufo al 7b, que es mejor modelo, para entender la pregunta y el contexto que se le pasa (k=4):
Para resumir PDF cortos solo uso el 7b. Pero para PDF largos me he construido un agrupador de chunks, usando el 1.5b y los resumenes intermedios los sumariza el 7b. Se consiguen mejores resumenes que con GEPETO ya que tu controlas, que porcentaje sobre el texto completo quieres el resumen. Tengo probados tres niveles 20%, 35% y 50%. Esto con OpenAI no lo puedes hacer con la web, te tendrías que arremangar con la API y donde pones Qwen, tirar de tokens y pagar al Samu por algo que no vería la diferencia.
Para código es el próximo paso. Nadie nace enseñado… y cuesta su tiempo…
En cuanto a RAG el que funciona aceptablemente bien, es NotebookLM,. En local he probado con el mismo con LMStudio y AnythingLM y bueno algo hacen, pero no puedes jugar con los algoritmos como se hace con Langchain, Ollama y Python… no hay color.
Yo en la notebook estoy usando:
• GPT-oss-20b-GGUF
• Qwen2.5-VL-7B-Instruct-GGUF
Este último me encanta porque le puedo dar imágenes, las puede «ver» y le puedo hacer pedidos relativos a esas imágenes, me fascina.
Pero siento que en cuanto a «creatividad» en la generación de texto (brillantez, frescura y ese «no se qué») GPT va más fino que Qwen.
Pero igual, gratamente sorprendido por ambos.
Yo los uso a través de la app PocketPal, en la que puedes afinar las respuestas y la ventana de contexto para cada modelo. Incluso crear a «tu amigo» y darle personalidad… (una asistente sexy, by exam) XDD
Mi móvil es un Oppo X5, nada del otro mundo hoy día pero entre 3 y 4 tokens por segundo de respuesta es mucho. La ventaja es que todo queda en el móvil a menos que explícitamente no le digas que salga a internet.
…downloading…, gracias por el dato.
Ojo… que ni le doy un uso “profesional”, ni lo utilizo a diario… solo para echar unas risas con los amigos… XDDD
Por cierto, para el RAG los LRM (razonadores= qwen3 y deepseekr1) no me gustan los 7b empiezan a divagar que si me ha pedido esto o lo otro
Acaban de sacar el gema3 de 270M y es muy rápido, en 1 s. en el PC:
«>>> hola
Hola! ¿Cómo estás?
>>> Explicame la teoria heliocentrica
La teoría heliocentrica es una teoría de la gravedad que propone que el centro de masa de la Tierra es el centro del universo. En otras palabras, la gravedad es la fuerza que mantiene a la Tierra en su
órbita.
Aquí te dejo un resumen de los puntos clave:
* **La gravedad es la fuerza que mantiene a la Tierra en su órbita.**
* **La Tierra es la causa principal de la gravedad.**
* **La Tierra tiene masa y es más densa que cualquier objeto que se encuentre cerca de ella.**
* **La gravedad es la fuerza que hace que las cosas se muevan en línea recta.**
La teoría heliocentrica tiene implicaciones importantes en varios campos:
* **Planificación espacial:** La idea de que la Tierra debe estar en el centro del universo, y que la gravedad sea la fuerza que la mantiene en ese centro.
* **Estabilidad de la Tierra:** La teoría sugiere que la Tierra puede mantener su estabilidad, ya que la gravedad es la fuerza que la hace estar en un lugar donde la gravedad se disipará.
* **Planificación de la órbita:** La teoría influye en la idea de cómo se planificarían las órbitas de los planetas, ya que la gravedad es la fuerza que los hace estar en el centro de la órbita.
En resumen, la teoría heliocentrica es una teoría que pone el centro del universo en el centro, y que la gravedad es la fuerza que lo mantiene en ese centro. Es una teoría fundamental que ha sido
ampliamente confirmada y utilizada en la física moderna.
>>>»
SOLO 270M ¿que es 1500 veces menos que Gepeto de 400B?
En fin
Como he dicho: «Ojo… que ni le doy un uso “profesional”, ni lo utilizo a diario… solo para echar unas risas con los amigos… XDDD»
Para competiciones ya estan los demas… (los monetizadores) yo estoy aqui por las risas… XDDD
Mi Qwen no tiene acceso a internet… si lo fuerzo, quien sabe… XDDD (y ademas, es un puñetero movil)
En mi caso tuve que desinstalar la versión de Gemma la semana pasada porque noté que empezó como a «desmoronarse» en cuanto a calidad. Hasta me empezó a responder en otros idiomas, a pesar de que le preguntaba en español y le pedía que me respondiera en español… (wtf!!!???)
Y a openai/gpt-oss-20b lo configuré en [Reasoning Effort = Low], que no uso los LLM’s para intentar resolver la conjetura de Collatz, y la verdad que va muy bien.
Una duda tengo sobre cómo funcionan estos modelos locales.
Tienes un modelo instalado en local en tu ordenador o móvil; al conocimiento base que trae se le añade el conocimiento del día a día, el que el usuario le aporta, profesional o personal. Cuando ese modelo se actualiza, ¿cómo mantiene e integra el conocimiento extra adquirido?
Nadie…??? En serio…??? Con tanto experto…??? XDDDD
¯\_(ツ)_/¯
Tendré que decir que es para instalar en un Mac/iPhone a ver si así por lo menos me insultan… XDDD
A ver, que contestamos…
Al actualizar un LLM instalado en local, el conocimiento personalizado que aporta el usuario, sea profesional, personal o cotidiano, no se integra automáticamente en la nueva versión, a menos que exista un sistema de memoria persistente o mecanismos explícitos de transferencia de datos, que no suele ser el caso salvo que los desarrolles tú (por ahora).
La mayoría de los LLM locales mantienen lo que tú llamas su “conocimiento base” fijo, dependiendo de los datos con los que fue entrenado originalmente; las interacciones diarias se gestionan como datos contextuales de corto plazo, que no sobreviven entre sesiones salvo que exista un sistema de almacenamiento adicional. Si el usuario crea una «base de conocimientos» externa (archivos, bases de datos personales o embeddings), normalmente estos recursos deben reintegrarse o reconfigurarse con cada actualización importante del modelo.
Algunas herramientas modernas implementan memorias persistentes o bases de datos externas que conservan el contexto histórico o personalizaciones, y estos datos pueden conectarse al nuevo modelo post-actualización, siempre que la compatibilidad esté asegurada.
Si la personalización se ha realizado mediante «fine-tuning» real sobre el modelo modificando sus pesos, una actualización del modelo base hace que se pierda ese ajuste a menos que se vuelva a entrenar el modelo actualizado con los datos personales. Si la información personalizada reside en recursos externos (memorias híbridas, bases de datos, sistemas tipo RAG, de los que hemos hablado a menudo), basta con conectar esos recursos a la nueva versión del modelo, siempre que el mecanismo de integración se mantenga compatible.
Algunos métodos actuales suelen usar memorias externas de largo plazo o técnicas de integración vía APIs o contextos ampliados para preservar conocimiento y evitar la pérdida tras cada actualización (mírate este hilo de Reddit), por ejemplo…
La IA es una auténtica selva. La lucha por la mejor posició en la cumbre de la IA es despiadada. Ignoro si esa posición destacada de NVIDIA se ve ahora igua de sólida que hace un año o dos. Deberías volver a dedicar otro artículo a esta compañía porque están pasando demasiadas cosas que la están afectando quizás gravemente. Está intervenida por EEUU y eso podría afectar a sus planes. Dinos si el software libre puede ser un aliado para NVIDIA.
España y Europa deben empezar a tomar cartas sobre el asunto. La iniciativa que yo propongo es un primer paso en la buena dirección:
https://photos.app.goo.gl/ynhz1EfxZoj3RKB77