La máquina que empieza a rediseñarse sola

IMAGE: A humanoid robot in a futuristic lab carefully repairs its own internal circuits, symbolizing self-improving artificial intelligence

Llamamos Recursive Self-Improvement o RSI a un sistema de inteligencia artificial capaz de participar en su propia mejora de manera iterativa: propone cambios, los prueba, evalúa si funcionan y conserva lo que mejora su rendimiento para volver a empezar. Para un lector no técnico, la idea es sencilla: una máquina que no solo resuelve tareas, sino que aprende a afinar el modo en que resuelve esas tareas.

Para un lector experto, la definición útil exige más precisión: no basta con que un modelo use herramientas o escriba código, sino que debe existir un bucle de optimización endógeno, medible y relativamente autónomo, en el que el sistema contribuya a mejorar componentes del propio sistema, de su scaffolding o incluso, en el límite, de su arquitectura y proceso de entrenamiento. Ahí está la diferencia entre el titular efectista y el fenómeno verdaderamente interesante.

Eso es precisamente lo que hace que el debate actual sea tan importante. Este artículo de Ignacio de Gregorio plantea bien la intuición de fondo: RSI se ha convertido en una de las grandes obsesiones del momento porque promete usar inteligencia artificial para mejorar la inteligencia artificial, pero también porque podría estar ocultando algo menos épico y más incómodo, a saber, una cierta desaceleración en la mejora del modelo base y un desplazamiento de la innovación hacia las capas superiores, los agentes, las herramientas y los bucles experimentales. El matiz importa mucho. No es lo mismo que una inteligencia artificial «se mejore a sí misma» que decir, con algo más de rigor, que una inteligencia artificial ayuda a optimizar el sistema sociotécnico que la rodea.

En ese sentido, el ejemplo más revelador ahora mismo no es una promesa futurista, sino un repositorio en GitHub. En autoresearch, Andrej Karpathy propone un esquema deliberadamente austero: dar a un agente un pequeño entorno real de entrenamiento de un modelo, permitirle modificar el código, ejecutar experimentos breves, medir si la métrica mejora y repetir el ciclo durante horas. No hay magia, y precisamente por eso resulta tan inquietante. La importancia de autoresearch no reside en que haya nacido una superinteligencia, sino en que demuestra que una parte del trabajo de investigación iterativa, tradicionalmente humano, ya puede encapsularse en un bucle automático con criterio operativo: probar, medir, conservar o descartar. Esa es la clase de avance que cambia industrias, porque sustituye talento artesanal por proceso reproducible.

Esta entrevista del propio Karpathy, «The End of Coding: Andrej Karpathy on Agents, AutoResearch, and the Loopy Era of AI«, es importante no tanto por su provocación retórica como por el marco conceptual que pone encima de la mesa: estamos entrando en una «era de bucles» en la que el valor ya no depende solo de un modelo estático, sino de sistemas que observan resultados, ejecutan acciones, corrigen trayectorias y vuelven a intentarlo. Desarrolladores que conozco desde hace mucho años me han comentado literalmente que «llevan varios meses que su trabajo es casi al 90% agéntico y trabajando en lenguaje natural». Esa transición desde el asistente puntual hacia el agente que itera durante largos periodos es la verdadera noticia. No estamos ante una inteligencia artificial que «piensa» como un humano, sino ante una infraestructura que empieza a explotar algo muy distinto y muy poderoso: la simple paciencia computacional.

Conviene, sin embargo, rebajar la grandilocuencia: la literatura técnica lleva tiempo advirtiendo que muchas de estas aproximaciones no constituyen RSI como tal, o «plena». El paper «Self-Taught Optimizer (STOP)«, por ejemplo, hablaba ya en 2023 de generación de código recursivamente auto-mejorada, pero dejaba claro que el modelo subyacente no cambiaba: lo que mejoraba era el programa que organizaba las llamadas al modelo y evaluaba resultados. Es decir, un sistema puede exhibir comportamientos de auto-mejora sin reescribir sus pesos, sin rediseñar su hardware y sin convertirse en la caricatura de explosión de inteligencia que popularizó I. J. Good hace décadas y dio lugar a la «hipótesis Terminator«. Aun así, es un error despreciarlo por «incompleto». La historia de la tecnología está llena de revoluciones que empezaron siendo parciales.

La razón por la que esto importa tanto no es filosófica, sino económica. Cuando una mejora depende de un talento humano escaso, avanza al ritmo del calendario, del presupuesto y de la fricción organizativa. Cuando una mejora puede insertarse en un bucle automático, avanza al ritmo del cómputo y de la calidad de la métrica. Ahí cambia todo. METR ha mostrado que la longitud de las tareas que los agentes pueden completar de forma autónoma con un 50% de fiabilidad se ha ido duplicando aproximadamente cada siete meses en los últimos años. No significa que mañana tengamos laboratorios completamente autónomos, pero sí que la frontera entre herramienta y sustituto parcial se mueve mucho más deprisa de lo que nuestras instituciones, nuestras universidades y muchas empresas están dispuestas a reconocer.

Además, ya empezamos a ver cómo esta autonomía se despliega en la práctica: Anthropic señala que los agentes están siendo utilizados en dominios de riesgo, aunque todavía no a gran escala, y que la ingeniería de software representa casi la mitad de la actividad agéntica observada en su API. OpenAI, por su parte, con PaperBench, muestra algo igual de relevante por la vía negativa: incluso los mejores agentes evaluados siguen lejos de replicar investigación puntera al nivel de doctorandos expertos, pero ya consiguen automatizar una fracción nada trivial del proceso. Esa combinación es exactamente la clase de señal que debería preocuparnos: todavía no reemplazan al investigador excelente, pero ya pueden comprimir enormemente el trabajo rutinario, exploratorio y de primera iteración que sostiene la investigación cotidiana.

Ahora bien, toda esta conversación suele olvidarse de su fragilidad. Un sistema de auto-mejora solo es tan bueno como su función de evaluación y como la calidad del entorno en el que aprende. Si el criterio es pobre, el sistema optimizará basura con una eficiencia admirable. Y si los modelos se entrenan cada vez más sobre datos generados por otros modelos, corremos el riesgo de degradar precisamente la materia prima que alimenta esos bucles. El trabajo publicado en Nature sobre model collapse es una advertencia seria: entrenar de forma indiscriminada sobre contenido generado por modelos puede provocar defectos irreversibles y erosionar las colas de la distribución original. Dicho de otra manera: la auto-mejora no ocurre en el vacío, también puede convertirse en auto-contaminación.

La importancia real de RSI no está en la vieja fantasía de una inteligencia artificial que despierta y se escapa de nuestras manos de un día para otro, está en algo mucho más prosaico y, por tanto, mucho más verosímil: sistemas que automatizan porciones crecientes del proceso de invención, de prueba y de optimización. No hace falta una singularidad hollywoodiense para transformar la economía del conocimiento. Basta con que una parte suficiente del trabajo iterativo, aburrido, experimental y verificable deje de necesitar humanos. Y justamente eso es lo que ya estamos empezando a ver.

La pregunta no es si estas aproximaciones son reales o son un truco, por usar el dilema del interesante artículo de Ignacio. La pregunta es mucho más incómoda: ¿qué ocurre cuando la mejora de los sistemas deja de ser un acto esporádico, caro y humano, y pasa a convertirse en un proceso continuo, automatizado y escalable? Mi impresión es que ahí reside el auténtico punto de inflexión. No porque la máquina se haya vuelto súbitamente consciente, sino porque ha empezado a hacer algo que siempre habíamos reservado a nuestras organizaciones de I+D: proponer hipótesis, ensayarlas, medirlas y aprender de ellas sin esperar a que llegue el lunes por la mañana.

9 comentarios

  • #001
    Benji - 23 marzo 2026 - 09:44

    Está «iterando» todo muy rápido. Es interesante que hablemos de modelos «pequeños» porque si un Qwen 3.5 itera sobre sí mismo… ¿cuánta energía gasta? Y lo mismo aplico a OpenAI/Anthropic. ¿No multiplicaremos exponencialmente el consumo eléctrico?

    Lo digo porque si los LLM son grandes consumidores ahora, esto me suena mucho a «auto-loop» sobre si mismo reescribiendo/optimizando parámetros. Vamos a tener que poner un reactor nuclear junto a cada centro como sigamos así.

    Por otra parte, el model collapse ya me ha sucedido con Copilot en la empresa. Le pedí que me hiciera una tarea y la hizo mal (50% de acierto). Era una tarea de investigación sencilla con todos los datos en la wikipedia. Aun así lo erró. Le pedí que lo volviera a intentar siendo más minucioso, conservando los datos correctos originales. Lo que hizo fue el equivalente a saltar al trampolín sin agua en la piscina, borró todo lo de antes (todo) y lo volvió a intentar dandome un 50% correcto de nuevo, pero no el 50% anterior, sino otros datos. Le pedí que agarrase los correctos de ambas investigaciones y me salió con que ya había hecho la tarea.

    En fin, cosa difícil cuando la máquina insiste en que ha hecho lo que le has pedido aunque no sea verdad.

    PD: ¿El RSI no es básicamente lo que hico Google Deep Mind con partidas del Go o de Starcraft? Jugar contra si mismo e ir mejorando iterativamente. No estoy seguro si aplica aquí o no.

    Responder
    • BUZZWORD - 23 marzo 2026 - 12:07

      En AlphaZero y similares, la arquitectura y el proceso de entrenamiento están diseñados y controlados externamente. El sistema no modifica su propia arquitectura ni el proceso de entrenamiento, solo mejora sus parámetros (pesos) dentro de un marco fijo. RLHF, curación y self‑play son técnicas de mejora controladas externamente (aunque automatizables). Muchas de ellas «parecen» automejora, pero siguen dependiendo de diseños, métricas y decisiones humanas.

      En RSI pleno, el sistema tiene la capacidad de modificar no solo sus parámetros, sino también su arquitectura, algoritmos de entrenamiento, funciones de evaluación, e incluso el propio proceso de mejora, de forma autónoma y continua.

      Un sistema RSI pleno debe separar claramente la inferencia rápida y la autoevaluación iterativa para evitar que el proceso de mejora ralentice la respuesta al usuario o genere una experiencia de “thinking continuo” visible. La autoevaluación suele ser un proceso en segundo plano o en lotes, no parte del flujo de inferencia en tiempo real.

      Responder
      • Orlando - 23 marzo 2026 - 15:55

        Tu iteración en este blog es invaluable Buzz, lo mismo para Benji, Xaquin y otros compañeros del blog-bar.

        Gracias siempre.

        Responder
    • Benji - 23 marzo 2026 - 12:54

      Gracias Buzz

      Responder
      • BUZZWORD - 23 marzo 2026 - 13:27

        De nada…

        Estoy leyendo el artículo de Enrique, y a la derecha tengo abierto la IA de Opera y le he hecho la siguiente pregunta,

        Desde el punto de vista de la arquitectura, un sistema RSI pleno ¿puede rediseñar su arquitectura (hardware)? Por ejemplo_puede cambiar la red neuronal cuantas capas tiene…

        La respuesta corta es que el HW físico no es factible hoy en día, pero que con muchas limitaciones si puede «rediseñar su arquitectura», si se le habilita un sandbox controlado para que cambie parámetros de forma limitada y poniendo a su alcance algunos mecanismos existentes ( AutoML, Neural Archirtecture Search, Network morphism, …) podría llegar a hacer cambios «HW»… y ya me he perdido para una lectura rápida… campo interesante para seguir leyendo en las fuentes…

        Responder
  • #006
    Victor - 23 marzo 2026 - 10:06

    ¿Y si alucina? Igual yo soy un poco viejuno, pero estoy acostumbrado a la relación maestro-alumno, el alumno aprende pero el maestro es el que valora si lo que ha aprendido está bien o mal. Pero si el alumno es su propio maestro y se le va la pinza ¿quién lo corrige?

    Responder
  • #007
    Javier - 23 marzo 2026 - 12:15

    Salvando las distancias, me hace acordar a cuando en 1940 John von Neumann desarrolló el concepto de Máquina autorreplicante, también conocida como Máquina de Von Neumann solo que en este caso, la «materia prima» no es un material tangible que puede ser minado, como el hierro, sino datos.

    Esas máquinas teóricas funcionan bajo tres principios simples:

    1. Buscar recursos: La máquina necesita identificar y obtener los materiales necesarios para construir copias de sí misma.
    2. Construir más máquinas: La máquina utiliza los recursos encontrados para crear réplicas de sí misma, siguiendo un conjunto de instrucciones codificadas.
    3. Repetir: El proceso se repite indefinidamente, generando una población creciente de máquinas.

    Responder
    • Lua - 23 marzo 2026 - 12:33

      Mas afinado… el experimento mental del “maximizador de clips”, descrito por primera vez por el filósofo sueco Nick Bostrom.

      ”si le das a una inteligencia artificial un objetivo explícito —como maximizar el número de clips en el mundo— y esa inteligencia artificial se ha vuelto lo suficientemente inteligente como para inventar sus propias supertecnologías y construir sus propias fábricas, entonces, bueno, ten cuidado con lo que deseas»

      Wiki: Universal Paperclips

      Spoiler: sale mal… XDD

      Cuidado, que el juego es un puto vicio y engancha…

      Universall Paperclips Game

      Responder
  • #009
    Gorki - 23 marzo 2026 - 13:08

    Me recuerda la forma como Deep Blue de IBM aprendió a jugar al ajedrez y llegó a ganar a Garry Kasparov en 1997.
    La diferencia es que la respuesta a un movimiento de ajedrez era ganar la partida perderla o hacer tablas, en este caso el pr4oblema será evaluar si la respuesta de la máquina supone o no un avance a las respuestas anteriores.

    ¿La respuesta de «Por qué el cielo se ve azul» es mejor ahora. que la que daba antes? ¿Cómo medirlo?

    Responder

Dejar un Comentario a Gorki

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.