Mi columna en Invertia de esta semana se titula “¿Y tú? ¿Cómo piensas?” (pdf), y trata sobre una idea que me parece crucial para entender hacia dónde va la inteligencia artificial: el paisaje actual no está ni mucho menos consolidado. Lo que damos por hecho como si fuera una tecnología madura, desde los modelos de lenguaje a los asistentes conversacionales, sistemas que parecen pensar, no es más que una primera aproximación.
Hay investigadores trabajando en arquitecturas completamente distintas, inspiradas en cómo nuestro cerebro crea significado, aprende en capas y corrige sus propios errores. Las señales ya están ahí y muestran que lo que hoy vemos es solo el inicio de un viaje mucho más largo.
En los últimos meses han surgido trabajos muy sugerentes que cuestionan la estructura monolítica de los grandes modelos actuales. Investigaciones sobre la aparición de capacidades de razonamiento secuencial en modelos grandes sugieren que lo que considerábamos simple predicción estadística empieza a incorporar comportamientos más estructurados y jerárquicos, aunque todavía muy alejados de un pensamiento verdaderamente humano.
Por el lado de Google DeepMind también vemos señales claras de cambio: no solo construyen modelos multimodales, sino que experimentan con sistemas que son capaces de descubrir sus propios pasos de razonamiento y refinar su estructura interna, como ocurre en su línea de trabajo sobre self-discover, una vía que es todavía muy preliminar, pero que apunta directamente hacia formas más organizadas y jerárquicas de entender.
Lo mismo sucede en el campo de la inteligencia artificial neuro-simbólica, donde IBM está combinando redes neuronales con módulos de razonamiento explícito, una idea que hasta hace poco parecía anacrónica y que ahora vuelve con fuerza porque ofrece algo que los modelos actuales no pueden dar: interpretabilidad, modularidad y capacidad para trabajar en capas cognitivas.
E incluso fuera de la industria tecnológica clásica, publicaciones como Quanta Magazine vienen mostrando cómo la convergencia entre ciencias cognitivas e inteligencia artificial está llevando a repensar la arquitectura de los sistemas. La idea de que el cerebro es un conjunto organizado de procesos anidados que trabajan juntos para construir significado está comenzando a inspirar a laboratorios que buscan salir de la simple ampliación de parámetros y pasar a estructuras más profundas y realistas.
Si algo parece claro es que la inteligencia artificial está muy lejos de haberse estabilizado. Es posible que dentro de unos años los modelos actuales nos parezcan primitivos, del mismo modo que hoy vemos como juguete experimental lo que hace una década nos parecía revolucionario. Por eso, en la columna insisto en que no deberíamos asumir que la inteligencia artificial de ahora es un producto terminado. Los cambios que vienen serán sustanciales, probablemente conceptuales, y afectarán a cómo entendemos la memoria, el razonamiento, la interpretación y la creatividad en sistemas artificiales.
Que la próxima frontera tenga más parecido con procesos cognitivos humanos no significa que estemos cerca de una inteligencia artificial consciente, ni que vayamos a replicar el cerebro de nadie, pero sí implica que la tecnología caminará en direcciones que resultan más intuitivas para quienes intentan comprender cómo piensan las máquinas. Esto es fundamental: si queremos convivir con sistemas cada vez más potentes, debemos empezar por preguntarnos cómo pensamos nosotros. Sin ese paso previo, corremos el riesgo de antropomorfizar la tecnología, dar por sentado que «entiende» aquello que solo está imitando, o atribuirle capacidades que aún no tiene.
Lo que veremos en los próximos años no será una inteligencia artificial que alcanza súbitamente un nivel cerebral, sino muchas versiones distintas de inteligencia artificial explorando variantes del razonamiento. Algunas serán capaces de construir y revisar sus propios pasos internos, como sugiere DeepMind; otras serán modulares, como propone la línea neuro-simbólica; y otras podrían integrar mecanismos de memoria persistente y adaptación, como está experimentando OpenAI en sus desarrollos más recientes. Esta idea de memoria persistente es un paso hacia sistemas capaces de mantener un razonamiento y desarrollarlo en distintos hilos, a diferentes velocidades, un poco en la idea que Google comentaba en su ya famoso paper sobre nested learning.
Mi mensaje de fondo es que, si queremos adelantarnos a este futuro, no debemos quedarnos en la superficie. La pregunta que planteo en la columna, «¿cómo piensas tú?», no es una invitación introspectiva gratuita. Es un recordatorio de que la inteligencia artificial solo puede entenderse de forma adulta si primero entendemos nuestros propios procesos cognitivos. Pensar no es lineal, es un proceso anidado, contextual, simbólico, emocional y racional al mismo tiempo. Y todo apunta a que la próxima generación de sistemas artificiales intentará capturar algo de esa riqueza.
Por eso es esencial seguir de cerca trabajos como los que se han publicado recientemente sobre aprendizaje jerárquico o sobre representaciones multicapa en estructuras biológicas, que sugieren que la corteza procesa información en múltiples escalas temporales de forma jerárquica, porque muestran hacia dónde podría moverse la investigación en los próximos años. Básicamente, entender cómo pensamos.
Porque la inteligencia artificial que viene no será simplemente más grande, como creen algunos, ni seguirá necesariamente un modelo de tipo «bigger, better, faster, more!», sino más profunda. Y entender esa profundidad, humana y artificial, es la clave para no perdernos lo importante en esta transición: que el futuro no está escrito, y que lo determinaremos nosotros tanto como las máquinas.


Como Xaquin dice muchas veces: distamos mucho de entender nuestra mediocre mente y aun no somos capaces de definir fehaciente y correctamente los términos «inteligencia», «consciencia», «identidad», «casualidad vs causalidad», «imaginación», «sueños» o «real»…
Me parece fascinante que ahondemos de nuevo en ello. Igual vemos un resurgir humanístico para comprender o definir el maquinístico.
Por otro lado, pensé que hablaríamos de europa echándose para atrás con la agenda eco/verde/sostenible. Un error por una parte y toda la razón del mundo por la otra.
Tengo curiosidad sobre qué puede te er que ver la IA con el ecologismo o lo contrario.
la inteligencia artificial solo puede entenderse de forma adulta si primero entendemos nuestros propios procesos cognitivos.
Creo que en esto te confundes, La inteligencia artificial llegará a producir respuestas, (pensamientos), simulares a los humanos y muy probablemente, mas originales y profundos que los que el hombre llega a generar, pero con ideas que se formarán en medios que en nada se parecerán a las reflexiones del cerebro humano.
El hombre imita los resultados de la naturaleza y los consigue mejorar, mucho mas allá de lo que la naturaleza ha conseguido, pero siempre lo ha hecho por medios que difieren radicalmente de la solución «natural»
Mejoramos la vista del águila, pero inventamos el catalejo, no un ojo perfeccionado
Superamos la velocidad de la gacela, pero lo hicimos con la rueda y no con una pierna mecánica
Superamos la fuerza del elefante, pero no mediante músculos mas fuertes sino con aceite a presión para extender émbolos.
Mejoramos la capacidad de hacer túneles de los tops, pero las tuneladoras no tiene un par de patas con garras como los topos.
Mejoramos el volar de la libélulas, pero los helicópteros no vuelan como las libélulas
Poroducimos mucho mas azucr
Probablemente, (casi seguro), superaremos al cerebro humano, pero lo haremos con circuitos digitales que nada tienen que ver don las sinapsis de las neuronas.
Espero que al superar el cerebro humano la IA deje en evidencia al pensamiento populista, demagogo, negacionista, conspiranoico, muy habitual en determinadas opciones políticas.
Vamos que me va a encantar ver como Musk intenta manipular a Grok en ese sentido sin quedarse atras.
¿Habrá luchas dialécticas entre IAs en los periodos electorales?
Ergo la IA va a superar al pensamiento humano por que el pensamiento humano tiene una manera de hacerlo y la IA tendra 100, incluida la manera humana.
Y la manera humana sobre todo es autoconsciente, o dicho de otro modo autosupervisada.
Asi que sí, amigo Lua, la IA se supervisará a si misma:
«Hay investigadores trabajando en arquitecturas completamente distintas, inspiradas en cómo nuestro cerebro crea significado, aprende en capas y CORRIGE SUS PROPIOS ERRORES.»
«…sistemas que son capaces de descubrir sus propios pasos de razonamiento y refinar su estructura interna»
«……serán capaces de construir y revisar sus propios pasos internos»
«Por eso es esencial seguir de cerca trabajos como los que se han publicado recientemente sobre aprendizaje jerárquico o sobre representaciones multicapa en estructuras biológicas» (El aprendizaje jerárquico y las estructuras multicapa biológicas son la base para construir una IA que piense de manera compleja y «autoconsciente»).