Para entender la inteligencia artificial, primero debemos entendernos a nosotros mismos

IMAGE: A split-frame illustration shows a human head with a brain on the left and a glowing AI microchip with circuit lines on the right, symbolizing the contrast between human thinking and artificial intelligence

Mi columna en Invertia de esta semana se titula “¿Y tú? ¿Cómo piensas?” (pdf), y trata sobre una idea que me parece crucial para entender hacia dónde va la inteligencia artificial: el paisaje actual no está ni mucho menos consolidado. Lo que damos por hecho como si fuera una tecnología madura, desde los modelos de lenguaje a los asistentes conversacionales, sistemas que parecen pensar, no es más que una primera aproximación.

Hay investigadores trabajando en arquitecturas completamente distintas, inspiradas en cómo nuestro cerebro crea significado, aprende en capas y corrige sus propios errores. Las señales ya están ahí y muestran que lo que hoy vemos es solo el inicio de un viaje mucho más largo.

En los últimos meses han surgido trabajos muy sugerentes que cuestionan la estructura monolítica de los grandes modelos actuales. Investigaciones sobre la aparición de capacidades de razonamiento secuencial en modelos grandes sugieren que lo que considerábamos simple predicción estadística empieza a incorporar comportamientos más estructurados y jerárquicos, aunque todavía muy alejados de un pensamiento verdaderamente humano.

Por el lado de Google DeepMind también vemos señales claras de cambio: no solo construyen modelos multimodales, sino que experimentan con sistemas que son capaces de descubrir sus propios pasos de razonamiento y refinar su estructura interna, como ocurre en su línea de trabajo sobre self-discover, una vía que es todavía muy preliminar, pero que apunta directamente hacia formas más organizadas y jerárquicas de entender.

Lo mismo sucede en el campo de la inteligencia artificial neuro-simbólica, donde IBM está combinando redes neuronales con módulos de razonamiento explícito, una idea que hasta hace poco parecía anacrónica y que ahora vuelve con fuerza porque ofrece algo que los modelos actuales no pueden dar: interpretabilidad, modularidad y capacidad para trabajar en capas cognitivas.

E incluso fuera de la industria tecnológica clásica, publicaciones como Quanta Magazine vienen mostrando cómo la convergencia entre ciencias cognitivas e inteligencia artificial está llevando a repensar la arquitectura de los sistemas. La idea de que el cerebro es un conjunto organizado de procesos anidados que trabajan juntos para construir significado está comenzando a inspirar a laboratorios que buscan salir de la simple ampliación de parámetros y pasar a estructuras más profundas y realistas.

Si algo parece claro es que la inteligencia artificial está muy lejos de haberse estabilizado. Es posible que dentro de unos años los modelos actuales nos parezcan primitivos, del mismo modo que hoy vemos como juguete experimental lo que hace una década nos parecía revolucionario. Por eso, en la columna insisto en que no deberíamos asumir que la inteligencia artificial de ahora es un producto terminado. Los cambios que vienen serán sustanciales, probablemente conceptuales, y afectarán a cómo entendemos la memoria, el razonamiento, la interpretación y la creatividad en sistemas artificiales.

Que la próxima frontera tenga más parecido con procesos cognitivos humanos no significa que estemos cerca de una inteligencia artificial consciente, ni que vayamos a replicar el cerebro de nadie, pero sí implica que la tecnología caminará en direcciones que resultan más intuitivas para quienes intentan comprender cómo piensan las máquinas. Esto es fundamental: si queremos convivir con sistemas cada vez más potentes, debemos empezar por preguntarnos cómo pensamos nosotros. Sin ese paso previo, corremos el riesgo de antropomorfizar la tecnología, dar por sentado que «entiende» aquello que solo está imitando, o atribuirle capacidades que aún no tiene.

Lo que veremos en los próximos años no será una inteligencia artificial que alcanza súbitamente un nivel cerebral, sino muchas versiones distintas de inteligencia artificial explorando variantes del razonamiento. Algunas serán capaces de construir y revisar sus propios pasos internos, como sugiere DeepMind; otras serán modulares, como propone la línea neuro-simbólica; y otras podrían integrar mecanismos de memoria persistente y adaptación, como está experimentando OpenAI en sus desarrollos más recientes. Esta idea de memoria persistente es un paso hacia sistemas capaces de mantener un razonamiento y desarrollarlo en distintos hilos, a diferentes velocidades, un poco en la idea que Google comentaba en su ya famoso paper sobre nested learning.

Mi mensaje de fondo es que, si queremos adelantarnos a este futuro, no debemos quedarnos en la superficie. La pregunta que planteo en la columna, «¿cómo piensas tú?», no es una invitación introspectiva gratuita. Es un recordatorio de que la inteligencia artificial solo puede entenderse de forma adulta si primero entendemos nuestros propios procesos cognitivos. Pensar no es lineal, es un proceso anidado, contextual, simbólico, emocional y racional al mismo tiempo. Y todo apunta a que la próxima generación de sistemas artificiales intentará capturar algo de esa riqueza.

Por eso es esencial seguir de cerca trabajos como los que se han publicado recientemente sobre aprendizaje jerárquico o sobre representaciones multicapa en estructuras biológicas, que sugieren que la corteza procesa información en múltiples escalas temporales de forma jerárquica, porque muestran hacia dónde podría moverse la investigación en los próximos años. Básicamente, entender cómo pensamos.

Porque la inteligencia artificial que viene no será simplemente más grande, como creen algunos, ni seguirá necesariamente un modelo de tipo «bigger, better, faster, more!», sino más profunda. Y entender esa profundidad, humana y artificial, es la clave para no perdernos lo importante en esta transición: que el futuro no está escrito, y que lo determinaremos nosotros tanto como las máquinas.


This article is also openly available in English on Medium, «Nested minds: how understanding human cognition reveals AI’s next architecture« 

16 comentarios

  • #001
    Benji - 10 diciembre 2025 - 18:39

    Como Xaquin dice muchas veces: distamos mucho de entender nuestra mediocre mente y aun no somos capaces de definir fehaciente y correctamente los términos «inteligencia», «consciencia», «identidad», «casualidad vs causalidad», «imaginación», «sueños» o «real»…

    Me parece fascinante que ahondemos de nuevo en ello. Igual vemos un resurgir humanístico para comprender o definir el maquinístico.

    Por otro lado, pensé que hablaríamos de europa echándose para atrás con la agenda eco/verde/sostenible. Un error por una parte y toda la razón del mundo por la otra.

    Responder
    • JM - 10 diciembre 2025 - 19:29

      Tengo curiosidad sobre qué puede te er que ver la IA con el ecologismo o lo contrario.

      Responder
    • Benji - 11 diciembre 2025 - 00:55

      Nada en este post. Para mí era que últimamente en Alemania salen muchas noticias (y algunas de otros países como UK o Francia o Italia) que van hacia atrás con esta agenda. Y como aquí suelen salir esas noticias, pensaba que iba a ser la noticia del día

      Responder
  • #004
    Gorki - 10 diciembre 2025 - 18:46

    la inteligencia artificial solo puede entenderse de forma adulta si primero entendemos nuestros propios procesos cognitivos.

    Creo que en esto te confundes, La inteligencia artificial llegará a producir respuestas, (pensamientos), simulares a los humanos y muy probablemente, mas originales y profundos que los que el hombre llega a generar, pero con ideas que se formarán en medios que en nada se parecerán a las reflexiones del cerebro humano.

    El hombre imita los resultados de la naturaleza y los consigue mejorar, mucho mas allá de lo que la naturaleza ha conseguido, pero siempre lo ha hecho por medios que difieren radicalmente de la solución «natural»

    Mejoramos la vista del águila, pero inventamos el catalejo, no un ojo perfeccionado
    Superamos la velocidad de la gacela, pero lo hicimos con la rueda y no con una pierna mecánica
    Superamos la fuerza del elefante, pero no mediante músculos mas fuertes sino con aceite a presión para extender émbolos.
    Mejoramos la capacidad de hacer túneles de los tops, pero las tuneladoras no tiene un par de patas con garras como los topos.
    Mejoramos el volar de la libélulas, pero los helicópteros no vuelan como las libélulas
    Poroducimos mucho mas azucr

    Probablemente, (casi seguro), superaremos al cerebro humano, pero lo haremos con circuitos digitales que nada tienen que ver don las sinapsis de las neuronas.

    Responder
    • Juan T. - 10 diciembre 2025 - 19:23

      Espero que al superar el cerebro humano la IA deje en evidencia al pensamiento populista, demagogo, negacionista, conspiranoico, muy habitual en determinadas opciones políticas.

      Vamos que me va a encantar ver como Musk intenta manipular a Grok en ese sentido sin quedarse atras.

      ¿Habrá luchas dialécticas entre IAs en los periodos electorales?

      Responder
      • Gorki - 10 diciembre 2025 - 19:47

        Si fuera jefe de un partido político y tuviera dinero para conseguir los servicios de una «SuperIA» , le pediríia que me consiguiera seguidores en las fases entre elecciones, de modo que al llega el periodo electoral, tuviera ya formado mis manadas de fans y me consiguiera poco transformarlas en votantes.

        Responder
        • Lua - 10 diciembre 2025 - 20:58

          Ahhhh…. que eso no esta pasando…. sin IA… solo con RRSS….

          Si es que uno no se descojona mas porque no puede… XDDD

          Responder
  • #008
    Juan T. - 10 diciembre 2025 - 19:15

    Ergo la IA va a superar al pensamiento humano por que el pensamiento humano tiene una manera de hacerlo y la IA tendra 100, incluida la manera humana.

    Y la manera humana sobre todo es autoconsciente, o dicho de otro modo autosupervisada.

    Asi que sí, amigo Lua, la IA se supervisará a si misma:

    «Hay investigadores trabajando en arquitecturas completamente distintas, inspiradas en cómo nuestro cerebro crea significado, aprende en capas y CORRIGE SUS PROPIOS ERRORES.»

    «…sistemas que son capaces de descubrir sus propios pasos de razonamiento y refinar su estructura interna»

    «……serán capaces de construir y revisar sus propios pasos internos»

    «Por eso es esencial seguir de cerca trabajos como los que se han publicado recientemente sobre aprendizaje jerárquico o sobre representaciones multicapa en estructuras biológicas» (El aprendizaje jerárquico y las estructuras multicapa biológicas son la base para construir una IA que piense de manera compleja y «autoconsciente»).

    Responder
    • Lua - 10 diciembre 2025 - 20:12

      Como no sois muy dados a seguir enlaces (ni siquiera, los que propone eDans), me temo que los dos videos que hemos propuesto JAVIER y yo en el artículo anterior, os los habéis pasado por el forro… y no os habéis enterado de nada… y por eso, hacéis determinadas afirmaciones (y vale para todos, y cuando digo todos, es TODOS).

      Te voy a dejar el video original, que provoco el primer video de respuesta que propuso JAVIER…

      Es largo? Si, Es interesante? DEMASIADO.

      Haz el favor de verlo entero, sin una IA que te lo resuma (porque esa IA, que se quiere autocorregir a si misma, te va a resumir lo que a ella le interese)

      La gran mentira de la Inteligencia Artificial

      Si «alguien» entiende y es verdaderamente «experto» en IA es Ramón L. de Mántaras (y ninguno por aqui). y chinpum.

      Responder
      • Dedo-en-la-llaga - 11 diciembre 2025 - 00:47

        Que no seguimos los enlaces, eso lo dices tú.

        Y el «no os habéis enterado de nada» y el «vale para TODOS», me excluye a mí, y te incluye a ti.

        Responder
    • Javier - 10 diciembre 2025 - 23:50

      Vía Wayback machine:
      «La IA aún no ha logrado nada que merezca el apelativo de inteligente»

      Tremendo el final del texto [cito textual]:

      «Hay muchos mitos sobre la Inteligencia Artificial, como que la IA puede alcanzar un nivel de superinteligencia muy superior a la inteligencia humana. De todas formas, me da más miedo la estupidez natural que la Inteligencia Artificial. Y una Inteligencia Artificial en manos de un estúpido ya es el colmo de los colmos»

      Responder
  • #012
    LEON - 10 diciembre 2025 - 19:55

    Salvando las distancia entre la IA y la inteligencia biológica.

    La intención detrás de la IA no es emular el funcionamiento del cerebro humano para eso bastaría con seguir procreando humanitos.
    La intención es hacer disponer de cerebros mejores superando los límites de los que ahora tenemos.

    CAPACIDAD: La capacidad de nuestros cerebros y por tanto la cantidad de datos que nuestra inteligencia puede usar esta limitada por su tamaño o por el número de neuronas disponibles, en suma por nuestro volumen craneal.

    VELOCIDAD: La velocidad en que se procesa la información en nuestro cerebro electroquímico, no resiste a una comparación con un equipo electrónico.

    COMUNICACION: La cantidad de información por unidad de tiempo que podemos absorber está limitada por los sensores conectados, leer, ver imágenes o escuchar datos solo lo podemos hacer a velocidades ridiculamente bajas en comparación a cualquier equipo electrónico.

    ENERGIA: Cualquier equipo electrónico se alimenta con solo energía eléctrica, ciertamente nuestro cerebro consume muy poquita energía, pero requiere todo un complejo sistema de soporte vital.

    DURABILIDAD: Nuestros cerebros biológicos son delicados y de poca vida, eso nos obliga a que toda la información se pierde en pocos años y se necesita nuevos cerebros a los que hay que recargar, proceso que se repite de manera cíclica.

    Creo que la lista se puede hacer interminable.

    Responder
  • #013
    Lua - 10 diciembre 2025 - 20:48

    OFFTOPIC:

    Ya lo adverti… Pere Navarro, director de la DGT, cree que es un lujo “mover cada día el coche para transportar a una sola persona” y así piensa solucionarlo

    Cuando te llevan a todas partes en vehiculo oficial, es facil afirmar que… «“Los coches en un futuro serán compartidos o no serán”»

    (y cuidado, que sus «alucinaciones» llevan a la desaparicion del vehiculo, sea o no electrico, ya puse un enlace hace poco…))

    Responder
    • Dedo-en-la-llaga - 11 diciembre 2025 - 00:49

      Otro payaso intenso y recalcitrante.

      Responder
    • f3r - 11 diciembre 2025 - 11:05

      Desde luego, y solo en las ciudades, eso ya debería estar ocurriendo por motu propio, solo por el coñazo en que se ha convertido circular y aparcar (aunque la gente parece que se resiste con todas sus fuerzas). Yo te digo que si me ponen un buen servicio público, aparco el coche en las afueras de la ciudad (esto también falta por construir),y que me lleve un «chófer» por la ciudad y me aparque en la puerta donde voy.

      Responder
  • #016
    Xaquín - 10 diciembre 2025 - 21:05

    «Básicamente, entender cómo pensamos» (EDans) .

    Dejando de lado a los platónicos y otros planteamientos diversos, como que el ADN no existe.. cada uno que se lo monte como pueda (básicamente).

    Si «pensamos» que el pensamiento es obra de un circuitado neuronal, que produce una mente generada por un ADN, tenemos ciertas opciones… al otro lado (no enfrente necesariamente) están las otras.

    En este lado está un tal Descartes, diciendo que se produce una idea sobre el productor de esa idea, lo que le da consistencia de acto (Aristóteles dixit)… ergo, existe (el animal pensante). Y puedes no creerlo.

    Si sí, estamos con la idea cartesiana (científica) de que el pensador existe… lo que no clarificó bien el amigo «Descar» es que, si no existe otra mente que te piense a ti (ya se necesitan dos ADN), es inútil que te pienses tú solo (solipsismo)… alguien te tiene que certificar tu existencia (como tú la de él)… es decir, nada somos sin el otro.

    Y si tienes que pensar en ti mismo y en otro, para certificarte, algo parecido pasa si piensas en una rueda, por ejemplo… no tendrá existencia si no piensas en ella. Y pensar no es solo imaginar, es ser capaz de fabricarla.

    Pero claro, la rueda no puede pensarte… y aquí está la diferencia con esa «cosa extraña» a la que llamamos IA… ¿Por qué no tienen que valer las mismas reglas para ella, si la queremos llamar inteligencia, que las que debe cumplir una IH?

    Vamos a empezar ya este asunto con discriminaciones… «tú sí», «tú no»??? Del color de la piel pasamos al fundamento del proceso de pensar (tener ideas) : uno es analógico, el otro es digital.

    ¿Estamos dispuestos a firma, que será imposible que una IA llegue a «descubrir» como tener un ADN (o un adn digital) fundacional?

    ¿Creemos saber el proceso de «pensar» (?) de una máquina (muy futura), sin saber bien lo que es pensar para una IH? Aparte de experimentar diversos efectos colaterales de ese proceso. Y luego presumir de psicólogos, que dicen cosas como que el cerebro (el nuestro!!!) nos engaña…

    ¿Estamos preparados realmente para bregar con otra IH… o con una futura IA? Especialmente en condiciones de igualdad… Y, por favor, pensemos siempre que somos una versión evolucionada del neardental… aunque a veces, sobre todo en políticos, no lo parezca. No hay más que ver, como gente de extrema derecha se lamenta hoy por la muerte de San Evaristo.

    Responder

Dejar un Comentario a JM

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.