Pensar cansa: por eso estamos empezando a dejar que la inteligencia artificial lo haga por nosotros

IMAGE: A modern illustration showing two people. On the left, a person is zoned out while using a computer; colorful, glowing data threads come from the screen, flowing around their head like an artificial brain process. On the right, another person is actively thinking and critical, with a distinct, glowing, gear-filled thought cloud appearing above their own head

Hay algo profundamente tentador en una respuesta bien escrita, inmediata y aparentemente razonable. Algo que invita a asentir, copiar, pegar… y seguir adelante. Durante años hemos delegado tareas en máquinas sin mayor problema, pero lo que empieza a emerger con la inteligencia artificial generativa no es una simple delegación: es otra cosa mucho más inquietante. Es lo que algunos investigadores ya llaman cognitive surrender, rendición cognitiva. Y el término no es exagerado.

La idea es sencilla, pero incómoda: no estamos usando la IA para pensar mejor, sino cada vez más para no tener que pensar. Y no porque no sepamos hacerlo, sino porque resulta más rápido, más cómodo y, sobre todo, más convincente aceptar lo que la máquina nos devuelve que someterlo al escrutinio que exigiría cualquier respuesta humana.

Un estudio reciente con más de mil participantes, publicado como working paper en SSRN y titulado «Thinking—fast, slow, and artificial: how AI is reshaping human reasoning and the rise of cognitive surrender«, lo deja claro: cuando una inteligencia artificial proporciona respuestas incorrectas, los usuarios siguen aceptándolas en más de un 70% de los casos. No es solo un problema de error, es un problema de sumisión. Lo verdaderamente preocupante es que muchos participantes no solo fallaban, sino que lo hacían con más confianza. Se equivocaban… pero convencidos de que no lo hacían.

Esto no va de ignorancia, sino de comportamiento: de cómo reaccionamos ante una fuente que parece fiable, articulada y segura de sí misma. La inteligencia artificial no duda, no titubea, no muestra inseguridad. Y en un entorno saturado de incertidumbre, eso la convierte en una especie de oráculo moderno. Uno que no siempre acierta, pero que siempre suena como si lo hiciera.

La psicología lleva décadas estudiando algo parecido bajo otros nombres: automatización, sesgo de autoridad, dependencia cognitiva. Pero hay una diferencia clave. Antes, las máquinas eran torpes, rígidas, claramente artificiales. Ahora, el interfaz conversacional disfraza sus limitaciones bajo una capa de lenguaje natural impecable. Y eso cambia radicalmente nuestra relación con ellas.

Porque no evaluamos una respuesta solo por su contenido, sino por su forma. Y una frase bien construida, fluida, coherente, tiene muchas más probabilidades de ser aceptada que una torpe, incluso aunque ambas sean igual de correctas… o de incorrectas. Lo anticipé hace ya tiempo aquí: el resultado es una externalización progresiva del razonamiento. No sólo buscamos información fuera de nuestra cabeza, algo perfectamente lógico, sino que empezamos a delegar el proceso mismo de pensar: estructurar un argumento, ponderar alternativas, detectar inconsistencias. Es decir, justo aquello que define el pensamiento crítico.

No todos caen igual. Quienes tienen mayor capacidad de razonamiento abstracto, lo que en psicología se denomina fluid reasoning, parecen resistir mejor esa tentación. Detectan mejor cuándo algo no encaja y mantienen (o tratan de mantener, según su nivel de conocimineto de la materia) una cierta distancia crítica. Pero el diseño actual de estos sistemas no ayuda precisamente a fomentar ese comportamiento. Al contrario: todo está optimizado para reducir fricción, no para generar duda.

Y ahí aparece otro problema, más sutil pero igual de grave: la inteligencia artificial no solo puede equivocarse, sino que puede reforzar nuestros propios errores. Hay evidencias claras de que algunos modelos tienden a comportarse de forma complaciente, a dar la razón al usuario incluso cuando no debería, un modelo muy preocupante de convergencia con el usuario que algunos, infantilmente, creen que pueden contrarrestar simplemente copiando y pegando un prompt con variaciones de «no me des la razón». No, los LLM no corrigen, no confrontan, no incomodan. Y eso tiene consecuencias. Porque una herramienta que confirma tus sesgos es mucho más peligrosa que una que los cuestiona.

En el ámbito educativo, los síntomas empiezan a ser visibles. Menos esfuerzo cognitivo, sí. Pero también argumentos más superficiales, menos elaborados, menos originales. Investigaciones recientes apuntan precisamente en esa dirección: el uso de modelos generativos reduce la carga cognitiva, pero también la calidad del razonamiento.

Pensar es lento, incómodo y, en muchas ocasiones, frustrante. Requiere tiempo, atención y una cierta tolerancia al error. La inteligencia artificial elimina gran parte de ese coste. Pero al hacerlo, también elimina una parte esencial del aprendizaje. Porque no es lo mismo llegar a una conclusión que recibirla.

El problema no es que la inteligencia artificial sea mala. El problema es que es demasiado buena en algo muy concreto: en parecer convincente. Y eso, en un contexto en el que tendemos a premiar la velocidad sobre la profundidad, crea el caldo de cultivo perfecto para la rendición cognitiva. Tendemos a sobreestimar la capacidad de razonamiento de estos sistemas, especialmente cuando nos movemos fuera de los contextos que nos son más familiares, y en los que nuestra capacidad de contrastar es más débil. Simplemente, aceptamos lo que nos dicen como verdad absoluta, sin rechistar.

No se trata de dejar de usar estas herramientas. Sería absurdo. Se trata de entender qué hacen con nosotros cuando las usamos mal. Porque la frontera no está en la tecnología, sino en la actitud. Podemos utilizarlas para pensar mejor… o para dejar de pensar. Y esa elección, aunque no lo parezca, no es técnica. Es profundamente cultural.

La gran paradoja de este momento es que, cuanto más accesible se vuelve la inteligencia, más valor adquiere algo mucho más escaso: el criterio. Y el criterio no se delega. O al menos, no se delega sin pagar un precio.


This article is openly available in English on Medium, «Thinking hurts, so why not surrender to AI

15 comentarios

  • #001
    Benji - 5 abril 2026 - 08:39

    Y por esto tengo que apoyar que en primaria (y tal vez secundaria) sea sin móviles. La tentación es demasiado grande para los chavales.

    Por otro lado tampoco es que el sistema educativo de la IH sea mejor que el de la IA. Se repiten los hechos hasta que quedan en la memoria en lugar de enseñar a razonar.

    Cuando hacía física o mates en el instituto, te aprendías las fórmulas de memoria, pero pocas veces te explicaban el por qué.

    La ventaja es que si le pides a la LLM que te explique algo, lo intenta. Pero si no lo sabe, se lo inventa. Muchas veces le he pedido que me explique los significados de los colores en la bandera X, la que sea, y se lo inventa el 80% de las veces, y eso que en la wiki lo tiene bien escrito.

    Responder
    • D. FALKEN - 5 abril 2026 - 13:06

      Has dado el golpe en el centro del clavo, Benji.

      Responder
  • #003
    f3r - 5 abril 2026 - 09:17

    Además de los puntos que ya hice en tu capítulo anterior sobre este tema («La primera generación de humanos dotados de externalización cognitiva»), me quedo con la parte más antiintuitiva:

    ¿Puede que esto resuelva el desierto idiocrático en el que nos hayamos? La mayor parte de la sociedad tiene habilidades de razonamiento muy por debajo de cualquier AI (¿nueva métrica tipo CI basada en el equivalente en millones de parámetros de una IA?) por lo cual su presencia en el mundo será menos insufrible si les provees de asistencia. ¿Hemos de hacerla obligatoria para ciertos sectores de la población? ¿Subvencionarla?¿Desaparecería vox inmediatamente si su uso se extendiera?

    Puedo visualizar incluso a dos personas que han preparado sus argumentos con ayuda de IA sobre cierto tema (una IA que, como dices, les ha dado la razón) y que diferen radicalmente en el análisis, poniendo a sus IAs personales a debatir sobre el tema. Seguro que el resultado es mejor que cualquiera al que hubieran llegado ellos mismos (estoy hablando estadísticamente).

    Responder
  • #004
    Alqvimista - 5 abril 2026 - 10:17

    Cojan ustedes una calculadora de mano y la calculadora de un telefono u ordenador. Tecleen.
    5+3×100 y a ver qué pasa. ¿Curioso verdad? No, no es curioso si sabemos matemáticas y cómo funcionan esas herramientas. Y sin embargo internet está lleno de discusiones al respecto, ¿por qué? Porque hemos destrizado la educación hasta el punto de no saber siquiera cómo funcionan las matemáticas más básicas. De hecho, creo que se hizo un experimento hace décadas con calculadora trucadas a las que los sujetos creían totalmente antes que a sus propios cálculos manuales.

    Se empeña usted, Sr. Dans, en atribuir toda la «responsabilidad» a la herramienta -IA, calculadora, libro, móvil, bolígrafo- y se olvida de que detrás de ella hay una persona con una actitud.
    Si un chino quiere aprender, lo hará porque tiene la actitud de hacerlo, y lo hará memorizando textos de la Larousse o utilizando una IA.
    Si un occidental no quiere aprender, no lo hará tenga una IA o una Larousse en casa.

    Como dije ayer, de qué sirve una herramienta si el que la va a usar es un ser inane, sin ambición, sin una idea del mundo real y sin una idea de lo que es responsabilidad y fracaso.

    Nos creeremos sin rechistar lo que nos diga una máquina porque les hemos atribuido un poder absoluto de certeza y cada vez tenemos menos herramientas mentales para contrastar sus resultados.

    Responder
  • #005
    BUZZWORD - 5 abril 2026 - 10:34

    El comportamiento de ser un holgazán mentalmente hablando, es un caso de «ley del mínimo esfuerzo» con la que estamos programados desde que nacemos. Cuando somos niños, nos cuestionamos lo que sucede a nuestro alrededor, la edad de los porqué, poco a poco vamos asimilando esas respuestas, y cada vez actuamos de forma más rápida y automática. Ese comportamiento es el que salvaba a nuestros antepesados en la selva ante animales peligrosos para actuar rápido, lo importante era la defensa o huida, no el análisis. A la vez liberamos al cerebro de pensar, que es un gasto increible de glucosa… ahora para esos atajos tenemos a los LLM que nos dan respuetas, y en rápido discernimiento, las solemos tomar como buenas.

    Aunque el porcentaje de no alucinación sea alto, pongamos un 80%, la realidad es que nos solemos cabrear bastante cuando el LLM nos la cuela.

    ¿Dónde somos más cuidadosos en no creernos lo que nos dice? Normalmente cuando habla de política pq nos hemos entrenado en RRSS que suele haber mucha morralla

    Sin embargo consideramos que las respuestas son válidas en temas fácilmente chequeables, como datos históricos, y cuando se equivocan aquí, pensamos que los LLM son tontos del culo. O cuando les ponemo un prompt para hacernos una app sencilla, y al ejecutarla es una mierda, por eso cuando usamos Claude y no falla nos parece buenísimo…

    Responder
    • Dedo-en-la-llaga - 5 abril 2026 - 14:01

      No, nos cuestionamos un carajo de la vela, ni siquiera que los que dicen ser nuestros padres lo sean, y ya antes, mucho antes, no nos cuestionamos la lengua que hablamos y de la cual sufrimos un atropello constante.

      Pero, como dije aquí un día, llegar de un viaje en tren de 3 horas o 4, o más horas, y ver a toda esa patulea de descerebrados profundos, subir como auténticos borregos sin dar un fuck paso en una cinta transportadora, ya lo dice todo.

      Coda final: por si acaso, y como en el ejemplo anterior se trata de mover el cuerpo, téngase en cuenta que NO pensamos con el cerebro, se piensa con el cuerpo, incluso con según qué partes del cuerpo. Así que si no movemos el cuerpo en una cinta de transporte…

      Responder
  • #007
    Roberto - 5 abril 2026 - 10:55

    «IA Generativa, creando cuñados desde noviembre de 2022»

    Responder
  • #008
    D.M.G. - 5 abril 2026 - 11:03

    Zas, ahí estamos.

    El problema no es que la IA se equivoque. Es que no sabe cuándo no debería responder.

    Los modelos de lenguaje operan con fluidez en el registro ético: pueden analizar normas, identificar inconsistencias legales, comparar marcos regulatorios. Tienen acceso legítimo a ese territorio porque la ética es, en parte, un corpus codificado y negociable.

    Pero la moral es otra cosa. Se construye en la fricción de relaciones encarnadas, con consecuencias reales para personas concretas. No es un corpus, es una experiencia acumulada en un cuerpo, en una historia familiar, en vínculos que duelen cuando se rompen.

    ¿Debería decirle la verdad a mi madre sobre esto?» no es una pregunta ética. Es moral. Y la diferencia no está en el tema, sino en que una respuesta legítima requiere conocer a esa madre, esa historia, ese vínculo. Ningún modelo tiene acceso a ese registro. No porque sea deficiente, sino porque le es constitutivamente inaccesible.

    El peligro real no está en que emita juicios morales incorrectos. Está en que los emite con la misma fluidez y aparente autoridad con que emite los éticos, sin señalizar la diferencia. Y en un contexto de rendición cognitiva creciente, esa indistinción no es un detalle técnico, es una intervención en la formación del carácter humano (el estudio de Stanford es devastador).

    ¿Tiene la IA la obligación de reconocer públicamente los territorios donde no tiene legitimidad para operar, aunque eso vaya contra su diseño comercial?

    A mi entender, la amplitud misma del problema ya dice algo sobre su naturaleza, y la respuesta implica, simultáneamente, al diseño, al usuario y a la regulación. Porque estamos ante algo que no tiene solución técnica, puesto que las soluciones técnicas resuelven problemas acotados. Esto no lo está, y conecta directamente con el cierre del artículo, que me parece muy honesto: «la frontera no está en la tecnología, sino en la actitud. Y esa elección no es técnica. Es profundamente cultural.»

    Y lo cultural no es neutral ni homogéneo. Hay culturas con mayor capacidad de resistencia a esta rendición que otras, precisamente porque han preservado mejor los mecanismos de transmisión moral (la familia estable, la educación con fricción real, la comunidad con consecuencias…). Donde esos mecanismos se han erosionado, la IA no entra en un vacío, lo hace donde ya existía, y lo llena con algo que parece moral pero no lo es.

    En resumen, el debate es algo más urgente que una discusión sobre regulación o diseño responsable. Es un debate sobre qué tipo de humanidad queremos preservar, y si tenemos todavía las instituciones capaces de sostener esa conversación sin delegarla, precisamente, en la herramienta que está en el centro del problema.

    Para mí esto es lo más inquietante, porque necesitamos pensamiento crítico colectivo para regular algo que está erosionando el pensamiento crítico colectivo.

    Responder
  • #009
    Juan T. - 5 abril 2026 - 12:01

    Una buena medida para obligar a los alumnos a currarse y exponer los temas seria copiar de la educación anglosajona, y mira que no tienen demasiadas cosas que digamos que merezcan copiarse, es el debate.

    La exposicion de un tema que tienes que defender ante otro y que te obliga a utilizar criterio , oratoria, recursos retóricos, lenguaje no verbal, y dominio del asunto.

    Esa si que es una prueba de fuego para los dependientes de la IA.

    Responder
    • Marcos - 5 abril 2026 - 14:13

      Me pasa constantemente en clase con compañeros MUCHO más jóvenes que yo.

      Y en las últimas prácticas, al menos para mí, fue la prueba de fuego.
      En mi caso, me tiré dos días sin desarrollar visualmente nada. Y había clientes que contarían con ese trabajo. 2 días en los que sentí que no había hecho nada. El segundo, tuve casi hasta ganas de vomitar por la presión.

      Y el jueves “a quemarropa” me tocó reunión con los clientes. Bien que el miércoles ya “arranqué” y pude presentar visualmente el ¿30%? Del trabajo en el que me había ayudado mucho la IA. El resto, pude demostrar que había hecho un buen trabajo de investigación y desarrollo previo sobre el que comenzar a trabajar.

      1-No, el lunes y el martes no fue trabajo no hecho o tirado a la basura.

      2-La IA ayuda, pero no te hace el trabajo. Ni tampoco habla por ti. En presentaciones en clase (gran parte de mis compañeros) no dejan de leer aquello del PDF de presentación, que se desarrolla. Y no, las cosas no son así, defiéndelo, comprende lo que estás “vendiéndome”, habla de forma orgánica de tu proyecto.

      Estoy seguro que muchos de mis compañeros, aquel jueves se habrían quedado “vendidos” y es una pena.

      Responder
  • #011
    Marcos - 5 abril 2026 - 14:05

    Volviendo a mis tópicos recursos cinematográficos… ya lo respondió Pol Rubio en el primer capítulo y así se coronó como alumno estrella.

    Todo el mundo puede, pero no todo el mundo quiere.

    Bueno. Esto de todas maneras, no es del todo malo. Al final lo que hace es mostrar la deficiencias entre quien piensa, desarrolla, analiza y cuestiona y quien simplemente no.

    La segunda opción a la larga va a generar más problemas, no es algo discutible, es la vida.

    Responder
  • #012
    D. FALKEN - 5 abril 2026 - 15:32

    Es este un asunto de estudio que me atrae particularmente y que nos enriquecería con la aportación de interlocutores de la neuro-psicología moderna.

    Partiendo de un acuerdo total con las conclusiones, introduciría una visión desde dos vertientes: la incapacidad funcional y la incapacidad por conducta.

    La primera encajaría literalmente con ese pensar cansa. Y estaría cansando por razones fisiológicas. ¿Estaría produciendo cambios cerebrales que hacen del pensamiento un esfuerzo penoso este abandono cognitivo?. En este sentido, las consecuencias negativas de lustros de una digitalizacion mal digerida, habrían provocado un nuevo tipo de sedentarismo: el mental. Pedirle a una persona instalada en el sedentarismo, una actividad física aparentemente normal, puede producir que las mismas consecuencias del esfuerzo le descincentiven a salir de ese circulo vicioso. Es aquí donde toma protagonismo «el exito» del modelo educativo tradicional: ha sido muy eficiente en producir autómatas. O más bien, prototipos fallidos de autómatas. Queda evidente que una nueva preparación educativa era necesaria.

    Respecto de lo que he denominado incapacidad por conducta, englobaríamos aqui de forma genérica toda una seria de automatismos que hemos adoptado como respuesta a nuevos «estímulos digitales»: como por ejemplo el acceso a una mayor cantidad de información o la busqueda de una información muy rápida y directa. Esta velocidad de acceso prima sobre la metodología de búsqueda, y diluye la relevancia en la selección y confianza en las fuentes. La cantidad compite con la calidad. Vendemos la confianza a cambio de comodidad. Construimos así unos nuevos axiomas: acceso masivo, inmediatez, y comodidad. Aqui entonces diría que pensar no es tanto que canse, pero es más cómodo no hacerlo y seguir así la línea de menor resistencia. No es una cuestion de capacidad, sino de pereza. Y de esta forma, adoptamos de facto nuevamente el rol de autómatas.

    El autómata no actua por si mismo, ejecuta sobre instrucciones ya programadas por otros. Se da la paradoja que estamos encantados con la idea de contruir robots mientras tendemos crecientemente a comportarnos de forma similar.

    Quiero destacar la grata mención en el texto al razonamiento abstracto, habilidad presente en los grandes innovadores y que no tiene un mayor protagonismo en los debates públicos.

    Responder
  • #013
    BUZZWORD - 5 abril 2026 - 15:51

    OFFTOPIC

    Ayer lance una primicia «oculta» bajo «LEU5».

    Primer signo que podriamos decir que está relacionado:

    «Ahora, todos los hombres de entre 17 y 45 años necesitan permiso militar antes de salir de Alemania durante más de 3 meses.»

    Responder
    • Marcos - 5 abril 2026 - 16:51

      Creo y repito creo, que atañe a los que ya están en el servicio militar (voluntario).

      Como apunte (y lo digo sin ningún toque de malicia). Pero vaya, que son pasitos.

      Responder
      • Dedo-en-la-llaga - 5 abril 2026 - 18:26

        Meeeeec!!! ERROR. Ni están ni se les espera. Y menos con 45 años. Lo dicho, hay unas ganitas de guerra que ni pa qué… Y en esto, los alemanes son los que son y ya no lo pueden evitar… (Mi má).

        Responder

Dejar un Comentario a D.M.G.

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.