Durante años, hemos ido externalizando partes de nuestra cognición de forma tan gradual que apenas nos hemos dado cuenta. Externalizamos la memoria a los motores de búsqueda después de que el conocido «efecto Google» demostrara que, cuando esperamos que la información siga disponible en internet, es menos probable que la recordemos y más probable que recordemos dónde encontrarla. Externalizamos la navegación al GPS, incluso cuando la investigación empezó a mostrar que su uso intensivo puede debilitar la memoria espacial cuando tenemos que orientarnos por nuestra cuenta. Y hemos externalizado cada vez más la coordinación social a plataformas que deciden qué vemos, cuándo respondemos y cómo nos sincronizamos con los demás.
Ahora empezamos a externalizar algo mucho más relevante: no la memoria, no la orientación, no la agenda, sino el propio pensamiento. O, más exactamente, el trabajo de formarse un juicio antes de expresarlo.
Ese es el verdadero cambio cultural que se esconde detrás del entusiasmo actual por la inteligencia artificial generativa. La tecnología suele presentarse como una capa de productividad, un acelerador de creatividad o un asistente universal. Y sí, en muchos casos lo es. Pero también introduce una tentación peligrosa: confundir la producción sin fricción con la comprensión real, y las respuestas fluidas con el juicio construido. Investigaciones de Microsoft Research han encontrado que una mayor confianza en la inteligencia artificial generativa se asocia con menos pensamiento crítico, mientras que un estudio en Acta Psychologica vincula una mayor dependencia de la inteligencia artificial con niveles más bajos de pensamiento crítico. Un comentario reciente en Nature Reviews Psychology lo resumía perfectamente: las mejoras en rendimiento que aporta la inteligencia artificial generativa no deben confundirse con aprendizaje.
He defendido antes que la inteligencia artificial no sustituirá a la estrategia sino que la dejará al descubierto, y que centrarse en la reducción de costes durante la revolución de la inteligencia artificial es un error estratégico. Esta es la versión cognitiva del mismo error. Cuando las personas utilizan la inteligencia artificial como sustituto del juicio en lugar de como herramienta para afinarlo, no se vuelven más capaces. Simplemente se vuelven más dependientes.
La era de la externalización cognitiva
Los psicólogos lo llaman cognitive offloading: trasladar trabajo mental a una ayuda externa. Una lista de la compra es externalización cognitiva. Una calculadora también. Lo mismo que un calendario, un cuaderno o una app de recordatorios. En ese sentido, no hay nada intrínsecamente nuevo ni siniestro en esto. Los seres humanos siempre han construido herramientas para ampliar la mente. Una revisión reciente en Nature Reviews Psychology señala que externalizar puede mejorar el rendimiento en algunas tareas, aunque también tiene sus desventajas. Y una perspectiva más amplia en Nature Human Behaviour sugiere que la tecnología digital puede estar cambiando la cognición sin evidencia clara de un daño generalizado y duradero.
El problema no es externalizar per se. El problema es qué estamos externalizando.
Cuando externalizamos el almacenamiento, ahorramos esfuerzo. Cuando externalizamos la navegación, reducimos incertidumbre. Pero cuando externalizamos el juicio, corremos el riesgo de debilitar la facultad que nos permite decidir si la máquina es útil, engañosa, sesgada, superficial, manipuladora o simplemente incorrecta.
Ese riesgo importa más de lo que muchas organizaciones parecen dispuestas a admitir. Porque la inteligencia artificial generativa no solo responde preguntas: crea una ilusión de competencia tan convincente que puede borrar la diferencia entre «entiendo esto» y «puedo producir algo que haga que parezca que lo entiendo». Nature revisó recientemente la evidencia sobre memoria y herramientas digitales y subrayó un punto importante: las afirmaciones más alarmistas sobre el deterioro cognitivo suelen ser exageradas. Pero también señalaba que ciertas capacidades pueden alterarse de forma significativa, incluyendo una confianza inflada y cambios en los patrones de recuerdo. Precisamente por eso este momento merece más seriedad de la que suelen aportarle tanto los optimistas ingenuos como los catastrofistas.
La fluidez no es cognición
Lo que hace culturalmente desestabilizadora a la inteligencia artificial generativa no es solo que sea útil. Es que es fluida.
Una calculadora nunca fingió entender la aritmética. Tu GPS nunca afirmó saber cómo se siente una ciudad. Los motores de búsqueda no hablaban en primera persona ni ofrecían resúmenes seguros en prosa perfecta. La inteligencia artificial generativa sí lo hace. Produce lenguaje con una pulidez y una cercanía al rendimiento retórico humano que hace fácil confundir coherencia lingüística con razonamiento.
Pero una respuesta bien formulada no es lo mismo que una respuesta bien pensada. Los grandes modelos de lenguaje son motores de patrones asombrosos, pero no poseen juicio en el sentido humano del término. Como señalaba recientemente un artículo de Harvard Business School, la experiencia y el juicio humanos siguen siendo críticos porque la inteligencia artificial no puede distinguir de forma fiable entre ideas realmente buenas y otras simplemente plausibles, ni puede guiar por sí sola una estrategia a largo plazo. Ese argumento no es anti-inteligencia artificial: es simplemente anti-ingenuidad.
Aquí es donde empieza a aparecer la verdadera división. No entre quienes usan inteligencia artificial y quienes no. Esa distinción ya empieza a ser trivial. La diferencia relevante es entre quienes usan la inteligencia artificial como compañera de pensamiento y quienes la utilizan como sustituto del pensamiento.
Los primeros se ven amplificados por ella. Los segundos se van vaciando poco a poco.
La educación es donde esto se vuelve imposible de ignorar
Si quieres ver claramente lo que está en juego, mira la educación. La ansiedad en torno a la inteligencia artificial en escuelas y universidades suele plantearse en términos de trampas, plagio o integridad en la evaluación. Son problemas reales, pero no el más profundo.
El problema de fondo es que la inteligencia artificial generativa puede mejorar el rendimiento sin generar aprendizaje.
El Digital Education Outlook 2026 de la OCDE, que ya he citado en artículos anteriores (es seriamente bueno), es especialmente claro en este punto: cuando los estudiantes externalizan tareas a la inteligencia artificial generativa sin una guía pedagógica adecuada, el rendimiento puede mejorar incluso cuando el aprendizaje real no lo hace. La UNESCO ha planteado un argumento similar en sus directrices sobre inteligencia artificial generativa en educación e investigación, advirtiendo de que estos sistemas deben utilizarse dentro de un marco centrado en lo humano y no como atajos que eviten el proceso cognitivo. Y la OCDE lleva años insistiendo en que la creatividad y el pensamiento crítico no son habilidades accesorias, sino objetivos centrales en una sociedad digital.
Por eso gran parte del pánico institucional en torno a la inteligencia artificial pierde el foco. La cuestión no es si los estudiantes usarán inteligencia artificial: por supuesto que lo harán. La cuestión es si seguirán obligados a ejercer juicio mientras la utilizan.
Ya defendí algo similar en «La inteligencia artificial podría transformar la educación… si las universidades responden correctamente«, porque demasiadas instituciones están obsesionadas con la vigilancia en lugar de rediseñar el aprendizaje para un mundo en el que la externalización cognitiva es ya la norma. Si los estudiantes pueden generar trabajos aceptables sin enfrentarse a las ideas, lo que realmente se evalúa no es el aprendizaje, sino la obediencia.
La paradoja de la era de la inteligencia artificial
Aquí está la paradoja que mucha gente aún no ha entendido: las personas que más se beneficiarán de la inteligencia artificial no serán las que la usen para todo.
Serán las que sepan cuándo no usarla.
No es una defensa romántica del pensamiento artesanal. Es un argumento práctico sobre el apalancamiento. Las personas con buen juicio, conocimiento sólido de su dominio y escepticismo disciplinado pueden usar la inteligencia artificial para avanzar más rápido sin renunciar a la autoría. Pueden cuestionar resultados, contrastar supuestos, comparar alternativas y detectar cuándo la máquina está simplificando en exceso o inventando certezas. Quienes no tienen esos hábitos son mucho más propensos a aceptar la primera respuesta plausible y seguir adelante.
La literatura reciente en management empieza a converger en esta idea. Harvard Business Review ha argumentado que trabajar bien con inteligencia artificial exige actuar como quien toma decisiones, no como un usuario pasivo de herramientas. Otro artículo reciente advierte de que, si la inteligencia artificial se encarga del trabajo inicial más confuso, precisamente el que ayuda a desarrollar criterio, las organizaciones pueden acabar con personas capaces de producir resultados sin haber construido nunca juicio. Incluso investigaciones sobre creatividad citadas por HBR apuntan en la misma dirección: la inteligencia artificial tiende a beneficiar más a quienes tienen buena metacognición que a quienes no la tienen.
Por eso este es un problema cultural, no solo tecnológico. No estamos simplemente incorporando una herramienta nueva a hábitos existentes. Estamos renegociando la relación entre esfuerzo y autoría, entre comodidad y competencia, entre expresión y comprensión.
De qué deberíamos preocuparnos realmente
El error más común en el debate público sobre la inteligencia artificial es oscilar entre dos caricaturas. Una dice que la inteligencia artificial nos volverá estúpidos. La otra que simplemente nos liberará para tareas de mayor nivel. La realidad es más compleja, y más interesante.
Bien utilizada, la inteligencia artificial puede reducir tareas tediosas y abrir espacio para pensar mejor. Mal utilizada, puede erosionar los hábitos que hacen posible pensar mejor.
Por eso la respuesta correcta no es ni la prohibición ni la rendición. Es el diseño. Necesitamos sistemas educativos, normas laborales y decisiones de producto que preserven el juicio humano en lugar de rodearlo. Necesitamos interfaces que fomenten la verificación, la reflexión y la comparación en lugar de empujar a la aceptación pasiva. Necesitamos dejar de considerar cualquier reducción del esfuerzo mental como progreso.
Porque no toda fricción es desperdicio. Parte de esa fricción es precisamente donde nace la comprensión.
Y ese es el error central detrás de gran parte del entusiasmo actual por la inteligencia artificial. Estamos midiendo velocidad, comodidad y volumen mientras ignoramos una pregunta mucho más difícil: ¿qué tipo de mente nos están ayudando a construir estos sistemas?
Esa es la pregunta que debería definir esta fase de la era de la inteligencia artificial: no si las máquinas pueden pensar como nosotros, sino si, al apoyarnos en ellas sin cuidado, podemos acabar dejando de pensar como nosotros mismos.
El futuro no pertenecerá a quienes más usen la inteligencia artificial. Pertenecerá a quienes sepan cuándo no usarla.
(This article was previously published on Fast Company)


Pues sí. Muy de acuerdo con la exposición. Yo particularmente me identifico bastante con esta perspectiva de análisis.
Si bien, el centro del debate está gravitando en torno al pensamiento crítico -y con justificación- hay otras implicaciones cognitivas o mentales que no debemos dejar de lado. Muchas de ellas ya son una herencia de la era de internet y otras efectos de las redes sociales.
Yo voy a poner sobre la mesa en este comentario el papel de la memoria. En este sentido, la evolución de las tecnologías de la información, nos permite desplazar su protagonismo central en la educación y como recurso de evaluación. En este sentido, poco se ha progresado. Los individuos no son entes con capacidades homogéneas, pero el sistema se empeña en seguir ignorandolo para mantener un status quo. He aquí, una de las mayores ineficiencias sistémicas.
No me gustaría extenderme más, porque se haría interminable ahora mismo la de aspectos relacionados a mencionar. Pero no quisiera terminar sin pasar por encima de la cuestión relacionada con la gestión del corpus del conocimiento. Si bien internet significó una democratización del conocimiento, la creciente publicación de basura y ruido potenciada por la ia generativa, y por otro lado la amenaza de la monopolización y manipulación de ese corpus por las Big Tech, me parecen un asunto muy serio que tampoco hay que perder de vista.
Tiene mucho sentido lo que planteas, sobre todo en lo relativo a la memoria, porque ahí se ve muy bien que este no es un fenómeno nuevo, sino acumulativo.
Llevamos años desplazando funciones cognitivas fuera de nosotros: primero la memoria, luego la orientación, después la coordinación social… y ahora estamos empezando a externalizar el juicio. La diferencia es que la memoria externalizada no decide por nosotros. El juicio sí.
En educación, coincido plenamente: seguimos evaluando como si recordar fuera el núcleo del valor, cuando en realidad el problema ya no es acceder a la información, sino saber qué hacer con ella. Y ahí el sistema educativo no solo va por detrás, sino que además tiende a homogeneizar algo que es profundamente heterogéneo: la capacidad de pensar, de conectar, de cuestionar.
Pero donde creo que tu comentario apunta a algo especialmente importante es en el «corpus del conocimiento», porque ahí se cruzan dos dinámicas peligrosas: por un lado, la sobreproducción de contenido generado —mucho de él superficial o directamente erróneo— que diluye la señal en ruido. Por otro, la creciente concentración de los mecanismos de acceso, filtrado y síntesis en manos de muy pocos actores. La combinación de ambas cosas es delicada: no solo externalizamos la memoria o el acceso, sino también los criterios de relevancia y, en última instancia, de verdad. Quien domina el entrenamiento del algoritmo, domina eso que hemos dado en llamar «el relato».
Y eso nos devuelve al punto central del artículo: el riesgo no es usar herramientas que amplifican nuestras capacidades, sino dejar de ejercer las capacidades que permiten evaluar esas herramientas.
Externalizar memoria puede ser eficiente. Externalizar criterio es otra cosa completamente distinta.
El ministro de educación de Portugal está viendo la posibilidad de quitar a Saramago , como lectura obligatoria, del sistema educativo (oficial). Y ese ministro es una IH, ¿Qué pinta la IA en esta historia de desagregación de una forma de narrar/pensar básicamente crítica (incluso PN), nos guste o no?
El profe que no dejaba entrar a la calculadora en el aula es el mismo que no quiere a Saramago, porque presenta dificultades para interactuar con él. Ambos dan trabajo, porque no están preparados (el profesorado) para el «combate»… La calculadora no quita capacidad de pensar, y bien usada es una herramienta que facilita destrezas matemáticas básicas (otra vez el enorme problema de la preparación docente).
En nada se parece, en sus actividad depredadora, con un sistema tecnológico de orientación o la misma IA. Ambos elementos de apoyo rebajan capacidades si se usan mal, pero, como siempre, volvemos a la incapacidad del usuario (mediocre) para serlo con un mínimo de defensas. Que no tenemos que estar preparados, solo para enfrentarnos a los animales salvajes.
Ni necesitamos ser un Grace, para intentar evitar que se apague nuestro sol. O un espartano de los famosos 300… solo necesitamos interactuar con algo extraño, que , seguramente, pone de su parte mucho más de lo que queremos creer. Sobre todo si NO es humano!!!
Necesitamos generar vínculos con aquello (sea lo que sea) que tenemos delante. Así pasó con la llamada naturaleza, desde que algún día apareció la vida en su interior.
Hay algo paradójico que se trasluce del articulo.
Efectivamente, el que puede utilizar bien la IA y sacarla el mejor partido es el que tiene criterio, buen juicio, etc, lo que le permite valorar el resultado de la IA para pulir lo que se va generando.
El asunto es ¿como se consigue ese buen criterio , ademas del talento innato de la persona, si no acumulando un corpus de conocimiento que lo permita?.
El caso de un cantante de ópera o un director de orquesta ilustra perfectamente por qué el criterio externo es vital al usar IA generativa.
En la música de alto nivel la técnica es solo el punto de partida, mientras que la verdadera excelencia surge de dominar la historia, la psicología y la literatura.
Estos campos permiten al artista interpretar una narrativa profunda y no solo ejecutar notas con precisión mecánica.
Lo mismo ocurre con el uso de la inteligencia artificial: sin una base sólida en áreas que parecen ajenas , el resultado que muestre la IA no podrá enjuiciarse con un criterio solido como para poder ser utilizado adecuadamente.
Un director necesita entender la filosofía de una época para dar sentido a una sinfonía, igual que un profesional requiere cultura general para dirigir a la IA hacia soluciones creativas y con contexto.
Al final, el conocimiento transversal es lo que permite que una herramienta técnica se convierta en una expresión de maestría humana real.
Y ahora pensemos que criterio tendrán las generaciones actuales, adictas a la gratificación rapida del TikTok cuando la inmensa mayoria esta absolutamente desinteresada en la profundidad del conocimiento que les podría permitir formarse ese criterio.
La funcion crea el organo asi que entiendo qua una vez externalizada toda funcion intelectual, ni digamos cuando venga la AGI o la ASI, el cerebro se reducirá evolutivamente hasta mantener las funciones vitales, pero con el encefalograma plano.
Y hablando de criterio y buen gusto, la cosa va tan rapida que Bud Bunny ya es el idolo de masas de estas nuevas generaciones.
La memoria episódica, básicamente, es la que guarda los recuerdos de cosas concretas que te han pasado: dónde estabas, cuándo fue, cómo te sentías… todo ese paquete. Y es importante por varias razones:
* Porque te da como un “archivo” de experiencias reales que usas para comparar cuando te enfrentas a algo nuevo.
* Porque de ahí sacas lecciones y empiezas a ver patrones, que es lo que va alimentando tu sentido crítico.
* Y porque sobre esos recuerdos construyes las historias que te cuentas a ti mismo para entender el mundo.
A partir de ahí, de todo eso que has vivido, es de donde realmente se va formando tu sentido crítico. Y no es algo abstracto que aparece de la nada, sino algo que se construye constantemente con:
* Cómo interpretas lo que te pasa.
* Cómo comparas unas experiencias con otras.
* Y cómo valoras si la información que recibes tiene sentido, es válida o te sirve de algo.
Aquí entra una idea interesante: la “educación episódica”. Que no es otra cosa que cómo todo ese sentido crítico se va moldeando según el entorno en el que estás. Es decir, por las reglas, valores y normas que te rodean. Por ejemplo:
* El idioma que hablas no solo sirve para comunicarte, también influye en cómo piensas y entiendes las cosas.
* Tus valores y creencias (religión, política, ética…) afectan directamente a lo que consideras verdadero o importante.
* Y las normas sociales, aunque muchas veces ni te des cuenta, te dicen cómo interpretar lo que ves y escuchas.
Todo esto funciona como un filtro. Literalmente un filtro que:
* Hace que recuerdes más unas experiencias que otras.
* Empuja tu sentido crítico hacia ciertas formas de ver el mundo.
* Y puede ayudarte a pensar mejor… o limitarte, dependiendo de lo flexible o cerrado que sea ese entorno.
Por eso, la memoria no es como una RAM que simplemente amplías y ya está. Es una de las bases de tu sentido crítico.
Ahora, súmale a esto la tecnología. Lo que se llama externalización cognitiva: usar herramientas para guardar y acceder a información. Esto está cambiando bastante cómo pensamos.
Por un lado, es útil, porque te libera de tener que recordarlo todo y puedes centrarte en cosas más complejas. Pero por otro lado, si no adaptas tu forma de pensar, puedes acabar dependiendo demasiado de eso y perder autonomía crítica.
Y ojo, porque la cultura digital también forma parte de ese entorno que te moldea. No es neutra. Tiene sus propias reglas, valores y sesgos. Por ejemplo:
* Los algoritmos filtran lo que ves y suelen priorizar ciertos contenidos, lo que puede reforzar sesgos o meterte en burbujas.
* También marcan, sin que te des cuenta, qué es “relevante” o “creíble”, muchas veces por popularidad o viralidad.
* Como todo está a un clic, memorizas menos… pero eso también puede hacer que analices las cosas con menos profundidad.
* Y además introduce nuevas dinámicas: inmediatez, multitarea, información fragmentada, interacción digital… todo eso cambia cómo vives y cómo valoras las experiencias.
Te pongo algunos ejemplos claros:
Ejemplo 1: Cuando juegas a “viajar” con mapas (satélite o street view). Si no conoces la ciudad, te cuesta mucho más imaginarla de verdad que si ya has estado ahí. Incluso recordar un camino virtual se hace más difícil.
Ejemplo 2: El tono amable de un modelo de lenguaje. Como suena cercano y razonable, tendemos a confiar en lo que dice sin pararnos demasiado a pensar si es realmente correcto.
Ejemplo 3: Las noticias en redes sociales. Lo que te llega no es neutral: está filtrado por algoritmos que priorizan lo emocional o lo llamativo. Es una realidad que te viene ya “preseleccionada”.
Ejemplo 4: Guardarlo todo en la nube o en el móvil. Como sabes que está ahí, dejas de hacer el esfuerzo de recordar. Y eso, a la larga, afecta a tu capacidad de analizar en profundidad y de conectar ideas rápido sin tener que buscar fuera.
Este comentario tiene pinta de ser todo un ejemplo del problema que se se plantea en el artículo.
Es el presente, y lo que sigue no es mejor.
A este abogado debió parecerle extraordinariamente cercano, amable y por eso mismo fiable el tono de su modelo de lenguaje, pero el TSJ de Canarias lo devolvió a la cruda realidad no virtual cuando lo multó por citar 48 sentencias falsas sugeridas por IA y un informe del Consejo General del Poder Judicial que supuestamente avalaban su postura en el pleito y que, mira tú por donde, no existían.
Eso sí, el Tribunal no le desaconseja el uso de la IA al abogado sino que, en una especie de sugerencia, la multa de 420 euros que le impone -la mitad de la suscripción anual- supone un reproche por no tener contratada
«…una suscripción anual a una herramienta de IA específicamente jurídica de las disponibles en el mercado, que, de haber sido utilizada, probablemente hubiera evitado el lamentable resultado
que ahora se enjuicia. Se tiene noticia de la existencia de planes de suscripción básicos a herramientas de IA jurídica a partir de 70 euros mensuales, lo que supone un coste anual aproximado de 840 euros».
file:///C:/Users/USUARIO/Downloads/TSJC%20CP%20AU%2010feb2026.pdf
Eres tan listo como que pones un enlace a tu disco duro…
No hay más preguntas señoría !!!
Que hay muchos «eruditos pajilleros mentales sueltos» que no saben que es una IA, y que te replican debajo de un comentario HACIÉNDOSE LOS LISTOS, pero que son más cortos que su polla vieja está claro….
Para aquellos que cuando veen más de 2 oraciones seguidas se creen que lo ha escrito una IA, primero os podeis IR A TOMAR por donde amargan los pepinos
Lo segundo, aqui está el texto del comentario original que le he pasado un anti IA y se certifica 0% del comentario libre de IA
https://imgur.com/a/OZRA4XO
Hala a cascarla a Parla !!
Pedazo de imbéciles
Será por falta de antecedentes…
Le acabo de pegar el texto a chatGPT por hacer una prueba rápida y ha concluido esto: «Diría que tiene bastante pinta de texto generado o fuertemente asistido por IA, pero no lo suficiente como para asegurarlo.»
XD
Tu mismo te delatas:
«El futuro no pertenecerá a quienes más usen la inteligencia artificial. Pertenecerá a quienes sepan cuándo no usarla.»
Deja de meter mierda, y haz comentarios que no sean payasadas, utilices la IA o el medio cerebro con el que vienes tarado de fábrica.
No se necesita IA para detectar cuándo BUZZWORD empieza a ponerse nervioso.
A tenor de sus respuestas da la sensación de que Buzzword sea el abogado de las 48 sentencias falsas…
Una pena, de pequeño en el colegio hacia grandes divisiones y multiplicaciones, incluso sabia extraer raíces cuadradas, hoy por culpa de las calculadoras. creo que sería incapaz de tal actividad, Externalice las matemáticas a las calculadoras.
¿Me hizo mas tonto el externalizar, esas actividades cerebrales? ,… Es posible.
Hay que practicar deshabituarse. En un viaje mi móvil acabó bajo el agua, pero llevaba otro desechado de mi abuela y lo puse a funcionar, lo tenía previsto. Y al regreso no lo he cambiado de nuevo.
Toda gran herramienta cognitiva ha reorganizado la relación entre lo que pensamos y lo que somos: la escritura, la imprenta, los medios electrónicos. Todas ellas llegaron con temores y todas terminaron expandiendo lo que éramos capaces de hacer y de pensar. Pero hay algo cualitativamente distinto ahora, que el artículo apunta sin nombrarlo del todo:
Las herramientas anteriores reorganizaban la cognición desde «fuera», cambiaban cómo almacenábamos, distribuíamos o recuperábamos el pensamiento. Esta opera desde «dentro» del acto mismo de formularlo. Cuando escribo con la imprenta, el pensamiento sigue siendo enteramente mío antes de fijarse. Cuando co-construyo con un modelo de lenguaje, el pensamiento puede estar parcialmente formado por la respuesta anterior antes de que yo haya decidido qué pienso.
El límite aparece, entonces, cuando la herramienta puede sustituir el ejercicio que nos permite evaluarla. No es que la IA piense por nosotros. Es que puede hacer que dejemos de notar que hemos dejado de pensar.
Exigirle constantemente el contraargumento, por ejemplo, es una forma de romper esa fluidez con la que el modelo se pliega a lo que vas construyendo (el «tienes razón» automático lo tengo atravesado). No porque incomode, sino porque es ahí donde uno sigue sintiéndose autor.
Este debate apenas ha empezado. Creo que nos falta perspectiva para saber cómo afectará al juicio y a la memoria colectiva dentro de una década. Pero lo importante es haberlo iniciado con las preguntas correctas, siendo conscientes de lo que implica hacer un uso disciplinado de algo tan potente y tan engañosamente cercano a nosotros.
En ese camino, el papel de la educación me parece crucial. Enseñar a incorporar estas herramientas con disciplina y pensamiento crítico exige una transformación bastante radical del rol docente (y me parece que en este blog también se ha comentado): pasar de quien transmite y evalúa a quien interrumpe productivamente el proceso. Tanto en la escuela como en la formación académica, la prioridad debería ser interpelar al alumno en cada paso, para verificar si comprende y aprende, no para juzgar si lo ha hecho bien o mal.
Nota:
Este comentario ha sido revisado y corregido por un LLM, (es que son finos los jodidos :D).
De acuerdo con lo que comentas. Y se agradece la nota aclaratoria.
Es más, me permito el sugerir al autor del blog, Enrique, que entre las normas que aparecen al final (de dudoso cumplimiento por algunos) se añada que los comentarios generados o asistidos por IA lleven una nota o aviso indicándolo.
Hace muy poco publiqué una guia dentro del proyecto Conocimiento Ciudadano para ahondar precisamente en este tema y ayudar a entender mejor como relacionarse con la IA sin perder criterio:
Cómo detectar si una IA te está manipulando (y proteger tu criterio)
Acabo de leerla y me ha parecido una herramienta excelente.
Muchas gracias! :)
Entre los grandes grupos de los optimistas ingenuo y los catastrofistas encontramos a funcionarios de gobiernos que evitan el tema, hasta que punto eso afectaria la competencia de un gobierno frente al mundo.
También nos hace pensar más nos hace ser más críticos creo que es todo lo contrario no se adueña el conocimiento nos da una una baraja de opciones dentro de la información infinita de los buscadores, no veo que reduzca el pensamiento al contrario lo multiplica y el aspecto crítico lo vuelve más agudo nos hace dudar nos enseña a dudar porque ahora podemos comprobar o Escuchar una opinión diferente cuando leemos una noticia o un comentario o una publicación podemos ir a los buscadores lo que se le llama ahora Inteligencia artificial que no es más que un buscador que dialoga para ver si es cierto esa información esa noticia y en cuanto a los dibujitos las figuras las imágenes que produce pues algunas son interesantes otras son aburridas tontas como todo al final la lo que le llamas la Inteligencia artificial fue programada por los hombres y es muy humana es totalmente humana se equivoca es tozuda es necia siempre quiere tener la razón está programada para pensar de una u otra manera creo que es humana al final. Ese pensamiento anticipado o imperativo siempre ha existido la religión nos decía que era bueno que era malo que era crítico que pensar que no pensar Cuál era el juicio Y de cierta manera lo hace de una manera científica actual la Inteligencia artificial es solo una herramienta y para analizarla Pues necesito estudios más profundos. Tu comentario Me parece muy tipo esos que aparecen en Facebook en YouTube que se dice cualquier cosa sin ningún análisis profundo Hay que ser más profundo esta Inteligencia artificial Es una herramienta: me permite corregir mi ortografía mi puntuación mi gramática después yo siempre le doy una revisada a mi texto le dejo cosas que realmente a mí ya me aburro hacerlas y como todo el fanático religioso el fanático comunista el el fanático de la dieta el fanático de la salud el fanático de las drogas el que se vuelve fanático es natural va a caer en en ser suplantado por lo que adora. También nos enseña a ser educados a ser pacientes a dudar a responder sin groserías sin ofender a mí me ha enseñado me ha educado mucho en Cómo respondo en tener más paciencia cuando hago una crítica cuando publico algo ser menos radical analizar n
a pensar qué diría la Inteligencia artificial no estoy siendo muy parcial no estoy solo analizando lo que me conviene ella tiende a hacer una baraja de opciones cuando da su juicio. Tenes muy confundida la idea qué debes ara que la gente use la herramienta yno sseguir atrasando a al pueblo a los más Humildes a los más más crédulos lo mismo sucedió con las vacunas no han sido tan nocivas al final la expectativa de vida cada día es más alta y más alta gracias a las vacunas a ciertos medicamentos a los cuidados de la salud a una buena dieta a conocer uno de la salud hacer su propio médico hay mucho hay mucho le paro porque necesita estudios muy serios el tema
«Necesitamos sistemas educativos, normas laborales y decisiones de producto que preserven el juicio humano en lugar de rodearlo. Necesitamos interfaces que fomenten la verificación, la reflexión y la comparación en lugar de empujar a la aceptación pasiva. Necesitamos dejar de considerar cualquier reducción del esfuerzo mental como progreso.»
Ya sabemos qué no ocurrirá.
Muy interesante el tema, Enrique.
He pensado recientemente una serie de cosas dispersas al respecto:
1) Claude es mucho más inteligente, racional y educado que la mayoría de personas que me encuentro por la calle (sé que es un artificio, pero puedes hacerle cambiar de opinión; compara eso con la gente normal…)
2) la gente tiene un retraso e ignorancias tan extremos, que llego a pensar que, gracias a la IA, puede que dejen de ser unidades sociales tan disfuncionales. Por ejemplo, a poco que le pregunten a una IA, será muy difícil que les engañe un político, cosa poco desdeñable.
3) me recuerda a una conversación con mi hermano, sobre sus chiquillos, donde hablábamos de la edad a la que hay que exponer a los chavales a los móviles (creo que sirve casi igual con la IA). Yo le decía que tendríamos que hacer como cuando no te dejaban escribir con boli hasta que no escribías estupendamente con lápiz. Imagino que a los móviles se puede aplicar esto mismo: si no sabes orientarte, buscar información en libros, formarte un criterio propio (las tan denostadas clases donde se argumentaba a favor y en contra de algo), etc, no puedes usarlos. Si llegas a los 18 años y no sabes hacer esa lista de cosas, a partir de ahí ESTÁS OBLIGADO a usarlas para cualquier cosa oficial, como votar. Sí, sí, suena exagerado, pero una persona socialmente disfuncional, a lo mejor necesita ser tutorizada para sus actividades en las que se relaciona con la sociedad que tiene alrededor. Puede parecer muy nazi, pero a lo mejor nos habríamos ahorrado la depresión económica, la guerra y la hambruna que se avecinan en los siguientes meses.
4) y aunque tengas un criterio propio a prueba de balas, le veo peligro a saco. Personalmente me estoy imponiendo hacer todos los viajes que puedo memorizando las rutas (sin usar el móvil), y chequear siempre (aunque sea en plan rápido) lo que me dice la IA desde una fuente o dos creadas por humanos y fiables (una suele ser la wikipedia), por poner un plan de ejemplos.
Muy interesante el artículo y algunos comentarios. Se nota la mano de la IA en la redacción. Parafraseando un cuento de Galeano eso rasca bien y rasca mucho pero rasca donde no pica. Mientras la tecnología apunte a satisfacer necesidades humanas y el sistema capitalista se mantenga todo va a seguir más o menos igual. De hecho la tecnología avanza y un número de humanos que no para de crecer vive montado en ella. Nunca hemos sido tantos, vivimos cada vez más y mejores son las condiciones de vida proporcionalmente hablando. No estoy con el amigo Candido, no vivimos en el mejor de los mundos posibles pero dado q las pulsiones son siempre las mismas no me asusta el acertijo. La IA vende como vendían los kit para matar vampiros o quemar brujas o los platos voladores. Agoreros del fin del mundo, gurús de todo tipo no paran de surgir mientras la tierra sigue girando con sus vivos y sus muertos decía Neruda. Hagamos más el amor y menos la guerra jaja hace 5000 millones de años que la Tierra se ocupa de sus cosas y sigue tan campante ….
Felicitaciones.
Voy a alimentar a la IA con este texto.
Saludos cordiales.