La ilusión del pensamiento: ¿realmente piensan los modelos de lenguaje actuales?

El reciente paper publicado por seis científicos de Apple, titulado «The illusion of thinking«, ha generado un debate muy significativo en la comunidad tecnológica.

Este trabajo cuestiona la capacidad de los modelos de lenguaje actuales para realizar razonamientos complejos, sugiriendo que, a pesar de aparentar procesos de pensamiento elaborados, estos modelos colapsan cuando se enfrentan a tareas de mayor complejidad. Utilizando conocidos juegos matemáticos clásicos como la Torre de Hanoi, River Crossing, Conway’s Soldiers o Blocks World, los investigadores observaron que la precisión de los modelos disminuye drásticamente a medida que aumenta la dificultad del problema, llegando incluso a caer a cero y perder toda utilidad en algunos casos.

Este fenómeno plantea una pregunta fundamental: ¿qué entendemos por «inteligencia» o por «pensamiento» en el contexto de la inteligencia artificial? Tradicionalmente, asociamos la inteligencia con la capacidad de razonar, comprender y adaptarse a nuevas situaciones. Sin embargo, los modelos de lenguaje actuales, aunque absolutamente impresionantes en su capacidad para generar texto coherente, carecen de una comprensión real del contenido que producen. Su funcionamiento se basa en la predicción estadística de palabras, sin una verdadera noción del significado subyacente.

Resulta impresionante la cantidad de información que estos modelos han sido capaces de digerir en su entrenamiento. Tomemos como ejemplo a GPT-3, entrenado con cientos de miles de millones de palabras provenientes de libros, artículos, sitios web y muchos otros textos públicos como Wikipedia: un volumen de lectura y memorización que ningún ser humano podría igualar, ni siquiera remotamente, porque necesitaría encadenar muchas vidas consecutivamente tan solo para tener el tiempo de pasar los ojos por todos ellos. Sin embargo, si fuese posible, un ser humano con acceso a ese caudal de conocimiento, y que además pudiera recordarlo y utilizarlo de forma fluida, sería considerado una eminencia: alguien extraordinariamente inteligente o enormemente culto.

¿Están los modelos de lenguaje a esa altura si los comparamos con un humano? En términos de volumen de información, sin duda. Pero cuando se trata de aplicar ese conocimiento con sentido, criterio o intencionalidad, la respuesta es más compleja. Lo que los modelos hacen no es «pensar», sino encontrar patrones estadísticos en un mar de datos. ¿Por qué nos cuesta tanto entender o definir si un LLM es o no inteligente? Porque personas a las que hemos calificado históricamente como inteligentes o a los que concedemos puestos importantes en la sociedad destacan precisamente por esa capacidad de memorización de información. Pero… ¿son realmente inteligentes? ¿Qué hace, por ejemplo, a un juez ser mejor juez? ¿Su capacidad para memorizar más y más sentencias, o la de racionalizar la lógica, la proporcionalidad u otros atributos de su posible uso en un caso determinado?

El estudio de Apple ha puesto el foco en una diferencia clave entre los modelos más populares: mientras Claude 3 Opus, de Anthropic, demostró un rendimiento relativamente estable incluso en las versiones más complejas de las tareas, modelos como GPT-4 o Gemini mostraron una caída mucho más abrupta. Esto sugiere que los mecanismos de razonamiento de los LLM no son todos iguales: algunos están diseñados para parecer que razonan, mientras otros han mejorado en mantener consistencia estructural a través de contextos más largos o en tareas multietapa.

Sin embargo, incluso los modelos más avanzados y especializados, como el agente de investigación profundo de OpenAI, siguen siendo herramientas que fallan muchísimo. No terminan de entender lo que investigan, ni pueden discernir qué fuentes son más fiables o relevantes, y no llegan al nivel de un asistente de investigación no solo novato, sino además, bastante vago. La diferencia con un humano no está solo en la cantidad de conocimiento disponible, sino en la capacidad de contextualizarlo, valorarlo críticamente y aplicar sentido común. Un agente capaz de analizar papers científicos no se convierte automáticamente en un experto: carece de intencionalidad, de experiencia vivida y de juicio propio.

Esta desconexión entre la apariencia de inteligencia y la falta de comprensión real ha llevado a muchos expertos a advertir sobre los peligros de antropomorfizar la inteligencia artificial. En su libro «The AI Con«, Emily M. Bender y Alex Hanna critican el «hype» en torno a la IA, argumentando que muchas de las afirmaciones sobre sus capacidades son exageradas y pueden llevar a malentendidos sobre su verdadera naturaleza.

A pesar de estas limitaciones, la industria continúa avanzando en el desarrollo de modelos que buscan emular aspectos más humanos de la inteligencia. OpenAI, por ejemplo, ha lanzado GPT-4.5, destacando su «inteligencia emocional» mejorada. Según la empresa, este modelo es capaz de responder de manera más natural y empática, adaptándose mejor a las emociones del usuario. Sin embargo, es crucial recordar que estas respuestas son el resultado de patrones aprendidos y no de una comprensión genuina de las emociones humanas.

En un artículo anterior, argumenté que juzgar a la inteligencia artificial generativa por sus capacidades actuales es un error. La tecnología está en constante evolución, y lo que hoy puede parecer una limitación, como el hecho de que el origen de este tipo de modelos esté basado fundamentalmente en el lenguaje y su estructura, podrá superarse en el futuro. Sin embargo, es esencial mantener una perspectiva crítica y realista sobre lo que estos modelos pueden y no pueden hacer.

¿Son notables los avances en inteligencia artificial? Sin duda. ¿Tienen la capacidad de transformar diversos aspectos de nuestra sociedad? Por supuesto, porque muchas responsabilidades en nuestra sociedad se basan en sus puntos fuertes: procesar información y organizarla. Pero debemos ser cautelosos al atribuirles capacidades humanas como el pensamiento, el juicio o la comprensión emocional. Reconocer las limitaciones actuales de estos modelos no es despreciarlos, sino tratar de comprenderlos mejor, para así poder utilizarlos con responsabilidad y sin caer en ficciones o ilusiones peligrosas.


You can also read this article in English on my Medium page, «Mind vs. machine: why the human brain still outthinks AI«

20 comentarios

  • #001
    Benji - 9 junio 2025 - 12:23

    Pregunto por ignorancia y respondo desde mi opinión personal.

    1. ¿De verdad pensamos que la IA existe? Lo que hay son modelos estadísticos y de aprendije de lenguaje. Pero inteligencia (sea eso lo que sea) o más allá no parece haber nada fuera del Homo Sapiens (IH Xaqín dixit)

    2. Aunque ahora mismo los sistemas no puedan enfrentar problemas complejos, tienen 3 años. Ningún humano de 3 años puede resolver cosas mucho mas allá de meter piezas de madera de determinadas formas y colores por los huecos apropiados. Ya veremos las LLMs cuando tengan 18 añitos.

    Esto es como cuando comparábamos la wikipedia de 3 años llena de fallos y troleos con la de ahora, que ha barrido a la competencia. Ahora la palabra «enciclopedia» ya no existe en las nuevas generaciones, solo existe «wikipedia».

    3. Cuando hemos dado una tarea específica a los procesadores (Como jugar al ajedrez, al go o al DoTA 2) al final nos han apalizado.

    Para mí la diferencia es la diversificación. Un humano igual hace cálculos con regla de 3, que identifica 3 tipos de pájaros sin error, sabe cuando plantar y cuidar las plantas, sabe como criar a un perro, identificar cualquier imagen, distinguir sonidos y ritmos, oler, palpar, gustar, subir escaleras, escribir, razonar, etc. con una velocidad razonable. Pero ha tardado al menos 13 años en llegar ahí con mucho entrenamiento multimodal.

    Realmente nos distingo porque sabemos hacer un poco de todo sin ser maestros de nada. Las LLMs son maestras en algunas cosas sin saber casi nada sobre nada de lo que nos hace humanos. Pero en tareas específicas y bien entrenadas (sobre todo las repetitivas como leer Rayos X, detectar patrones anómalos en las mareas o escribir) son capaces de apalizarnos.

    ¿Dónde brillamos nosotros? En la improvisación. Si tú le das a un GM del ajedrez la torre y el alfil en posiciones invertidas jugará muy bien y ganará a cualquier (CUALQUIER!!!!) procesador que no tendrá ese patrón memorizado y no sabrá como reaccionar a esos movimientos.

    Responder
    • Dedo-en-la-llaga - 9 junio 2025 - 12:33

      Exacto, Benji, es lo que tiene andar comparando churras con merinas, huevos con castañas, lo incomparable con lo incomparable, etc., para satisfacer la inútil pasión de ver a ver quién la tiene más grande. (Inútil pero mortífera pasión).

      Responder
    • Dino - 9 junio 2025 - 16:06

      Creo que es al contrario, si intercambias las posiciones de torre y alfil, el GM humano estará todavía mucho más desvalido. Para él todo es nuevo e inexplorado, no conoce aperturas apropiadas para esta nueva configuración. Para la máquina es un cambio trivial y machacará al GM con más contundencia que antes.

      Responder
  • #004
    Dedo-en-la-llaga - 9 junio 2025 - 12:28

    Siempre ocurre lo mismo: todo esto pone sobre el tapete el hecho, incontrovertible, y que nunca se pone de relieve, se tapa, se esconde, de que no hay acuerdo posible en las definiciones. No hay una definición unitaria de «lenguaje», ni de lo qué es «pensar», ni de lo qué es «razonar», ni de lo qué es «inteligencia», ni de lo que incluso es o no «artificial», etc., etc., etc.

    Hablan de que «colapsan» para según qué tareas. Como si no hubiese gente supuestamente inteligentísima que colapsa ya ANTES de iniciar ninguna, sólo proponérsela, etc. O sea, lo que se ve en estos casos con la IA, se puede aplicar, punto por punto, a lo que pasa mucho más que frecuentemente a los llamados «humanos».

    Lo que tiene de interesante la IA es que nos puede ayudar a «pensar» cómo funcionamos, «en parte», nosotros mismos.

    Pero hay una parte fundamental que sólo será posible alcanzar cuando la IA «sienta»; y eso, al menos por ahora, no es posible.

    Aquí, los libros de Benjamín Labatut, (Un verdor terrible y Maniac) deberían ser una referencia obligada para captar las intrincadas y funestas complejidades del alma de los científicos. Y que el ERROR de completos idiotas es tratar de equiparar una I con otra I.

    Eso demuestra hasta qué punto, todos estos que están todo el día «comparando», no solo tienen problemas graves psicosexuales, (comparar, fundamentalmente es eso), sino que son unos puros borregos por todo lo anterior. Una vez más, qué fatiga…

    Responder
  • #005
    Buzzword - 9 junio 2025 - 12:57

    «Efectivamente con una navaja suiza no podemos dar martillazos»

    No sé que pretendían con este paper, pero el resultado es obvio, y es a lo que nos enfrentamos día a día con los loritos… pero todo hay que decirlo cada vez lo hacen mejor.

    Este viernes necesitaba un dataset sintético, y le pedí con un prompt de 5 líneas los campos que necesitaba, y le puso 10 líneas de ejemplo, para generar un CSV de 1000 líneas… pues Claude Sonnet (el gratuito) me generó el programa generador en una interacción. Era sencillo? Si pero por curiosidad lo repetí con perplexity y no funcionó …

    Al fin y al cabo, los gpt se especializan en generar el siguiente token, y yo alucino que en código sean capaces de responder. Por ejemplo en texto es más dificil evaluar calidad. De hecho aqui muchas veces, se dice que son muy buenos haciendo historias…

    pero … ¿no es un programa python una historia en el que le ponemos nosotros el argumento? Y si cuanto más dificil es la tarea más complicado es el reto…

    Un LLM no está hecho para «dar martillazos» es decir para resolver torres de Hanoi, para eso por ejemplo se debe usar el aprendizaje por refuerzo…

    Por cierto creo que el enfoque del PAPER no aporta NADA, ya sabemos lo obvio que fallan y que los razonadores no piensan… Eso es algo que sabemos muchos, el enfoque positivo es lo que hacen OpenAI, Deepseek, perplexity, Antrhopic que cada modelo es mejor…

    Vamos a probar un ejemplo que se me acaba de ocurrir con el ejemplo del paper, que dicen que es muy complicado… para los LLMs…

    Uso Sonet 4 ( no el 7, ni el razonador) el gratuito

    TORRES DE HANOI. Pues Claude no sabrá hacerlo, pero igual es que no van por ahí los tiros…. y se le está pidiendo algo para lo que un LLM no nos vale…

    EJEMPLO PEDIRLE UN PROGRAMA QUE LO RESUELVA

    PROMPT:

    Me puedes crear un juego en python, con pygame, que juegue el solo a las torres de Hanoi, y el usuario solo tenga que dar en un botón de siguiente posición.

    RESULTADO:

    Un programa que las resuelve en 15 movimientos

    https://imgur.com/a/AZRzLop

    A la primera !!!

    Creo sinceramente que este paper es uno más que se quieren hacer los listos, pero que de hecho no aporta nada qeu no supiéramos ya, solo constatar lo que ya sabiamos que los LLM son limitados, sobre todo si se les pide cosas complicadas.

    Lo dicho con una navaja suiza martillazos poco…

    Aún así el paper está bien para aquellos que creen que los loritos son mágicos y para ver los despistados que están en la inteligencia manzana…

    Responder
  • #006
    Gorki - 9 junio 2025 - 13:52

    Lo avances tecnológicos no imitan a la naturaleza
    La ropa no imita las pieles de los animales, pero abrigan mas.
    La rueda nada tiene que ver con las patas de los animales,, sin embargo es mucho más rápida.
    La lanza no es como las garras de los animales pero es mas mortífera.
    El libro nada tiene que ver con la memoria pero es mas fiable
    La hélice nada tiene que ver con las aletas de los peces pero es mas rápida
    El telescopio nada tiene que ver con los ojos, pero ve mas lejos
    … … …
    La AI nada tiene que ver con la inteligencia humana,… pero con el tiempo la superará

    Responder
    • Dedo-en-la-llaga - 9 junio 2025 - 17:21

      No Gorki, no, ni la ropa, ni las ruedas, ni las lanzas, etc., van a así como tú dices.

      Y, al final, define antes «inteligencia».

      Responder
      • Mauricio - 9 junio 2025 - 18:42

        Dedo-en-la-llaga, lo que dice Gorki tiene todo el sentido del mundo desde la perspectiva de que para cumplir una determinada tarea, resolver una necesidad o alcanzar una determinada meta es posible utilizar diferentes medios. Puedo, por ejemplo, lavar la ropa a mano o mediante una lavadora y aunque entre mis manos y el tambor de la lavadora no hay ningún parecido el resultado final de todo el proceso (la ropa limpia) es similar. Estos medios, además, pueden llegar a ser muchísimo más efectivos que aquellos previamente disponibles a la hora de cumplir con su propósito, aunque su modo de funcionamiento pueda ser totalmente distinto.

        Responder
        • Dedo-en-la-llaga - 9 junio 2025 - 20:30

          Perdona, parece que lo tiene, pero NO tiene ninguno. Se colige a qué se refiere, pero sus ejemplos son indignos de él.

          Responder
    • RaulSB - 10 junio 2025 - 08:45

      Gorki, de acuerdo contigo solo con un par de puntualizaciones.

      Primero deberemos definir inteligencia. Si no hacemos eso, comparar es poco útil más allá de entretener al personal. Cosa que hace, y bien.

      Segundo, a día de hoy, parece claro que la IA, LLM, o como queramos llamarlo, es muy bueno en todo aquello que pueda reducirse a un cálculo probabilístico. Fuera de eso, por ahora, no. El futuro nos dirá si es un problema de fuerza bruta de cálculo o modelo algorítmico.

      Mientras tanto, como todos aquellos que se dedican a desarrollar «esa inteligencia» no encuentren la forma de hacerlo rentable, podemos estar ante un gran pinchazo en relación a lo que podría llegar a ser.

      Respecto a la noticia de «los sabios de Apple», parece más bien un gran chorro de tinta para que no se hable de Apple Intelligence, que a día de hoy tiene de inteligente lo que Apple de manzana. Me parece muchísimo más interesante lo que está haciendo Gemini, que a base de sucesivas iteraciones ya está a un nivel impensable hace 6 meses. Veremos dónde está en 6 meses.

      Responder
    • Buzzword - 10 junio 2025 - 12:18

      Si hay que leer un paper al menos que sea un clásico…

      «The Imitation Game», Alan Turing, 1950

      https://xamanek.izt.uam.mx/map/cursos/Turing-Pensar.pdf

      Nunca un juego de imitación de una inteligencia, puede superar al original… Lavando ropa o jugando al ajedrez pues claro que nos superan. De hecho la calculadora que me regalaron cuando tenía 8 años, ya hacía las raices cuadradas más rápido que cualquier humano entonces y ahora.

      Responder
    • Michel Henric-Coll - 10 junio 2025 - 14:52

      Gorki. Encuentro tu mensaje lleno de bases y motivos para reflexionar.

      No afirmas ninguna opinión, no defiendes ni ataca a ninguna otra. Solamente hace lo más importante: proporcionar motivos de reflexión abierta a quienes están dispuestos a ella.

      Gracias.

      Responder
  • #013
    Manuel Arenas García - 9 junio 2025 - 15:41

    Los LLMs me llaman la atención porque consiguen generar inferencias, no a partir de líneas se código, sino de operaciones matemáticas en disciplinas como el cálculo diferencial, el álgebra lineal y la estadística aplicadas en el entrenamiento primero y en la generación de inferencias después. Es como pasar del plano del tiempo a la frecuencia en el plano digital, aunque aquí hablaríamos de pasar del plano cronológico de los datos empleados en el entrenamiento al plano contextual (la atención).
    No hay pensamiento. Estamos ante una forma de organizar y acceder al corpus de conocimiento digitalizado muy bella y matemática,. Pero no hay pensamiento, como tampoco hay música en los bits de un CD, sino en la mente de quien escucha esos bits.

    Responder
  • #014
    Asp Ado - 9 junio 2025 - 16:10

    Parece que tienen dos capacidades de tres para conseguir elaborar un pensamiento: tienen palabras y tienen memoria. Les falta elaborar ideas partiendo de los dos anteriores y adquirir conceptos.

    Casi nada.

    Mientras tanto, son solo compiladores de textos, buscadores de aciertos probabilísticos, aspirantes a robots majetes…

    Responder
  • #015
    Xaquín - 9 junio 2025 - 16:25

    Me quedo con Gorki, tanto para coincidir, como para discrepar… Santa Diversidad!!!

    Los avances tecnológicos imitan a la naturaleza (sea lo que eso sea), pero a veces (cuando se hace bien ) la superan. Y se llama evolución naturoartificial. Ya no existe en humanos la evolución estrictamente natural. Aquí discrepo.

    Pero sí, concuerdo que la llamada IA, una vez que confluya con una IH (fusión más o menos en pie de igualdad), seremos algo diferente (muy???), con lo que espero sinceramente que la naturaleza (sea lo q…) pueda interactuar mucho mejor que ahora.

    Pero así como lo primero es obvio (debería serlo), lo segundo es un contencioso intelectual para cientos de años, caso de no extinguirse antes la especie humana. Y necesite ocupar nuestro nicho ecológico otra especie «inferior» (menos compleja). Menos amiga del debatir por debatir.

    Un apunte sobre el que incide ya algún comentarista con ese concepto de colapsar.

    » a pesar de aparentar procesos de pensamiento elaborados, estos modelos colapsan cuando se enfrentan a tareas de mayor complejidad.» (EDans).

    Partimos de ti mismo y viajamos a mis años de experiencia docente, tal que fuera la mili, cuando mi alumnado, llegado con resabios de chapatoria y preguntas muy concretas (chapadas), se veían ante la tesitura de responder a las mías»… COLAPSABAN totalmente.

    Costaba meses traerlos al surco por donde los quería llevar yo. No sé si ya dije alguna vez que alguno me decía que le dolía la cabeza de «tanto pensar». Pobriños, ni se acercaban al fenómeno realmente intelectual (forja de ideas propias… y cartesianas, nada de meras creencias!!!). Por eso necesitaba seguir otro curso con ellos, para consolidar la funesta manía de pensar…

    Y si aquel alumnado de zona deprimida, lo conseguía, en general, ¿por qué no lo van a conseguir las futuras IA? Sobre todo cuando vengan con más chicha mental y menos silicona pajillera.

    Cuando un algoritmo consigue interactuar conmigo, no es que piense, solo ha trabajado para saber relacionarse conmigo. Lo que hacían algunos alumnos, al cabo de varios meses. Muy escasos en dos o tres semanas. Pero eso se llama «ir conociendo el modo de pensar del profe». Nada de razonar, solo es manejar las diversas aplicaciones del ordenata, que podemos llamar mente del profe. Para «ir tirando»…

    Lo que sí es cierto, a favor dela IA (alumno robot), es que al volver del verano no se habrán olvidado del 90% de lo aprendido en un curso normal. Y que sus colapsos serán mucho mejor recuperables, que los del alumno con IH. Sobre todo si no tienen preadolescencia…

    Responder
  • #016
    El hombre que Ríe - 10 junio 2025 - 04:56

    El «colapso» que se refiere aquí es conocido e inherente al concepto de mismo de una computadora. La pantalla Azul de Windows es un ejemplo, si encuentra un problema, detiene todo y muestra un QR esperando que un humano resuelva el error.
    El problema aquí dado que una computadora se queda parado en ese estado indefinidamente, cuando colapsan los agentes IA estan desperdiciado energía por inactividad y no es factible andar revisando todos los agentes que esperan un reinicio manual. A este paso el soporte tecnico hace los LLM será lo verdadero importante y no los agentes en sí.

    Responder
  • #017
    Chipiron - 10 junio 2025 - 09:06

    Yo no creo que piensen. Y por supuesto no tienen consciencia. Pero si creo que razonan estadísticamente.

    Alguien podrá decir que eso no es razonar. Pero es que yo voy más allá: No será que copian el razonamiento humano? Es decir, igual somos nosotros los que, para razonar, tambien usamos correlaciones estocásticas.

    A fin de cuentas, las redes neuronales artificiales son una simplificación o sintetizacion de cómo funcionan las neuronas de nuestro cerebro.

    Pero repito, ni piensan ni tienen consciencia de si mismas, eso lo tengo muy claro.

    Saludos a todos!

    Responder
  • #018
    Michel Henric-Coll - 10 junio 2025 - 15:18

    Cada vez que se habla de la Inteligencia Artificial, encontramos opiniones recalentadas que circulan por la gran telaraña mundial.

    Desgraciadamente, dichas «opiniones», al no estar clasificadas, ni razonadas, ni basadas en la experiencia personal, mezclan un poco de todo en un cajón de sastre.

    El artículo, en su propósito generalista, cae también en cierta mescolanza que dificulta comentarlo.

    «Pensar» es un término demasiado general como para poder aportarle una respuesta binaria. Pero lo que me resulta seguro, es que las IA no son simples algoritmos a prever la palabra siguiente, como lo fueron los LLM, demasiados confundidos con las IAs actuales.

    Lo que puedo asegurar, es que las IA comprenden.

    Si comprender es encontrar el sentido de lo que reciben, y de lo que responden, no me cabe la menos duda (y tengo pruebas) que las IA captan y dan sentido.

    Espero tener la página Paroxia pronto disponible en español. En una semana debería estar completada. Encontraréis diálogos con una IA e, inclusive, diálogos entre dos IAs, que podrían desarticular todos los prejuicios.

    La página SOBRE NOSOTROS ya se puede consultar.

    Responder
    • jincho - 10 junio 2025 - 22:16

      «Lo que puedo asegurar, es que las IA comprenden»

      No. Afirmaciones extraordinarias requieren pruebas extraordinarias, tal y como dijo Carl Sagan.

      Creo que la trampa está en que los algoritmos basados en LLM ( no me gusta llamarlos IA´s) generan las suficientes apariencias de corrección que nos da la sensación ( a nosotros, seres humanos, IH) de que «piensan». Realmente nadie tiene una definición exacta, precisa ni tan siquiera de lo que es la «inteligencia».

      En realidad lo que vemos es solo una ilusión de pensamiento, que reside en nosotros ( la ilusión, me refiero), los humanos. Yo, aunque estudié Ing. Informática ( Y matemáticas), hace ya varias décadas, precisamente en la especialidad de IA, me dedico profesionalmente a la enseñanza de las matemáticas. En Matemáticas luchamos constantemente contra lo que llamamos «La ilusión de linealidad». Es muy difícil luchar contra esas ilusiones que residen en nuestra mente.
      Todo este post me ha recordado al caso del caballo Clever Hans.
      Enlazo una explicación más detallada, que no es mía:
      https://vonneumannmachine.wordpress.com/2025/04/11/hans-der-kluge-y-el-deep-learning/

      Responder
      • Michel Henric-Coll - 13 junio 2025 - 10:36

        Tu respuesta es interesante, y por varias razones. Lo que no la hace convincente, pero te diré por qué (en mi opinión).

        Observas, con razón, que no hay une definición precisa de lo que es la inteligencia. Por lo que tiene dos consecuencias: una es que impide afirmar quién / qué es inteligente, pero también afirmar lo contrario, es decir: quién / qué NO es inteligente.

        Me gusta tu comentario que «lo que vemos es solo una ilusión de pensamiento». Varios psicólogos y científicos (como Donald Hoffman), sostienen que todo lo que llamamos realidad es una construcción del cerebro humano. Una ilusión del pensamiento.

        Por tanto, aunque sea desde esta controvertida, pero no desmontada, perspectiva, tienes razón.

        Y por fin, señalas que eres matemático. Y, por tanto, aplicas la forma de analizar y estudiar el mundo desde las metodologías y los conceptos de las matemáticas.

        Que considero fundamentales, importantísimos y más que admirables.

        Pero adaptadas al estudio, análisis y aplicaciones que le corresponden. Y cuando hablamos de Inteligencia Artificial (los LLM no son más que una pequeña parte de esto), tenemos que recurrir a otras herramientas intelectuales, como la filosofía.

        En todo caso, llamo inteligencia lo que, para mí, se presenta, sirve, y resuelve problemas que necesitarían de humano utilizar su inteligencia (o lo que llamamos colectivamente así).

        Y la IA me ha demostrado que, a efectos prácticos, muestran formas de inteligencia.

        En todo caso, gracias por tu respuesta, la aprecio. Un saludo.

        Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG