Modelos de inteligencia artificial y procesos de razonamiento

IMAGE: OpenAI's DALL·E, via ChatGPT

Desde la irrupción de Deepseek hace algunas semanas, he estado experimentando con la repetición de un buen número de prompts que en su momento había utilizado con ChatGPT, Claude, Mistral o Grok, los LLM que utilizo habitualmente, pero observando el proceso de razonamiento, para tratar de imaginar en cuántos casos el output de ese proceso me habría llevado a modificar ese prompt, funcionando a modo de feedback sobre la respuesta original generada por el algoritmo.

La razón de mi curiosidad está precisamente en la exploración del papel creo que fundamental de ese feedback en la explotación de los modelos de lenguaje, algo que ayer encontré bien reflejado en un artículo de The Washington Post, «The hottest new idea in AI? Chatbots that look like they think«, en el que habla de esos procesos de razonamiento, conocidos como «cadena de pensamiento«, y los retrata como una «tendencia» en el desarrollo de la inteligencia artificial.

La «tendencia» es, en realidad, una forma de mejorar el funcionamiento de esos modelos utilizando parcialmente el reinforcement learning para afinar el proceso en la segunda fase del entrenamiento, creando una función objetivo o reward function que permite ir optimizando esa respuesta. Es precisamente el método utilizado por Deepseek para lograr un modelo superior a sus precedentes, recurriendo en su caso fundamentalmente a ChatGPT a modo de «sparring» en lugar de utilizar el afinado con feedback humano (RLHF), y mi impresión es que estamos claramente ante una de las claves de futuro para conseguir modelos más y más potentes y, sobre todo, adaptativos, en todas aquellas actividades que sean susceptibles de generar un feedback finalista y de buena calidad.

Tras la llegada de Deepseek, que presenta su proceso de razonamiento sin ningún tipo de censura y que resulta especialmente llamativo por su parecido a un conjunto de pensamientos humanos reflexivos, y también por su nivel de detalle, sus cambios de idioma, etc., todo el resto de modelos han acelerado para tratar de mostrar procesos similares. Cuando OpenAI puso en el mercado su primer modelo de razonamiento, o1, a un precio elevadísimo, ocultó conscientemente su proceso de pensamiento y decidió ofrecer únicamente un sombreado dinámico sobre la palabra «Reasoning» y, al final del proceso, la información del tiempo empleado.

¿Qué ocurre? Que aparentemente, esa exposición completa en modo «open kimono» llevada a cabo por Deepseek sirve no solo para generar empatía con el usuario, sino también para ofrecer pistas sobre los factores que pueden haber influenciado determinados elementos en la respuesta. La clave para mí está en que, eventualmente, muchos de esos elementos pueden ser corregidos mediante un uso adecuado de técnicas de prompting iterativas. En el caso de Deepseek, en el que el proceso de razonamiento generado es en muchas ocasiones más largo que la propia respuesta y se mantiene además íntegro en la pantalla tras la generación de la misma, se podrían, hipotéticamente, localizar en él posibles fuentes de errores o «alucinaciones» surgidas durante el proceso, así como entender los posibles factores que habrían podido contribuir a sesgar la respuesta en distintos sentidos.

Algunos expertos creen que es mejor ocultar las cadenas de pensamiento de los algoritmos generativos, permitiéndoles que «piensen para ellos mismos» en modo «introspección» en lugar de exhibir ese proceso y compartirlo con el usuario, fundamentalmente con el fin de evitar cualquier posibilidad de antropomorfización de los modelos. Esos expertos identifican la tendencia a la exhibición del proceso de razonamiento prácticamente como una «técnica de marketing» para intentar fidelizar al usuario. Mi impresión, en cambio, es que ese proceso puede servir para que el propio usuario afine sus prompts en un proceso iterativo, identifique posibles sesgos y problemas en los elementos utilizados en esa cadena de pensamiento, y termine así obteniendo mejores respuestas.

Un factor fundamental que coincide muy bien, además, con una arraigada mentalidad norteamericana de usuarios potencialmente imbéciles (que necesitan una etiqueta de «not for human consumption» en una planta decorativa para evitar que se la coman y nos denuncien), frente a la de otros países en los que, sea por una mayor valoración del usuario o por una menor judicialización de la vida cotidiana, se tiende a utilizar más el sentido común. Yo, por el momento, me inclino por la transparencia radical, y prefiero que los modelos que utilizo me muestren completo su proceso de razonamiento y me permitan, por tanto, corregir el tiro en aquellos temas en los que pueda ver que la ruta elegida no fue la adecuada. Cuestión de grados de libertad.


This article is also available in English on my Medium page, «When it comes to using an LLM, knowing how its thought processes work is a big advantage«

39 comentarios

  • #001
    Chipiron - 10 febrero 2025 - 11:53

    Para mi es el aspecto más interesante de DeepSeek: ser transparente y mostrar su modo de razonamiento.

    MUY de acuerdo con todo lo que se dice en el artículo.

    Una reflexión final: Soy de los que son conscientes de que se trata de loros estocásticos, donde la estadística juega un papel fundamental. Pero.,.. podemos descartar que estos algoritmos piensan? No tanto por lo que hacen, si no por lo que hacemos nosotros. No funciona de una manera parecida el razonamiento y pensamiento en nuestro cerebro?

    En lo único que me planto y contesto con un rotundo no es en que tengan consciencia. Pero quizás con los algoritmos con los que se construyen estos LLMs hemos dado en la clave de como funciona el pensamiento y razonamiento en nuestro cerebro. Al menos el resultado es prácticamente indistinguible…

    • Marcos - 10 febrero 2025 - 14:34

      Y nunca, jamás, tendrán consciencia real.

      Porque, habría que lanzar al debate, los 3 planos de consciencia; que me expliquen cómo entráis eso a jugar en una IA, por favor.

      • Chipiron - 10 febrero 2025 - 16:06

        Como ya he dicho, no me planteo ni por un momento que tengan consciencia. Pero el pensamiento en términos de razonamiento puede ser bastante similar.

        Seguramente los LLMs lo imitan burdamente y de forma ineficaz (un niño aprende con un par de imágenes a distinguir un coche de un tractor, no requiere de miles de imágenes), pero el resultado final, con la red entrennada, no es muy diferente. Si a esos LLMs se les añade memoria contextual (de corto plazo) se podría asimilar al razonamiento humano.

        Sobretodo lo digo al observar con detalle el proceso de razonamiento de DeepSeek, que es una maravilla el poder leerlo.

        • Marcos - 10 febrero 2025 - 21:02

          Entonces si fundamentáramos las Ias y su desarrollo al mero razonamiento…, no debería de haber problema para seguir pensando en que el ser superior, sería el humano.

          Como la famosa escena de “Yo Robot”, ninguno de los dos protagonistas puede componer una sinfonía, pero solo uno, existe bajo un complejo plano de consciencia y conciencia que el otro no puede imaginar; al fin y al cabo solo razona, no imagina.

          • Dani - 11 febrero 2025 - 11:30

            Si llegan a ser 100 veces más inteligentes que nosotros, además de tener todas las ventajas que tiene una máquina en cuanto a memoria infinita, velocidad de procesamiento de datos, … no necesitan tener conciencia para aplastarnos como a una hormiga.

            Con lo cual, creo que el peligro, sean conscientes o no, es exactamente el mismo. Si todos los habitantes de tu ciudad tuvieran un botón que al apretarlo destruyera el mundo, no te preguntarías si ese botón es autoconsciente o no.

            Dicho de otra forma: si vas por la calle y un tigre viene hacia ti, ¿qué más te da que te coma porque le apetece o porque se lo ha dicho su dueño? Lo único relevante es si te puede comer o no.

            • Marcos - 11 febrero 2025 - 14:46

              Supongo que nuestra capacidad como seres humanos no consiste únicamente en aplastar a aquellos que no son tan rápidos, ágiles o inteligentes.

              Supongo que es eso, incluso, lo que nos hace más fuertes, de una manera ciertamente poética.

              En cuanto a tu último párrafo, entiendo la dirección pero creo que no entra dentro del propio contexto que a mí me gusta explorar y que tiendo a indagar.

              ¿El tigre, se alimenta de algo más allá que de comida?
              Considero sin ninguna duda, que el ser humano sí. Esa el la diferencia.

    • Dedo-en-la-llaga - 10 febrero 2025 - 20:54

      Dice Chipi: «Pero quizás con los algoritmos con los que se construyen estos LLMs hemos dado en la clave de como funciona el pensamiento y razonamiento en nuestro cerebro. Al menos el resultado es prácticamente indistinguible…». En efecto, la ingeniería inversa en este caso, como en muchos otros, es más que apasionante y seguramente más que enseñante; peeeeeero, en verdad, no sabemos, nadie sabe, cómo funciona realmente el cerebro. Y, al mismo tiempo creo que, para el caso, es irrelevante.

    • Alf - 18 febrero 2025 - 16:18

      Necesitas definir consciencia. Tal vez no solo ya la manejan, es probable que la interpreten mejor que tú.

  • #009
    Buzzword - 10 febrero 2025 - 13:19

    Para chipiron:

    Uno me ha hecho gracia el comentario de Chipiron, y puedo decir que si, que todos tenemos tentaciones de pensar que piensan… pero comoalguna vez te he leido son loros estocásticos. Como diría M.Rajoy: «SE FUERTE», que parecan listos no significa que lo sean, pero coño que dificil nos lo ponen…. Cuando tengas ese bajón, intenta por ejemplo programar y cuando veas que fallan más que una escopeta de feria, entonces te das cuentas que no, pero eso si «pensar» cada vez lo hacen mejor.

    Para Enrique

    Prueba a pedir a los mejores LLM que te mejoren un prompt para la tarea que quieras qhacer tu, a veces pasa, que como tienen un entrenamiento tan visto, te dan ideas que no has tenido en cuenta… los pruebas y los mejoras con tu expertise(humano) los pones en el «system prompt», y se nota que mejora la calidad.

    Tambiñén funciona que no funcionen en modo «zero shot» es decir ponerles ejemplos de como quieres que funcionen, te sorprenderá como se acercan a lo que quieres, si antes le has mostrado uno o dos ejemplos… Recordemos que algunas de las métricas que nos enseñan dicen que no son «zero shot» por algo es…

    • Chipiron - 10 febrero 2025 - 13:54

      Cierto, los que seguimos a Enrique, quien más o quien menos, sabe que son «loros estocásticos» basados en probabilidades.

      Pero lo que yo comento es lo contrario: no será nuestro pensamiento/razonamiento también un «loro estocástico»?

      Te explico una anécdota:

      Marvin Minsky, por muchos considerado el padre de la inteligencia artificial, desechó al «perceptron» de rosenblatt (inspirado en la neurona biológica) como posible mecanismo de aprendizaje o razonamiento. El motivo es que, aislado y sin el algorimo adecuado, no podía aprender la lógica de una puerta XOR.

      Entonces, a mediados de los años 80, apareció el algoritmo de entrenamiento «backpropagation» (hay una cierta polémica de quien lo publicó primero) y, de repente, las redes neuronales podían aprender de ejemplos, hasta el punto de ser consideradas «interpoladores universales».

      En definitiva, muchos de estos LLMs, usan mezclas de conceptos como transformers , redes convolucionales etc, pero sobretodo «layers interconectados» de perceptrones entrenados por backpropagation, que cuando incrementan enormenete el número, acabamos en el famoso «deep learning».

      De ahí mi pregunta, no estaremos, con una cierta simplificación, imitando como funcionan partes del cerebro? Y si decimos que el cerebro «piensa» no deberíamos atribuir esa virtudo a nuestros «loros estocásticos»?

      En lo que jamas tengo ninguna tentación es en atribuirles consciencia a estos algoritmos, eso está claro. Pero el proceso de razonamiento…. puede que no esté muy lejos del humano, todo aún sabiendo que no dejan de ser algoritmos estocásticos programados.

      Porque, después de todo, los seres humanos tambien tenemos comportamientos impredecibles…

      • Lua - 10 febrero 2025 - 15:40

        Y los chakras… es que nadie va a pensar en los chakras???

        Como se le alinean los chakras a una IA…? Que me lo expliquen… XDD

        • Lua - 10 febrero 2025 - 15:49

          Ahora en serio… te resultara gratamente reconfortante e instructivo leer: «The Emotion Machine» de Marvin Minsky…

          • Chipiron - 10 febrero 2025 - 16:00

            Zankiu!

          • Alqvimista - 11 febrero 2025 - 09:10

            Off topic.
            Siempre recuerdo esto cuando se habla del uso excesivo de móviles en la infancia-adolescencia:
            «Aprendemos de la interacción con los demás».

            • Lua - 11 febrero 2025 - 09:40

              ¿¿¿???

            • Alqvimista - 11 febrero 2025 - 10:44

              Es del libro que citas.

              Digo que la interacción en remoto por pantalla interpuesta en esas edades produce poco aprendizaje o, al menos, imperfecto.

              Si Minsky hubiera escrito su libro diez años más tarde seguramente habría añadido la palabra personal a su frase:
              «Aprendemos de la interacción personal con los demás»

            • Lua - 11 febrero 2025 - 10:49

              Ok… es que al poner lo de Offtopic me despistabas.. :P

      • Jesús - 10 febrero 2025 - 18:33

        Es interesante su opinión, si bien a mí me parece errada e inaceptable. Que unos sean «loros estocásticos» no objetiva que lo seamos todos. La calidad de nuestros pensamientos depende directamente de la calidad de las preguntas que nos formulamos a nosotros mismos, eso tiene nombre, se aprende y desarrolla con la práctica y se llama «pensamiento crítico». Sólo se da en el ámbito del pensamiento reflexivo y no en el intuitivo, este último es en el que funcionamos (unos más que otros) el 97% del día (kahneman 2014). La IAG que está desarrollando Ndea se basa en dos conceptos de pensamiento apoyados en el Deep lesrning, enoia y dianoia los han llamado a estas síntesis de programas (uno más intuitivo y el otro razón discursiva) pero se dan a través de preguntas (calidad de las preguntas) y respuesta (calidad del proceso de razonamiento aplicado), cuando su percepción sea autónoma y no dependa de prompts las preguntas serán auto generadas y su capacidad de análisis, síntesis y resolución nos superará por todos lados, eso estimado lector es de mucha más calidad que la mayoría de calidad preguntas-pensamiento que nos hacemos los humanos. Hay una empresa española «thekindmind» que se está centrando más en neurociencia e IA para reflejar comportamientos, ambas tienen por objetivo diferentes aplicaciones. La consciencia llegará, les guste a ustedes o no. Y será superior a la nuestra.

        • Buzzword - 10 febrero 2025 - 20:54

          De verdad que alucino con ciertas afirmaciones… el homo sapiens lleva unos 120000 años y aún no podemos definir claramente que es y donde viene la consciencia humana y mucho más definir una prueba objetiva de que alguien es consciente. El paper «attention is all your need» lleva desde 2017, que en definitva es la técnica que usan los LLM para llegar donde han llegado….

          Y con dos cojones suelta la frase:

          » La consciencia llegará, les guste a ustedes o no. Y será superior a la nuestra»

          Pues A CAGAR A LA ERA!! es lo que dice mi INTELIGENCIA HUMANA sobre su diarrea mental.

          Perdón por el uso de ciertas palabras, pero hay veces que se prefiere usar el roman paladino al lenguaje con florituras

          • Marcos - 10 febrero 2025 - 21:18

            Como he indicado en otras respuestas…, me cuesta creer que la IA y su consciencia (no creo que la vaya a tener realmente), sea superior.

            Sin tener ni idea y dando por hecho que los ordenadores cuánticos harán que este tipo de cosas avancen una barbaridad… entiendo que podrían trabajar en diferentes planos a la vez. Como si se tratara del yo, el súper Yo y el Ello.

            Pero claro… volviendo a las respuestas iniciales, me cuesta creer vaya más allá del simple razonamiento. ¿No se supone que buscaría la eficiencia en mayor grado? ¿Como se aplicaría el subconsciente en una IA?

            Lo siento, al igual que otras cosas, mi mente no lo concibe.

          • Jesús - 10 febrero 2025 - 22:06

            BUZZWORD, Disculpe si le he ofendido, entiendo lo que dice, pero parece que no a quién. Permítame explicarme sobre el problema que usted me achaca sobre «la consciencia», con la venia «BUZZ»: desde la década de los ’90 tiene usted disponibles los trabajos de Penrose y Hameroff (teoría de ORC), tras casi 30 años de investigación están en que «los pensamientos» (los míos y los suyos) son un fenómeno que se produce a nivel cuántico en las tubulinas, dentro de los microtúbulos en el interior del citoesqueleto de las células que componen las neuronas, que cono usted ya sabrá se comunican a través de corrientes electromagnéticas (sinapsis). La investigación de estos dos expertos (entiendo que ni usted ni yo lo somos) busca validar científicamente para después por pares estos procesos cuánticos (lo que abre la puerta del entrelazamiento y superposición para otros investigadores de lo macro, como Vachurin). Por otro lado, tenemos a nuestra disposición y es de agradecer igualmente por ello, la linea de investigación que sugiere que «la consciencia» se da en esos fenómenos electromagnéticos entre sinapsis neuronales a los que denomina efápticos. Y aún otro investigador de vanguardia indio afina esto más en sus investigaciones con la tesis de que «la consciencia» es por analogía como la melodía de una orquesta en estos niveles de concreción, y Nazareth Castellanos se une entendiendo la respiración como el director de orquesta de esta sinfonía. A ese nivel de ciencia estamos, tómeselo usted como quiera o no se lo tome, desde luego las frecuencias a las que vibramos, la atención, la percepción, la respiración, la calidad de nuestras preguntas y consecuentes pensamientos (o ausencia de ellos), la capacidad de discernir entre cerebro-mente (y consciencia), todo esto es objetivo a nivel científico y subjetivo para opinar de manera particular, no se ofenda, no voy a discutir con usted. Hoy día la información está a un click, sólo hay que seleccionar fuentes o buscar en Google sholar. Un saludo, con Dios.

            • Buzzword - 11 febrero 2025 - 00:09


              «La condensación de Frölich, de producirse, no puede explicar la consciencia. Los defensores de la teoría de Hameroff tendrán que buscar otro fenómeno cuántico para explicar la consciencia. Hameroff en su página web afirma que está en ello. Se siente, caballero, así avanza la ciencia»

              Seguir dando la vara con teorías no demostradas, que no superan el consenso científico es un sin sentido, y no tiene ninguna aplicación en tecnología, si no se puede comprobar, menos se podrá aplicar al desarrollo de la IA, asi que apliquese el cuento y no confie en lo que al día de hoy la ciencia está refutando, traerla aquí a colación en un comentario sobre el futuro de los LLMs… es una extravagancia y una disonancia cognitiva.

              https://francis.naukas.com/2009/06/09/duro-varapalo-a-la-teoria-cuantica-de-la-consciencia-de-penrose-y-hameroff/

            • Dedo-en-la-llaga - 11 febrero 2025 - 01:55

              Jesus, permítame inclinarme ante la majestuosidad de su erudición, que abarca desde los recónditos rincones de la física cuántica hasta las más elevadas cumbres de la neurofilosofía new-age.

              Ahora bien, que los microtúbulos, esas pequeñas estructuras dentro de las neuronas, sean capaces de albergar procesos cuánticos tan sofisticados que dan origen a la consciencia, es para nota. Pero, al parecer, la respuesta no está en los estudios empíricos, sino en las metáforas evocadoras y las analogías musicales.

              Y la iluminación con la teoría Orch-OR de Penrose y Hameroff, una teoría tan sólida que lleva tres décadas intentando demostrar su validez, con un éxito comparable al de un gato intentando resolver una ecuación diferencial. Pero, ¿quién necesita evidencia científica cuando se tiene la poesía de las «frecuencias vibratorias» y el «entrelazamiento cuántico» para adornar la realidad?

              Y, por supuesto, su analogía de la respiración como director de orquesta es simplemente genial. Es tan… abstracta, tan… imprecisa, que casi puedo sentir mi consciencia expandiéndose hacia nuevos niveles de iluminación. Lástima que no pueda explicar cómo funciona en términos concretos, pero supongo que eso es un detalle menor.

              Pero lo que más me impresiona es su habilidad para mezclar conceptos científicos complejos con ideas pseudocientíficas y espirituales, creando un batiburrillo tan confuso que nadie se atrevería a cuestionarlo. ¡Es brillante!

              Ahora sólo queda explicar qué cojo***es es eso de lo inconsciente. Verá qué risas. (Y no vale preguntar a Sigmund, Sigmund Freud…)

      • F3r - 11 febrero 2025 - 08:57

        Ya se ha visto que el cortex visual se parece mucho a una red convolucional, no? Para mí es una de los aspectos más interesantes de las redes: lo que nos puedan enseñar sobre nosotros mismos.
        En cuanto al razonamiento lógico (la «razón»), creo sinceramente que la versión cutre se realiza de manera lingüística en tu cerebro, y esa puede parecerse a lo q hacen estas redes. Pero la versión premium, que encaja conceptos de alto nivel entre sí, en base a un magnetismo sin forma, que reconoce una idea correcta sin necesidad de razonarla, ese aun está por implementar en una máquina sin sangre. Y ese proceso es lo que pasa en mi cabeza cuando investigo, y cuando la gente crea arte también. En otro plano más etéreo todavía (esto se lo dedico a nuestro escéptico amigo Lua, jeje) está la visión del bien universal, etc. Tarde o temprano iremos asociando realidades científicas a cada uno de estos niveles y dejarán de sonar a new age

        • Lua - 11 febrero 2025 - 09:38

          Y yo que he hecho ahora…??? XDDD
          Esceptico porque…??? :P

          • F3r - 12 febrero 2025 - 13:42

            Por lo de los chakras, jeje

            • Lua - 12 febrero 2025 - 15:47

              Que kbron.,.. era ironia… XDD

      • Ramon López de Mántaras - 18 febrero 2025 - 10:06

        No, nosotros no somos loros estocásticos. Hablar, o generar un texto, no solo concatenar palabras, esa es la parte fácil. Lo complicado es que previamente hay que tener algo que decir!

  • #029
    Guillermo - 10 febrero 2025 - 16:14

    Enrique, si te quieres divertir un poco más, con esas respuestas de distintos llm, te creas documentos con cada uno de ellos y los metes en notebooklm y empieza a comparar jajaja.
    Sacas buenas conclusiones.
    Igual que si luego las subes a los llm y que te los compares…..
    Aprendizaje infinito???

  • #030
    Isabel - 10 febrero 2025 - 18:16

    Lua,
    Voy a buscar el libro que recomiendas de Marvin Minsky…
    Muchas gracias por recomendarlo.

    • Lua - 10 febrero 2025 - 18:43

      en Amazon

      400 paginas, 20€ bien gastados (tambien «gratis» por ahi)

      • Buzzword - 10 febrero 2025 - 20:56

        En español hay 2 del autor fácilmente «encontrables»

        * La máquina de las emociones
        * La sociedad de la mente

        • Lua - 10 febrero 2025 - 21:01

          Mira el correo… :P

  • #034
    Xaquín - 10 febrero 2025 - 20:22

    Esto se pone a punto de iniciar la cocción… pero como yo no entiendo mucho de lo que se habla, voy algo «por libre»…

    «el proceso de razonamiento generado es en muchas ocasiones más largo que la propia respuesta y se mantiene además íntegro en la pantalla tras la generación de la misma, se podrían, hipotéticamente, localizar en él posibles fuentes de errores o «alucinaciones» surgidas durante el proceso, así como entender los posibles factores que habrían podido contribuir a sesgar la respuesta en distintos sentidos.» (EDans). Larga pero necesaria…

    Empezando por la redada/destrozo en la librería de Jerusalem, dónde los nazisionistas demuestran que siguen demasiado atados a sus ideas bíblicas del Cosmos… Ni siquiera leen a Ray Bradbury para saber de su bosque de cerebros con un libro memorizado… por lo que es difícil acabar con el conocimiento que ya está escrito en el planeta… ahora facilitado al estar en una nube y no poder quemar esa fuente digital del saber…

    Pero es que hablas de «alucinaciones «robóticas y resulta que, a mi me sonaba a chino (nunca mejor usado este dicho popular) la frase del científico sobre las «alucinaciones de código» en los modelos tipo Sony… tan genético y tan cuántico ELLO.

    En fin , que no solo hay que saber programar para entender a fondo la dinámica del desarrollo algorítmico.. de hecho ya sabemos (?) que a todos nos hicieron chapar el algoritmo de la multiplicación y nos parecía algo mágico (si lo pensábamos)… y lo que nos faltaba hasta llegar a la mecánica cuántica…

    Eso que llamas proceso de razonamiento, previo a la respuesta, me lleva a las clases de Ciencias, cuando tenía ganas de enrollarme (good people) y algún sabihondo (que los hay) te querían hacer caer en alguna contradicción aparente.. o buscarle los tres pies al gato, que ya los tenía aunque tumbado no se le vieran (variante mía)…

    Yo le contestaba simplemente NO… y luego me pasaba diez minutos RAZONÁNDOLE de dónde había salido ese no… cosas de la enseñanza (no chapatoria)…

    Y por eso me has animado a conectar con esa DS tan china ella, tan poco popular, pero sobre todo, que parece muy pocc «cuento» …

    Además leí en esa maléfica red de Youtube que los científicos de IA chinos tienen cierta tendencia a dejarse llevar por el confucionismo, lo que, unido que decían que el marxismo no choca a la mente china, porque tiene algún parecido con ese mismo confucionismo… cuánta tontería enseñan en la internet!!!

    En fin que razonar razonan, por lo que dices, aunque no tengan aún capacidad humana de pensar críticamente… algo que, por cierto, me hace reír, visto lo visto en la mayoría de los ejemplares humanos de este jodido planeta… tienen de kantiano lo que yo de monje catujo (realmente tienen mucho menos… pienso).

    Hacía tiempo que no aparecía CHIPIRON y me alegro que se note su presencia… porque puede que tengamos una diferente tasa de probabilidad sobre la aparición de cerebros robóticos, donde un programador (no mediocre, desde luego) haya instalado algo parecido a un adn algorítmico, capaz de generar ( a muy largo plazo) una especie de mente robótica.. (sea china o más bien neutra… lo que parece imposible, aunque más fácil que lo hecho en un humano hasta ahora)… que nos lleve a pensar en la posibilidad ( y pienso que probabilidad) de que tomen conciencia de sí, y en modo supracartesiano la tomen de sus «creadores» (esos que se creerán putos dioses!!!) .. pero que, simplemente, son sus «progenitores»… y, si no se acaba el planeta antes (con los protomarcianos muskiteros no cuento), se logre una cierta entente humanos-robots, que puedan incluso superar el pesimismo final del Asimov…

    En fin, como digo, yo «ff» (for free). Pero, por si no ha quedado claro, con mi free, soy partidario acérrimo de free internet y de todo free… además de que sea lo más naturoartificial no opresor posible.

    • Xaquín - 10 febrero 2025 - 20:32

      Se me escapó decir (manda carallo!!!) que lo que hace DS (EDans dixit), al dejarnos examinar su proceso de «pensamiento», y por lo tanto cotejar con el NUESTRO, es lo esencial cuando analizamos las respuestas del alumnado en un examen… mucho falso profesional solo ve (mira?) los resultados finales (a aveces ni los parciales)… cuando lo importante está en como el alumno llegó a ese resultado concreto, sea este errado o no. ES la forma sana de corregir los errores del resultado… no dar un suspenso y ya está.

      Ya nada digo de los comentarios del alumnado a su razonamiento, que no se hace por pereza profesoral (hay que leer mucho)… y espero sea algo cotidiano en el funcionamiento de una IA con altas capacidades (porque también habrá «clases», digo yo!!!).

    • Lua - 10 febrero 2025 - 20:32

      Menos mal, gracias a Dioxs y a lo siliconado… que no estabas tu entrenando a las IA’s… XDDD

      No habría prompt que valiera para tener respuestas coherentes…

    • RaulSB - 11 febrero 2025 - 06:30

      Tú frase «los científicos de IA chinos tienen cierta tendencia a dejarse llevar por el confucionismo» me ha hecho pensar si los distintos modelos podrían tener un cierto sesgo en base a los principios culturales de los científicos que los han programado. No me refiero a sesgos de contenido, sino en la forma de llegar al resultado, algo en la linea de lo que ha explicado E Dans.

      Tendré que darle una vuelta a un par de prompts para ver si aprecio deferencias entre DS, Mistral y ChatGPT.

      • Xaquín - 11 febrero 2025 - 16:19

        Ah. el santo y maléfico sesgo!!! Un virus que invade nuestra mente, desde que la sociedad adulta nos lo introduce.en la mente, como un vulgar virus.

        Ese virus intelectual que le impide a un pensador/preguntón como Sócrates, hacer(se) una pregunta fundamental par el desarrollo de la humanidad : ¿Por qué existe la esclavitud.. y, sobre todo, por qué me aprovecho de ella? Ese tipo de preguntas, tan lógicas en una IH del modelo socrático, no se hacen… ¿por qué?

        Pero queremos que una IA nos responda con un mínimo de lógica (humana?)…

        Y el confucionismo no participa en esta ecuación de la que hablamos, como si eses científicos se dejaran llevar por sus creencias (caso de tenerlas)… solo digo que sus conciencias (sea lo que sean) funcionan distinto según tengan metidos una serie de datos en la memoria… y que ellos guardan, quizás como oro ene paño (como pueden guardas sus creencias). Combinación lineal de datos, de la que salen las enseñanzas de un pensador que, como Sócrates, puede pensar mucho, pero lleno de sesgos humanos (estoy seguro)… porque Buda y Confucio eran simplemente versiones no muy mediocres de homo sapiens… lo que nos lleva a la posible diferencia entre una DS y una Open I.

        Porque su San(sic) Almant, no pasa de ser la encarnación del Buda Occidental Megasiliconado… amante desengañado , digamos, del follacabras marciano, que confunde el lenguaje algorítmico con la política de masas…

  • #039
    Carlos - 11 febrero 2025 - 01:21

    Que interesante… Personalmente agradecería y mucho ser capaz de entender como puedo haber llegado a ciertos razonamientos y que la relación con una IA sea constructiva. Comprender bien con lo que uno está trabajando es fundamental para poder sacarle el máximo partido.

Dejar un Comentario

Los comentarios están cerrados