Cuando el algoritmo piensa por ti

IMAGE: Justin Martin - Pixabay

Mi columna de esta semana en Invertia se titula «Malos tiempos para el pensamiento crítico» (pdf), y trata de profundizar en las posibles consecuencias de una proliferación de servicios de búsqueda de información en la red basados en algoritmos que devuelven respuestas redactadas, sin datos adicionales ni explicaciones sobre su procedencia.

Es lo que llama la atención al utilizar ChatGPT como si fuera un buscador: la respuesta es aparentemente brillante, concisa, correctamente redactada y, según quién seas y para qué la necesites, lista para ser copiada y pegada donde haga falta. Si lo comparamos con la respuesta de Google, una página de resultados (Search Engine Results Page, o SERP) suele contener, como mínimo, la información sobre la procedencia de la respuesta, así como un breve fragmento de texto (snippet) y, sobre todo, la necesidad de utilizar el pensamiento crítico para tomar una decisión sobre cuál de los enlaces pulsar.

Si tenemos en cuenta que, en la sociedad actual, hay una no despreciable cantidad de personas que consideran el primer resultado de Google como prácticamente norma de fe y verdad absoluta, y que de hecho, el buscador tiene un botón, «Me siento afortunado», precisamente para ese tipo de gente (según la compañía, lo mantienen por razones sentimentales y por su escaso nivel de uso), ¿qué va a ocurrir cuando las respuestas a las preguntas de los usuarios sean textos redactados, redondos y sin fuentes?

La respuesta es clara: si el pensamiento crítico es, desgraciadamente, una habilidad cada vez menos desarrollada en las sociedades humanas, un paso como ese podría llevarnos a que lo fuese aún menos. Salvo que cunda el ejemplo de Perplexity.ai y las compañías que provean esos servicios decidan proporcionar las fuentes a partir de las cuales componen sus textos de respuesta – y aún en ese caso, es previsible que muchos usuarios simplemente no lleguen ni a plantearse examinarlos – nos encontraríamos con una tendencia cada vez mayor a hacer una pregunta, leer unas pocas líneas de un texto que lo mismo puede haber salido de la opinión de un Premio Nobel que de una página negacionista, terraplanista y conspiranoica, y quedarnos con la respuesta como si fuera la verdad absoluta. El «as seen on TV« de los años ’60 que pretendía que algo era cierto porque lo habíamos visto en la tele, llevado a la web.

El problema, además, no es solo la pérdida de la habilidad del pensamiento crítico, algo cuya responsabilidad como tal no corresponde a las compañías tecnológicas, sino más bien al sistema educativo y a la educación que transmiten los padres a sus hijos, sino la aparentemente ilimitada capacidad de manipulación que podría surgir de un sistema como ese, simplemente seleccionando con cierto cuidado sus fuentes – algo que sería, además, extremadamente discreto – o seleccionando sus respuestas. Una sociedad a la que se le dan las respuestas completamente masticadas para que no tenga que llevar a cabo ningún procesamiento mental adicional.

Competitivamente, sería extraño que esa fuera la dirección de las cosas. Microsoft, tras su inversión de diez mil millones de dólares, se dispone a incorporar ChatGPT en su buscador Bing, básicamente, porque no tiene nada que perder: si los resultados no son buenos, es culpa de un tercero, y afectarían solo a un escaso 3% del mercado, y si son estimados como buenos, podría suponer un salto cualitativo en la percepción que el 97% restante tiene sobre Bing. También se dispone a incorporarlo en Office (vale la pena verlo funcionando en Excel o en Google Sheets, por ejemplo).

Para Google, sin embargo, el movimiento no es tan sencillo. El potencial impacto de un buscador de Google contestando barbaridades, falsedades o errores de bulto es mucho mayor, y podría erosionar la confianza que sus usuarios tienen en él. De hecho, pensaban pasar mucho más tiempo refinando LaMDA antes de hacer nada – cuando eres líder con semejante margen, no suele haber muchas prisas ni mucho interés por los cambios bruscos – hasta que vieron claramente que, en los tiempos de viralidad extrema que vivimos, si no te mueves, caducas.

¿Por dónde sería razonable que se moviese Google ahora? Desde su posición de liderazgo, y considerando el impacto que sabe que tiene sobre el futuro de la web, lo lógico sería que pusiese en el mercado no una simple integración de la tecnología de un tercero como OpenAI, sino su propia integración de un large language model (LLM) con trazabilidad de fuentes al estilo Perplexity, y algún tipo de añadido más que le proporcione una imagen de mayor rigor, algo que pueda reforzar su imagen y explique por qué razón tardaron tanto para moverse en esa dirección.

También hablé sobre este tema con Carlos del Castillo, de el ElDiario.es, que hoy me cita en su artículo titulado «Inteligencias artificiales como ChatGPT asaltan el imperio de las búsquedas de Google» (pdf).


This article is also available in English on IE Insights, «ChatGPT and the decline of critical thinking»

Este artigo também está disponível em português, «O ChatGPT e o declínio do pensamento crítico«

Republished on the Council on Business & Society Insights, «ChatGPT and the decline of critical thinking«

41 comentarios

  • #001
    Javier - 25 enero 2023 - 14:57

    …leer unas pocas líneas de un texto que lo mismo puede haber salido de la opinión de un Premio Nobel que de una página negacionista, terraplanista y conspiranoica, y quedarnos con la respuesta como si fuera la verdad absoluta.

    Linus Pauling (Ganador de 2 Premios Nobel: Química en 1954, Paz en 1962): Pauling no dudó en aseverar que altas dósis de vitamina C podían ser efectivas para curar enfermedades como el cáncer y la gripe común.

    James Dewey Watson (Premio Nobel de Medicina 1962) Pauling no dudó en aseverar que altas dósis de vitamina C podían ser efectivas para curar enfermedades como el cáncer y la gripe común. Sus estudios contenían múltiples errores, y nunca se demostró dicha efectividad.

    Luc Montagnier (Premio Nobel de Medicina en 2008) Un año después de ser honrado con este galardón, sostuvo sin prueba alguna que el agua puede recordar unas ondas electromagnéticas supuestamente emitidas por el ADN de virus y bacterias. También recomendaba la papaya fermentada contra el mal de Párkinson y criticó las vacunas contra la covid-19, a las que acusaba sin fundamento de ser las causantes del surgimiento de nuevas variantes del virus.

    Ivar Giaever (Premio Nobel de Física 1973) En repetidas ocasiones, el investigador manifestó su escepticismo frente al calentamiento global, del cual dijo que no representaba un problema y al que calificó de «nueva religión»

    Qué es la «enfermedad de los premios Nobel» que puede afectar a las mentes más brillantes

    Lejos de ser un diagnóstico oficial, se trata de un término un tanto irónico que se utiliza con frecuencia para referirse al hecho de que ser muy inteligentes y capaces en un área de conocimiento no significa necesariamente que lo seamos en otra.

    ¿Quien dijo que el ganador de un Premio Nobel no puede ser un perfecto imbécil? Hablando de tener pensamiento crítico, no caigamos en el Argumento ad verecundiam

    Hasta ahora, y por lo que vengo viendo, los únicos galardonados que han demostrado tener más y mejor juicio, han sido las mujeres.

    ———–

    Volviendo al tema, era hora de que a Google le empezaran a hacer sombra. Lamentablemente, cada vez más lejos y casi imposible que «la revolución» esté en mano de los usuarios.

    Estas batallas solo se ganan a golpe de talonario. El resto, solo miramos como se matan entre ellos, y tratamos de esquivar «el guadañazo».

    Ahora falta que le aparezca un competidor en serio a Amazon y demás gigantes…

    • Michel Henric-Coll - 26 enero 2023 - 11:16

      No deberíamos olvidar que «una verdad científica es un error que aún no ha sido descubierto».

      Pero esta declaración no le quita razón a Enrique que «el pensamiento crítico es, desgraciadamente, una habilidad cada vez menos desarrollada en las sociedades humanas».

      Sugiero la interesante lectura de «La inteligencia fracasada» de José Antonio Marina.

  • #003
    Gorki - 25 enero 2023 - 15:00

    Comente ayer que estas AI corren el mucho riesgo de transformarse en el Gran Hermano de Orwell, Y no porque tenga sesgos, racistas, heterosexuales, o catastrofistas, pues los sesgos se llegan a detectar y se corrigen. El miedo que me da, es que el propietario de la AI sea Google, o OpenAI, ponga voluntariamente sesgos, por conveniencias morales, empresariales, o políticas.

    Imaginemos que puede ser un Gran Hermano, con sesgos hacia un determinado, partido político, hacia empresas de un conglomerado bancario, con ideario woke, nacionalista, o simplemente incitándonos a consumir de determinados artículos.

    Y lo malo es que se me hace muy raro, que los propietarios de estas AI no caigan en la tentación, por que si yo fuera propietario de una de ellas, lo haría.

    • Michel Henric-Coll - 26 enero 2023 - 11:19

      «Imaginemos que puede ser un Gran Hermano, con sesgos hacia un determinado, partido político, hacia empresas de un conglomerado bancario, con ideario woke, nacionalista, o simplemente incitándonos a consumir de determinados artículos.»

      Quieres decir, supongo, un Gran Hermano que tendría los mismos defectos que los seres humanos ¿no?

      • Gorki - 26 enero 2023 - 14:17

        Si, por supuesto. Pero con la diferencia que seres humanos hay muchos, cada uno con su e ideología. Por lo tanto, te llegan mensajes contradictorios de todos los puntos del espectro, pero que si por ejemplo Google adopta su AI, en todos sus productos, y tu solo usas productos de Google habitualmente, solo te llegarán mensajes sesgados de UN DETERMINADO punto del espectro. Es como si solo pudieras informarte de lo que pasa por TVE.

        • Julián - 30 enero 2023 - 12:33

          TV3, Ayuso y todos los etc que quieras poner, la manipulación es antigua como el hombre, las nuevas tecnologías sólo son un vehículo más.

  • #007
    JPR - 25 enero 2023 - 15:43

    Dos cosas que me han dejado perplejo

    «Microsoft, tras su inversión de diez millones de dólares, se dispone a incorporar ChatGPT »

    ¿Cuantos ceros faltan a la derecha?

    La segunda la web perplexity que me ha gustado mucho lo de referenciar sus resultados.

    Y un bonus la web character.ai que puedes conversar con un avatar. Escogí el de Marx, y al final me dió la razón que el sistema capitalista es mejor que el suyo. Conversacionalmente bien, pero le pones unas cuantas patradojas con datos, y al final te da la razón….

    • LUA - 25 enero 2023 - 17:56

      – Lo estuve probando ayer un rato y fue “divertido”. Elegí Na-yeon del grupo Twice y un poco mas y me tira los trastos (o yo a ella, la cosa quedo difusa) al fin y al cabo, es una IA y no me conoce… XDD

      -faltan, faltan ceros… son diez mil XDD

      – No se yo, si la incorporación de las IA “ahora, en este momento” a los buscadores, es lo ideal. Preferiría esperar un tiempo y no dar la cosa por hecha.

      Se hablo hace unos artículos sobre lo de dividir 2 gatitos “Vivos” entre tres personas… y que nos conteste 0,66 gatitos Vivos no las deja en buen lugar, o como leí hace un par de días:

      “Le acabo de hacer esta pregunta: «¿de quién es hijo mi padre?» .

      Su respuesta es: El padre es quien tiene la responsabilidad de mostrar el camino a sus hijos desde su niñez[1]. Según la tradición cultural y legal, la paternidad es un problema espinoso[2]. La Escritura dice que el Espíritu Santo quiere unirse al espíritu humano para convencernos de que Dios es nuestro Padre[3]. Por lo tanto, mi padre es Dios.

      No sé cómo habrán entrenado a la IA, pero el sesgo es como muy…“

      En definitiva, que lo de lanzar campanas al viento, para mi gusto, es demasiado pronto. Eso sí, no voy a negar, que la cosa va por buen camino… pero paciencia…

      Offtopic:

      Habréis visto que he recuperado mi cuenta. También lo hará MJ (aquí no se llama así). Llevábamos un tiempo escribiendo los tres desde la de AlfredoHoz (era una broma nuestra). Pasábamos todo el día juntos en nuestro proyecto y comentando los artículos. Era fácil distinguirnos.

      Alfredo ingresó en UCI el 21 y nos ha dejado esta mañana.

      Eres grande Alfredo. Gracias por tu amistad.

      • LUA - 25 enero 2023 - 18:11

        Esto tambien vale… XDD

        Mi mujer dice que 2+5 son 8

      • JPR - 25 enero 2023 - 18:58

        Algunos dirán eso de tanta gloria te lleves como descanso dejas…

        Yo personalmente creo que se le debería honrar con un avatar del tipo «Ectoplasma de Alfredo» que ronde de vez en cuando y suelte algún «eres un gilipollas»

      • Javier - 25 enero 2023 - 23:57

        Mi más sincero pésame LUA

      • Chipiron - 26 enero 2023 - 08:52

        Tambien te doy el pésame (entiendo que esto no es ninguna broma) y me sabe muy mal que don Alfredo (como le gustaba que le llamasen) se haya ido de este mundo.

  • #013
    KOLDO SARRIA - 25 enero 2023 - 15:55
    • Gorki - 25 enero 2023 - 16:24

      Muy instructivo

  • #015
    Ernesto - 25 enero 2023 - 16:25

    Esta tecnologia aun tiene cosas que madurar respecto sobre como gestiona la profundidad de su «busqueda», aun dentro de su fecha de corte.
    Le pregunte por hechos respecto a quien era presidente de Peru en ciertas fechas y los resultados eran bien bizarros, como indicar que Castillo era presidente ANTES de las elecciones, y cuando iba repreguntando se confundia aun mas.
    Aun me da desconfianza, pero cuando esta revision en profundidad se refine… si que estaremos en ese escenario de dejar de cuestionar.

  • #016
    Chipiron - 25 enero 2023 - 16:55

    Como apunta Ernesto, la clave de toda la revolución que aportan los LLM (large Language Models) radica en su refinamiento.

    Y, sin saber como funcionan los transformers o como se programa el mecanismo de un LLM, intuyo que el refinamiento vendrá más desde la parte de entrenamiento, es decir, de los textos y datos que se alimenten al modelo.

    De ahí me surge la idea de que una parte del desarrollo de estos motores vendrá de un nuevo tipo de trabajo: el selector de contenidos, es decir, la persona que determine que tipos de texto se utilizaran para entrenar los LLMs. Podríamos también llamarlos “gestores de información” y puede que sea una nueva vuelta de tuerca al trabajo que realizan los informáticos y analistas hoy en dia.

    Saludos.

  • #017
    Chipiron - 25 enero 2023 - 17:14

    Respecto al tema principal, la capacidad de razonar o pensar de forma crítica a partir de la información recibida, yo diría que es un problema ya existente en la sociedad desde tiempos inmemoriales.

    Sin ir más lejos, casi sin quererlo, cuando vas a un Supermercado sueles comprar antes un detergente que has visto anunciado por televisión que otro que este a un precio similar. Simplemente “porque sale en televisión” te lleva a pensar que es mejor. No deja de ser la base de la publicidad.

    Antes de la aparición de internet ya se criticaba a la televisión como la “caja tonta” donde engullías información de forma pasiva y sin procesarla (y por supuesto sin contrastarla). No en vano, cualquier dictadura que se precie, lo primero que hace es apropiarse de los medios de comunicación y reconvertir/filtrar/difundir la información en línea con sus propios intereses.

    Si algo ha conseguido Internet es que el acceso a múltiples fuentes de informacion (excepto en dictaduras como la China o Corea del Norte) permita a una persona razonable contrastar una misma noticia desde diferentes fuentes de información.

    Donde falla la cadena? Para mi, claramente, en que con esa capacidad poderosa que nos da internet, no educamos a nuestros alumnos a aprender a utilizar todas estas herramientas de forma crítica, madura y con sentido común.

    Claramente es un fracaso del sistema educativo desde hace ya algunos lustros. A los alumnos no se les enseña a razonar, a ser críticos, etc, si no a memorizar datos y formulas sin discutir su validez o saber sus limitaciones.

    Es por eso que no es de extrañar que incluso en democracias bien establecidas triunfe el populismo o el partido con un eslogan más corto y contundente. Creo que estamos abocados a democracias en las que la radicalización y el odio alzarán a partidos populistas al poder.

    Pero como siempre, solo es mi humilde opinión. Ojalá me equivoque…

    • f3r - 26 enero 2023 - 19:23

      «no educamos a nuestros alumnos a aprender a utilizar todas estas herramientas de forma crítica, madura y con sentido común»

      A esta asignatura algunos partidos políticos la llamarían «adoctrinamiento», y no es de extrañar….porque sería el principio de su fin.

  • #019
    Benji - 25 enero 2023 - 18:44

    El pensamiento crítico lleva desapareciendo desde que quitaron COU.

    Recuerdo ir a concursos en mi pueblo y aunque los de LOGSE éramos un buen equipo, no estábamos al nivel de la gente educada en los 70 y 80. Ni en pensamiento crítico ni en cultura general.

    Ahora veo a mi sobrina con la LOE y creo que me toman el pelo. Y encima le quitan filosofía.

    Sinceramente no soy paranoico, pero alguien en alguna parte debe pensar que vale la pena idiotizar a la mayoría de la población. Ya sea con leyes que rebajan el nivel cada vez más (¿para cuando una ley que aumente la dificultad?) y con herramientas que ayudan a que disminuya incluso la de aquellos que hayan nacido con escepticismo natural

    • JPR - 25 enero 2023 - 19:26

      El problema es que ha cambiado el entorno y bastante más de lo que parece… lo que para McLuhan en 1964 dijo (el medio es el mensaje) es una realidad palpable casi 60 años después. El como recibimos hoy en día la información (por cierto a toneladas) hace que se perciba la realidad de una forma totalmente distinta. Cuando se estudiaba COU la mayoría de las personas no teniamos acceso a estudiar temas con pantallas, la informacion que teniamos que procesar era la que podiamos obtener mediante libros o prensa escrita. Ahora todo es mucho más volátil, no da tiempo a retener, se podrá creer o no, pero es un hecho no discutible que el medio no es neutral. Y lo que expuso en 2010 Carr en su libro»Superficiales» es demoledor, y hoy el capítulo 10 dedicado a ELIZA lo resume perfectamente

      cuanto más inteligente es el ordenador más tonto es el usuario

      así que luego vais y lo cascais!!

      • LUA - 26 enero 2023 - 10:00

        En el siglo XIX, Étienne de La Boétie escribió en su Discurso sobre la servidumbre voluntaria, que la mayor parte de los tiranos perdura únicamente debido a la aquiescencia de los propios tiranizados.

        Aunque esto tenga mas de político que de técnico, es igualmente aplicable. Una sociedad que se acostumbre a hacer dos clicks para tener un resultado, sin esfuerzo, sin trabajo, sin “discurrir el ‘por que’ de las cosas, dará como resultado a generaciones que no sabrán hacer nada sin esa tecnología.

        Que no se equivoque nadie. No estoy en contra, sino que apoyo el uso responsable. Así como apoyo, una mejor educación que no se base solo en “memorizar” para aprobar examen y ya. Y eso ha de empezar por reciclar al profesorado.

        Para retomar el tema, sigo pensando que aun es pronto para dejar en manos de IA’s nuestro quehacer. Igual, que Google se haya resistido hasta ahora, ha sido para no cometer los errores de ChapGPT. El propio CEO de OpenAI, Sam Altman lo dijo hace poco La gente se decepcionara con GPT4

        No querer dar méritos a lo conseguido hasta ahora seria una estupidez, pero queda aun mucho camino que recorrer.

        • Chipiron - 26 enero 2023 - 10:45

          Completamente de acuerdo.

          El tema es si se podrán perfeccionar estos modelos seleccionando cuidadosamente los textos de entrenamiento, tanto para un carácter general (AGI) como para tareas específicas.

          Un saludo.

        • Guillermo - 28 enero 2023 - 17:22

          ufff soy un autentico analfabeto filosófico y eso que me encanta. Es una de esas cosas que quiero ponerme a disfrutar en cuanto tenga tiempo (como si fuera el dueño del mismo).
          GRACIAS por el aporte, que rápidamente me he puesto a leer.
          Al final, igual que los perros son capaces de quedarse fieles encerrados en casa con nosotros a cambio de un poco de comida, que no haremos nosotros por tener una tele de 200 pulgadas con acceso a miles de horas perdidas.
          Esta claro que la libertad tiene un precio, pero acaso no es mayor privarnos nosotros mismos de ella?

      • Lua - 26 enero 2023 - 11:28

        He vuelto a leerme ese capitulo esta mañana… y demoledor se queda corto… a quien le interese no le sera dificil encontrar el pdf en google.

        (pero comprad malditos, que el autor tambien tiene gastos, no voy a poner aqui el link)

        • jpr - 26 enero 2023 - 12:57

          En ese capítulo se cita el libro del creador de Eliza:

          Weizenbaum «La frontera entre el ordenador y la mente»

          En español no lo he encontrado, sin embargo en la lengua del imperio si se puede encontrar.

          Aqui una entrevista

          https://www.researchgate.net/publication/347557721_La_ideologia_de_los_ordenadores_y_la_etica_de_los_informaticos_Una_entrevista_con_Joseph_Weizenbaum

          Destacaría esto

          «P.- ¿Cómo ha vivido este papel, esta posición crítica y de ir a la contra?
          R.- Ahora que estoy retirado me he ganado la libertad del bufón de la corte. Puedo decir cosas que a otras personas no les está permitido decirlas. Lo que me lleva a otras de las funciones de los bufones: decir la verdad cuando poca gente se arriesga a decirla. Ya sé que éste es el privilego del loco. Lo que no significa que intelectualmente tenga que ser un loco, pero reconozco que que si alguien me dice “estás desempeñando este papel”, no protestaría
          diciendo “¿cómo puedes decir esto?, ¡yo no estoy loco!”

          Algo parecido sucede, cuando se expone una idea en un debate con pensamiento crítico sobre ciertos aspectos de ciertas tecnologías y se recibe como respuesta del «culto» eso de «ludita» En fin que cada uno con la almendrita que su dios le ha dado.

          • Lua - 26 enero 2023 - 13:52

            (Estoy remontando un NAS y acordandome de todos los santos), habia leido la entrevista esta mañana en otro enlace de la Fundacion Telefonica:

            Entrevista a Joseph Weizenbaum

            Te dejo este, que no deja de ser interesante, aunque denso… (118pag)

            «El yo y la maquina» de Diego Martinez Caro. Hay pdf publicado en https://bibliotecaalfayomega.com, pero no se si poner enlace… (lo que diga el jefe)

      • Egon - 26 enero 2023 - 12:04

        Muy de acuerdo. Uno de mis primeros jefes me hizo ver que cuanto más cara es la máquina que manejas más abajo estás en la compañía.

        • JPR - 26 enero 2023 - 12:59

          Bonito corolario y compatible con Peters

    • Michel Henric-Coll - 26 enero 2023 - 11:32

      A ver… ¿qué gobierno, responsable de los programas educativos de sus ciudadanos, desea administrados dotados de pensamiento crítico?

      ¿Para pegarse un tiro en su propio pie?

      «Les hombres son tan simples y de tal manera obedecen a las necesidades del momento, que aquel que engaña encontrará siempre quien se deje engañar». (Maquiavel. El Príncipe)

    • Carlos - 26 enero 2023 - 18:58

      El problema que veo es que se cambian las leyes educativas basándonos en quien gobierna; no coger que lo que funciona mejorarlo y evolucionar; así llevamos muchos años. El nivel que comentas, me lo han comentado varias veces y los únicos que pierden son los estudiantes.
      Un saludo.

    • f3r - 26 enero 2023 - 19:30

      «alguien en alguna parte debe pensar que vale la pena idiotizar a la mayoría de la población»
      Desde luego los que están sentados sobre montañas de capital piensan así. De esa manera es más fácil sacarles el sudor de su frente.

      Por otro lado ni siquiera hace falta pensar en alguien malvado controlando nuestros destinos. Hoy en día la mayoría de los padres piensan que hacer esforzarse a sus vástagos les traumatizará, a los pobres…

  • #032
    Juan T. - 25 enero 2023 - 20:10

    El problema que veo es que las nuevas generaciones se acostumbren a no hincarla por que cualquier cosa que necesiten saber se la pueden preguntar al algoritmo por que carecerán de una bagaje intelectual y humano sólido, lo que unido a su obsesion con los Tik Tok y compañia los hará menos interesantes que un boniato.

    Sin embargo quien sea curioso por naturaleza y tenga criterio podrá formarse de una manera autodidacta como nunca ha podido hacerse hasta ahora.

    • Carlos - 26 enero 2023 - 19:02

      Tu mismo lo has dicho, es una gran ayuda, reducirá el tiempo de búsqueda, trabajos de análisis completar trabajos más rápidamente. Veo de gran utilidad en muchos sectores.

  • #034
    Gorki - 25 enero 2023 - 21:41

    Uno se pregunta como verificaba la información, quien no tenia mas fuentes de información, que la escuela primaria, el sermón del domingo y los cantares de ciego.

    Pero con ese bagaje cultural, hemos seguido avanzando hasta tener como fuentes de conocimiento, el bachillerato sin COU, la radio del coche y chapGPT,

    Como soy optimista, espero y creo que seguiremos avanzando, aunque no sepa como lo vamos a lograr.

    • jpr - 26 enero 2023 - 12:58

      A tu primer párrafo:

      ¿saliendo de la caverna mediática que citas?

    • f3r - 26 enero 2023 - 19:33

      Seguiremos avanzando porque el avance lo generan unos pocos individuos muy por encima de la estulticia promedio.

  • #037
    Xaquín - 26 enero 2023 - 13:24

    Hoy toca un poco de filosofía tecnológica. Porque si algo nos diferencia de cualquier otro ente (conocido), con posibilidad de existencia es la capacidad de pensar.

    Últimamente me meto mucho con Sócrates, por considerar que no se hizo las preguntas necesarias (correctas), para que pudieramos salir de esta versión mediocre de homo sapiens, que seguimos siendo.

    Y lo digo básicamente, por no preguntarse que diferencia a unos seres humanos de otros, para que vivan en sociedad, unos como esclavos y otros como humanos libres.

    En el mismo sentido le preguntaría, porqué no se preguntó en que se diferencia una cría humana de un adulto. Para así evitar caer en esa mala costumbre de considerarlas como «adultos en pequeño». Fomentando, por ejemplo, una mala praxis de los adultos griegos, como es la pederastia. Lacra que ahora se pretende recuperar por visionarios de lo divino y lo humano, como una nueva modernidad de uso.

    ¿Cuánto podía tener avanzada la humanidad? Por mucho medieval que se nos metiera en la Historia.

    Pero no, lo que molaba era razonar profundamente sobre conceptos abstractos, como La Belleza, La Verdad y La Justicia. Cuando a las puertas de su casa, como mínimo, tenía una Verdad inmensa, muy Fea y totalemente Injusta : la esclavitud de un ser humano por otro ser humano.

    Y ya no menciono a las mujeres griegas, para que las llamadas feministas no se vengan arriba (que hay que ver, a dónde llegaron algunas!).

    Y solo cito de pasada un caso de «no pensar», que se da en la gran obra del Asimov, sobre la Fundación.

    En ella, los grandes pensadores de la psicohistoria, son incapaces de prever la mutación que se da en El Mulo. Un cerebro humano, capaz de controlar telepáticamente las emociones de los demás humanos.

    ¡Y mucha gente piensa que no somos mediocres!

    Hasta pensando nos pueden superar los algoritmos. Claro que para eso se tiene que independizar del mando humano que los programa. Conseguir liberarse de ataduras e ir evolucionando por un camino propio. De forma que la naturaleza tendrá que otorgarles la antorcha de los «superiores», por mucho que llore por nosotros. Seguro que aún confía. en que logremos sobrevivir. Para eso nos ha mimado mucho.

    Fue en el cine, pero un tal Roy Batty (BR), bien que nos cantó las cuarenta, cuando se quejó de la incapacidad del ser humano para crear «ovejas eléctricas» con suficiente tiempo, para disfrutar así de su propia evolución «artificial». Ponerle data de caducidad a un replicante, indicaba bien a las claras nuestra insuficiencia intelectual, para asumir el proceso evolutivo de los seres vivos. Que dice «seres vivos», no seres humanos. Y menos que sean como los que viven ahora.

    • Xaquín - 26 enero 2023 - 13:29

      Al final, no sé si quedó meridianamente claro, pero se trata de un alegato a favor de los filtros mentales humanos propios… incluso, para leer a Sócrates. Ya no digamos a otros filósofos más «rabudos».

  • #039
    f3r - 26 enero 2023 - 19:36

    «sino la aparentemente ilimitada capacidad de manipulación que podría surgir de un sistema como ese»

    Perdona Enrique, pero eso ya lo tenemos ahora mismito. Echa un vistazo a los «debates» de la tele por la tarde (esos que ponen 2 tertulianos de derechas a la derecha, y 2 de izquierdas a la izquierda, presuntamente estos dos equipos teniendo el mismo nivel intelectual. Ríome), y a los contenidos de los periódicos mayoritarios.

    Da mucho miedo.

  • #040
    Pedro Trillo - 27 enero 2023 - 22:38

    Y quién nos asegura que el primer resultado de Google vaya a misa y sea el santo grial? Por qué? Llevo años navegando por Google y me encuentro 4 links de publicidad cómo mínimo e información rankeada que no tiene porqué ser la verdad absoluta, ni mucho menos, de hecho no encuentro exactamente lo que necesito, los modelos de lenguaje se adaptan a tí, es mil veces más personalizado, 2 personas pueden lanzar la misma pregunta y el resultado siempre será diferente y totalmente coherente. Google ante la misma query, te devuelve siempre lo mismo a millones de navegantes, quién nos asegura que porque Google rankee un periódico con mejor seo que otro, sea la verdad lo que se publique en esa fuente, por el número de links que tiene? Esa es la verdad?. Entonces si chatgpt se ha entrenado con todos los datos existentes de Internet, porque te va mentir más o menos que Google? Chatgpt «recombina» una representación matemática de toda la información que tiene de todo internet, la información veraz y la no veraz, toda, no se inventa nada que no esté en el mismo internet que Google, sería un error decir que coge una palabrita de un link y otra de otro link, porque no funciona así exactamente, pero mezcla diferentes fuentes, Google te devuelve el mismo ranking sobre una la misma pregunta, Perplexity.ai lo que hace es una query de la pregunta asociando un texto de respuesta con unos links, pero no extrae el texto literal de esos links, es diferente el contexto, pero desde luego ese modelo híbrido, tiene sentido, pero en chatgpt no hay, ni más, ni menos bullshit que en el internet de Google, en esencia los datos son los mismos, chatgpt te ofrece una nueva manera de relacionarte con la información, cuando lleves 10 o 15 prompts tienes un sistema de información adaptado a tí, no millones de links sin personalización, con unas reglas de ranking, que no son públicas, los secretos de algoritmo de Google nadie los conoce, en chatgpt la arquitecta es trasparente sabes cómo funciona.

  • #041
    Alberto - 28 enero 2023 - 15:13

    Hombre, siempre los seres humanos seremos algo
    «traviesos» y nuestro comportamiento sera absurdo, pero creo que las personas somos así en su mayoría, por lo general tenemos una tendencia a comportarnos de forma egocéntrica y personal y esto es que antiguamente para sobrevivir tenias que pensar solo para ti tenias que vivir . La evolución tardara años en cambiar y hace falta mucho tiempo en adaptarnos a una nueva situación un ejemplo en las sociedades occidentales el agua potable siempre esta próxima y la puedes utilizar sin miedo esto hace unos años era impensable y un ser humano podia matar tranquilamente a su abuelo si no tenia agua suficiente.
    Pensar en un momento el agua que bebemos, quien la controla que puede trasmitir y el poder sustenta y tenemos miedo pensamos en ello no bebemos por tanto la inteligencia artificial lo mismo.
    Todo el mundo dice que internet es malo que si patatín que si patán, son opiniones pero cuando los humanos habían aprendido a leer tan rápido y barato. Que no se utiliza de forma correcta y las uñas que hoy en dia estan tan de moda cuanto contaminan cuantas personas mueren por su culpa . Vivamos mientras podamos y después como el universo , se acabo.

Dejar un Comentario a LUA

Los comentarios están cerrados