Modelos masivos de lenguaje y sustitución de puestos de trabajo

IMAGE: Gerd Altmann - Pixabay

A medida que los modelos de lenguaje masivos (LLMs) mejoran sus capacidades e incorporan nuevas funcionalidades, como la de poder analizar imágenes, incorporar «ojos» y «oídos», o incorporarse al desarrollo de todo tipo de tareas, se habla cada vez más uno de los fantasmas permanentes de la tecnología: la sustitución de puestos de trabajo.

Sin duda, ver a algoritmos como ChatGPT o Bard respondiendo a preguntas o llevando a cabo tareas como convertir ideas en código ejecutable, sintetizar una conversación, desarrollar una presentación, etc. tiende a hacernos pensar que muchos trabajos cuyos protagonistas llevan a cabo habitualmente esas tareas van a ser sustituidos, por un mero análisis de costes.

La realidad es que los LLMs son, como tales, una subdivisión muy limitada de un campo mucho más importante, y que como tales, se limitan a analizar documentos, establecer relaciones entre ellos, y extraer de ellos información en un formato conversacional. Eso, por impresionante que parezca y por mucho que lleve a algunos a creer que el algoritmo es capaz de pensar, no tiene en realidad nada de sorprendente, y está aún muy lejos de representar algo mínimamente comparable a la complejidad y capacidades de la mente humana. En efecto, un LLM bien entrenado con la base de conocimientos de una compañía podría, hipotéticamente, responder a preguntas de clientes y resolver sus dudas con razonable solvencia, y seguramente, si la selección de materiales para su entrenamiento estuviese bien verticalizada y desarrollada, tendría menos tendencia a «alucinar» y a contestar cosas raras que la que tienen modelos de uso general.

Sin embargo, como decíamos, esa capacidad corresponde a un cierto tipo de trabajos, pero no a todos. La programación o la habilidad para la expresión escrita, por ejemplo, parecen más adecuados para plantear una hipotética sustitución que aquellos trabajos que precisan del uso de pensamiento crítico. Las tareas que pueden considerarse razonablemente repetitivas, lógicamente, son más propias de ser algoritmizadas que otras de naturaleza más imprevisible. Estamos hablando del machine learning como herramienta de automatización avanzada: cuando antes planteábamos la automatización como algo capaz de sustituir determinadas tareas sencillas, ahora hablamos de un nuevo tipo de automatización más sofisticado y que, consecuentemente, puede llevar a cabo tareas más complejas.

Si nos limitamos al análisis de los LLMs, por tanto, estaremos hablando de tareas más complejas, sí, pero cuyo resultado final o output es, esencialmente, un texto, unas líneas de código, una imagen o algo que tiene que ver con el uso del lenguaje, algo consecuente con su propio nombre, Large Language Models, y con el tipo de materiales con los que son entrenados. Si extrapolamos el razonamiento más allá, a todos los algoritmos que pueden desarrollarse mediante machine learning, estaremos hablando de posibilidades que van mucho más allá, desde manejar máquinas hasta tomar decisiones complejas en función de muchísimas variables.

En un trabajo estándar, por ejemplo, que una persona lleve a cabo en una oficina, hay una serie de tareas que, de un modo u otro, son automatizables. En el pasado, pudimos vivir ya esa automatización: las personas que utilizaban una máquina de escribir, una fotocopiadora, un papel carbón, una máquina calculadora o una impresora de transparencias, por ejemplo, vieron cómo sus herramientas cambiaban de manera rápida cuando llegaron los ordenadores y la ofimática con su correo electrónico, sus procesos de textos, sus hojas de cálculo y sus programas de presentaciones. Trabajar con esas herramientas requería nuevas habilidades, y eso generó, por un lado, una cierta sustitución de trabajadores, y por otro, la incorporación de otros nuevos capaces de manejar esas herramientas.

Si examinamos los primeros vídeos creados por Microsoft o por Google tras la primera fase de la incorporación de algoritmos de tipo LLM a sus herramientas ofimáticas o suites, resulta llamativo ver hasta qué punto se confunde la parte más «mecánica» o automatizable, con la de desarrrollo de pensamiento crítico. ¿Puede un LLM resumir una larga cadena de correos electrónicos? Probablemente. ¿Puede generar un memorándum con ideas para el lanzamiento de un producto? Podrá generar algo probablemente muy convincente, muy bien escrito y capaz de pasar por un documento hecho por un ser humano, pero la capacidad de utilizar el pensamiento crítico, comparar con otras situaciones o contextos y extraer conclusiones mínimamente innovadoras no estará presente. Eso corresponde al pensamiento crítico, no a la mecanización más o menos sofisticada de una tarea. ¿Irías a una reunión con una presentación generada por un algoritmo? Puedes hacerlo, pero seguramente, el resultado, más allá de la mera presentación, será bastante mediocre.

¿Qué va a pasar? Pues básicamente, lo que llevamos mucho tiempo diciendo: que los algoritmos no sustituirán a los trabajadores, pero que los trabajadores que sepan utilizar algoritmos sustituirán a los que no sepan. En muy poco tiempo, si eres capaz de incorporar, por ejemplo, a tus competencias ofimáticas la posibilidad de que una serie de algoritmos te asistan para hacer las cosas mejor o más rápido, seguramente lo tendrás mejor que si no eres capaz de hacerlo, es decir, de si te quedaste en la generación anterior de este tipo de herramientas. Se puede tardar varios minutos en hacer un condicional complejo con anidaciones múltiples en una hoja de cálculo: contarle a un algoritmo lo que quieres que haga y ver cómo se lo saca de la manga va a ser indudablemente más rápido y, posiblemente, más fiable. Muchas partes de la escritura de muchos documentos son perfectamente automatizables: si lo haces, ahorrarás tiempo y, seguramente, tendrás menos typos. Pero si piensas que tu trabajo consistía en eso, en la parte puramente automatizable, o si efectivamente consistía en eso, tienes un problema, porque sí serás prescindible.

Llevamos muchos años trabajando en la automatización avanzada de tareas mediante machine learning. Ahora, de la noche a la mañana, el machine learning salta a la fama porque la tarea automatizada es el lenguaje, que parecía un reducto muy propio del ser humano. Pero no nos confundamos: hablamos de una herramienta, y como tal hay que plantearla. Si tu trabajo era solo eso, manejar una herramienta, serás sustituido. Si por el contrario, consistía en la aplicación del sentido crítico, será bastante más complicado.


This article is also available in English on my Medium page, «Why it’s time to start learning how to use large language models»

27 comentarios

  • #001
    Enrique - 25 marzo 2023 - 14:15

    Off topic:
    Enrique, me hace gracia que consideres que la UE no puede prohibir el bitcoin, pero escribas todas las semanas que debe prohibir el coche de combustión. Como molas las prohibiciones cuando nos vienen bien.

    • Enrique Dans - 25 marzo 2023 - 14:19

      Prohibir el coche de combustión es muy sencillo, es cuestión de una ley. Prohibir el bitcoin es imposible, porque siempre podrás obtenerlo, usarlo o intercambiarlo en forma de transacciones sin que el poder legislativo pueda, en último término, hacer nada para evitarlo. Puede prohibirlo, sí… ¿y? ¿Qué impide que yo te muestre un QR con mi monedero y que tú me envíes una transacción? No hay forma humana de evitarlo. Todos esos que creen que prohibir las criptomonedas es solo cuestión de pasar una ley que lo diga deberían estudiar un poco más cómo se usan las criptomonedas…

      • Jos - 25 marzo 2023 - 18:04

        En realidad si hay una forma humana de evitarlo: la violencia legítima del estado (persecución policial, multas, sanciones, expropiación, cárcel,…)

        Si los estados se proponen acabar con Bitcoin pueden hacerlo, no pueden averiguar tu billetera ni pueden confiscar tu saldo, pero pueden joderte la vida hasta que se lo entregues.

        Una cosa es la resiliencia a nivel teórico o nivel técnico y otra cosa es lo que un estado puede hacer a las personas que en última instancia son los usuarios de Bitcoin.

        Ejemplo china.

        • Enrique Dans - 25 marzo 2023 - 18:15

          No, no pueden. De hecho, los ciudadanos estamos aceptando determinadas condiciones porque nos da la gana, pero tecnológicamente podríamos evitarlo con herramientas como Tornado Cash, Monero y otras similares. Si se exceden en su presión regulatoria, eso es lo que pasará, y lo saben. No te dejes llevar por los rumores: en China están prohibidas las criptomonedas, pero en la práctica, las tiene todo aquel al que le da la gana tenerlas, sobre todo los jóvenes, y el gobierno no puede hacer nada para evitarlo. Puedes eliminar los mineros (y ni siquiera) debido a que los puedes localizar por su consumo, pero los usuarios hacemos lo que nos da la gana.

          • Jpr - 25 marzo 2023 - 19:33

            Si si pueden, pero debe anti corrupción meter el dedo en, perdón el miedo en el cuerpo…??

            No hay problema técnico en confiscar. Ninguno, podrían hacerlo. El problema es que en 24 horas, el bitcoin se desplomaría y se quedarían sin botín. Ese es el problema real. Que es un valor de mierda que como todas las gallinitas vendieran, no valdría nada….

        • Lua - 25 marzo 2023 - 18:33

          Dado que, hasta el momento presente, no has podido acercarte a un árbol de tu jardín, y recoger de entre sus hojas, unos cuantos eurillos como el que coje una manzana, para comprar tus bitcoins, has hecho una operación bancaria que oh sorpresa, es trazable.

          Hacienda sabe cuanto tienes en bitcoin (a menos que no fueras minero y aun no lo hayas transformado a moneda corriente), y por tanto ya estas expuesto.

          Este año la declaración de renta se presenta interesante:

          HACIENDA QUIERE TODA LA INFORMACIÓN DE TUS CRIPTOS Y LA VA A CONSEGUIR ESTE 2023

          y antes de que nadie se me tire al cuello, escribo esto a titulo informativo (que como ya ha quedado mas que claro, a mi ni me va ni me viene)

  • #007
    Roger - 25 marzo 2023 - 14:34

    Es difícil decir que el pensamiento crítico no es automatizable.

    La mayoría de meta relaciones o incluso de pensamiento innovador son bastante repetitivas cuando se miran en el contexto de toda la información en internet. No somos tan listos como creemos e incluso los más listos aplican patrones bastante sencillos.

    Estos modelos manejan metáforas a día de hoy con lo que parece complicado pensar que no van a manejar relaciones similares en un futuro cercano.

    • Enrique Dans - 25 marzo 2023 - 14:37

      No digo que no sea automatizable, digo que no es algo que ChatGPT o un LLM pueda hacer. Se podrá automatizar, por supuesto, pero con otro tipo de algoritmos.

      • JPR - 26 marzo 2023 - 11:54

        Aqui hay un debate interesante, si el razonamiento puede surgir como una propiedad emergente de la escabilidad.

        O simplemente lo que se podrá ver en un un chatgpt es una simulación por una capa de un sistema experto que filtra/manipula/selecciona lo que una persona escribe en el prompt.

        En el paper de marketing de chatgpt 4 no aclara si hay capas por encima para este propósito, aunque está claro que si las hay para temas p.ej. de seguridad.

        Por cierto un 10, a no dejar volar la mente por temas de ciencia ficción, que hará tal o cual cosa, aqui han llegado los mentirosos del marketing y hay que ir con pies de plomo… p.ej. lo que dicen que hará en la v. 4 hasta que no lo veamos nosotros mismos no hay que fiarse, y cuando haga algo, como no hay explicación técnica, el COMO se ha hecho, es una caja negra

  • #010
    Javier - 25 marzo 2023 - 14:49

    Confesión: estoy usando de manera «salvaje» (en un sentido virtuoso) estos asistentes generativos.

    Es como tener empleados que hagan lo que les pidas que necesitas. Las veces que sea necesario, y en mi caso, con tasas de errores y «delirios» muy bajas, casi nulas.

    Es tal mi situación en este momento, que mis descansos para «despejarme un poco», incluyen la lectura de este blog, parar para comer… y poco más…

    Sí, en este momento estoy exactamente en la fase que mencionas:

    si eres capaz de incorporar, por ejemplo, a tus competencias ofimáticas la posibilidad de que una serie de algoritmos te asistan para hacer las cosas mejor o más rápido, seguramente lo tendrás mejor que si no eres capaz de hacerlo

    después de que pase esta etapa de mi proyecto, la intensidad de uso bajará, porque ya no necesitaré hacer lo que estoy haciendo ahora, pero ya estoy pensando en como incluirla como una parte más de los procesos del negocio… que buen momento para estar vivo…

  • #011
    Benji - 25 marzo 2023 - 15:05

    Ayer estuve 30 minutos pidiendole a ChatGPT que me hiciera una función en PHP. Y no la hizo nada mal, aunque se equivocó en los valores de algunas constantes, pero me sorprendió positivamente.

    También es verdad que le pedí que la función fuera Python, Javascript o PHP, que las encuentras documentadas y stackoverfloweadas por todas partes. Pero le pedí que me hiciera lo mismo en NabSic y ni siquiera reconoció el término.

    En este sentido, creo que el código abierto le dará una paliza al código cerrado por facilidad que presenta a la hora de hacerte una idea de cómo funciona

  • #012
    Jpr - 25 marzo 2023 - 17:11

    Lo siento Enrique esta vez coincido con tu análisis no voy a generar clicks !!

    Una pregunta solamente a los que creen que HOY tienen un trabajo que os creeis sustituibles por chatgpt:

    De verdad, teneis ese nivel de pensamiento, análisis y eficacia?

    • Lua - 25 marzo 2023 - 18:16

      Cuando empezó el auge de las RRSS, en aquellos tiempos en que se decía, que si no estabas en ellas no existías, aparecieron como setas por doquier, contándose por millones, los coaches que te enseñaban a ser community manager…

      Ahora hay otra implosion semejante, con los que te enseñan a vértelas con las IA’s.

  • #014
    Angel "el bueno" - 25 marzo 2023 - 17:58

    ¿Estás utilizando algún tipo de inteligencia artificial para redactar estos artículos…? Me asalta la duda…

    • Enrique Dans - 26 marzo 2023 - 12:43

      No, para nada. Cuando la uso, lo digo, ya lo has visto anteriormente. No la usaría sin decíroslo, no tengo ningún interés en perder la confianza que llevo veinte años tratando de generar…

  • #016
    Gorki - 25 marzo 2023 - 19:57

    En el campo que yo cozco, la programación, veo muy posible que una próxima versión especializada en elimine el trabajo de muchos programadores, pues si los traductores de texto ya son capaces de traducir de un idioma fonético, como el francés, a un idioma ideográfico, como el chimo, no llego a ver mas complejidad en traducir unas instrucciones del tipo «busca en la BD el registro de clave la variable nomcli y toma el campo deupen» y que eso lo traslade a un lenguaje de programación por ejemplo Python-
    Ello, claro esta, no elimina el programador, pues pasa de ser un señor que escribe líneas de programas, a un señor que indica a la IA programadora que quiere que haga el programa, pero evidentemente multiplica su productividad, con lo que para sacar el mismo trabajo, se precisaran menos empleados.

    La historia demuestra que hay tantas cosas que hacer que no se hace, porque resulta costosa la mano de obra que se precisa para hacerlo, que los desplazados de la programación que utilizarán la AI en otro sector, para aumentar su productividad, se utilizarán en tareas que hoy no abarcamos, no se si en la misma empresa, porque aumente el trabajo de programación a realizar o en otras.

    Por otra parte, es claro que vamos hacia un mundo con menos jornada de trabajo,·como mucho a las 36 horas semanales y con menos manos de obra, por la reducción de la natalidad. Por lo que no creo que haya dificultades para encontrar empleo,

    Lo que si es necesario es un reciclado de conocimientos en todos, tanto en los que se quedan para dirigir el trabajo de la AI, como los desplazados que tendrán que aprender nuevas habilidades, De todas formas en este sector el aprendizaje continuo es ya una costumbre, no ha hecho falta la llegada de la AI para que los programadores aprendan continuamente nuevos lenguajes, muevas tecnologías, nuevos SO, …

  • #017
    Juan T. - 25 marzo 2023 - 20:12

    Que paradoja que la asignatura de Lengua y Literatura, tan denostada en comparación con el auge de las asignaturas de Ciencias, sea precisamente la necesaria para hacer que funcionen las otras en el futuro.

    ¿que va a ser ahora de los chavales que abandonaron la lectura en pro de los videojuegos y las redes sociales y que se expresan con los «mola mazo que pin que pun»?

  • #018
    Jose - 25 marzo 2023 - 21:15

    Lo interesante es comenzar a entender que cualquier pensamiento crítico o creativo se expresa, formalmente, en lenguaje natural. Usarlo es el atajo para establecer la representación mental que se esconde en esos lenguajes naturales. Es es la primera cuestión, a mi juicio, que hay repensar con respecto a los LLM

  • #019
    Guillermo - 26 marzo 2023 - 08:47

    Si Chapt-GPT ahora nos sorprende, que hará dentro de diez años?
    Ya se ha dicho en este blog, os acordáis de las primeras versiones de MS-DOS (ahora windows xx), os acordáis de las primeras versiones de Lotus, 1,2,3. y WORD-ST, el primer móvil (por llamarlo de alguna manera), los ordenadores con dos disqueteras de 5 1/4 para asombrarnos con lo que podían hacer…. etc etc etc.
    Hemos asistido al nacimiento de la criatura y poco a poco veremos como va creciendo…….
    ENRIQUE, si hace quince años te dicen la capacidad de este CHAT BOOT, ¿Te lo hubieses creído?.

  • #020
    Mar Per - 26 marzo 2023 - 11:04

    Cómo podemos aprender sobre todas estas herramientas los que no siquiera sabemos programar? Muchas gracias

    • Enrique Dans - 26 marzo 2023 - 11:23

      No hay que programar nada. Entra y pruébalo. Pregúntale cosas. Habla con él. No te creas necesariamente nada de lo que te diga, pero pruébalo. Muchas veces, hasta que te canses. Pregúntale de todo, aprende a preguntarle bien, fíjate cómo la forma de preguntar influye en las respuestas. El futuro no es en absoluto ChatGPT, es que haya algoritmos en todas partes, hasta en la sopa, incluyendo los que harás tú misma con herramientas sencillas en las que no hay que programar. Ve aprendiendo a utilizarlos y a relacionarte con ellos.

      • Gorki - 26 marzo 2023 - 11:45

        En eso estoy yo, y no se si es real, o una aprensión que tengo, pero cuando no funciona chatGPT, (lo que ocurre frecuentemente)., me siento incapaz de contestar a preguntas, que antes hubiera contestado sin problema.

        Es la misma sensación, que en su momento, sentía cuando iba por el campo y de repente entraba en una zona no cubierta por el móvil. Me hacia preguntas, del tipo, ¿Cómo me arreglo si me rompo una pierna?, sin pensar que me había pasado media vida haciendo excursiones sin un móvil en el bolsillo.

        • Michel Henric-Coll - 27 marzo 2023 - 13:10

          Pues, sí señor, esta es la llaga donde has puesto el dedo. La delegación de la reflexión y del pensamientos a artefactos crea una dependencia mayor que a la cocaína.

          Y EDans está hablando de pensamiento crítico… si es precisamente lo que está desapareciendo. Las empresas y las instituciones se llenan de «protocolos» de actuación, y ¿qué son los protocolos sino la negación de la inteligencia humana? «No pienses, aplica el protocolo».

          Antaño, los niños decían a los padres «no vas a saber más que la seño» (en referencia al maestro de escuela). Mañana, los adultos dirán. «no vas a saber más que Chat-loquesea».

    • Javier - 26 marzo 2023 - 13:25
  • #025
    pep - 27 marzo 2023 - 10:05

    Mi opinión es que los trabajos mas cualificados serán los menos afectados. Ingenieros, arquitectos, etc . Es una cuestión de sentido común. Siempre es necesario tener a un especialista cualificado sobre la materia en cuestión. Un ejemplo, si quieres hacer unos planos para hacerte una casa, la ia puede hacerlos, pero siempre necesitarás un arquitecto que sepa de arquitectura y de el visto bueno a los planos. En cambio, todos los que se encargaban de hacer los planos, delineantes, etc (basicamente gente de formación profesional) serán los primeros en irse. Otro de los colectivos serán los pensadores/opinionadores/periodistas/ escritores. ¿Será la muerte de la imaginación? Algún ejemplo: Libro de ficción escrito por ia : https://medium.com/@chiaracoetzee/generating-a-full-length-work-of-fiction-with-gpt-4-4052cfeddef3

  • #026
    pep - 27 marzo 2023 - 10:11

    Se me olvido poner la lista, segun OpenAI,los creadores de chatGPT, de los trabajos mas expuestos. https://www.xataka.com/robotica-e-ia/gpt-4-tiene-potencial-afectar-a-miles-empleos-que-esperaban-para-ser-exactos

  • #027
    Roberto - 27 marzo 2023 - 11:34

    Muy buen artículo profesor Dans. Ojalá tenga razón.

    Uso a diario chatGPT e intento implementarlo, tal y como indica, para mejorar tareas y dar más valor al trabajo que hago.

    Sin embargo, he de reconocer, que a menudo sus respuestas me sorprenden. La sensación está entre el miedo y la sorpresa.

    Otras veces, sí que es cierto que sus respuestas dejan un poco que desear. También hay que tener en cuenta, que responde con contundencia, incluso cuando está equivocado.

    Veremos a ver, pero lo que parece que ha avanzado la IA durante este 2023, me parece increíble.

Dejar un Comentario

Los comentarios están cerrados