Hay mucho más machine learning que ChatGPT

IMAGE: Kevin Ku - Unsplash

Mi columna en Invertia de esta semana se titula «La importancia (relativa) de ChatGPT» (pdf), y trata de explicar que, frente al revuelo organizado por la primera herramienta sencilla de machine learning «para todos los públicos» con la que cualquiera puede entrar en una página y chatear con un bot más o menos espabilado, hay todo un mundo de compañías que han sido capaces, mediante herramientas también muy sencillas, de generar automatizaciones avanzadas de procesos que les han permitido obtener ventajas competitivas potencialmente muy interesantes.

¿Qué supone el uso del machine learning? Contrariamente a lo que muchos piensan, utilizar machine learning no conlleva llenar tu compañía de carísimos data scientists que se dedican a programar soluciones desde cero que posteriormente no hay forma de poner a trabajar con ningún sistema de gestión corporativa que se precie sin poner toda la empresa patas arriba, sino partir de estructuras de datos relativamente sencillas, con las que los directivos mantienen gran familiaridad – y son capaces de identificar perfectamente cuándo tienen sentido, qué niveles hay que controlar o qué fiabilidad general pueden tener – y utilizar herramientas sencillas low code o no code para plantear algoritmos a golpe de menú que permiten plantear modelos, educarlos, probar su capacidad de predicción, refinarlos e implementarlos de manera razonablemente sencilla.

La atalaya que me permite seguir la evolución del machine learning y de los proyectos que se llevan a cabo con él es suficientemente conocida: más de diez años formando parte de BigML como asesor estratégico, que me permiten una amplia visibilidad sobre los miles de proyectos que sus clientes llevan a cabo en todo el mundo. Hoy, BigML es una compañía saneada, rentable, con ocho patentes concedidas tan solo en este 2022, utilizada rutinariamente en enseñanza por miles de universidades y con una cartera de clientes recurrentes muy importante en todo el mundo, pero es simplemente una – desde mi punto de vista, la mejor, pero soy escasamente objetivo en ese ámbito – de las compañías que forman parte del proceso de adopción corporativo de las herramientas de machine learning.

Basta echar un ojo a algunos de los proyectos desarrollados por la compañía, para encontrarse absolutamente de todo: desde en banca, con herramientas para la estimación del riesgo crediticio o para la detección de patrones de fraude, a las compañías de gestión de autopistas o las infraestructuras para ferrocarriles, pasando por la predicción de demanda o la gestión de promociones en retail, la negociación de contratos en despachos de abogados, la investigación en ecocardiografía, la mejora de las operaciones en call centers, o la optimización de la generación de demanda en compañías B2C.

Son simplemente ejemplos, de esos que los clientes autorizan a contar, pero hay mucho, mucho más. Son proyectos de esos que no escuchamos tantas cosas, que proporcionan importantes ventajas, pero que son, como mucho, comentados en foros de la industria o en conferencias sobre machine learning. Pero su importancia relativa es muchísimo más grande, en términos de relevancia conceptual y de valor añadido, que la que puede tener una herramienta de chat, por muy supuestamente inteligente que simule ser. El ChatGPT de OpenAI puede ser, en ese sentido, una forma de abrir los ojos a muchos sobre las posibilidades del machine learning, pero ni siquiera sería bueno, a efectos de adopción y avance, que restringiésemos la reflexión al ámbito de los large language models, que no son necesariamente, por mucho que puedan afectar al futuro de la búsqueda o de muchos otros ámbitos, lo más prometedor que nos ofrece el machine learning.

Esperemos que la disponibilidad de ChatGPT consiga, como primera herramienta de machine learning que cualquiera puede probar y evaluar fácilmente, avanzar en la adopción de una tecnología tan potencialmente disruptiva y con tantas implicaciones de su uso. Pero no nos quedemos en la anécdota: hay mucho, muchísimo más. Aunque no hable.


This article is also available in English on my Medium page, «Why we shouldn’t let ChatGPT dictate the machine learning conversation»

17 comentarios

  • #001
    Gorki - 21 diciembre 2022 - 14:35

    Cuando usar la Inteligencia Artificial, el Big Bata y el machine learning se haga con la facilidad que manejamos una página de Excel, o los macros de Microsoft, nos asombraremos de lo que se puede llegar a hacer.

    Los técnicos informáticos existimos, porque no somos capaces de, (o no queremos), hacer herramientas que no sepa manejar un técnico informático, (o mejor aun un equipo de técnicos), si las hiciéramos, los usuarios no tendrían necesidad de nosotros,

    Por ejemplo, los que hacen coches supercomplicados, con servofrenos, turbo que entra a no se que revoluciones y aparcamiento marcha atrás automático, los hacen para que quien los lleve. solo tenga el carnet de conducir tipo B.

    Algo así debería ser para la informática, Uds. señores Técnicos, hacen un superordenador que colocan en el Nepal que es un sitio muy fresco, pero el ama de casa Marcelina González, que vive en Torrecilla de la Abadesa, le maneja siguiendo una librito de instrucciones en 18 idiomas, como el del minipimer y unas pequeñas explicaciones que le dan en la Casa de Cultura de su pueblo, Igual que le pasa con el Cajero automático, o el programa de la lavadora, o incluso el teléfono móvil que si son equipos hechos para que qiuién los maneje no sea un técnico informático.

    • JPR - 21 diciembre 2022 - 16:13

      Para construir una casa no se empieza por el tejado.

      Cuando utilizamos lapiz y papel, una calculadora, una hoja de cálculo, un programa de cálculo avanzado, o simplemente un lenguaje de programación… lo que hacemos es utilizar una herramienta para ayudarnos a resolver problemas.

      Hace años a las personas se les enseñaba a leer, escribir y lo que solían llamar las cuatro reglas. En definitiva la enseñanza técnica básica consistía en que las personas pudieran desenvolverse con una aritmética básica que les ayudara a desenvolverse puesto que la escolarización de la mayoría de la población podía terminar poco más de los diez años.

      Como ejemplo se les enseñaba de forma práctica algoritmos de cálculo con el que poder hacer sumas, restas, multiplicaciones y divisiones. Ahí terminaba la instrucción en matemáticas de una mayoría de la población. A esa mayoría de personas el uso de una calculadora podía no servirles de nada, ya que en su vida cotidiana, no necesitaban hacer cálculos.

      Cuando una persona necesitaba para su vida profesional, hacer cálculos como porcentajes, rellenar formularios con cálculos de algún interés, sumas de muchos items, contabilidades sencillas etc… a esa simple calculadora, ya se le vió alguna aplicación, aparte de que sus hijos la usaran para esas cosas raras de las raices, los senos, los algoritmos, etc.

      Cuando llegaron los programas y las hojas de cálculo, ya fueron otra cosa que esas personas vieron que eran útiles, para poniendo de forma ordenada unas entradas, obtuvieran la salida que estaban buscando: Los resultados en un segundo.

      Pero no olvidemos que ellos sabían que querían obtener, que podemos resumir en «obtener sin apenas esfuerzo, esos cálculos que sabían hacer»

      Ahora Gorki, te preguntas que ojalá hubiera ML sencillo.

      Bien, y si el probleama, no fuera ese. ¿Y si te faltara la educación preliminar?

      Para multiplicar conoces el algoritmo manual de la multiplicación y lo necesitas usar, p.ej. si tienes que pagar 125€ de mensualidad por 36 meses, quieres llegar a saber el resultado a mano, con la calculadora o como quieras

      AHORA NO ES ESE EL PROBLEMA

      Te pregunto

      ¿Qué problema quieres resolver para poder aplicar algoritmos de aprendizaje automático (ML)?

      Un ejemplo de pregunta sería

      ¿Quieres clasificar fotos de gatitos y perros?

      Empieza por definir el problema que quieres solucionar.

      Para poder aplicar ML, debes tener datos ¿Qué datos tienes?

      Luego habrá que preparar los datos, limpiarlos, ver que algoritmo de los muchos que hay se puede aplicar, y muchos etcéteras

      Pero todavia no hemos hablado de ML…

      Haciendo la analogía con las cuatro reglas

      ¿Qué operación necesitas?

      Mira que la informática y su complejidad o no, no hemos hablado.

      Primero es saber y conocer los fundamentos de los algoritmos, no como se llega a ellos, sino para que sirven y como se pueden usar

      Aqui valdria la analogía de la mensualida y los plazos

      a) Habrá un algoritmo que haga 36 sumas de 125€
      b) Habrá otro que directamente multiplique

      Y ojo, que no estamos hablando que conozcas que para la multiplicacion haces cinco por seis que son treinta,…

      Esa es la parte que te hará el módulo del algoritmo, y que es lo sencillo, obtener el resultado aplicando el algoritmo que tú le digas

      Si entras en un framework lo que vas a hacer lo tienes que saber tu, igual que cuando usas una calculadora, le das al botón de multiplicar…

      Si no se sabe eso, no se puede opinar, que es muy complicada la calculadora porque tiene un botón con una «x»

      • Alfredo Hoz - 21 diciembre 2022 - 17:56

        Creo que lo comente una vez. Cuando a principios de los 90, Visicalc y Lotus Symphony, parecían ir de capa caída, Excel resurgía con fuerza. La broma (mi broma) entre otros BOFH, era que los informáticos nos íbamos a cargar nuestra profesión con tanta facilidad que le dábamos al “luser” y que al final, seriamos “prescindibles”. ¿Me equivoque?

        A finales de los 90 la proliferación de ERP’s fue muy extensa, hasta Talleres Pepe había caído en la trampa y tenían uno. A cambio, muchas empresas, encontraron la solución buscando a un técnico que dominara la hoja de calculo y VBA, y se hacían sus propias aplicaciones apoyando o sustituyendo sus mamotretos existentes. De esa época y hasta día de hoy, una de mis ocupaciones son las “migraciones”, y Excel se me hace fundamental para ellas, llevándose el 80% de trabajo. Cosas de los sistemas propietarios incapaces de favorecer dichas migraciones.

        Desde 2004, otra de mis ocupaciones, es la formación continua en empresas, básicamente (entre otras materias) ofimática (Word, Excel, etc). Es diciembre de 2022, y todavía hay que enseñar esas dos cosas a la gente (rango de edad de los 25-60 años).

        Como ven, doy dos caras de una misma moneda.
        Así que:

        – Puedes crear una herramienta muy potente. Pero si la gente no sabe usarla, no servirá de nada.

        – Respecto a Excel: si no eres capaz de encadenar funciones en una sola celda y/o apoyarte en VBA, no digas “que sabes Excel”, solo sabes “lo básico”)

        Se me antoja que cualquier nueva tecnología, pasará por los mismos procesos. Puedes tener una IA superpotente para unas tareas determinadas, pero como no entrenes a los usuarios, solo tienes un mojón. (y con esto no digo que sea inútil).

        • Gorki - 21 diciembre 2022 - 22:59

          Una vez comenté a mis jefes que la mitad de los programas de consulta de listados y pantallas que estaban haciendo mis programadores en BASIC, se podrían hacer con macros de Windows.
          Aconsejaba especializar a alguien en el tema, porque nos podíamos librar de hacer muchos programas y mis jefes, mucho mas listos que yo, me dijeron:

          «SI, lo sabemos, pero ¿Cómo lo cobramos?»

  • #005
    Gorki - 21 diciembre 2022 - 14:41

    Un ejemplo de un uso asombroso de el reconocimiento de patrones de la IA
    Las huellas dactilares determinan el riesgo de sufrir esquizofrenia con una fiabilidad del 70%

    • JPR - 21 diciembre 2022 - 16:28

      Y si en vez del refrito se entra en el Paper, mejor

      El estudio parece apuntar que la esquizofrenia se debe a alteraciones del feto y las huellas se desarrollan en ese momento a la vez durante las mismas semanas de gestación.

      De ahí puede venir la correlación, pero no se sabe. Lo que si muestra el estudio, es que la predicción con los datos del estudio alcanza esa fiabilidad del 70%

      En cuanto a la técnica R:

      To obtain unbiased estimates of classification accuracies from the models, a 5-fold cross-validation scheme was applied. Final accuracy estimates were provided by averaged classification success values from validation subsamples obtained at the end of the last epoch. Bootstrap 95% intervals were derived from this same data. Building and training of all networks was carried out using the R API of Keras (https://keras.rstudio.com) which, in turn, runs on the TensorFlow platform (www.tensorflow.org). All network calculations were performed on a NVIDIA Quadro RTX 6000 24GB Graphics Processing Unit.

    • menestro - 21 diciembre 2022 - 17:32

      Es un bulo que lleva circulando desde los 90s y 2016, entre la frenología y la Quiromancia, Gorki.

      Patrones de dermatoglifos en subtipos de esquizofrenia

      Alguno de los estudios que se toman de referencia fueron realizados en… un instituto de secundaria.

      Una pseudociencia y una muestra de como se puede utilizar el Machine Learning para elaborar información sesgada de cualquier patrón y reforzar un prejuicio, racial, de orientación sexual, etc.

      Ni idea de como los medios replican está noticia sin hacer una mínima comprobación. Bueno sí, les pagan por el relleno.

      Se puede atribuir cualquier correlación de datos a un fenómeno sin que exista una relación causal, y es lo que sucede.

      (Es más fácil ver los síntomas en cualquier publicación de un blog, by the way)

      Cuando el futuro de los niños depende de sus huellas digitales

      Periodismo gilipollas: Susanna Griso cree que la personalidad se refleja en las huellas dactilares

      • Gorki - 21 diciembre 2022 - 22:53

        Puede que tengas razón, Yolo he leído en una newsletter de noticias científicas que considero «serio» MADRID+, pero observo que lo han borrado, lo que quizá confirma lo que tu dices.

      • JPR - 21 diciembre 2022 - 23:38

        Menestro, Gorki

        En el enlace que adjuntaba

        https://academic.oup.com/schizophreniabulletin/advance-article/doi/10.1093/schbul/sbac173/6851123

        Está firmado por


        FIDMAG Germanes Hospitalàries Research Foundation, Barcelona, Spain
        Centro de Investigación Biomédica en Red de Salud Mental (CIBERSAM), Instituto de Salud Carlos III, Madrid, Spain
        To whom correspondence should be addressed; FIDMAG Germanes Hospitalaries Research Foundatioin, C/Dr. Antoni Pujadas, 38, 08830, Sant Boi de Llobregat, Barcelona, Spain, e-mail: rsalvador@fidmag.com

        A primera vista sin ver el paper, me sonaba a otra payasada más, pero hay un paper, firmado por la persona de arriba

        Puede que hayan hecho cherry picking con los datos para que el resultado les convenga?

        La ciencia se basa en la replicabilidad y que si hay alguna pega, se pueda objetar el paper y obligarles a que se retracten

        Habría que ver ¿dónde está el supuesto bulo?

        Es seria la publicación de la Universidad de Maryland, o es una payasada pseudocientífica

        Yo no lo sé, ni creo que ninguno de nosotros vamos a perder el tiempo en saberlo…

        Pero si es cierto y no han hecho trampa, lo único que demuestra el estudio es que con SUS DATOS da un 70% de fiabilidad simplemente con el escaneo de huellas…. ¿es mucho? ¿es poco? que lo digan los médicos

        Por mi parte solo una reflexión,


        No es suficiente con tener unos datos y darles mil vueltas con unos algoritmos. Hay que saber de que se habla.

        En este sentido que utilice un ignorante R, Python o cualquier framework tiene mucho peligro si no es especialista y no sabe realmente de que está hablando

        Cualquiera puede torturar un algoritmo para salir en una revista y que parezca que son muy listos

        Y sabemos que el mundo de la investigación esta presionada por resultados. No hay resultados se acaban los fondos.
        Esa es la realidad que no se suele publicar de la AI y de la Investigación.

        Por mi parte no sé si es un bulo, o un estudio serio

    • MAGI - 21 diciembre 2022 - 18:09

      Gorki, el enlace que mandas no funciona. Me ha resultado curioso lo de las huellas dactilares.

      • Gorki - 21 diciembre 2022 - 23:02

        Parece que los han borrado de MADRID+ , puede que sea por lo que dicen mas arriba que es un bulo.
        Por si a pesar de todo te interesa te dejo otro par de enlaces al mismo tema.-

        https://www.20minutos.es/noticia/5086364/0/estudio-huellas-dactilares-determinan-riesgo-esquizofrenia/

        https://www.lavanguardia.com/vida/20221220/8651777/huellas-dactilares-riesgo-esquizofrenia.html

  • #012
    Benji - 21 diciembre 2022 - 17:43

    A mí me encanta ver el «gemelo virtual» de una máquina cargada con sensores donde la ML es capaz de predecir (por estadística, casos previos…) donde hay que enfocar más el mantenimiento y reparaciones. O para identificar un escape de algo.

    Hace que las máquinas sean más caras, pero el mantenimiento es supersencillo, y no hay que sustituir toda ella, solo la parte defectuosa o desgastada

  • #013
    Javier Lux - 22 diciembre 2022 - 07:05

    Entre las posibles aplicaciones de Chatbots creo que hay una que podría tener mucho éxito y son los chats generadores de código fuente de aplicaciones.

    Siempre existieron generadores de codigo fuente. Recuerdo en los 90 un generador de código COBOL en ord Digital-Vax. Era una porquería y el código que generaba era mucho mejor no tocarlo. Pero algo hacia. En aquella época, muchos programadores, los mediocres, se dedicaban a copiar plantillas de programas y reproducirlas para ejecutarlas con otros parámetros. Que necesitaba una listado con 3 tablas, pues había un modelo que lo copiaba y cambiaba los nombres de las tablas y columnas. Lo mismos para pantallazos de CRUD de entidades, relaciones 1-N o lo que fuera.

    Se trataba de copiar, adaptar, probar y llevar a producción.

    Ahora con un Chat de generación de código se le pondrían una serie de Objetos UML, Diagramas de E-R y el sistema nos podría generar toda una aplicación con CRUD (Aqui les llamaban ABM), y APIs para llamar a los Objetos. La productividad del programador subiría enormemente, sobreviviendo sólamente el programador bueno, y pereciendo el programador mediocre.

    • Gorki - 22 diciembre 2022 - 12:01

      No se si lo hace bien o mal, supongo que mal, pero creo recordar que si le pides a chatGPT que te haga un programa en un leguaje, lo escribe.

      Por supuesto, (supongo que), hoy lo hará mal, como contesta mal a cualquier pregunta que precise una respuesta muy precisa, pero indudablemente estamos en la versión 1.0 y creo recordar, que por Windows, vanos por la versión 12 y ya no salen pantallas azules, ( o casi nunca salen).

      Hay que dar tiempo al tiempo. Al fin y al cabo es traducir del lenguaje español al lenguaje Python. Algo muy complicado, pero no mas, que traducir del española a ideogramas chinos.

      • jpr - 22 diciembre 2022 - 16:24

        Tenía pensado hacer un comentario de los largos con links al caso que se suele estudiar al comienzo de adentrarse en AI ( dataset del Titanic) pero me voy a ahorrar el esfuerzo, ya que por los comentarios que leo en otras ocasiones, este no es blog para gente con gusto a los STEMs ( te salvo a ti, a Menestro, Fer, Alfredo,,….)Aprovecho mejor mi tiempo en no dar dulce…. si son güays para pagar BigML pues que les de luz a su oscuridad, otro payo…

        En esencia estoy de acuerdo contigo, una beta es una beta, que falla, que se sale por peteneras) si, obviamente si, Pero insisto es la mejor beta al respecto que he probado.

        En cuanto a Windows, mejor dicho a DOS, es un puto desastre como ignorarona el OS original UNIX. Cuando Linus Torvalds y otros hicieron a principios de los 90´s el copieteo a PCs del mejor sistema del SXX era la hora de que Microsoft copiara a APPLE

        Apple lo mejor que hizo fue implementar en sus sistemas una base UNIX (Darwin) pero no fue Steve Jobs un innovador fue un copiador de un buen sistema que nació en AT&T.

        Que luego windows, evolucionó, si, que ahora el W11 es mejor que el 3.11 pues claro,… pero mientras tanto han perdido 25 años, haciendo el subno…

      • JPR - 22 diciembre 2022 - 16:32

        chatGPT reacciona y argumenta bastante mejor que el 85% de comentaristas de este blog…

        ahí dejo la estadística

        PS: Felices fiestas a todos menos a uno!!

  • #017
    David - 22 diciembre 2022 - 07:52

    Esta muy bien lo que comentas acerca de chatgpt pero supongo que la clave está en la compañía OpenAI. Espero con ganas un artículo tuyo al respecto!

Dejar un Comentario

Los comentarios están cerrados