El futuro panorama de uso del machine learning

IMAGE: Mohamed Hassan - Pixabay

Mi columna en Invertia de esta semana se titula «Algoritmos propios o ajenos» (pdf), y trata de modelizar lo que creo que será el proceso de adopción corporativa del machine learning, y hasta qué punto se parecerá al de tecnologías anteriores.

La gran discusión en este momento es si estamos hablando de un proceso liderado por las big tech y alguna compañía más, como OpenAI, en proceso de serlo – o de ser gradualmente absorbida por una Microsoft que lo apuesta todo a esta tecnología – frente a un futuro distribuido en el que la gran mayoría de las compañías, al menos para sus funciones críticas, desarrollan sus propios algoritmos.

Desde el punto de vista de alguien que lleva más de diez años viendo evolucionar el panorama del machine learning desde dentro de una compañía dedicada a crear herramientas para ella, la respuesta parece clara: si bien algunos algoritmos, como los conversacionales, pueden representar un esfuerzo de desarrollo para una funcionalidad genérica que pocas compañías pueden estar dispuestas a acometer, el futuro va mucho más allá de utilizar a ChatGPT y a herramientas similares para todo, por mucho que se diga sobre sus capacidades en todas las disciplinas. En primer lugar, porque las compañías, para sus procesos críticos de negocio, requieren un cierto nivel de control y entender qué se hace con sus datos, algo difícil de conseguir por mucho que abras tus algoritmos a tus clientes o al regulador.

En segundo, porque quienes realmente conocen sus datos y sus procesos son las compañías que los generan. Cada industria se va a convertir en una carrera por generar datos de mejor calidad, por saber tratarlos y mantenerlos actualizados, y por desarrollar algoritmos capaces de aprender de ellos, con participación, por supuesto, de consultoras especializadas en ello, pero también con mucho desarrollo interno llevado a cabo con las herramientas adecuadas.

En ese sentido, las cartas abiertas alarmistas y los llamados a la regulación pretenden simplemente crear un clima de criticidad y peligrosidad que lleve a que la tecnología se convierta en el coto privado de unas big tech a las que se quiere presentar como las únicas capaces de llevar a cabo un desarrollo razonablemente seguro, como si no hubieran ya demostrado el nivel de irresponsabilidad que pueden llegar a desarrollar con herramientas anteriores. La dialéctica de «unas compañías que desarrollan y otras que demandan» que pretende propagar Sam Altman es completamente falsa y sesgada, y pretende establecer una carrera armamentística por ver cuáles de las big tech se posicionan mejor: en la práctica, sus productos serán para unos cuántos usos genéricos – con los chatbots no especializados probablemente entre ellos – mientras los procesos de negocio más especializados e importantes en cada compañía tenderán más a ser de desarrollo interno.

En esta revolución nos jugamos mucho. Y sobre todo, por mucho que pretendan algunos… en evitar que se parezca a la anterior.


This post is also available in English on my Medium page, «Behind the headlines, a bitter fight is underway for the control of machine learning»

14 comentarios

  • #001
    Xaquín - 14 junio 2023 - 10:44

    «la tecnología se convierta en el coto privado de unas big tech a las que se quiere presentar como las únicas capaces» (EDans).

    Nada que añadir, solo un toque irrespetuoso.

    Como por ejemplo , lo parecido que suena el mantra de la inicial GOOGle (y toda la filosofía siliconada), «los hipis al poder tecnológico». Que se relaciona, perfectamente, con aquel otro descabellado mantra sesentayochero parisino de «la imaginación al poder». Que tan tristemente famoso, por cierto, se hizo en España con el llamado 15M.

    Como si al poder, sea de quien sea, no le sobrara imaginación. Aunque siempre funcione «por detrás» (de la evolución natural), tiene en su adn social negativo una capacidad inmensa de imaginación para sobrevivir.

    A quienes le falta (y mucha!), es a los que pillan adoquines del suelo para combatirlo. O salen de las tiendas de campaña, sin haber pisado el monte, ni con realidad virtual.

    • SANTAS PASCUAS - 14 junio 2023 - 14:03

      Sobre adoquines e imaginacion, cabe la pena recordar

      “Tirar una piedra es una acción punible, tirar mil piedras es una acción política"
      Ulrike Meinhof

      Ya otro día hablamos como terminaron con la suya

  • #003
    Gorki - 14 junio 2023 - 12:21

    Ya están los políticos tratando de dar normas para la IA

    Propuesta de LEY DE INTELIGENCIA ARTIFICIAL

    Lo cual no me extraña dado la alarma generalizada que la AI ha generado en la mayoría de la población.

    Sin embargo, creo que está confundiendo el objetivo, La AI es una herramienta como lo es un cuchillo, Photoshop o un simple tratamiento de textos, que se puede utilizar para cualquier cosa, unas buenas y convenientes y otras peligrosas y lesivas.

    Así como parece ridículo dar normas para controlar un lápiz, pese a que con él, igual se puede escribir fakenews o se pinte al Rey de Inglaterra practicando zoofilia con una cabra, me parece absurdo «controlar» la AI, aunque si parece muy razonable, castigar a quien usando la herramienta AI, realiza actos contrarios a derecho, sea generar fakenews o imágenes generadas por AI con el fin de desprestigiar a quien sea.

    Son las consecuencias de utilizar la AI las que hay que demonizar, cuando proceda, pero no la herramienta, que como todas las herramientas son en si mismo neutrales.

    En el caso mas extremo, se podría pedir que quien las vaya a utilizar, pase unas pruebas de conocimientos y psicotécnicas, algo que para manejar ciertos aparatos peligrosos, como las armas, o los vehículos, se exige actualmente.

    • SANTAS PASCUAS - 14 junio 2023 - 12:44

      En este resumen te aclaran explicitamente lo de la cabra

      Resumen

  • #005
    SANTAS PASCUAS - 14 junio 2023 - 12:22



    ¿Qué hacer para que tus datos empresariales no vayan al mercado persa?


    .
    Pues resulta que se ponen de moda cosas como los Office’s en la nube, y esos datos ahí están para que los dueños de la nube puedan hacer eso que se llamar «fisgar» o a lo fino «inteligencia de negocio». Hemos leído algo tuyo en contra de Office 365 o Google Office, en entorno empresarial? Pues tiene un peligro… Pero con el ML, no te quedas ahí sino que vas más lejos y recomiendas lo que se conoce como «Machine Learning as a service»,
    .

    La solución a la privacidad en «ML as a Service» no existe, curiosamente te la da la firma lider en el sector, Anaconda, y no, no solo es Python/R. también tienen la mejor app visual open source «Orange3D» que hace lo mismo, es decir te permite perfilar datos y algoritmos de forma visual, y aqui ya eliges tú si los quieres en local o en cloud (gratis/pagando). Las empresas que quieran ser propietarias de sus algoritmos y sus datos, no elegirán una solución en la cloud de otro.

    .

    A Enrique no le gusta la estrategia empresarial de OpenAI


    .
    Luego resulta, que te parece mal el enfoque de Altman, que básicamente es posicionarse como «desarrollador», pero que sin sentido es criticar eso y defender a la vez «desarrollar en la nube de BigML»

    ¿Que hacen con GPT? pues ofrecerte una plataforma para que tu exprimas tus
    datos, pero de forma más potente, utilizando el lenguaje natural y su LLM.

    Obviamente cualquier empresa no va a poder desarrollar, hoy x hoy, un modelo de lenguaje masivo, porque cuesta mucho dinero, y lo que «vende» Altman es utiliza mis servicios y yo te personalizo e integro mi GPT a tus necesidades empresariales. Business de integrador as usual.

    Que no te gusta chatGPT, pues mi sencillo, lo desarrollas tú y tus mariachis, pero nadie te va a poner una pistola con el sello de OpenAI o Google, para que les compres su LLM,

    Pero no puedes decir que OpenAI no es confiable y que BigML si… juegan a lo mismo.. procesar tus datos en SU nube !!

    COHERENCIA !!

    • Lua - 14 junio 2023 - 13:58

      Yo lo dejo… y me voy… (pero me voy….) XDD

      conversacion con la IA (4 imagenes)

  • #007
    Gorki - 14 junio 2023 - 14:47

    Según parece van a prohibir los reconocimientos faciales.

    Plantea prohibir los reconocimientos faciales o regular el uso del chat GPT.

    ¿Qué hacemos, eliminamos todos los videoporteros que tenemos en nuestras casas?

    • Matt - 15 junio 2023 - 01:31

      No, tu videoportero no usa un sistema de reconocimiento facial.

      • Gorki - 15 junio 2023 - 11:12

        No claro, cuando tu miras por la tele, lo que compruebas es la huella digital.
        Si das por conocida la huella le dejas pasar y si no la conoces no le abres.

    • C3po - 15 junio 2023 - 10:03

      El sistema de reconocimiento facial de tu videoportero se llama Gorki, y no es tan basado en inteligencia superior sino en tu memoria, del mismo modo que reconoce un perro a las personas de su entorno.

      Prohibimos los perros?

      • Gorki - 15 junio 2023 - 11:13

        Es reconocimiento facial, o no

        • C3po - 15 junio 2023 - 11:59

          Si cuando llega el amo mueve el rabito, yo diría que si, pero no es una AI, con lo cual está fuera del ámbito de la ley que estamos hablando…

          Busca otro ejemplo…

  • #013
    Matt - 15 junio 2023 - 01:33

    En el mundo en el que vivimos me parece muy iluso creer que este proceso (o cualquier otro proceso) no lo lideraran las grandes compañias.

  • #014
    Mauricio - 15 junio 2023 - 10:12

    Enrique, en tu escrito dices:

    Desde el punto de vista de alguien que lleva más de diez años viendo evolucionar el panorama del machine learning desde dentro de una compañía dedicada a crear herramientas para ella

    Si no entiendo mal, estás diciendo que eres parte de la empresa BigML, aunque tu nombre no aparece en la página del Team. Tal vez seas un asesor externo. En todo caso, ¿no cuestionaría esto un poco tu independencia a la hora de hablar de las regulaciones a la IA ya que potencialmente tendrías algún interés empresarial en este debate?

Dejar un Comentario

Los comentarios están cerrados