Inteligencia artificial y machine learning como nueva frontera

Las tecnológicas pelean por la inteligencia artificial - Cinco DíasMarimar Jiménez, de Cinco Días, me envió algunas preguntas para documentar su artículo publicado ayer y titulado “Las tecnológicas pelean por la inteligencia artificial” (pdf). El tema me tiene prácticamente obsesionado desde hace ya algún tiempo, lo sigo todo lo que puedo y estoy planteándome un curso electivo sobre ello con el fin de ponerme aún más presión para mantenerme actualizado.

Por el momento, me planteo como primer reto conseguir transmitir la idea de que la inteligencia artificial y el machine learning no tienen nada que ver con cuestiones como la automatización, la elección de elementos de un menú o el “hacer lo que hace un humano pero más rápido”. La idea parece simple, pero compruebo constantemente en mis cursos como el directivo medio, tras muchos años acostumbrado a que “un ordenador sirve para hacer tareas repetitivas de forma más rápida y productiva”, tiende a no asimilar la idea de que hay muchas cosas que ahora, una máquina puede hacer mucho mejor que un hombre, y que sus capacidades no se limitan a hacer lo que le hemos especificado que haga, sino a que vaya mucho allá y progrese mucho más rápido, porque precisamente una de las cosas que un ordenador ya puede hacer mejor que una persona es aprender: es más sistemático en la captura de datos, tiene más posibilidades de jugar con esos datos e iterarlos hasta encontrar respuestas, es mejor a la hora de entender el efecto de las restricciones, y puede ser incluso más imaginativo a la hora de buscar soluciones no convencionales.

Ejemplos como el juego del Go o la conducción autónoma sirven a medias: cuando un directivo entiende que el Alpha Go de Google es capaz de concebir jugadas nunca hechas anteriormente por un humano, y que llega a ellas no siguiendo ningún ejemplo, sino iterando y jugando partidas contra sí mismo, tienes algo avanzado. Cuando es capaz de aceptar que, por mucho que “le guste conducir“, es un auténtico torpe peligroso comparado con los procesos de toma de decisiones, la captura de información del entorno, los reflejos y la precisión de un vehículo autónomo, e incluso que la propia marca del anuncio ya ha abjurado de su eslogan, ganas otra base. A partir de ahí, adentrarse en los mecanismos que permiten que una máquina aprenda y cómo eso se traduce por ahora en cosas como Siri – que está generando un auténtico perjuicio de imagen a la AI por culpa de lo tonta y limitada que es – o en un panorama competitivo radicalmente redibujado en el que lo que importa es ser capaz de desarrollar los mejores algoritmos de machine learning, resulta ya bastante más complicado.

Entender el rosario de adquisiciones en el ámbito del machine learning es ya de por sí un reto: la escalada en la secuencia y en los precios, unida al hecho de que las compañías adquiridas resultan en todos los casos completas desconocidas para el gran público y a que la relevancia del caso está fundamentalmente en quién compra y qué cabe pensar que hará con ella, lo convierte en un panorama complejo y volátil. Si añadiésemos fichajes y acuerdos de colaboración, resultaría muy difícil identificar algo en esta especie de juego de sillas musicales, pero sí se marcan algunas tendencias interesantes. Por el momento, y tomando las operaciones de adquisición en este ámbito desde 2011, el panorama es digno de estudio y genera no pocas inquietudes, así como la necesidad de estudiarlo detenidamente para tratar de entender con qué tipo de cuestiones nos vamos a encontrar en cada una de las industrias. Si te parecen muchas adquisiciones, no te preocupes: vendrán más, más caras y más ambiciosas. Esta carrera no se detiene.

Si algo tengo claro es que la combinación de inteligencia artificial y machine learning va a suponer, en poco tiempo, un cambio dimensional más grande que el que significó la llegada de internet.

 

A continuación, las preguntas y respuestas que intercambié con Marimar:

P. Google presentó hace unos días sus móviles Pixel y toda una batería de dispositivos, donde la compañía dejó claro que la inteligencia artificial tendrá un papel relevante. También Samsung acaba de anunciar que compra Viv, un asistente inteligente desarrollado por los creadores de Siri de Apple. ¿Qué está pasando? ¿Por qué este énfasis de los fabricantes de dispositivos (también está Apple, Microsoft y Amazon) por la inteligencia artificial?

R. La inteligencia artificial y, sobre todo, el machine learning son la nueva frontera, el ser o no ser del momento competitivo, la redefinición de lo que los productos o servicios son capaces de hacer. Para entenderlo es fundamental mirar la inteligencia artificial con la perspectiva de los años, de una disciplina que se ha visto sujeta a períodos de inactividad (AI winters) y que, en los últimos años, ha experimentado una auténtica revolución, no solo con el replanteamiento de lo que puede ser capaz de hacer, sino también de los recursos que son necesarios para hacerlo. Pasar de la supercomputación a la posibilidad de asistentes sencillos, construidos fácilmente y al alcance de cualquiera es como plantearse lo que las hojas de cálculo hicieron por el cálculo matricial: una auténtica revolución, una caída de las barreras de entrada brutal. Mientras muchos directivos siguen sin ser capaces ni de imaginarse lo que es la inteligencia artificial y siguen pensando que “un ordenador solo puede hacer lo que hace una persona pero más rápido”, la gran verdad es que las compañías que no sean capaces de reenfocar su actividad para generar datos y desarrollar algoritmos de machine learning que les permitan plantear mejores productos y servicios, desaparecerán.

P. Siri, Google Assistant, Cortana, Alexa… ¿Qué asistente es el más potente en la actualidad y por qué?

R. El reto en este momento es ser capaz de atraer talento y desarrollar equipos de investigación, y en los últimos tiempos, Apple parece estar quedándose atrás. Hay una enorme competencia por el talento, vemos muchísimas compras de startups en machine learning y movimientos de todo tipo, redefiniciones corporativas drásticas: Google ha replanteado completamente su estructura organizativa y su roadmap de productos para ponerlo en función de los desarrollos en machine learning, ha formado a todo su personal en el tema, y define el machine learning como su futura ventaja competitiva, ser capaz de que sus algoritmos aprendan más rápido que los demás. Facebook, Amazon o Microsoft trabajan en el mismo sentido, y Apple, aunque lo intenta desesperadamente, tiene que luchar con una visión más restrictiva de la privacidad que le impide generar y explotar datos de manera ambiciosa, y con una vocación por el secretismo que actúa como un repelente ante el talento, porque lo que un investigador de AI quiere no es trabajar en una compañía y que nadie se entere de lo que hace, sino poder publicarlo, compartirlo con la comunidad y progresar más rápido. Es el momento de las startups en este ámbito: las compañías que tengan herramientas potentes que supongan una caída de las barreras de entrada, que permitan plantearse modelos de machine learning sin tener un ejército de data scientist en plantilla, son las que tienen ahora mejor futuro.

P. Facebook con sus chatbots e IBM con Watson también se suman a esta batalla por dominar la inteligencia artificial. ¿Cuáles son las limitaciones actuales y qué promesas ofrece?

R. Las limitaciones son escasas. Un algoritmo puede recoger datos del entorno mucho mejor y de manera más rigurosa que una persona, puede analizarlos con un portfolio de herramientas mucho más potente, y puede aprender de las variaciones mucho más rápido, para generar resultados mejores. Algunos todavía se autolimitan creyendo que la máquina solo puede escoger opciones de un menú predeterminado, cuando la realidad es que las máquinas ya pueden tomar muchas decisiones de muchos tipos de manera más fiable y rigurosa que una persona. La limitación, en este momento, ya no está en la potencia de computación, sino en los datos con los que contamos. Con los datos adecuados se pueden hacer cosas increíbles, pero muchas compañías aún ni siquiera entienden la necesidad de planteárselo.

P. ¿Crees que la inteligencia artificial cambiará todas las industrias? Ponme algunos ejemplos de cómo cambiará la de los dispositivos de electrónica de consumo (móviles, altavoces, ordenadores…)

R. La inteligencia artificial cambiará todas las industrias capaces de generar datos para analizarlos, y eso, seguramente, incluye a todas las industrias. La diferencia entre plantearse un asistente que responde a tus preguntas de manera torpe (y que la mitad de las veces, en lugar de responderte, te busca en Google lo que tú has dicho) y otro capaz de entenderte perfectamente – ya no lo que dijiste, sino lo que quisiste decir – en función de su experiencia contigo, con tu lenguaje, con tu acento y con tu personalidad es sencillamente brutal. A partir de ahí plantéate máquinas que genuinamente podemos decir que piensan: que escogen la mejor herramienta para cada problema, que toman decisiones, que proporcionan respuestas adecuadas, que se adelantan a lo que queremos hacer de manera eficiente… estamos en un momento en que ya casi tenemos más herramientas que ideas maduras y desarrolladas para utilizarlas

P. ¿Qué avances tecnológicos están permitiendo que todo esto sea posible? Porque supongo que la tarea de enseñar a los ordenadores y móviles a actuar de forma más natural e inteligente ha supuesto enfrentarse a algunos problemas informáticos complejos.

R. El artífice de la verdadera caída de las barreras de entrada, además de la disponibilidad de tecnologías mejores y mucho más baratas, ha sido el desarrollo del machine learning. Mediante las herramientas y procesos adecuados, una máquina ya puede aprender mejor, más rápido y de manera más fiable que una persona partiendo de los mismos datos, y ni siquiera es necesario que parta de los mismos datos, porque con los sensores y la tecnología adecuados, puede en realidad partir de muchos más y procesarlos de maneras que un humano jamás podría imaginar. Mentalmente, tenemos que sobrepasar la absurda frontera que durante muchos años nos llevó a pensar que los ordenadores eran máquinas que hacían cosas más rápido, y pasar a otra que nos lleve a intentar imaginar qué podría hacer una máquina con los datos que nuestra actividad es capaz de generar.

P. ¿Está esta tecnología ya lista para el mercado de masas?

R. Tenemos cada vez más productos basados en este tipo de tecnologías, porque pueden desarrollarse ya de manera relativamente sencilla, y porque existe toda una generación nueva de usuarios que no ven preocupante ni negativo interaccionar con máquinas. Mientras muchos adultos todavía reaccionan mal ante una máquina que les ofrece un servicio y tratan de presionar el cero desesperadamente para ver si aparece una persona, hay miles de adolescentes enviando una fotografía de su cara a un bot en Kik para que les diga si están bien maquilladas o si se han pasado con el colorete.

P. ¿Qué riesgos ves a todo este avance? ¿Puede ser la pérdida de privacidad el más importante?

R. La privacidad no es algo que pueda reclamarse de manera absoluta, no podríamos vivir en un mundo en el que defendemos nuestros datos a toda costa y por encima de todo. La privacidad hay que entenderla como un balance: qué datos proporciono a quién y a cambio de qué. Durante muchos años se ha dicho que Google o Facebook saben más de nosotros que nosotros mismos, y sin embargo, no ha habido cancelaciones ni cierres de cuentas masivos. ¿Por qué? Sencillamente, porque lo que nos ofrecen no nos resulta molesto, sino que nos parece útil, una propuesta de valor adecuada. Mediante la inteligencia artificial y el machine learning se incide en ese lado de la ecuación, en la propuesta de valor: las compañías que la utilizan pueden ofrecer productos y servicios mejores mediante la explotación de los mismos datos, y eso lleva a que el usuario vea más natural cederlos, porque la contraprestación le parece adecuada. Las soluciones absolutistas y las restricciones drásticas no tienen ningún sentido, hay que replantearse todo esto, y será necesaria mucha educación para ello.

 

 

This article is also available in English in my Medium page, “Artificial intelligence and machine learning: the new frontier

 

13 comentarios

  • #001
    lector - 14 Octubre 2016 - 09:51

    El software que hace que un coche se conduzca sólo es el mismo que hace que un asistente pueda entender lenguaje natural o recomendar una operación de trading? Es el mismo que el software que autooptimiza la energía de un centro de datos de Google?

    Más preguntas. Qué algoritmo o técnica nueva ha surgido estos últimos años que sea diferenciadora? A ver si va resultar que la revolución viene más bien por el hecho de que tenemos una mayor fuente de datos y capacidad de procesamiento para aplicar una serie de algoritmos que de nuevos tienen poco.

    Me da la sensación de que se exageran las cosas como casi siempre. Ahora son las máquinas capaces de pensar y hace 10 años, no? No, ni ahora ni antes. Se ha conseguido modelar un software que sea capaz de evolucionar al estilo del cerebro y resolver por si solo cualquier problema que sea distinto de los problemas por los cuales inicialmente se ha diseñado?

    Creo que cada vez se puede sacar más partido a la informática ya que cada vez hay más datos que procesar y con lo cual se pueden dar más resultados. Pero ni las máquinas piensan ya ni las técnicas que se usan son tan revolucionarias. A menos que queramos retorcer el concepto de “pensar” y considerar que cualquier tarea que resuelva un humano hecha por una máquina implica que la máquina piensa. No, la máquina lo resuelve precisamente por un software hecho por un humano aplicando una serie de algoritmos para ese dominio más o menos específico.
    Es decir, el mérito sigue siendo para el humano.

    El día en que se pueda lanzar un software que implique que ya no haga falta pagar ni a programadores ni a matemáticos ni a físicos quizá podamos considerar que hemos llegado a esa meta. Yo creo que eso llegará ya que el cerebro no es algo místico, quizá sea posible modelarlo en su complejidad algún día, pero ese dia no ha llegado. Todavía no entendemos bien como funciona el cerebro, cuando lo sepamos probablemente seamos capaces de modular un software que funcione como él. Hasta entonces lo que estamos haciendo es ejecutar algoritmos bien conocidos sobre conjuntos más o menos grandes de datos.

    “Las limitaciones son escasas”. Discrepo pero con un mensaje optimista: llegaremos a conseguirlo ya que lo que hace el cerebro humano no es magia. Sin llegar a ese punto podemos seguir automatizando cada tarea que identifiquemos. No es lo mismo que un cerebro artificial que resuelva por nosotros, seguimos necesitando realizar nosotros esas automatizaciones (la gente que trabaja en Silicon Valley también son personas) pero no por ello dejan de ser útiles.

    • Daniel Terán - 14 Octubre 2016 - 11:35

      Sí, los algoritmos que se aplican son apenas una docena y están basados en cálculo matricial de toda la vida.
      Lo que ocurre ahora es que un datacenter puede analizar cantidades masivas de datos teniendo en cuenta millones de variables, llegando así a conclusiones inimaginables para los seres humanos, que somos más limitaditos en eso.

    • Enrique Dans - 14 Octubre 2016 - 11:47

      No, hay muchas cosas nuevas. Los random forests, por ejemplo, provienen conceptualmente de 1995, pero su instrumentación analítica y de software no se empezó a aplicar hasta que la tecnología permitió aplicarlos fácilmente y sin un coste brutal – sin requerir supercomputación – a grandes conjuntos de datos. Con los árboles de decisiones o el bootstrapping ocurre algo parecido, son técnicas antiguas, pero no se podían aplicar fácilmente, y en ellas (y en otras más, por supuesto) se basa, por ejemplo, el que un algoritmo pueda competir contra sí mismo para obtener soluciones cada vez mejores – todo ello explicado a un nivel de simplificación, brutal, por supuesto. Con muchos ensembles, y con las redes bayesianas (sí, ya sé que Bayes murió en 1761 :-) ocurre lo mismo, aplicarlas a grandes cantidades de datos requería recursos muy complejos. Lo que antes tenías que hacer con un supercomputador carísimo que prácticamente solo tenía IBM, ahora lo haces en la nube, con máquinas sencillas, y mediante servicios on demand, y eso es lo que realmente posibilita el desarrollo enorme de la AI y del machine learning. Eso es lo que resulta fundamental entender…

      • Mario - 14 Octubre 2016 - 21:56

        Esta semana se ha dado un paso muy importante en el campo de la inteligencia artificial:

        Razonamiento simbólico en redes de neuronas artificiales con memoria externa

        Ver el siguiente enlace de Fracisco R. Villatoro

        http://francis.naukas.com/2016/10/13/37363/?utm_source=feedly&utm_medium=rss&utm_campaign=37363

      • David - 16 Octubre 2016 - 18:28

        Enrique, estudiate los modelos seq2seq y en concreto los papers de Oriol Vinyals, español que trabaja para DeepMind, son modelos que han sido descubiertos en los últimos 5 años y que estoy convencido que van a revolucionar muchas industrias.

    • Gorki - 14 Octubre 2016 - 14:25

      Cualquier cosa que se haga en un PC actual. se sabia hacer en 1980, lo que pasa es que el Hardware por ejemplo de un Amstrad, no soportaba es softweare y los almacenes de datos necesarios. ¿Para qué iba a desarrollarse un videojuego en 3D, o Photoshop?

      La teoria en que se basa la inteligencia artificial y la “machine learning” existe desde por lo meno hace 20 años y el lenguaje C permite perfectamente desarrollar este tipo de cosas. Yo desarrolle una aplicacion que traducía los programas en RPG en programas en Cobol utilizando C y hasta los comentarios salían en el sitio adecuado.

      El problema es que la IA y la “machine learning” exigen un hardware que sólo ahora con los procesadores “multicore” se puede afrontar, ¿Para qué se iba a desarrollar antes? Para vencer al Go se necesitan superordenadores únicamente poseía IBM. ¿Para qué iba a desarrollarse la IA, o la “machine learning” ?

      Pese a lo dicho, mi sensación es que la IA está mucho menos avanzada que lo están los programas de cálculo. No hay una IA de propósito general, en cambio las bases de datos, si son de propósito general. Y mientras no se desarrolle la IA no se desarrollará la “machine learning” que no es mas que una aplicacion especializada de la IA

      • Asier - 14 Octubre 2016 - 17:41

        Basta ya del mito de que todo lo que se hace hoy en un PC ya se sabía hacer con los primeros ordenadores o que los algoritmos de la IA son básicamente los mismos que cuando se teorizó sobre ellos.

        Es que si nos ponemos así nos podríamos remontar a cuando se inventó la primera puerta lógica y decir que toda la informática es básicamente una combinación de ellas.

        El desarrollo en herramientas, técnicas, teorías, algoritmos, etc. es constante y se han aplicando a medida que eran útiles, y concretamente el campo de la IA es un hervidero ahora mismo en ese sentido.

        • Gorki - 15 Octubre 2016 - 16:56

          Si te molestas en buscar los proyectos de fin de carrera de las primeras promociones que salieron de la escuela de Informática de Vallecas, (año 1980 aproximadamente), hay montones de trabajos en ese sentido.

          Un compañero salido de esa Universidad. había hecho un proyecto para que las máquinas entendieran el lenguaje escrito, (algo así como escribir “imprime el fichero XXX”) y lo transformaran en mandatos en APL, (A Programing Language), un lenguaje muy adecuado para estos menesteres porque podía funcionar en una IBM 5100 antecesora del PC, y era un lenguaje intérprete y no necesitar compilación.

          Claro esta el APL5100 tenia solo 64K de Ram y fucionaba en su inicios con dos Data Cartridge (como casettes de audio , pero mejores) y claro con eso solo se pod´çian hacer virgerías hasta un punto, la traducción de los escritos a lenguaje APl era terriblemente lenta para ustilizar el sistema en la práctica..

    • David - 16 Octubre 2016 - 18:23

      Uno de los algoritmos que ha sea descubierto en los últimos 5 años son las redes neuronales que permiten tener como entrada una secuencia y salida otra secuencia, llamados seq2seq, las aplicaciones son infinitas, ya que casi todo en la realidad son secuencias, DNA, lenguaje, series temporales, cambios de estado, etc, etc, etc. Yo creo que este nuevo tipo de redes neuronales recurrentes van a traer multitud de productos disruptores.

  • #010
    Muadib - 14 Octubre 2016 - 13:56

    La nota de hoy de El Pais:

    http://elpais.com/elpais/2016/10/11/ciencia/1476198364_606098.html

  • #011
    Gorki - 14 Octubre 2016 - 17:38

    . Los accidentes de tráfico están causados a menudo por errores que cometemos, las enfermedades por pautas de vida poco saludables, los malos diagnósticos porque al médico se le pasó algo por alto o porque no estaba prestando suficiente atención, y así sucesivamente. Pero todo eso tiene solución, que la ciencia nos va a proveer de instrumentos para que todas esas decisiones equivocadas desaparezcan. El mundo va a cambiar radicalmente gracias a los algoritmos, el big data y la inteligencia artificial, y de ahí podremos extraer las mejores soluciones.
    ….
    El mundo no se dividirá entre ricos y pobres, sino en superhumanos mejorados, humanos que les resultan útiles y una enorme masa prescindible

    Yuvan Noah Harari: “El poder está en manos de quien controla los algoritmos”

    http://www.elconfidencial.com/alma-corazon-vida/2016-10-14/harari-poder-control-algoritmo-elite-salud_1274660/?utm_source=twitter&utm_medium=social&utm_campaign=BotoneraWeb

    • xaquin - 14 Octubre 2016 - 20:46

      Sin discrepar totalmente del Harari, sigo creyendo que el poder lo tiene quienes manejan ” los cuartos” (cuando la gente persiga algoritmos hablaremos de nuevo!).

      • Gorki - 15 Octubre 2016 - 17:02

        Hoy quien tien los cuartos tien los algoritmos, Larry Page y Sergey Brin, Mark Zuckerberg, Jeff Bezos, Travis Kalanick, Brian Chesky, Joe Gebbia, …

Dejar un Comentario

Los comentarios están cerrados