La inteligencia artificial como nueva división digital

IMAGE: Raptorcaptor - 123RF

Un artículo en Wired, «Google, Facebook and Microsoft are remaking themselves around AI«, pone de manifiesto algo sobre lo que llevamos ya tiempo hablando, la intensidad con la que los gigantes de la tecnología están cualificando a sus empleados a todos los niveles, incorporando talento y desarrollando nuevos productos basados en el machine learning y la inteligencia artificial, con el fin de cambiar cómo organizan y operan su negocio.

En muy poco tiempo, hemos pasado del AI Winter y de considerar este tipo de tecnologías como algo en el terreno de la ciencia-ficción y el futurismo, a encontrarnos en el medio de una realidad rápidamente cambiante y con avances que se ven en el día a día, hasta el punto de que el desarrollo de este tipo de tecnología y sus aplicaciones a cada vez más ámbitos están comenzando a marcar una auténtica división digital entre las compañías que la tienen y las que no. Desde la atalaya que representan las escuelas de negocios, este fenómeno se ve claramente: la demanda de directivos capaces de entender ese ámbito se dispara a todos los niveles, algunos de los cursos más relacionados con el tema duplican su demanda de un año para otro, y los contenidos se incorporan a prácticamente todos los programas a todos los niveles, desde de una manera simplemente conceptual para entenderlos a alto nivel, hasta de un modo ya directamente práctico y vinculado directamente con el análisis y el desarrollo.

Varios de los entrantes en este terreno parecen tener la estrategia razonablemente clara: desarrollar plataformas de machine learning, y ofrecerlas a terceros en modo plataforma de Machine Learning as a Service (MLaaS). En esa tesitura, que sigo con mucho interés dada mi labor como asesor estratégico en BigML, están desde grandes compañías como Amazon (para quien esa estrategia no deja de representar su estrategia tradicional, desarrollar cualquier servicio, sea logística, cloud computing o lo que sea, y ofrecerla a otros), Microsoft, IBM, Facebook o Google, hasta otra serie de empresas más pequeñas en dimensión, pero seguramente más rápidas y ágiles en el desarrollo de producto. El reto, lógicamente, es crear plataformas cuyo uso no suponga un reto y el tener que disponer de decenas de científicos de datos en plantilla, y adaptarse lo mejor posible a las demandas de unas compañías que, en muchos casos, no saben exactamente lo que quieren o lo que pueden obtener. Por el momento, esta tecnología está en modo «he visto que alguien hace algo y yo también lo quiero», de manera que la verdadera barrera de entrada no es realmente la tecnología, sino el desconocimiento de sus posibilidades.

Estamos en un momento histórico: muchas de las nuevas plataformas de MLaaS hacen que utilizar machine learning sea parecido a la experiencia que tuvimos cuando aparecieron las primeras hojas de cálculo, cuando de manera casi instantánea nos dimos cuenta de que podíamos llevar a cabo complejos escenarios y cálculo matricial sin saber que estábamos haciendo cálculo matricial – o sin siquiera terminar de entender qué diablos era el cálculo matricial. En breve, las compañías se dividirán entre aquellas que son capaces de sacar partido a la inteligencia artificial y al machine learning para sus operaciones cotidianas, y aquellas que las siguen haciendo a la manera tradicional, mucho menos productiva y mucho más impredecible. Estamos hablando de la aparición de un nuevo digital divide, de un evento prácticamente darwiniano en términos de competitividad. Tú verás en qué lado de la frontera te quedas…

 

 

 

This article is also available in English in my Medium page, “Artificial intelligence is the new digital divide»

 

19 comentarios

  • #001
    Jose Antonio Garcia - 22 noviembre 2016 - 12:37

    Como visten el Machine Learning !! hasta hace unos años se manejaba en el lado del bien, el logos, el conocimiento, tan modosito. Y ahora ha saltado a las primeras posiciones del mitos, de la fama, vestidocon la lencería del markketing comercial. Pobre AI tan lejos y tan cerca… vendiendo su alma por 30 monedas… la culpa es de los padres que las visten así,

  • #002
    DANN ELIO - 22 noviembre 2016 - 18:25

    – Hay cajetines de búsqueda y de navegación que se adelantan a tí y te sugieren ellos palabras y frases de lo que quizá estás buscando..
    – Hay cookies de navegador que saben perfectamente los sitios que has visitado, y hasta la fecha y tiempo que has estado en ellos, tu idioma de preferencia, entre otras cosas..
    – Hay puertas de coche que ya se abren sin que tengas que sacar ni la llave del bolsillo, si estás lo suficientemente cerca de tu vehículo.
    – Hay móviles que ya se saben de memoria tu huella dactilar, recuerdan perfectamente tus rasgos faciales, o te dan el acceso inmediato..si «sienten» que estás cerca con una pulsera inteligente puesta en tu muñeca.
    La lista de usos ya en servicio, y de los que van a llegar, parece no tener final…

    En el siglo pasado es posible que muchas máquinas y herramientas hayan pasado por un duro invierno, en el que no podían hacer nada por sí solas, y necesitaban la intervención de un humano guiando para cada uso y acción..A veces personas con una formación específica para el manejo o hasta con un título o carnet para autorizar ese manejo.

    Pero la verdad que en este siglo, cada vez hay más máquinas que saben lo que tienen que hacer por sí solas..Mientras tengan la energía imprescindible para funcionar..las puedes dejar completamente «desatendidas»..que ellas ya saben lo que tienen que hacer..en el momento exacto en el que lo tienen que hacer…y con la persona con la que lo tienen que hacer, o por lo menos la situación en la que actuar.

    Si alguna vez pasaron por un frío «AI winter»..ahora deben estar en un «AI spring»..y lo que se viene encima, porque esto solo tiene pinta de ir cogiendo cada vez más temperatura.

    • Jose Antonio Garcia - 22 noviembre 2016 - 19:31

      El libro de Tom Mitchell de 1997 Machine Learning, creo que viene al pelo, y ahora gracias al «AI Spring» el desfribilador de tontos puede ser una realidad…falta nos hace.

      • DANN ELIO - 22 noviembre 2016 - 20:43

        Buahh !!! Ya te digo Jose.. Si el desfibrilador ese que dices acaba en las manos de la humanidad..lo tendríamos ya más quemado que «El motorista fantasma» !!! :-) ;-):-)

        P.D.: Por cierto, buen libro el de T.Mitchell..y está en PDF y todo…

    • Gorki - 22 noviembre 2016 - 19:39

      Pues debo ser muy pesimista, pero yo aun veo que la IA y la maching lerning esten a la altura que ha conseguido la programación. Me parece mas asombroso, que con una simple tarjeta, pueda pagar en Berlín contra mi cuenta en Madrid, que un teléfono móvil reconozca una huella dactilar Ni contar lo que supone conseguir aterrizar suavemente en una cometa a millones de kilómetros de la Tierra.

      Cuando la Inteligencia Artificial logre tener en su área, la capacidad de una hoja de Excel tiene en la suya, (que estoy seguro que más pronto o tarde lo alcanzará), podremos empezar a hablar de la forma en que va a cambiarnos la vida., pero mucho antes nos la habrá cambiado la robótica tal como ahora existe.

      • Jose Antonio Garcia - 22 noviembre 2016 - 22:39

        Realista te llamaría yo.
        Bien sabes que hace 40 años ya estaba mucho inventado en informática…
        Una cosa es aumentar la fuerza bruta de las máquinas, memoria, etc y otra avances conceptuales… El avance comercial, venderse al lado malo como le llamo, pues siendo positivo, puede que algún nuevo Turing tenga un slot de máquina y nos deje asombrados, pero si no hay materia gris, poco avance podemos esperar,

        • Gorki - 22 noviembre 2016 - 23:26

          En efecto. en la mayoría de los casos lo único que ha aumentado es complejidad, debido al aumento de la fuerza bruta, la memoria utilizada y la velocidad de cálculo. En estos 40 años, solo ha habido un cambio que me haya parecido realmente sorprendente, pasar de la programación lineal, a la programación orientada a objetos, te obliga a ver la realidad que vas a mecanizar de una forma radicalmente diferente.

          • Enrique Dans - 22 noviembre 2016 - 23:32

            Estás completa y radicalmente confundido. En estos años ha habido un cambio fundamental: ahora una máquina es capaz de aprender de todos los resultados anteriores, y de inventarse resultados nuevos para aprender igualmente sobre ellos. Para entender deep learning hay que leer mucho sobre ello y verlo funcionar, ver cómo una máquina se convierte en algo que aprende mejor y mucho más rápido que una persona. Antes de eso, un ordenador era una máquina para hacer lo mismo que una persona, pero más rápido y con menos errores. Ahora, una máquina es mejor que un hombre, sea conduciendo, tomando decisiones crediticias, jugando al Go o infinitas cosas más. El cambio es BRUTAL.

          • Gorki - 23 noviembre 2016 - 09:03

            Puede que esté anticuado, es más no me extrañaria nada el estarlo, pero las máquinas que me rodean,lo unico que se diferencian con las que yo manejé en mis comienzos es en potencia de calculo y volumen de almacenamiento,

            Esas maquinas que aprenden están aun en el laboratorio, lo que nosotros, (y las empresas), tiene a su alcance son ordenadores muchisimo mas potentes que un Spectrum, quizá la diferencia sea un factor de un millón, o en el caso del superordenador Mare Nostrum, de miles de millones,, pero son básicamente un Spectrum.

            Y las máquinas que ganan al GO son máquinas especializadas que tiene algoritmos que valen para eso, pero que no les pidas tu que conduzcan. Desde siempre existen maquinas que resuelven integrales mejor que los hombres, pero eso no las hace mas inteligentes que el Spectrum, solo mucho mas complejas..

          • Krigan - 23 noviembre 2016 - 13:02

            Gorki:

            El hard sigue siendo, como dices, un súper-Spectrum, pero también es cierto que ha habido un cambio por parte del soft.

            Antes la IA no funcionaba. Es así de sencillo: no tenía aplicaciones prácticas. Los programas que le ganaban a los mejores jugadores de ajedrez del mundo en la segunda mitad de los 90 no usaban IA, eran tritura-números similares al Colossus 4 Chess que yo usaba en mi Spectrum a finales de los 80.

            Yo le ganaba al Colossus, pero unos 6 años después de que comprase la casete de ese programa Kasparov fue derrotado en una partida a 30 minutos contra un Pentium 90, y otros 3 años más tarde Deep Blue le ganó un match (6 partidas) a Kasparov en condiciones de torneo (2 horas por jugador para los 40 primeros movimientos).

            Y sin embargo, los programas que ejecutaban el Pentium 90 y Deep Blue eran similares al Colossus, conceptualmente nada había cambiado. El hard era más rápido, eso era todo.

            Pero ya no es así. Watson usa IA, el Koala de Google usa IA. Antes la IA no se usaba, porque no funcionaba, y ahora sí.

            Claro está que podemos preguntarnos si los algoritmos de IA son verdaderamente inteligentes, o si la IA es simplemente una denominación engañosa. Para mí sí es inteligencia, dado que esos algoritmos (a diferencia del Colossus) aprenden con la experiencia. ¿Acaso la inteligencia es otra cosa?

            Al margen de debates sobre qué es la inteligencia, lo cierto es que sí ha habido un cambio en el soft. Antes la IA no se usaba, no funcionaba, ahora sí. Antes, si la entrada del programa era la misma, la salida también lo era (salvo que usases una fuente de números aleatorios). Ahora, la salida no solo depende de la entrada inicial, sino también de las experiencias que vaya ganando el programa.

          • José Enrique - 25 noviembre 2016 - 23:16

            ¿Creatividad quizás? No hay inteligencia sin ser capaz de inventar las respuestas. No se trata de escoger la mejor entre todas las respuestas posibles sino de incluir también las imposibles.

            Un niño de 10 años jugando al tenis aproxima el bote de la pelota miles de veces más rápido que cualquier ordenador usando los input que tiene a su disposición: dos ojos (o uno) y sus oídos.

  • #012
    Antonio Ruiz - 22 noviembre 2016 - 19:50

    Desde hace un tiempo que te leo, pero nunca había escrito. Muy buenos posts.

    Saludos,

    Antonio

  • #013
    Pablo Martínez-Almeida González - 22 noviembre 2016 - 22:40

    Andrew Ng, al que el artículo de Wired cita de pasada, publicó hace un par de semanas un pequeño artículo en HBR titulado What Artificial Intelligence Can and Can’t Do Right Now.

    • Daniel Terán - 23 noviembre 2016 - 14:56

      Gracias. Efectivamente las cosas no han cambiado mucho ;)

  • #015
    Pablo Martínez-Almeida González - 22 noviembre 2016 - 23:49

    Enrique, no me cabe duda de que la inteligencia artificial será parte importante del futuro, y directivos y empresas deberían empezar a pensar cómo puede afectarles en el medio plazo. Mientras para algunos puede representar una amenaza para su modelo de negocio, para otros se trata de una gran oportunidad. Y quizá sea ambas cosas a la vez para la mayoría.

    Particularmente no dejo de darle vueltas a la capacidad disruptiva que puede suponer la aparición de sistemas de recomendación de productos (personal shoppers, shopbots o como queramos llamarles) basados en estas tecnologías.

    Estos programas nos permitirían obtener información, negociar y realizar transacciones, lo que tendría consecuencias extraordinariamente importantes en los procesos de marketing y venta de todo tipo de productos y servicios.
    Además, la difusión de estas herramientas provocaría una pérdida de relevancia a empresas y marcas al reducir el contacto directo entre estas y sus clientes.

    Las implicaciones de este escenario son múltiples, y el botín para los líderes podría ser muy jugoso. Os dejo mi reflexión al respecto en Medium: Por qué la inteligencia artificial va a cambiar la estrategia de tu empresa.

  • #016
    Pedro Trillo García - 23 noviembre 2016 - 09:35

    Dentro de todo el ecosistema, os recomiendo Algorithmia , como empresa mediana que ha sabido llevar el machine learning y AI a un proceso de algoritmos bajo demanda rompiendo las barreras de entrada a estas tecnologías. Y ofreciendo mucho valor dentro de un modelo de negocio totalmente nuevo.

    Es buena noticia que se habrán las plataformas de una manera muy accesible para cualquier empresario que trabaje con tecnología, como bien cita Kevin Kelly, el roadmap a 10 años de cualquier startup pasa por coger X y añádir AI, no es una moda, es el modelo de negocio al que van todas las grandes compañías de IT. Y lo bueno es que no se trata de supertecnologías inaccesibles y entendibles por unos privilegiados, están al alcance de cualquiera, hoy en día en 2016 en 2020, serán funcionalidades básicas dentro de cualquier desarrollo.

    • Jose Antonio Garcia - 23 noviembre 2016 - 16:59

      Decir que algorithmia está abierto a cualquiera, es no terminar la frase, está abierto a cualquiera que quiera pagar, ok, te regalan 5000 créditos…

      Scikit-learn si que está abierto a cualquiera

      http://scikit-learn.org/stable/

  • #018
    Jose Antonio Garcia - 23 noviembre 2016 - 15:16

    Esta vez no voy a argumentar a favor de lo que mantengo en los posts de arriba.

    Me voy a imaginar por un momento que es cierto que ha habido un cambio significativo en el Software, de hecho si lo ha habido pero en el movimiento de la FSF, un cambio conceptual muy importante, pero los ejemplos que citais son de código privativo, que un SW juegue bien al GO no significa ninguna singularidad, salvo que te lees su marketing y crees lo que dices a pies juntillas, eso no es ciencia…

    ¿Podeis citar referencias serias desde el punto de vista científico o académico que avalen que realmente hay un cambio BRUTAL, p.ej. en los últimos 5 años en el deep-learning? que por cierto ya empezaba en 1965….

    Si quereis seguir vendiendo la burra, vale. Pero ser un poquito serios en los planteamientos.

    https://devblogs.nvidia.com/parallelforall/deep-learning-nutshell-history-training/

  • #019
    MIGUEL ANGEL CARDABA ENJUTO - 24 noviembre 2016 - 20:50

    Hay tres factores que están haciendo que la IA pase de ser un bonito sueño a algo material:

    Primero: los datos. La masa de datos que hoy son almacenados es brutalmente superior a cualquier cosa que se haya visto antes. Gigantes como los citados (Google, Facebook, y demás) almacenan cantidades inmensas (y crecientes) de datos. Son esos datos los que se están utilizando para entrenar a las IAs. Sin ellos, es imposible ejecutar un modelo de aprendizaje.

    Segundo: el hardware. El precio de la capacidad de cómputo sigue bajando. Si la Ley de Moore se cumple o no, se lo dejo a los especialistas, pero la capacidad de proceso que hoy está al alcance de una compañía de gran tamaño es tremenda. Y en este caso ya no hablo sólo de los gigantes de internet. Muchas compañías españolas tienen capacidades en sus CPDs que no se hubieran soñado hace años.

    Tercero: experiencia. Es cierto que los principios teóricos de la IA tienen décadas de antiguedad, pero sin ingentes masas de datos y hardware capaz de procesarlos a un precio razonable, simplemente no se podían probar y corregir. Se habla de ciencia de datos, pero en buena medida se trata de ingeniería: principios básicos son aplicados, ciertamente, pero se aprende de los errores, se constata qué soluciones funcionan y cuales no, y se refinan constantemente.

    De esta manera, es la confluencia de los tres factores lo que ejerce un factor multiplicador. Cada uno de ellos, por separado, no explica lo que está pasando.

    Por último, hay una condición necesaria para que todo esto esté ocurriendo: la existencia de un nicho de mercado donde las inversiones necesarias tengan un sentido económico. Es este nicho el que han proporcionado hasta ahora Google, Facebook y demás, en cuyos negocios disponer de agentes que sean capaz de actuar con «inteligencia» para realizar diversas tareas es una ventaja competitiva enorme. A partir de aquí, el conocimiento, como siempre, se filtra hacia otros sectores económicos en las que esta innovación tenga sentido.

    El genio está saliendo de la botella …

Dejar un Comentario

Los comentarios están cerrados