Inteligencia artificial, buzzwords y valor competitivo

IMAGE: LinearTestPilot - 123RFUn número creciente de artículos alertan acerca del uso de la inteligencia artificial como puro buzzword, como simple etiqueta de marketing para presentar una imagen “moderna” de los productos de una compañía, un tema sobre el que ya hablé en esta entrevista en El País a raíz de mi participación en el foro de la OCDE dedicado al tema en París el pasado junio.

Sin duda, el desarrollo de la inteligencia artificial en general, y del machine learning en particular van a suponer uno de los cambios más importantes en el desarrollo de la tecnología: la capacidad de que un algoritmo aprenda de unos datos de manera no supervisada permitirá funciones que hoy posiblemente no podemos imaginar, en todos aquellos contextos que determinen problemas estables, altamente predecibles y en los que resulte razonablemente fácil recolectar gran cantidad de datos de entrenamiento. No, no hablamos de máquinas capaces de pensar como tales, pero sí de posibilidades muy reales de crear productos que marquen una diferencia competitiva, un factor diferencial en compañías cuyos directivos entiendan de qué estamos hablando. Quienes crean que la inteligencia artificial es algo que “se compra y se instala”, o peor, quienes la quieran ver como una simple etiqueta de marketing, un buzzword para que unos productos se vean más modernos, tropezarán con la tozuda realidad de que cualquier desarrollo de este tipo conlleva procesos largos, manuales y complejos de definición de objetivos, de recolección y transformación de datos, y ingeniería de procesos para comenzar a obtener resultados. No, usar una red neuronal o poner etiquetas no te convierte en una compañía de inteligencia artificial, y mucho menos, de la noche a la mañana. 

Un ejemplo interesante es el del desarrollo de las dinámicas competitivas en el segmento smartphone: obviamente, uno de los principales factores que definirán el liderazgo se encuentra en la naturaleza y prestaciones de los chips empleados. Que uno de los competidores más interesantes del momento y tercero por cuota de mercado, Huawei, anuncie la incorporación de un nuevo chip dedicado a funciones relacionadas con la inteligencia artificial tan solo unos días antes de que Apple ponga a toda pantalla en su evento de presentación su microprocesador A11 Bionic no es casualidad, como tampoco lo es que Google adquiera activos e incorpore personal de HTC con el fin de ser capaz de liderar el panorama tomando el control ella misma de la incorporación de funciones de inteligencia artificial a sus terminales. Toda una operación de 1,100 millones de dólares, llevada a cabo para poder incorporar inteligencia artificial a un smartphone, convertirlo en diferencial, y extraer dinero de ello.

¿Qué es un chip AI? Básicamente, una etiqueta de marketing. La palabra “Bionic” en el A11 presentado por Apple no es más que una forma de ponerle un nombre comercialmente atractivo a algo tan aburrido como un chip, pero indica algo muy importante: el desarrollo de chips más potentes y con algunas funciones especializadas para poder llevar a cabo determinadas tareas relacionadas con el machine learning. Básicamente, ser capaz de proporcionar la capacidad de procesamiento adecuada para, por ejemplo, procesar una matriz de puntos en tiempo real y que entienda que es tu cara, o gestionar un asistente de voz con prestaciones cada vez mejores y más avanzadas. La etiqueta “Bionic”, por tanto, puede ser simplemente marketing, pero las prestaciones del chip están muy lejos de serlo, y llevan a pensar en un ecosistema smartphone en el que la rivalidad se construirá, fundamentalmente, entre aquellos fabricantes capaces de desarrollar chips más competitivos.

Por un lado, claramente, todos los fabricantes que incorporan chips de Qualcomm, convertido en casi un estándar de facto del mundo Android, y sin duda con una importante trayectoria y experiencia. Pero por otro, Google, que además de pretender dominar la carrera de los asistentes de voz, se dispone a incorporar una nueva generación de chips de desarrollo propio específicamente diseñados para este tipo de tareas, que ubican a la compañía en disposición de presentar batalla a fabricantes de chips tradicionales. Apple, por su parte, pretende dar batalla con su A11 y con desarrollos algorítmicos centrados en Face ID, en Siri y en fotografía, productos en los que el usuario pueda percibir claramente el avance que supone la aplicación de inteligencia artificial, mientras Huawei se dispone a presentar sus nuevos chips y avances en su próximo modelo, el Mate 10. Fuera de ahí, no hay mucho más: una elevación de barreras de entrada por lo que supone la necesidad de tener acceso a un chip competitivo y potente para poder poner en práctica aplicaciones de inteligencia artificial desde un terminal de bolsillo, con todo lo que ello supone. Cada vez más, el atractivo de un terminal vendrá dado por las aplicaciones de inteligencia artificial a todo tipo de tareas que pueda tener: tomaremos nuestras fotos con el auxilio de un asistente basado en esta tecnología, hablaremos con otro asistente que nos entenderá cada vez mejor, otro nos reconocerá, y varios más se encargarán de cosas que aún no alcanzamos a imaginar. Una auténtica redefinición del espacio competitivo, en función del desarrollo de la inteligencia artificial. Eso sí es real, no las etiquetas.

Ahora, plantéate el caso del futuro del smartphone, y trata de derivar de él algunas enseñanzas y consecuencias de cara al futuro de tu negocio. Te puedo asegurar que las hay. Y si no eres capaz de encontrar o imaginar ninguna… preocúpate!

 

 

 

This article was also published in English at Forbes, “Artificial Intelligence, buzzwords and competitive value

 

12 comentarios

  • #001
    Krigan - 25 septiembre 2017 - 11:52

    Muy interesante la tendencia iniciada por Huawei y Apple de incluir un componente “neuronal” en sus soc. Obviamente esos soc pueden ser incorporados no solo en móviles, también en otros aparatos como el Amazon Echo. Implica una descentralización parcial de la IA, que no sea tan dependiente de la nube, sino que toda o parte de la funcionalidad se ejecute en el correspondiente aparato del usuario final.

    En oposición, las TPU de Google son chips para la nube, se instalan en los datacenters. Google tiene una marcada tendencia a preferir que todo se haga en la nube. Habrá que ver si tarda mucho o poco en incorporarse a esta tendencia. No porque vaya a sacar necesariamente sus propios soc “neuronales”, sino de otras maneras. Por ejemplo, incorporando soporte para estos soc en Android. En realidad ya ha iniciado este camino al incorporar TensorFlow Lite (diseñado para ejecución local, no en la nube) en Android Oreo.

    Responder
    • Enrique Dans - 25 septiembre 2017 - 12:38

      Totalmente. Uní a Apple y Huawei con Google en el post, a pesar de ser cosas diferentes, porque mi impresión es que del desarrollo de sus TPU, Google puede extraer muchos componentes de cara a su incorporación en el smartphone, y de ahí vendría la incorporación de HTC, de ganar ingeniería propia para hacer precisamente eso ahora que se convierte en elemento competitivo fundamental… ese balance entre tareas en la nube y en el dispositivo va a ser muy importante en el futuro.

      Responder
    • JJ - 25 septiembre 2017 - 15:52

      Muy buena la observación de Krigan marcando la diferencia entre la IA en la nube y en el propio smartphone. Pero mi sensación es que la verdadera IA estará en la nube, y que lo de Huawei es puro marketing para vender sus nuevos microprocesadores, que parecen muy potentes.

      “…tenemos una unidad principal de 8 núcleos (a 2,4GHz), una GPU de 12 núcleos (Mali G72MP12), además de la citada NPU. Huawei presume de que su Kirin 970 incluye 5.500 millones de transistores en un área de tan solo un centímetro cuadrado. Va a sonar increíble pero eso son 2.500 millones más que los que se emplean en un Snapdragon 835 de Qualcomm, lo mejor que podemos comprar ahora mismo. La memoria RAM asociada a esta configuración es de tipo LPDDR 4X y la memoria de almacenamiento, UFS 2.1.
      ¿Comparado con un Kirin 960 de un Mate 9 o P10? Huawei dice que el nuevo hardware es 25 veces más potente y 50 veces más eficiente energéticamente hablando.”

      De Xataka

      Responder
      • Enrique Dans - 25 septiembre 2017 - 16:47

        Yo creo que todos sabemos que la cuestión estará en los dos lados, combinando on device con in the cloud, y que en la manera de gestionar esa combinación estarán las características diferenciales de cada compañía y modelo. Básicamente, que Mobile AI = On-Device AI + Cloud AI, con lo que ello conlleva en términos de eficiencia, velocidad, consumo de batería, comunicación con la sensórica del terminal, etc.

        Lo que indican los benchmarks del Kirin 970 es que es, en efecto, un SoC muy rápido, y Huawei no es una compañía que se dedique a jugar de farol. Que esos recursos del SoC se aprovechen para AI es otra cuestión, que depende no solo de los recursos disponibles, sino también de las capacidades de la compañía para generar algoritmia y propuestas de valor adecuadas, que se correspondan con demandas reales de los usuarios o con funciones que el usuario, aunque no hubiese anticipado originalmente, sí quiera tener. Al final no adquirimos el smartphone con el procesador más rápido, sino aquel en el que las fotos nos salen mejor porque un algoritmo evalúa la luz y escoge una combinación adecuada de diafragma, velocidad, profundidad de campo, etc. que termina por generar una imagen de mayor calidad percibida, o aquel en el que el sistema de identificación funciona de maravilla y no genera ni molestias, ni falsos positivos. Y en todo eso tienen un papel importante los recursos del SoC, pero también otros factores…

        Responder
      • Carlos Quintero - 25 septiembre 2017 - 20:09

        Aunque la IA más potente estará en la nube, me parece un valor diferencial en algunos productos que haya una IA suficientemente potente en el dispositivo, y espero que los fabricantes no descuiden ese flanco.

        Por ejemplo, las cámaras Nest ofrecen una subscripción (Nest Aware) que básicamente aporta dos cosas: almacenamiento de la grabación de vídeo en la nube y unas alertas “inteligentes” que mediante procesamiento en la nube permiten saber si lo que se está viendo es una persona o no. La cámara por sí sola no tiene IA suficiente (o eso dicen) para detectar si un movimiento es una persona (que requiere especial atención para el usuario) u otra cosa (un animal, un cambio de iluminación, una hoja de un árbol cayendo delante de la cámara, etc.) que sería una falsa alarma. La cámara por sí sola envíaría alertas del tipo “he detectado actividad” mientras que con la subscripción es capaz de afinar a “he visto a alguien” o al menos “creo que he visto a alguien”. Si Nest mantiene ese modelo de IA en la nube y otro competidor consigue lo mismo en la cámara, a igualdad de resultados me parecería mejor producto (en precio).

        Responder
      • Krigan - 25 septiembre 2017 - 21:44

        No, no es solo marketing, hay una revolución detrás. A la programación tradicional, en la cual el desarrollador establece una secuencia precisa de pasos que la máquina seguirá, siempre se le dieron mal toda una serie de tareas que la IA sí está resolviendo adecuadamente, cada vez mejor.

        Aunque las redes neuronales no son el único tipo de algoritmo de IA que existe, sí son el que está protagonizando esta revolución. Se obtienen mejoras que son simplemente brutales cuando se usa hard especializado para ejecutar redes neuronales. Una CPU no da la talla, una GPU es mucho mejor pero también se queda corta frente al hard especializado, tal como la TPU o la NPU.

        El que no tenga hard especializado simplemente se quedará fuera, habrá cosas que no pueda hacer, o que las hará peor. El resto ya es ver la conveniencia de cada caso, si es más ventajosa la ejecución en local o en remoto. Pero solo tienes esta capacidad de elección si tu aparato lleva una NPU o similar.

        Un ejemplo sencillo es el Face ID de Apple. Si hay un fallo de red (por ejemplo, entras en un ascensor), ¿te quedas sin poder desbloquear tu iPhone X? ¿El Face ID va a agotar tu tarifa de datos? No, porque el iPhone X lleva una NPU (o similar), la ejecución es en local.

        Es un error verlo en términos de qué es más potente. Por supuesto que un datacenter seguirá siendo más potente que un móvil. Pero en la disyuntiva “ejecución local vs. remota” intervienen muchos factores. La NPU (o similar) es algo que hay que tener.

        Responder
  • #007
    Gorki - 25 septiembre 2017 - 12:00

    Si Dios no lo remedia. todos los productos que se llamaban ECOtalcosa, y BIOtalcosa. van a pasar a llamarse TalcosaBIONIC, producto diseñado por una Inteligencia artificial. Aquí lo que importa es seguir consumiendo.

    Responder
  • #008
    Carlos Quintero - 25 septiembre 2017 - 12:22

    En los inicios de la informática del ordenador personal de masas el procesador (286, 386, 486, Pentium) y el marketing asociado jugó un papel muy importante. Intel incluso lanzó el exitoso programa “Intel Inside” con sus pegatinas, etc. y cualquier usuario de ordenador sabía qué procesador tenía, su frecuencia de reloj, etc. Todo estaba muy orientado a “características”.

    Eso no ha ocurrido con el smartphone, y creo que casi nadie sabe qué procesador, frecuencia de reloj o memoria tiene su teléfono. No es necesario, ya que lo único que le importa al usuario es la fluidez al manejar las apps, y cada vez más, la “inteligencia” que demuestra, etc. Todo está orientado a resultados o a experiencias, no a características. En ese sentido, que Apple llame “Bionic” a su procesador o que un producto diga que usa procesadores específicos para machine learning poco importa. Lo que sí va a importar es lo que es capaz de hacer un smartphone (o cualquier otro dispositivo) en IA, y eso se demuestra con resultados, no con marketing de chips.

    Responder
  • #009
    Angel - 25 septiembre 2017 - 15:01

    Pero entonces el siguiente paso de Apple será crear Macs con chips Bionic, sino el smartphone terminará siendo mejor que una notebook.

    A propósito, Intel no se unió a esta fiesta?

    Responder
    • Krigan - 25 septiembre 2017 - 22:04

      No solo Intel, también ARM va a necesitar unirse a esta fiesta, como ya lo hicieron ambos en su día con la GPU.

      Responder
  • #011
    Gorki - 25 septiembre 2017 - 15:01

    Veo muchas áreas donde la ayuda de un IA seria maravillosa a la hora de tomar decisiones, sobre todo si va asociada a un modelo matemático de resultados. que permita elegir la solución mas rentable.

    Mucho mas complejo veo encontrar un volumen de datos suficientemente grande para obtener resultados fiables de la machine learning. En este sentido parece adecuado machine learning en la nube utilizando datos de todos, para preparar IA que luego, ya optimizadas, se utilizan en privado .

    Por ejemplo algo muy complejo es establecer las rutas de reparto, Las IA que ayuden a establecerlas pueden “formarse” con datos en la nube, (trafico, mapas de carreteras, rutas alternativas, etc, ) y una vez optimizadas, utilizarlas en privado de acuerdo con otros datos particulares, como horarios de entrega, caducidad de las mercancías, etc
    .

    Responder
  • #012
    Pedro Trillo - 26 septiembre 2017 - 10:20

    Coincido Enrique, hay muchísimo ruido en torno a la IA, hay muchas empresas que presumen de IA y otras muy buenas que sirviéndose de la tecnología no saben explotar bien el producto que tienen entre manos.

    Este año la IA se está consolidando como un valor nacional y de estado, se siguen hablando de misiles, pero sorprendentes son los comentarios de Putin aludiendo a esta tecnología como “the ruler of the world.”, los naciones ya se están posicionando, podemos afirmar que la IA ya pasó del hype a un valor nacional.

    Para los que estamos intentando desarrollar productos con IA, entendemos la dificultad del proceso que no deja de ser como mínimo de tres años, la captación de datos es crítica y clave, el procesado de los mismos, lleva un extenso entrenamiento, caracterización y reglas, comprobarás miles de empresas que ya se han etiquetado como IA, pero ni de lejos realizan la ecuación de data science + ML + AI.

    Eso sí en vez de etiquetarse como tal deberían pensar en incluir en su roadmap desarrollos con IA, el ecosystema cada vez es mayor, y en el mundo de las APIs y Open Source se están dando pasos de gigante.

    Se nos escapa otro gran ruler del mercado Nvidia, está revolucionando desde el core la IA, puede ser la empresa más innovadora de 2017 y no nos quedaríamos cortos, caso de estudio en cualquier escuela de negocio.

    Esta compañía a mutado y con mayúsculas podemos decir que ha conquistado el core hardware de esta tecnología.

    Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG