La inteligencia artificial y sus problemas de comprensión

IMAGE: Geralt - Pixabay (CC0)El principal problema que, en pleno 2018, afecta a la inteligencia artificial (AI) es que la gran mayoría de los que hablan de ella no tiene ni maldita idea de lo que están hablando. Esa es la premisa, en gran medida correcta, de un buen artículo en Futurism titulado «You have no idea what artificial intelligence really does« con el que empaticé rápidamente debido a que comienza reflexionando sobre Sophia, el robot creado por Hanson Robotics con el que tuve la oportunidad de interaccionar a principios de este año, para encontrarme con lo que esperaba: un fantástico trabajo de interfaz, brillante en términos de comunicación, pero que nada tenía que ver con ese supuesto robot que supuestamente procesaba y entendía unas conversaciones que, en realidad, eran simplemente guiones gestionados por una persona desde un ordenador portátil.

Según encuestas recientes, el 42% de los directivos actuales creen que la AI tendrá una importancia crítica para sus compañías en los próximos dos años. Lo primero que sientes al ver una cifra así es pena y conmiseración por el 58% por ciento de directivos restante que no lo cree, porque muy posiblemente perderán su empleo o sufrirán la tragedia de la desactualización, como todo aquel que ignora a su propio riesgo una revolución. Pero la segunda derivada también es inmediata: muchos de los que creen que la AI será importante lo creen, en realidad, llevados por el hype, por los miles de artículos que hablan del tema – en modo «si tanto hablan de ello, algo debe tener» – o por los rumores de «mi competidor ha conseguido esto o aquello mediante AI», pero sin saber en realidad de qué diablos están hablando.

Parte de la responsabilidad la tiene el propio término, inteligencia artificial: una denominación vaga, amplísima, que se compone de una amplia variedad de tecnologías que, cuando alcanzan un mínimo grado de desarrollo, huyen del término y se establecen como disciplinas propias. En la práctica, terminamos llamando AI a prácticamente cualquier cosa, y además, lo ilustramos con la fotografía de un Terminator y elucubramos sobre la posibilidad de que pronto estemos rodeados de robots con capacidades humanas capaces de trascender su condición de robots, tomar conciencia de sí mismos, y destruir a la raza humana.

¿Qué es lo que un directivo tiene que entender sobre AI o sobre sus componentes para ser capaz de valorar su importancia? Básicamente, que hablamos de tecnologías capaces de tomar unos datos y, tras transformarlos adecuadamente – una tarea que no debe ser minusvalorada y que, de hecho, se lleva una enorme parte del esfuerzo y los medios invertidos en cualquier proyecto de este tipo – es capaz de clasificar esos datos, asignarles una serie de etiquetas, y procesarlos de manera que sea capaz de derivar reglas, algunas de las cuales pueden ser muy interesantes. ¿Qué se está diciendo cuando se afirma que «tu próxima cita con el médico podría ser con una inteligencia artificial«? Sencillamente, que tenemos ya tecnologías razonablemente maduras capaces de tomar una serie de elementos diagnósticos – muchos de los cuales estoy convencido de que vendrán de sencillos wearables que muchos llevamos ya encima habitualmente – y utilizarlos como elementos para, por ejemplo, llamar la atención sobre una posibilidad determinada. En efecto, un algoritmo es ya más fiable que una persona, por ejemplo, detectando tumores en las imágenes médicas, como puede serlo analizando datos de frecuencia cardíaca o ecografías del corazón, y además, puede hacerlo analizando esos datos de manera constante, incansable, sin distraerse, mucho más allá de lo que una persona podría llegar a pensar en hacer incluso si de verdad lo intentase. ¿Tiene esto algo que ver con que lleguemos a la consulta y sea un robot el que nos ausculte? No, nada que ver. Lo primero son tecnologías reales y existentes, lo segundo es sensacionalismo barato y una posibilidad absurda. Pero no deja de ser importante, y sobre todo, potencialmente trascendente a la hora de definir muchos de los escenarios que viviremos en el futuro.

¿Puede Atlas, el robot de Boston Dynamics, hacer parkour? Sí, puede, demostrando una agilidad y unas capacidades que yo mismo, generalmente, estoy lejos de tener. Pero de ahí a imaginarnos un robot capaz de procesar lo que le rodea y tener capacidades amplias homologables a los robots de las películas, va un trecho. Cada capacidad nueva que se plantea añadir a Atlas es un desarrollo nuevo, complejo y no relacionado con el anterior. La idea de criaturas dotadas de algo mínimamente similar a una inteligencia general no solo está lejos, sino que es un planteamiento a estas alturas absurdo e infantil.

Lo que sí es real, y mucho, es que puedas utilizar una tecnología para analizar enormes cantidades de datos – o posiblemente, no tantos – y derivar de ellos, tras un complejo proceso de transformación, indicadores de posibles patrones anómalos, de valor potencial de determinados clientes, de análisis de patrones con trascendencia financiera, de analítica de determinados eventos en series temporales, de reconocimiento de imágenes, de detección de eventos que requieran mantenimiento, de hacer predicciones de muchos tipos… y eso son simplemente algunas de las posibilidades dentro de un conjunto que se parece más a un conjunto abierto a la imaginación del directivo en el que «the sky is the limit» que al menú de un restaurante. Con sus limitaciones, como toda tecnología, pero también con su potencial. Si quieres entender lo que implica el deep learning, por ejemplo, echa un vistazo a este artículo. Si te parece interesante visualizar la trascendencia y el potencial del aprendizaje no supervisado, o aprender a diferenciar sus casos de uso, léete este otro. Y hay, obviamente, muchos más. No sustituyen a lo que supone adquirir una formación sólida en este ámbito, pero al menos te servirán para ser algo más consciente de lo que estamos hablando y para no imaginarte robots Terminator saliendo de detrás de cada esquina o robándote el trabajo. Te ayudará para darte cuenta de su potencial, para asesorarte, y para poner los datos generados por tu compañía en las manos adecuadas, y aventurarte en lo que son los proyectos de este tipo. Un potencial que no es poco, que posiblemente tenga un impacto tan trascendente como el que ha tenido internet sobre todos los aspectos del mundo, y que es enormemente importante que seas capaz de visualizar. O que seas de los que lo visualizan, y no de «los otros». Que como decía la película, «están muertos, pero no lo saben».

 

 

 

This post is also available in English in my Medium page, “It really is time we started to understand AI, like now» 

 

14 comentarios

  • #001
    Marcelo - 23 octubre 2018 - 09:36

    Antes tendremos entre nosotros a Hal 9000 que a Terminator o a C-3PO, lo bueno de la AI es que no necesita manifestarse físicamente, su reino es otro.

  • #002
    Juan Mestre - 23 octubre 2018 - 09:38

    Perdóneme Sr. Dans pero creo que confunde el uso de una herramienta con el conocimiento en diseñar esa herramienta. Déjeme que lo muestre con dos ejemplos

    Un directivo, p.ej un CFO debe conoce para la gestión financiera de su empresa p.ej. programas contable así como conoce Excel. Usará esta herramienta como usuario e incluso podrá hacerse sus macros para facilitar su labor. Pero en ningún modo debe conocer las tripas de Excel, más allá que para desarrollar su función

    Ese mismo directivo puede pensar que al día de hoy hay una burbuja informativa respecto a AI. Y no por eso perderá su trabajo. De hecho utiliza ya herramientas con AI, o ML, en su entorno de trabajo de forma normal. P.ej. un traductor, reconocimiento de voz, clasificadores spam, análisis de préstamos, etc. Como usuario no conocerá el detalle de los algoritmos, pero su compañía o el mismo ha puesto las bases en los que tiene que estar basada una hipotética herramienta X que utiliza AI o ML en su día a día. En definitiva el artículo es un Falso Dilema que no va a ningún lado por las afirmaciones hechas por alguien que opina que esto es muy dificil y aprovecho para vender a estos pobres mi libro… En definitiva la misma dinámica que había cuando se trataba de vender un PC, y que ejemplifica muy bien un episodio de la serie «Cuéntame» cuando Antonio Alcántara afirma que se ha comprado un PC porque le va a llevar los negocios. Catetismo elevado al cubo… Espero ejemplos parecidos de Gorki de aquella época

  • #003
    Giovanny garcia h - 23 octubre 2018 - 13:51

    La AI ha sido prostituida por emprendedores para que sus emprendinientos suenen mas interesantes o mejores, la AI debe utilizarse donde realmente sea necesario que se utilice, los algoritmos complejos, el machine learning es algo serio, no es una moda que hace ver mas bonita o superficialmente interesante la tecnologia.

  • #004
    Gorki - 23 octubre 2018 - 14:46

    Sin poner en duda que algún día la IA y la robótica, puedan hacer cualquier cosa. Lo que veo muy optimista, es los plazos que se le otorgan.

    Aun no hemos conseguido desarrollar una inteligencia equiparable a la de un bebé (https://retina.elpais.com/retina/2017/07/13/tendencias/1499935149_771486.html) y estamos hablando de poner en manos de IA, asuntos como sustituir a los jueces, a los pilotos de lineas aéreas, o a los directivos de empresas.

    ¿Alguien en su sano juicio, podría a un bebe a pilotar a un avión de pasajeros, a decidir la política a medio plazo del Corte Ingles, o a dictaminar sobre quien tiene que pagar los impuestos de hipotecas. (a esos si :-) )?.

    Cuando lo vemos así, creo que tenemos una perspectivo de la IA y la Robotica mas realista y no solo eso descubrimos que los anuncios triunfalistas que se hacen, no son mas que brindis al sol, hechos por los distintos departamento de Marketing de las empresas que se dedican a estos temas, sobre todo, para conseguir convencer a inversores que sigan metiendo en el tema más y más millones de dolares, principalmente porque ellos viven (bien) de esas investigaciones.

    • Marcelo - 23 octubre 2018 - 15:06

      Pues algoritmos más tontos que un bebé mueven miles y miles de millones de dólares cada día en los mercados a velocidades supersónicas, y desde hace ya unos cuantos años. A veces colapsan y la lían gorda, pero globalmente no les debe ir mal a sus amos.

      • Gorki - 23 octubre 2018 - 16:43

        El realizar una tarea de vigilancia con mas precisión y rapidez que un humano, no supone necesariamente tener IA. Las veletas son anteriores al mundo de los romanos, indican la dirección del viento, con una precisión, constancia y dedicación superior a la que pueda ejercer cualquier humano, pero nadie en su sano juicio las adjudica la menor inteligencia artificial.

        • LEON PARDO - 24 octubre 2018 - 00:43

          Esa IA que no llega al nivel del bebé es lo que se conoce como IA general, es decir aquella de amplio espectro que intenta emular el conocimiento total de un humano.

          Sin embargo existe otro tipo de IA, clasificada como estrecha que solo intenta hacer una tarea específica como es pilotar un avión y en eso ya las IA han superado ampliamente a los humanos.

          El piloto del avión, no solo pilota, hace multitud de cosas que una IA hoy no puede hacer, por eso no existe una IA piloto de avión, pero en el campo específico de pilotar un avión una IA supera por goleada a cualquier piloto.

          • Gorki - 24 octubre 2018 - 11:46

            Lo que que a mi me parece, es que lago viejo como la tos, el «piloto automático», que existe en todos los grandes aviones por lo menos desde los años 60, se nos vende como una novedad.

            O la IA sustituye al piloto, o sólamente añade algo mas, a lo que ya existía el piloto automático. Eso no supone mucho avance

        • Krigan - 24 octubre 2018 - 02:49

          Ya, pero el caso es que a esos algoritmos que decía Marcelo se les encarga la gestión de fondos por valor de muchos miles de millones de euros, lo cual echa por tierra tu argumento del bebé.

          Si la cosa consiste en decir que los algoritmos de IA tienen el nivel de inteligencia de una hormiga, y tal vez ni a eso lleguen, estamos de acuerdo. Pero lo cierto es que las redes neuronales están teniendo ya un enorme montón de aplicaciones prácticas, y otras muchas que están llegando ahora mismo.

          Esto no son brindis al sol, son realidades con muchos millones de euros en juego. Tan solo en Madrid hay 16.000 taxistas, por poner un ejemplo. Y quien dice taxistas dice agricultores, o analistas de bolsa, o lo que prefieras mencionar.

          • Gorki - 24 octubre 2018 - 11:50

            Podrías decir a una sola aplicación donde se apliquen redes neuronales, que hagan cosas que no se podían hacer mecánicamente hace 10 año.

            Yo la verdad es que no veo que las redes neuronales quite negocio a los taxistas, o es que crees acaso que UBER y los patinetes funcionan mediante redes neuronales.

          • Krigan - 24 octubre 2018 - 20:23

            Gorki:

            Me lo has puesto a huevo, porque en tu segundo párrafo ya estás sugiriendo la respuesta al primero: hace 10 años no era posible que un coche fuera sin conductor. Ahora los coches de Google ya llevan casi un año yendo sin ni siquiera conductor de seguridad, por obra y gracia de las redes neuronales.

            Otro ejemplo: hay bancos de Wall Street que están reduciendo grandemente el número de analistas de bolsa que tienen contratados, sustituidos por redes neuronales.

            En realidad hay ejemplos a porrillo, y eso que la cosa tan solo está empezando. Un tercer ejemplo: actualmente hay medios cuyas crónicas deportivas las están escribiendo redes neuronales, cosa inimaginable hace 10 años.

            Tu móvil, ¿tiene lector de huellas? ¿Qué crees que reconoce las huellas? Una red neuronal.

    • Héctor Quispe - 23 octubre 2018 - 22:55

      ¿Por qué querríamos emular un comportamiento de un bebé?

      • Gorki - 24 octubre 2018 - 11:51

        Simplemente, porque emular el cerebro de un bebé, parece mucho mas sencillo que emular el cerebro de Einstein

  • #014
    xaquin - 23 octubre 2018 - 15:53

    Está bien bajar algo la marcha, ya que, aún me enteré el otro día, hay coches con nueve marchas.

    El que se olvida de que no conocemos ni el 5% de nuestro cerebro, es claro que debe patinar al pensar en IA. Pero un cientícfico no tiene por que usar patinete (si es científico realmente).

    Por otro lado, el avance tecnológico es tan brutal, que no nos podemos imaginar las marchas que necesitaremos para «ponernos al día» en cuestión de años.

    Sigo diciendo lo de siempre, que la masa crítica de impulsar el conocimiento está siempre en función de la apertura mental humana. Somos el reactivo limitante en la combinación lineal (o n-dimensional) que dará un algoritmo realmente comparable a un funcionamiento cerebral. Y también sigo diciendo que es el programador el limitante. Y no por ADN, sino simplemente por educación. La educación medieval que padece el mundo (en un 90%) no nos sacará del actual atolladero. Y desde luego, con su tufillo religioso (no confundamos con el mundo cuántico), aún menos.

Dejar un Comentario a Gorki

Los comentarios están cerrados