El futuro, las prisas y los errores de concepto

IMAGE: Illustratorovich - 123RFSi alguien tenía alguna duda sobre la magnitud del desarrollo del machine learning y la inteligencia artificial, el CEO de Google, Sundar Pichai, se encargó hace un par de semanas de despejarlas, comparando su impacto con el de tecnologías tan importantes en la historia de la humanidad como la electricidad o el fuego. Sundar Pichai no es en absoluto una persona dada a las hipérboles: todo lo contrario, su reputación es la de ser una persona pragmática, de carácter calmado y realista. Muchos lo consideramos no solo una persona dotada de una gran inteligencia, sino además, con el privilegio de estar situado en una posición que le permite una visión sumamente completa de la realidad actual.

Sin embargo, vivimos una curiosa paradoja: a pesar de que cada vez existen menos dudas sobre la enorme importancia de estas tecnologías y de su capacidad para generar avances y valor añadido, el desfase entre ambición y ejecución en las compañías en este terreno es sumamente elevado: según una encuesta llevada a cabo por el MIT, si bien el 85% de los directivos considera la inteligencia artificial como una tecnología importante que permitirá a su compañía entrar en nuevos negocios y obtener o sostener una ventaja competitiva, solo una de cada cinco empresas ha incorporado algún tipo de tecnologías de inteligencia artificial en sus ofertas o procesos. Tan solo una de cada 20 la ha incorporado de una forma que pueda considerarse exhaustiva, y menos del 39% de todas las empresas tiene algún tipo de estrategia con respecto a ella. Las empresas más grandes, con más de 100.000 empleados, son las que tienen más probabilidades de haber desarrollado una estrategia que mencione la inteligencia artificial, pero tan solo la mitad tiene una como tal.

¿A qué se debe esta aparente ausencia de prisas con respecto a una tecnología que, sin duda, va a tener una enorme influencia en el futuro? Básicamente, al desconocimiento y a la presencia de graves errores de concepto. Cuando pensamos en inteligencia artificial, la magnitud de sus posibilidades es tan elevada, que el común de los directivos es sencillamente incapaz de abarcarlo, y esa orientación a proyectar hasta las últimas consecuencias dificulta el planteamiento de iniciativas mínimamente realistas. Lo que predominan son visiones apocalípticas, tremendistas: ante un artículo que menciona la presencia de un robot en un consejo de administración capaz de cualificar las estrategias o escenarios planteados por directivos, lo que el directivo medio imagina de manera inmediata no son las ventajas de un consejo así y la mejora en la calidad de la toma de decisiones de alto nivel, sino el peligro de sustitución de su puesto de trabajo, o cuando menos, la generación de escenarios de inseguridad.

¿Qué impide el planteamiento de proyectos realistas que exploren la inteligencia artificial? Twitter, por ejemplo, acaba de presentar una tecnología capaz de recortar las imágenes que los usuarios suben a la plataforma de una manera que preserve la parte interesante, en lugar de recortar siempre según una norma fija y, en muchas ocasiones, privando a la imagen de sentido hasta que es visualizada en su integridad. ¿Es una tecnología que cambie el mundo? No, en absoluto: es lo que llamamos un quick win: la compañía contaba con un enorme archivo de imágenes junto con textos que las acompañaban y que podían ser utilizados para entender qué parte de las mismas era la que debía ser destacada. Adiestrar una red neuronal para que entienda qué parte de una fotografía es la más interesante y, por tanto, debe permanecer a la vista tras el recorte es algo que simplemente genera una pequeña mejora del servicio, pero posibilita que la compañía empiece a ser consciente de las posibilidades de este tipo de tecnologías de una manera realista. Otro algoritmo, en Canadá, examina perfiles en redes sociales e intenta prevenir posibles suicidios, la segunda causa de muerte en el país entre los 10 y los 19 años.

Pensar en las últimas consecuencias del desarrollo tecnológico es, por supuesto, interesante: a qué tipo de sociedad nos encaminamos a medida que las máquinas son capaces de llevar a cabo más tareas, si esto incrementará la desigualdad o será necesario plantear medidas que lo corrijan, cómo se llevarán a a cabo esas dinámicas de sustitución de personas por algoritmos y robots y si serán o no una buena cosa, si se puede ser optimista sobre ello o qué respuestas tiene la política ante ello, según la consideración de los diferentes países y sus circunstancias.

Pero además de las grandes cuestiones, indudablemente interesantes y fundamentales, falta algo en el entorno de la inteligencia artificial y el machine learning: directivos y compañías capaces de entender lo suficiente como para plantear proyectos realistas, que generen beneficios tangibles, y que lleven a la organización a plantearse más, a explorar más, a desarrollarse más en ese ámbito. El tiempo de plantearse escenarios de confrontación entre máquinas y hombres, de pensar en el apocalipsis y en la fractura social derivada de la sustitución hombre-máquina ya pasó, dio lugar a un debate con tan escasos frutos como presagiaba, y ahora es el momento de dar una oportunidad a la ciencia. Las compañías que no inviertan en machine learning e inteligencia artificial perderán oportunidades para ser más competitivas, para incrementar su facturación, para diferenciarse de sus competidores, y para atraer y retener un talento que aún no resulta fácil de encontrar.

Mientras algunos se plantean ambiciosas reflexiones filosóficas sobre el futuro de la humanidad para las que nadie tiene aún respuesta, otros se dedican a extraerle partido y rendimiento, y a aprender a desarrollar proyectos tangibles en un ámbito que cobra cada día más importancia. Los principios no son sencillos, los proyectos tienen una «travesía del desierto» importante en términos de definición de objetivos, recolección y transformación de datos e ingeniería de procesos y, cuando quieras darte cuenta, tendrás un retraso acumulado importante y habrás desperdiciado un tiempo precioso a la hora de desarrollar las posibilidades de una de las tecnologías más importantes en la historia de la humanidad.

 

 

 

This post is also available in English in my Medium page, “Machine learning and AI: future vs. conceptual mistakes»

 

35 comentarios

  • #001
    Javier - 28 enero 2018 - 16:34

    Reconozco que estoy, como decimos en Argentina: «en pampa y la vía» (perdidísimo) con este tema. Estuve tratando de ver por donde puedo empezar a aprender cómo aplicar el potencial que tiene esto para mí rubro, pero para entender como aplicarlo en mi negocio necesito ejemplos concretos, mientras trato de mantener a mi negocio creciendo. No es fácil.

    • JOSE ANTONIO GAES - 11 febrero 2018 - 12:15

      No puedo estar más de acuerdo, Javier.

      Enrique, en lugar de empresas de 100.000 empleados, no podrías hacer un enfoque desde el número de Dunbar y el inmenso conocimiento tácito compartido que ahí existe?

  • #003
    Gorki - 28 enero 2018 - 16:40

    Quizá haga falta una inteligencia artificial que nos diga donde co** hay que utilizar la Inteligencia Artificial

    En pequeño y en pobre también haría falta otra IA que nos dijera donde merece aplicarse la IoT. Parece sobre el papel muy útil, pero nadie sabe qué tiene que comunicar la nevera a la lavadora.

  • #004
    Gorki - 28 enero 2018 - 18:21

    off topic

    ¿No tocaba hoy hablar de la privacidad ?
    https://hipertextual.com/2015/01/dia-de-la-privacidad

  • #005
    JJ - 28 enero 2018 - 19:16

    Para mi la expresión Inteligencia Artificial contiene en sí misma un error de concepto. Por eso, prefiero Machine Learning. Tampoco me gusta lo de Redes Neuronales.

    La Inteligencia Artificial no existe ni existirá nunca (salvo que El Hacedor de Estrellas decida lo contrario) ya que la máquinas no tienen ni podrán tener el don de la consciencia (o autoconsciencia)

    Otra cosa es la imitación de la inteligencia humana y la utilización de la capacidad de la lógica humana por parte de las máquinas. Y está claro que, en la utilización de estas lógicas humanas, los ordenadores nos superarán ampliamente tanto en velocidad como en capacidad.

    Podemos, por ejemplo, preguntarle a Google sobre cualquier cosa y nos responderá adecuadamente porque Google «sabe» mucho ya que tiene en su memoria una enorme cantidad de información y también tiene algoritmos que le permiten entender lo que le preguntamos para darnos la mejor respuesta. Sin embargo, Google no tiene consciencia y seguramente jamás la tendrá.

    Lo que sí pueden hacer las máquinas, los ordenadores, los robots es copiar, imitar, simular, emular la inteligencia humana pero no desarrollarla de verdad siendo conscientes de si mismos.

    Esto, no quiere decir que mañana no podamos entrar en un hotel y ser atendidos correctamente en la recepción por un robot dotado de inteligencia artificial que resulte completamente eficiente en su trabajo y que nos dé la sensación de ser un ser consciente, inteligente e incluso amable y educado, pero la verdad es que todo será simulación, apariencia de consciencia, pero un mero engaño (quizás divertido, quizás agradable).

    A tanta confusión se presta el concepto de Inteligencia Artificial que, como ya antes se ha comentado aquí, alguien (Anthony Levandowsy) ha creído que en el futuro la IA evolucionará hasta el punto de convertirse en un ser omnipotente, un nuevo dios (o antidios) creado por el hombre. Pero es solo una fantasía. Lo mismo que nunca se podrá transferir o descargar la consciencia humana a un ordenador. Aunque quizás sí se consiga traspasar todos los datos que existen en la memoria de un ser humano a un disco duro. Pero memoria no es lo mismo que consciencia.

    Alibaba y la Inteligencia Artificial

  • #006
    Gorki - 28 enero 2018 - 20:12

    no tienen ni podrán tener el don de la consciencia (o autoconsciencia)

    ¿Por qué no pueden? ¿Alguna razón que lo impida?

    Desde hace cuarenta años que llevo viendo que se ponen límites al ordenador pero este se los salta constantemente.

    Si, suman muy deprisa, pero no podrá jugar al ajedrez, –
    Si, son técnicos pero carecen de arte, no podrán escribir una melodía. –
    Si, parecen muy listos, pero necesitan que alguien los programe
    Si, simulan la inteligencia, pero eso no es inteligencia,
    Si, pueden superarnos como recepcionistas de hotel, pero no son conscientes de lo que hacen.

    Yo no me atrevo a poner límites a lo que un ordenador pueda llegar a hacer cuando tengan la capacidad del autoaprendizaje..

    • JJ - 28 enero 2018 - 21:13

      Hombre, si Dios quiere, los ordenadores, los robots se harán autoconscientes…

      Pero para los programadores es más difícil, porque ni siquiera se sabe qué es o de donde surge la consciencia.

      La consciencia es un misterio. Dios es un misterio. Pero algunos creen que se puede hacer un software Dios… (que, supongo, correría sobre Linux).

      Son opiniones. Para gustos, los colores.

      • Gorki - 28 enero 2018 - 22:00

        La pregunta era muy concreta ¿ Por qué no pueden? ¿Alguna razón que lo impida?

        Hablar en este tema de Dios y de misterios me recuerda la 3º Ley de Clarke «Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia.»

        • JJ - 28 enero 2018 - 23:12

          Gorki, tú te enamorarías de una robota?

          Yo creo que sí. Pero no dejaría de preguntarme: estará realmente viva?

          Tendrá alma?

          • Gorki - 28 enero 2018 - 23:30

            A mi edad lo veo difícil. Más fácil veo que una robota se enamore de mi, con la cantidad de remiendos quirúrgicos que me van poniendo, y se pregunte si realmente estoy vivo, ya casi soy un androide.

            Respecto a si tengo alma, yo mismo me lo pregunto y no estoy seguro de la respuesta, incluso no se que es alma en concreto ¿Inteligencia? ¿Sentimientos? ¿Normas morales?

      • Krigan - 28 enero 2018 - 22:56

        Estás asumiendo que Dios existe, lo cual es como poco una suposición muy arriesgada.

        Si quitamos a Dios y otros conceptos mágicos de la ecuación (el alma, etc), lo que queda es que no sabemos si nosotros mismos no somos otra cosa que ordenadores.

        • JJ - 28 enero 2018 - 23:16

          Un chiste, Krigan.

          Dios ha muerto! dijo Nietzsche.

          Pocos años más tarde…

          Nietzsche ha muerto, dijo Dios.

          • Mauricio - 29 enero 2018 - 00:44

            JJ, según parece la consciencia no se encuentra únicamente en el ser humano sino también en los delfines, orcas, bonobos, orangutanes, chimpancés, elefantes y urracas, pues todos ellos superan la denominada prueba del espejo y son capaces, por lo tanto, de reconocerse a sí mismos como seres que existen.

            Que en el futuro distante pueda existir un robot con consciencia no lo veo realmente imposible.

    • Miguel A. Tovar - 29 enero 2018 - 00:09

      Sobre esta cuestión creo que vale la pena leer lo que ha escrito Yuval Noah Harari en su libro, Homo Deus: Breve historia del mañana.

      • JJ - 29 enero 2018 - 07:54

        Yo recomiendo un viejo libro, El Cerebro y la Mente de Gordon Rattray Taylor.

        Mauricio, que los animales superiores superen la prueba del espejo me parece algo normal. Y diría que sí tienen consciencia; la ballena, el elefante o incluso el loro, además de los que tú nombras.

        No me imagino a un robot mirándose en un espejo y preguntándose; Quién Soy?

        Comparar a un animal superior con una máquina no tiene sentido.

        Sí se podría, hipotéticanente, coger a un bonobo y crear un híbrido conectándolo a un ordenador, pero es otra cosa porque la consciencia ya la tiene.

        Justamente, es una de las razones por las que no creo en la realidad de la Inteligencia Artificial más allá de la emulación por mas perfecta que sea, hasta el punto de que un ser humano no pueda reconocer la diferencia entre consciencia real y simulada.

        Tú pones en la coctelera todos los ingredientes (cuáles?), bates y surge la consciencia por arte de magia?

        Hay que comenzar por preguntarse qué es la consciencia. E intentar también entender la diferencia entre el cerebro y la mente.

        • Gorki - 29 enero 2018 - 11:52

          No me imagino a un robot mirándose en un espejo y preguntándose; Quién Soy?

          Si ya es posible que una máquina reconozca en una pantalla a que chino pertenece esa cara, ¿Que tiene de raro que un robot se vea en un espejo y se reconozca a sí mismo?

          Repito. cualquier cosa que hagan los huaanos puede llegar a ser hecha mejor por un robot, (aunque está fuera de duda que de momento con lA que hoy existe. solo pueden hacer aquello para lo que fueron diseñados, sea jugar al ajedrez o eljir una ruta en Google Maps,

          Pero no descarto que pronto se invente una IA capaz de resolver las dificultades que se le presenten, haber tenido previamente una programación especializada en el tema. y posiblemente lo hagan mejor que los humanos,.

          Yo al menos no veo ningún motivo para pensar que esta meta no sea alcanzable y los ordenadores cuánticos están a la vuelta de la esquina.

          • JJ - 29 enero 2018 - 15:54

            Un robot puede conversar contigo, conocer todo sobre tu vida, reconocerte perfectamente por tu cara, por tu voz y quizás hasta por las gotitas de tu saliva acceder a tu código genético, etc. Pero eso no significa en absoluto que tenga la menor consciencia ni el germen de esta.

            Un robot, se puede mirar al espejo y preguntar: Quien Soy?

            Pero es solo la escena de una película. Es una simulación, una actuación. Realmente ese robot no se pregunta nada por si mismo, solo simula hacerlo, carece totalmente de consciencia aunque viéndolo desde fuera pueda parecernos todo lo contrario.

            Piensa, Gorki, en la posibilidad de escribir el algoritmo de la autoconsciencia y descubrirás hasta donde puedes llegar. Pretender crear consciencia es como pretender crear vida inteligente. Y un tamagochi, por muy sofisticado que sea, nunca la tendrá aunque pueda aparentarla sin problemas.

            Las máquinas son máquinas, solo pueden tener consciencia en las novelas de ciencia ficción.

        • Krigan - 29 enero 2018 - 11:52

          Sigues presuponiendo que hay en los cerebros biológicos un algo desconocido que es imprescindible para la consciencia de uno mismo. Pero si es desconocido, no puedes presuponer que ese algo existe.

          • JJ - 29 enero 2018 - 13:55

            Claro, Krigan, es que obviamente soy creyente. Un poco católico, un poco judío, un poco musulmán (sufí) y en parte taoísta.

            Además somos demócratas. Y estoy con la mayoría..

            En realidad, los «raros», la minoría sois vosotros, los ateos.

            Creyentes en el mundo

          • Krigan - 29 enero 2018 - 18:57

            JJ:

            Entonces, si lo dice el Papa, y además es refrendado por una amplia mayoría, ¿se puede abolir la ley de la gravedad?

          • JJ - 29 enero 2018 - 20:28

            Krigan, el ser ateo no te hace ni mas racional ni te hace razonar de manera mas lógica que un creyente.

            El ateísmo es solo una creencia mas (el azar, la casualidad, etc.). Creer en un creador es tan lógico o tan absurdo como creer en la generación espontánea o en el sinsentido de las cosas.

            Yo estoy razonando y no dogmatizando (como sugieres que haría siguiendo el Papa). La verdad es que no tengo ni idea de lo que dicen las iglesias del mundo ni sus líderes acerca de la IA.

            El problema es que para crear consciencia primero hay que definirla, hay que saber qué es, y nadie lo sabe.

            No se puede escribir, programar un algoritmo de autoconsciencia.

            Mi opinión, razonada, es que una máquina jamás tendrá vida y que solo la simulará muy bien. Y con la consciencia lo mismo.

            Y tampoco es igual que decir que «una máquina mas pesada que el aire no puede volar» porque quien dijo aquella tontería se olvidó de observar a los pájaros.

          • Krigan - 29 enero 2018 - 23:56

            JJ:

            El tema es que te has enrocado en la postura religiosa, y de ahí no sales. No es un problema de creyente vs. ateo. Hay un enorme montón de creyentes que son perfectamente capaces de razonar sobre estos temas.

            Por supuesto que una máquina jamás tendrá vida, porque estar vivo es otra cosa. Una ameba está tan viva como tú y yo, pero no tiene la más mínima inteligencia. Lo mismo un geranio.

            No hay que programar ninguna consciencia. La selección natural dio origen a diversas especies animales que tú mismo afirmas que tienen consciencia. Salvo que empieces a decirme que esas especies tienen alma, nadie programó nada (ni hay ninguna magia divina), y sin embargo la consciencia surgió.

            Aunque los algoritmos de IA son programación, lo cierto es que, a diferencia de la programación tradicional, no se programa explícitamente lo que se pretende conseguir (reconocer imágenes de gatitos, por ejemplo). Se crea una red neuronal, y se la entrena. Es el entrenamiento lo que le da la capacidad.

            La misma red neuronal que le gana a cualquier humano al Go tras haberse entrenado jugando millones de partidas contra sí misma lo mismo puede aprender en principio cualquier otra cosa.

            Más o menos están ahora al nivel de inteligencia de una hormiga. Cuando alcancen la de un chimpancé (una especie que tú mismo dices que tiene consciencia), ¿de verdad puedes estar seguro de que la maquina no tendrá consciencia?

          • JJ - 30 enero 2018 - 01:42

            Krigan, el tema es que te has enrocado en la postura atea y de ahí no sales…

            Fíjate lo que has escrito mas arriba: «… si lo dice el Papa (…) ¿se puede abolir la ley de la gravedad?» Es que confundes una ley de la física demostrada (que tampoco se puede abolir ni por ti ni por el Papa) con algo que solo es una ilusión y un anhelo; la Inteligencia Artificial autoconsciente.

            Digo dos cosas. No tengo razones para creer que una máquina (robot, etc.) llegue nunca a poder considerarse como un ser vivo. Tampoco tengo razones que me lleven a creer que una máquina pueda llegar a adquirir alguna vez inteligencia autoconsciente.

            Luego, tu idea acerca de que «nadie programó nada» y que todo surgió por casualidad, es decir, por arte de magia (tal como yo lo entiendo) confirma que te has enrocado en la postura atea y que de ahí no sales…

            Lo que creo que deberías intentar entender es que tu postura acerca de este tema no se basa en ninguna verdad objetiva, sino solo en tus creencias subjetivas que no son ni mejores ni peores que las de los creyentes.

            Tú dices que la consciencia surge por casualidad, o por prueba y error, etc. y yo pienso que eso no tiene ningún sentido. Que la consciencia no surge como un escalón mas en el supuesto camino ascendente de la evolución.

            Hace unos meses discutía con una amiga sobre la teoría de Darwin. Ella estaba totalmente conforme y convencida con la teoría y yo no del todo. Le pregunté en que momento aparecieron los pájaros volando. Me respondió: comenzaron a dar saltos cada vez mas largos hasta que un día, después de miles de años, salieron volando. Le pregunté por la belleza extraordinaria del plumaje de los pavos reales. Me dijo: llamar la atención de las hembras y casualidad. Le pregunté por las descargas eléctricas de las anguilas. Me dijo que pudo haber sido como una respuesta alérgica defensiva. Le pregunté por qué los elefantes, uno de los animales mas inteligentes, no ha evolucionado haciéndose mas pequeño para evitar así su extinción. Y por el sorprendente escarabajo pelotero, pero ella no lo conocía.

          • Krigan - 30 enero 2018 - 02:31

            No, JJ, no hay ningún anhelo (ni lo contrario).

            Y no, tampoco hablamos de ninguna creencia subjetiva mía. La evolución biológica es ciencia pura y dura.

            El resto es lógica elemental. Salvo que tus creencias religiosas incluyan el creer que los chimpancés tienen alma, ahí tienes un bicho que, según tú mismo dices, tiene consciencia pero nadie lo programó.

            Dado que sigues manifestando una marcada tendencia a pensar que esto es una cuestión de creyentes vs. ateos, añado que uno de los mejores divulgadores de biología evolutiva en lengua castellana es Francisco J. Ayala, prestigioso científico, que fue fraile dominico y se enamoró de la evolución leyendo a un jesuita (el también famoso Teilhard de Chardin).

          • JJ - 30 enero 2018 - 11:25

            Vale, Krigan. Estás convencido.

            También hay señoras que cuando hacen una consulta a Google le piden por favor y luego le dan las gracias. Y es que están convencidas de que Google es un ser consciente…

            Con los robots que vengan será peor; conversaremos con ellos, les preguntaremos sobre todo, como a Google, y nos parecerán tan sabios e inteligentes que no nos atreveremos a dudar sobre su autoconsciencia. Pero solo serán máquinas programables (y autoprogramables) sin vida.

            Cómo puedes no creer en Dios cuando has visto uno de esos goles de Messi? No, Krigan, no puede ser casualidad. Y observa que el mejor del mundo después del gol siempre agradece al cielo (por algo será).

            Termino recomendándote
            un clásico: El Azar y la Necesidad, de Jacques Monod. Pero te advierto que es francamente aburrido.

  • #026
    Xaquín - 28 enero 2018 - 21:41

    Uno de los grandes problemas en grupos humanos organizados es la desconfianza «hacia el otro» que tiene todo hijo de vecino (y más si es ejecutivo). No veo porque debe ser diferente con un androide, que además puede ser un «salvaje no creyente».

    Hace falta una apertura de mente (me río yo de las aperturas del ajedrez!) que no suele acompañar a ADNs normales… porque si existen ADNs algo minusválidos por ley natural! El egoismo y la competencia «mal entendida» son los enemigos de la solidaridad y la colaboración para mejorar colectivamente.

    Me hace gracia cuando pensamos que ciertas taras en desarrollo tecnológico pueden tratarse como diferentes de esas mismas taras para el desarrollo evolutivo humano. Especialmente en lo que toca a la parte humana del ecosistema natuoartificial que tenemos montado, en esta parte del universo conocido (por nosotros, no hagamos el «colón»!). Esperemos que los extraterrestres correspondan a mentalidades más abiertas.

  • #027
    Gorki - 28 enero 2018 - 22:06

    El día que de veras se invente una IA práctica, será para predecir las fluctuaciones de la Bolsa y las materias primas y la Bolsa tendrá que cerrar, Ganara solo el que la posea. Será curioso ver, que lo que no consiguió la Revolución Rusa, lo consigue un ordenador sin dispara un solo tiro.

    • MauriAriel - 29 enero 2018 - 01:31

      No falta mucho:

      https://www.gurusblog.com/archives/cuando-la-ia-bate-de-los-mejores-gestores-de-venture-capital/02/10/2017/

      • Gorki - 29 enero 2018 - 12:05

        Haber programas que ayudan a las decisiones en Bolsa , los hay desde hace tiempo, pero al final siempre han han arruinado a quien se fió excesivamente en ellos.https://elpais.com/economia/2010/05/06/actualidad/1273131192_850215.html

        Sin embargo acabo de leer un post que indica que avanzamos en la dirección de inventar una inteligencia de propósito general, algo que si se parece a la inteligencia humana https://www.technologyreview.es/s/9953/cualquier-aparato-se-vuelve-inteligente-con-este-chip-hecho-en-china

        • MauriAriel - 30 enero 2018 - 02:09

          Creo que estás mezclando churras con merinas.

          El primer enlace que me adjuntas trata sobre programas que no «ayudan» en las decisiones en Bolsa, más bien las toman directamente. Es un tipo de trade que es totalmente automático sin apenas control humano. https://es.wikipedia.org/wiki/Negociaci%C3%B3n_de_alta_frecuencia

          En cambio la gracia del que te he mencionado es que es precisamente mediante Machine Learning y el análisis requerido es mucho más concienzudo y complicado.

          El high frecuency trading (al ejemplo que tú te has referido) básicamente se basa en las tendencias globales, en asegurar la ganancia por milisegundos a porcentajes irrisorios pero con cantidades elevadas. Constantemente compran y venden en función de las tendencias globales. El problema de estos programas, es que suelen incorporar mecanismos de alerta tipo análisis de Twitter con palabras clave, siendo aquí cuando en caso de bromas estos algoritmos no entienden de ironías o burlas fallan. Un ejemplo cuando Musk bromeó para el Aprils Fool: https://www.periodismo.com/2015/04/06/tuit-acciones-tesla/

          En cuanto al segundo enlace…una IA de propósito general, semejante a la humana en nuestro día a día…aun le falta muchísimo camino. No dudo que no se llegue a ese objetivo porque no falta mucho, pero no con un chip ni 3 ni 100. Hace poco tuve que hacer una presentación sobre AlphaGO (la IA de Google que jugó al Go y que actualmente es el nº1 del mundo) en un grupo de trabajo en el cual estudiamos diferentes temas y artículos de Machine Learning, y lo verdaderamente sorprendente es que solo para jugar a Go, el primer modelo necesitó de 176 GPUs (hablo de 176 tarjetas gráficas). Los siguientes modelos aún han utilizado más potencia de cálculo. Con esto quiero decir, que una inteligencia artificial multipropósito para nuestro día a día metido en un chip…prácticamente lo veo una utopía. Más me inclino por un servicio centralizado el cuál lo aprende todo a modo de Gran Hermano.

  • #031
    Miguel A. Tovar - 30 enero 2018 - 00:17

    Exactamente. A medida que avanza la evolución de las especies, el azar y la selección natural hacen que aparezcan nuevas características o capacidades. Una de éstas es lo que denominamos conciencia. Ésta surge cuando el ser vivo alcanza un determinado grado de complejidad biológica. Como ya se ha comentado, no es exclusiva de la especie Homo sapiens. Intuyo (no podemos demostrarlo) que con las máquinas y la IA puede ocurrir otro tanto. ¿Por qué no? ¿Qué podría impedirlo? ¿Dónde está la limitación?

    • Miguel A. Tovar - 30 enero 2018 - 00:19

      Perdón. Mi comentario iba referido a la conversación que mantienen JJ y Krigan.

    • Javier - 30 enero 2018 - 00:26
  • #034
    Manuel López - 1 febrero 2018 - 09:38

    El Big Data y la inteligencia artificial son claramente el presente, al igual que la estrechez de miras y el cortoplacismo.
    La proyección más clara de las nuevas posibilidades que ofrece la tecnología es el uso partidista e interesado de quienes pueden acceder a ellas en primer lugar.

  • #035
    JOSE ANTONIO GAES - 11 febrero 2018 - 12:30

    Me ha parecido interesantísimo el debate sobre la consciencia y me apunto las referencias bibliográficas. Tengo claro que no tengo respuesta.

    No obstante, hablamos de un umbral a partir del que una máquina es consciente. Podemos, si quiera concebir, este umbral en la consciencia humana?

    Hemos conseguido el ajedrez, el Go, el póker, La Bolsa…. Creéis que habrá literatura y música artificial indistinguible para las consciencias humanas más afiladas en estas artes?

Dejar un Comentario a Javier

Los comentarios están cerrados