Los temibles peligros de la inteligencia artificial

IMAGE: Yauhen Korabau - 123RFMi columna en El Español de esta semana se titula «Inteligencia artificial y miedos irracionales» (pdf), y es un comentario al hilo de las declaraciones de Elon Musk, sin duda una de las personas más influyentes, respetadas y seguidas del actual entorno tecnológico, en las que reclama «regulación para la amenaza existencial que supone la inteligencia artificial, antes de que sea demasiado tarde«.

Que una petición de este tipo venga nada menos que de la persona que convierte en realidad retos tecnológicos tan complejos como el vehículo eléctrico, la generación de energía sostenible o la exploración espacial es algo que resulta, en principio, inquietante. Sin duda, Elon Musk no es un indocumentado que opine desde la barra de un bar. Que su preocupación se una, además, a las de personas como el físico teórico Stephen Hawking o el fundador de Microsoft, Bill Gates, podría desencadenar toda una epidemia de miedos y prevenciones. Sin embargo, el hecho de que ninguno de ellos tenga experiencia concreta y directa en la investigación o el desarrollo de este tipo de tecnología es algo que debe más bien llevarnos a considerarlo más bien como un caso de libro del llamado argumento o falacia de autoridad: el hecho de que sean personas indudablemente destacadas en otros ámbitos de la ciencia o la industria no convierte necesariamente sus preocupaciones en elementos que no puedan ser discutidos o puestos en duda.

En múltiples ocasiones he hablado de las enormes posibilidades del machine learning, la parte que considero en este momento más real y prometedora de eso que se ha dado en llamar inteligencia artificial y que no deja de ser un conjunto laxo de tecnologías que algunos piensan que terminarán llevando a que una máquina piense como una persona. Por el momento, las máquinas son capaces de muchas cosas: el hecho de que sean capaces de aprender a partir de un conjunto de datos dentro de un escenario sujeto a una serie de restricciones y reglas claras e inmutables, por ejemplo, es algo que lleva a cientos de compañías de todo el mundo a pagar por herramientas que permiten tal posibilidad, y que hacen que puedan optimizar procesos y convertirlos en ahorros o en ganancias de eficiencia. Las máquinas son capaces de reconocer imágenes, de participar en conversaciones, y por supuesto, como es bien sabido por su uso como argumento publicitario, son capaces de ganar a los humanos en cosas como el ajedrez, el Jeopardy, el Go o el póker. Sin embargo, en todos esos casos seguimos hablando de lo mismo: de la dedicación de la máquina a una tarea que se intenta limitar de todas las maneras posibles a un escenario completamente cognoscible, a un conjunto de reglas fijas y un contexto estable en el que, además, sea posible acumular y analizar una gran cantidad de datos. Extrapolar estos casos para imaginar una inteligencia «completa», un robot capaz de tratar de manera inteligente una situación general, no limitada ni restringida por una serie de reglas fijas, es algo tentador, pero no real. Pasar de ver algoritmos capaces de construir procesos de aprendizaje en tareas específicas a imaginarse a Skynet, esa red de ordenadores de Terminator convencida de que debe acabar con la raza humana es algo indudablemente fácil, pero para considerarlo una realidad es preciso pasar por un sinnúmero de saltos conceptuales que están aún muy, pero que muy lejos, si es que en algún momento llegan a tener algún viso de realidad.

Reclamar regulación sobre una tecnología o conjunto de tecnologías antes de que se desarrollen es un problema. La regulación parte de una base muy problemática, y es que muy pocas veces se desarrolla de la manera adecuada, y tiende a basarse en la restricción de posibilidades. Eso la convierte, por un lado, en algo por lo general imposible de llevar a ejecución en un mundo en el que esa regulación tiene en prácticamente todos los casos un ámbito estrictamente territorial – los intentos de regulación a nivel global son pocos y, por lo general, con desigual nivel de cumplimiento – y, por otro, en una manera de identificar los elementos que permitirían, en caso de obtenerse, generar una supuesta ventaja. Regular – o mejor dicho, restringir – el uso de transgénicos en Europa, por ejemplo, o de tecnologías de manipulación genética en otros países es algo que ya está siendo activamente utilizado en otros países para obtener ventajas tangibles en términos de productividad y de avance científico. Plantear que sistemas regulatorios que resultan tan malos e ineficientes se apliquen a un conjunto de tecnologías con tanto potencial, y generar una especie de histeria colectiva en torno a la posibilidad de robots más inteligentes que las personas desplazándose por las calles y dedicándose a matar todo lo que se mueve, como si algo así fuese a llegar pasado mañana, me parece inadecuado y peligroso. Y cuantas más personas conozco trabajando directamente en el ámbito del machine learning, de la IA o de la robótica, más me convenzo de que es así. Por muchas películas que veamos, Skynet no está ni se le espera.

Esperemos que esas peticiones de regulación no lleguen a ningún político temeroso e inspirado. Y mientras tanto, sigamos trabajando.

 

 

 

This post is also available in English in my Medium page, “The dangers of artificial intelligence» 

 

58 comentarios

  • #001
    Muadib - 21 julio 2017 - 13:33

    Respetuosamente disiento de tu posicion Enrique, Si considero que la IA es una amenaza existencial digna de ser tomada en cuenta, pero por otro lado sospecho que ya es tarde y solo nos resta «seguir trabajando» para lidiar con el advenimiento inevitable de dicho desafio!!

    • Enrique Dans - 21 julio 2017 - 13:52

      También con todo el respeto: es que no es cuestión de disentir o no, sino de traer evidencias o, cuando menos, algo más de lo que digo en el título del artículo, «temores irracionales»… muéstrame alguna evidencia de que el avance de la AI en los términos que manejamos de manera realista (no dando rienda suelta a la imaginación y a ciencia-ficción), y podré sumarme a ese movimiento de cuestionar la IA y pedir que sea regulada. Pero como dije en su momento con los transgénicos, no hay ninguna amenaza mínimamente realista, y en este caso, el uso de «regular» es equivalente al de «prohibir», concepto imposible y absurdo porque el desarrollo tecnológico no puede ser objeto de prohibiciones.

      • EAlp - 24 julio 2017 - 14:16

        Tampoco tiene porque ser una cuestión de blanco o negro. Yo tampoco pienso que la IA vaya a dominar el mundo y arrasar con la raza humana, pero si pienso que se podrían regular los «grises».

        Cuando un algoritmo de conducción autónoma (basado en ML) tiene que decidir entre frenar bruscamente para evitar un atropello y dejarse embestir por detrás por un camión ¿no piensas que debería estar esto regulado de alguna forma?

        Si no se hace, es posible se utilicen ciertos aspectos de la IA como elementos de marketing, como que nuestro coche autónomo prioriza la protección de los pasajeros frente a cualquier otro suceso exterior. ¿no tendría sentido tener una regulación a cumplir por cualquier sistema de IA?

    • Rocío - 28 julio 2017 - 00:03

      Es una amenaza total,ahora que casi hemos logrado que una máquina sea capaz de hacer lo de un ser humano,podiamos intentar conseguir que el hombre sea cada vez menos artificial…creo que será una gran equivocación seguir jugando a esto,sólo, por una pequeñísima duda que hubiera deberían de parar.

  • #005
    Gorki - 21 julio 2017 - 14:36

    Yo creo que en si mismo la IA no es ni buena ni mala, sino que son los fines para los que se aplique los que son en si mismo buenos o malos.

    La IA que derrotó al campeón del mundo de Go no es ni buena ni mala, tenía el objetivo de cruzar la frontera teórica que habíamos puesto a la IA y demostrar que se puede atravesar, objeto que si puede ser bueno o malo.

    Para mi este caso es un objetivo bueno, demostrar que la potencia de la IA no tiene fronteras y que sea el que sea el objetivo propuesto, con la debida dedicación de dinero y de expertos en IA, se puede superar.

    Pero si el objetivo puede ser que una empresa gane dinero a cualquier precio, pues ocurrira que terminara transformando esa empresa en una mafia, mientras que si el objetivo es producir bienes al menor coste, pues transformara la emopreas en una empresa muy productiva, lo cual en principio es bueno.

    Esto ocurre con cualquier tema, la electricidad, (cuantos han muerto electrocutados), la energia atomica, (ahí tenemos Chernobil), la globalización, (han visto imágenes de Detroit), las vacunas, los transgénicos, el fraking,…

    Si solo nos fijamos en el lado malo de las cosas, ¿pueden decirme algo que sea bueno de forma absoluta y no tenga un potencial riego de mal uso?.

  • #006
    Adolfo - 21 julio 2017 - 15:37

    Un apunte, Elon Musk lanzó y es sponsors de OpenAI. Esta organización se refiere a la AI como «la tecnología mas significativa creada por humanos», si bien insiste mucho en hacer que sea segura.
    Regular no es prohibir y si bien comparto que hay cosas que pertenecen a la ciencia ficción, lo cierto es que «la maquina» comienza a tener control en muchos elementos donde nuestra seguridad esta en juego y esa regulación no debe retrasarse.

    • Gorki - 21 julio 2017 - 16:10

      Esa postura es correcta, se debe regular como se regula cualquier cosa que mal utilizada pueda volverse potencialmente muy peligrosa, como pueda ser la dinamita, o la alta tensión,

      Si nos parece razonable que la Guardia Civil tenga que estar informada y controle el tráfico de dinamita y que los postes de alta tensión tengan que tener determinadas características de altura y estabilidad asi como no pasar por zonas de alta densidad de población, parece razonable solicitar que sea conocida por quien corresponda, la finalidad real de de una IA, que te recomienda hoteles o deniega créditos, o que se controle el uso de la IA, lo cual no es que se prohíba ni se impida, como no se impide el uso de la dinamita en o¡bra pública.

      Lo mas difícil de la IA, es que se puede seguir la lógica de los razonamientos de la IA porque estos no existen, pues los resultados son la consecuencia de decisiones aleatorias que depende de las nubes de datos observados y del aprendizaje y la forma de tomar decisiones es obscura hasta para quien lo diseño, pero si que se puede saber es que objetivos tiene la IA y comprobar que esos objetivos son «sanos».

      • Asier - 23 julio 2017 - 23:06

        Lo de los objetivos «sanos» es un tema muy peliagudo. La manera óptima o más rápida de conseguir ese objetivo para la máquina podría no ser ética o legal, o llevarse por delante otros objetivos incluso más importantes que el especificado, o tener consecuencias inesperadas. Acuérdate del mito del rey Midas…

  • #009
    Emilio - 21 julio 2017 - 15:53

    Muy buen artículo Enrique. Ya era hora de que alguien tuviera una opinión medio informada sobre la IA. La mayoría de los que opinan sobre el tema no tienen ni idea sobre como funciona actualmente y han visto demasiadas películas de ciencia ficción, incluido Elon Musk.
    Eso no quita que la IA no pueda ser peligrosa en el futuro, pero queda tanto para que ocurra (si es que puede llegar a ocurrir, con el modelo actual desde luego no, hoy en día la IA es mas estadística que otra cosa) que no tiene sentido ponerse a regular lo que aún no existe.

  • #010
    JJ - 21 julio 2017 - 16:24

    No hay tal falacia de autoridad. Se trata de superdotados, como Hawking, que conocen el tema de la IA y sus implicancias bastante mejor que la mayoría.

    Gates, Musk y la IA

    Tampoco se trata de creerse una novela barata de ciencia ficción distópica (un robot cruel y asesino dando un golpe de estado e imponiendo su dictadura) sino solo de utilizar un poco de lógica y otro poco de sentido común.

    Hoy sabemos que quien dispone de tecnología tiene una ventaja competitiva sobre quien no la tiene. Tanto es así, que hoy una persona sin smartphone difícilmente podrá conseguir un trabajo decente.

    Hoy, quien tiene un buen smartphone, con saldo, y un montón de Apps útiles es mucho mas competitivo que quien carece de esto.

    Es ingenuo pensar que la IA solo sirve para hacer una cosa bien (ajedrez, go, poker, etc.). Una IA se puede programar para todo lo conocido y por conocer, y ser alimentada con todas las bases de datos conocidas y por conocer.

    Si una IA puede superar, por ejemplo, los tests de MENSA, con resultados muy superiores a los de cualquier humano, podríamos inferir que se trata de una inteligencia lógica y poderosa como tal.

    Con la IA las diferencias entre unos y otros (quienes tengan acceso total, parcial y nulo) aumentarán enormemente. Quien tenga acceso a lo mas avanzado tendrá ventaja sobre quien no lo tenga. Y todos, para ser competitivos querrán tener o acceder a la mejor IA.

    Luego, se creará una gran dependencia de la IA. Nadie hará nada sin consultarla (hablamos de política, finanzas, de empresa y negocios, de ciencia, etc.). Y será ese, el momento de la dependencia, el que genere los riesgos y peligros. Porque, inevitablemente, en algún momento, dejaremos de confiar en nuestro intelecto humano.

    • Marcos - 22 julio 2017 - 03:15

      Como le acabo de responder directamente a Enrique, para mí, el verdadero desafío es que una IA, nos pelee o llegue a pelear nuestra condición humana, no nuestro intelecto. Y parte de esa condición humana se basa en la supuesta aleatoriedad. ¿Se supone que no nos concederían una hipoteca porque se prevé que las dos personas acaben rompiendo? Si de eficiencia y ayudarnos a mejorar ¿llegará el momento en el que basándonos en datos físicos o cerebrales, nuestra recomendación en Netflix vaya cambiando paulatinamente a documentales? Es exagerado esto último, pero se puede llegar a entender que programas como Sálvame no aportan nada de productivo ¿lo quitamos? La gente lo ve…

      ¿Qué cartas tomaría en el asunto una IA que intenta ser productiva pero que aquel a quien debe de ayudar es quien le pone los palos en la rueda?

      Cuidado con esta afirmación o pregunta última, que es a lo que me refiero. El instinto ¿es algo que quedara relegado al olvido?

  • #012
    Xaquín - 21 julio 2017 - 18:35

    Lo temible para mi es la inteligencia humana. Natural por lo de ahora, pero con posibilidad de ser reforzada con prótesis adecuadas.

    El uso de la dinamita no parece mal ejemplo, pero prefiero tocar otros con respuestas más aleatorias. Por ejemplo, el de la energía atómica, la manipulación genética artificial o, como no, la futura inteligencia artificial.

    En todos eses campos no hay que pensar en Hitler para meter miedo. LLega con pensar en la mayoría de humanos que buscan el bien individual, aunque lo disfracen a veces de bien común.

    En todos eses casos hai un elemento de aleatoriedad tan grande que ningún científico (en su sano juicio) puede asegurar que no sucedean cambios imprevisibles en cualquier proceso inciado. Procesos que llevaron a la naturaleza un lapso enorme de tiempo, pero en un laboratorio pueden ser cosa de microsegundos. Sin olvidar que la naturaleza sigue trabajando «a su aire».

    No hay que regular a la tecnología, hay que regular las mentes «privilegiadas» que piensan en que la radiación liberada, los genes manipulados o la recombinación algorítmica no seguirá las reglas del azar en vez de los deseos humanos.

    Eses visionarios que desprecian los efectos colaterales (en el mundo espiritual se les llama profetas) son los que deben ser regulados de forma democrática pero clara.

    En el mundo de las radiaciones, mutaciones genéticas o algoritmos variados, tanto mal pueden hacer los científicos sabiondos como los gobernantes trumpianos. Porque , entre otros problemas del asunto, ¿quien hace las regulaciones? ¿a qué se llama «hacer mal»?

  • #013
    Tomás Blas - 21 julio 2017 - 18:51

    Para los interesados en el tema, creo muy recomendable leer este artículo:
    https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
    Es bastante largo, y tiene segunda parte…

    • Muadib - 23 julio 2017 - 00:03

      Gracias Tomas por tu interesante aporte. Aqui la parte 2:
      https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

  • #015
    Santiago - 21 julio 2017 - 19:30

    Enrique, sigo tus posts muy agradecido , pero en esta ocasión disiento de tu enfoque. Hay dos corrientes de preocupación respecto a los riesgos de la IA. Por un lado están los temores asociados a la IA fuerte y sobre todo a la idea de la singularidad, analizados por Nick Bostrom y Raymond Kurzweil, y extrapolados en las distopías cinematografícas, y coincido en que tienen un punto apocalíptico muy matizable. Pero por otro está la amenaza de la algorítmica avanzada, asociada con técnicas de Big Data o IA, que ya se está utilizando en la frontera desregulada y generando riesgos tangibles. Los principales son la disrupción en el marcado laboral de clase media y la concentración de ventaja analítica, que puede amenazar casi cualquier equilibrio social. Y no es para dentro de 50 años. Lo que pasa es que la IA débil, en cuanto logra resultados en algún campo (juegos, traducción, predicción, salud, decisión…) se deja de llamar IA. La IA fuerte es un Global Catastrophic Risk, sobre el que hacen bien en alertarnos los líderes IT, pero Musk tiene el pragmatismo de incidir en la regulación, que es urgentemente necesaria para evitar el impacto a corto plazo de la analítica avanzada (las Weapons of Math Destruction que describe Cathy O’Neil).

  • #016
    Miguel - 21 julio 2017 - 19:44

    Te recomiendo que leas SuperInteligence de Nick Bostrom. El problema aquí no es si le damos un uso bueno a malo a la Inteligencia Artificial, si no como lleguemos a ella y el tiempo que transcurra desde que alcanzamos una IA de propósito general (y recalco propósito general y machine learning no lo es) de nivel equivalente al ser humano hasta que se llega al nivel de súper inteligencia. Según el libro, el consenso predice que llegaremos con un 50% de probabilidades al nivel humano para 2040, pero viendo como corre todo, y un ejemplo es el coche autónomo, no me extrañaría que fuese antes. Y de ahí a súper inteligencia no llevará tanto. Y en el caso de que la súper inteligencia disponga de una ventaja competitiva y no estemos preparados, las probabilidades de que pase lo mismo que les paso a los caballos con la aparición del coche, pero cambiando caballos por seres humanos, es bastante alta. Y no porque llegue Arnold con el día del juicio final, sino porque ya no seremos necesarios. No creo tampoco que la regulación ayude, será más como poner puertas al campo, ya que siempre habrá algún país que si lo permita, porque piensa que obtendrá una ventaja frente al resto. Pero si que pienso que esta es una amenaza real, que al contrario que otras cosas, que pueden tener un efecto más local o que al menos depende de nosotros, esto llega un momento en que escapa a nuestro control y dará igual si estabas a favor o en contra, tu vida ya no será la misma nunca más.

  • #017
    Jacinto - 21 julio 2017 - 20:14

    Apreciado y respetado Don Enrique:

    Disiento en varios puntos de usted y de su planteamiento, en mi opinión usted esta desarrollando inintecionadamente creo, un sofisma al pretender que las personas que cita no estan cualificadas para valorar acertadamente este hecho, creo que quizas lo estan mejor que usted, privilegiado espectador del efervescente momento que vivimos.

    El problema en IA, aparte de sus consecuencias sociales al hacer superfluas a las personas, lo veo en su uso, es una buena herramienta y como tal se puede usar en dos direcciones, como ha hecho la especie humana desde la invención del fuego o antes, cuando descubrio que con un piedro podia cascar nueces, luego ya casco otras cosas. . . .

    Personalmente veo el riesgo en el control social-policial, como ya podemos ver: reducción de población mediante control supervisado de la sanidad, control alimentario con semillas hibridas, sentencias judiciales basadas en informes de IA, etc., cuando tengamos una mezcla de IA+Minority Report aplicado a todos los niveles mediante simulación previa de nuestro comportamiento mediante analisis de datos y tendencias de nuestra actividad social+economica+situacional, entonces quizas pensemos que la IN (Inteligencia Natural) tenia sus ventajas. . . .

    Y olvidese de la regulación, Pandora nunco pudo volver a encerrar los males, y ademas, regulación implica control, quien tendra suficiente fuerza y conocimientos para analizar las posibles evoluciones de la IA y su consecuencia ?, actualmente la IA ya no se ciñe a lo que se le dice, analiza y crea nuevas reglas y normativas internamente, con lo que al final no tenemos ni idea de en base a qué hace sus valoraciones y conclusiones, ni el peso que da a cada elemento en función de su cadencia/intensidad/potencialidad/entorno etc. . . .

    Como en muchas ocasiones usted dice, nos aguardan tiempos interesantismos, no digo placenteros . . ., esperemos que para este proximo «entonces», sigamos en el lado dulce de la humanidad como hasta ahora.

    No descarto que alguna IA considere adecuado la liquidación total de alguna ‘fabela’ de Rio de Janeiro, o la conveniencia de desertificar Mejico por que tiene demasiados delincuentes, por mi parte sugeriria a la IA una progresiva desaparición de las pelirrojas, nunca me han gustado.

    Los ciclistas son una molestia que creo que en una sociedad correctamente organizada deberian ser apartados del grupo social comun destinadolos a generar energia electrica a partir de bicicletas estaticas, alimentandolos con los desechos caducados de la elite (entre la que espero estar) a fin de optimizar recurso y minimizar costes.

    Seguimos dandonos ideas? y ninguna regulación alterara esta realidad.

    Ya se que parece que este clonando a ‘Terminator’ no era mi intención, mis valoraciones son solo fruto de una evolución logica de mis ideas, cualquier parecido con la ficción es pura coincidencia.

  • #018
    Gorki - 21 julio 2017 - 20:36

    Como soy aficionado a Arduino, una placa que vale unos 10€, he encontrado un ejemplo que nos vale., Hay un robot hecho con Arduino que abre una caja fuerte en 15 minutos.
    Eso es algo parecido a la inteligencia artificial, sin embargo abre ese modelo de caja fuerte, si quieres abrir otro precisaras cambiar todas las tripas del robot.

    https://www.wired.com/story/watch-robot-crack-safe/

    Pues la IA es algo parecido. Una IA vale para ganar al GO, pero si quieres ganar al parchis con ella, tendrás que empezar de cero y harás una máquina que gana al parchis, pero si con ella quieres ganar a «mano, papel, tijera», vuelta a empezar .

    Cuando uno dice «Es ingenuo pensar que la IA solo sirve para hacer una cosa bien (ajedrez, go, poker, etc.). Una IA se puede programar para todo lo conocido y por conocer, y ser alimentada con todas las bases de datos conocidas y por conocer.» esta diciendo una posibilidad teórica, no real, se la puede programar para cualquier cosa de los millones de cosas que hay, pero solo para una detrás de otra, Es como el robot, se le puede programar para abrir una determinada caja fuerte, pero un ladrón no puede tener un robot que le abra una caja fuerte que se encuentre.en una oficina..

    • Jacinto - 21 julio 2017 - 21:03

      Hola,

      Arduino solo tiene limitada la capacidad de computo, por lo demas puede escalar niveles de raciocinio si escalamos su capacidad de computo, es decir, sistemas computacionales mas amplios.

      Una IA medianamente capacitada no tiene que empezar desde cero con cada nuevo caso, solo necesita conocer las reglas y genera nuevas conductas por incremento sobre el aprendizaje previo.

      En cuanto a tu tercer parrafo no es una posibilidad teorica, es una realidad en ejercicio actualmente, ademas, creas un escenario que se adapta a tu opinión/valoración en conjunción con no pequeños sofismas y omisiones para encajar un argumento que ya esta totalmente superado, aunque no tengamos pruebas publicas presentables en este momento.

      • Gorki - 21 julio 2017 - 23:27

        No se puede escalar el nivel de raciocinio de Arduino por el sencillo motivo que no razona, sólo podrías escalar su capacidad de cálculo. Podria ralizar cálculos muchisimo mas rápido. En virtud de eso podría abrir cajas mucho mas complicadas, pero no solo necesita capacidad de cálculo sino una serie de perifericos en funcion de la tarea que vaya a realizar, si le cambias la tarea le tendrias que cambiar los periféricos y «enseñar» a Arduino a manejarlos, o sea tendrías que volver a empezar de cero. Se puede construir un robot que abra una caja fuerte, pero no se puede construir un robot que abra todas las cajas fuertes,

        Una IA pensada par dirigir el tráfico, puede llegar a hacerlo muy bien pero jamás te valdrá para traducir chino, si no la reprogramas absolutamente desde cero.y viceversa. Al menos de momento no existen IA de propósito general, por eso careces de « pruebas publicas presentables en este momento».

    • JJ - 22 julio 2017 - 00:47

      Creo, Gorki, que ya hay a la vista suficiente potencia informática para la multitarea y el multiproceso real. Aunque un superordenador no es, en algunos sentidos, superior a un cerebro humano sí lo es en otros. Y puede, perfectamente, ganar a un experto en Poker y a un experto en Go, y a un experto en ajedrez, al mismo tiempo (siempre y cuando no estés pasando el antivirus). Pero si no fuese así, solo sería cuestión de esperar:
      Redes neuronales, computacion cuántica, o computación molecular.

      Computador celular

      También es posible que existan desarrollos que se mantienen secretos, sin lanzarse al mercado. O que solo son ofrecidos a algunos organismos, gobiernos o empresas muy relevantes. Quien sabe…

      • Gorki - 22 julio 2017 - 10:41

        Y puede, perfectamente, ganar a un experto en Poker y a un experto en Go, y a un experto en ajedrez, al mismo tiempo

        Si por supuesto, el tener la máquina suficientemente grande para hacer tres cosas a la vez eso no supone ningún problema, Lo que no podrás hacer es nada que no esté previsto. Suponiendo que esa máquina tuviera «manos· para agarrar las cartas del poker. Seria incapaz de utilizar una guadaña para cortarla hierba, por que no esta programada para eso ni tiene los periféricos adecuados. Habrá que empezar de cero en esa tarea, eso es lo que, (de momento), diferencia la inteligencia humana de la mecánica. Kasparov si nunca ha cortado hierba, tarda 5 minutos en aprender a cortar hierba y manejar una güadaña que nunca había probado, y posiblemente, en un mes, tenga un alto grado de maestría en el oficio.

        Es algo parecido a lo que pasa con los ordenadores, En principio valen para todo, pero si tienen un programa de contabilidad, no puedes dar a un botón y jugar al Tetris, salvo que esté previamente programado para ello, lo que si puedes en programarla además para jugar al Tetris y hacer ambas cosas a la vez si el PC tiene suficiente potencia. Si pretendes dar una ocupación no prevista al PC hay que repogramarlo para ello incluso la Machine Learning aprende por si misma, pero sólo de lo que está previsto, no adquiere un aprendizaje universal y luego se especializa como hacemos los humanos..

        • Jacinto - 22 julio 2017 - 12:17

          Creo que la realidad es diferente de como la planteas, tu argumentas las limitaciones del software, yo te planteo las posibilidades de la IA, puesto que no son iguales, ni aun semejantes.

          Seria como comparar aminoacidos con seres vivos, los unos estan basados en los otros, pero no tienen nada que ver.

          El PC que planteas, es rutinario y repetitivo con un numero limitado de opciones, la IA no, ella observa el entorno, lo analiza genera, asumiendolas, nuevas reglas que consoliden su actividad y adaptación al medio, esa es la diferencia: el crear y definir sus propias reglas para avanzar y/o sobrevivir incluyendo ocasionalmente trangresiones a esas reglas para llegar mas alla.

          Viendo jugar al poker, y con su experiencia jugando a las 7&1/2, pronto captaria las reglas y pasaria a ser un jugador aceptable

          • Gorki - 22 julio 2017 - 20:10

            No no es posible, «deep blue» por si sola, solo sabe hacer una cosa, jugar al ajedrez, suponiendo que tenga una cámara, «deep blue» solo esta preparada para comprender un tablero de ajedrez, por mucho que observara jugar a las 7&1/2, jamás aprendería por si sola, ni bien ni mal, a jugar a ese juego, ni tan siquiera entendería que es actividad es un juego o algo semejante al ajedrez, Te lo pongo mas fácil, si jugaran a las damas en el mismo tablero del ajedréz, tampoco llegaría por si sola a deducir el objetivo de los movimientos de las piezas, ni tan siquiera el reglamento de juego.

        • JJ - 22 julio 2017 - 15:18

          Vamos a separar lo que es IA pura de lo que son los robots, aunque estén bastante avanzados (lo digo por el ejemplo que pones de la guadaña).

          Dices que una IA no puede hacer nada no previsto, pero eso ya se ha superado. Fíjate en el caso de los algoritmos para el poker, que son solo la punta del iceberg, e intenta comprender lo que hacen, que no es lo de siempre.

          Cepheus

          Libratus

          Tu puedes programar una IA para que aprenda de la experiencia, o para que estudie y se prepare para una nueva tarea. Y eso lo hace en instantes, incluso crear variaciones sobre algoritmos conocidos o crear nuevos. La cuestión es que una IA bien programada puede aprender y actuar siempre con lógica, y con una lógica siempre «equilibrada» y basada en mucha mas información relevante que la lógica humana.

          ¿Suelen ser los humanos que juegan bien al ajedrez buenos jugadores de poker y viceversa?

          Una IA hará las dos cosas perfectamemte y al mismo tiempo mejor que una inteligencia humana y mientras tanto sacará conclusiones sobre la mejor política a seguir en medio oriente, y sobre la mejor inversión en valores tecnológicos del día, y diagnosticará la enfermedad que tienes (o análisis que necesites) con los síntomas que tu muestras, y etc., etc. …

          • Gorki - 22 julio 2017 - 20:16

            Concedido, puede jugar a la vez al ajadrez y al poquer, pero nunca podra arreglar relojes si no la reprogramas desde el principio. Ahora bien puedes hacer una IA que arregle relojes mejor que el mejor relojero, pero esa no sabrá traducir arameo por muchos dicionarios que la incorpores.

            La IA solo hace bien o mal, lo que has diseñado que haga, No es un ser inteligente.

  • #027
    Toronjil - 22 julio 2017 - 01:24

    Vernon Vinge, profesor de matemáticas y ciencias de computación y escritor de ciencia ficción predijo la singularidad para una fecha cercana a 2013.

    ¡Y esta predicción fue hecha en 1993!, en su artículo:

    http://edoras.sdsu.edu/~vinge/misc/singularity.html

    2013 era la fecha más probable para él dentro de un rango de 30 años, de 1993 a 2023.

    En 1993 Internet no llegaba ni de lejos al 1% de la población todavía.

    Viví aquellos años previos a 2013 (2013 era el año más probable para él) con cierta aprensión porque, como se dice en ese escrito:

    «En los próximos 30 años, tendremos los medios suficienes para crear inteligencia súper-humana. Poco después, la era humana terminará.»

    Una de las predicciones en ese artículo dice que «veremos como la automatización irá reemplazando trabajos de nivel de destreza creciente».

    Personalmente, ahora estoy lejos de las previsiones más pesimistas del artículo de Vinge y más cerca de las otras que implican colaboración con nuestros amigos de silicio.

    El terreno está abonado pero todavía muy lejos de ser minimamente explorado.

    (He de decir que en mis libros escolares en los años 70 ya se predecía un progreso exponencial de la humanidad en forma de gráfica.)

  • #028
    Marcos - 22 julio 2017 - 03:05

    MI opinión es la siguiente…

    Tenemos ya Smartwatch que nos dicen cual es la calidad de nuestro sueño y tenemos apps que nos dicen cuántas calorías consumimos o quemamos. A esto le sumamos las que analizan cuanto vamos a tardar en nuestro trayecto o incluso, semáforos inteligentes como decías el otro día, que ayuden a gestionar el tráfico mejor.

    Ok… utilicemos por ejemplo el ejemplo del semáforo, donde si una calle está mayormente congestionada, un semáforo te va a indicar mejor acceder por otra vía. Algo que ya se puede hacer con Apps, vaya. ¿Qué pasa si por la razón que sea, tú quieres ir por la calle congestionada? Imaginemos que acabas de recordar que a esa hora estará cerrando una tienda un amigo y así lo recoges.

    ¿Qué pasa si estaríamos a nivel físico estresados? Si hay Apps que nos dictan qué ejercicios nos vienen mejor para rebajar ese nivel de estrés…, pero nos apetece elegir otras actividades por la razón que sea ¿qué sucedería?

    Vayamos más allá. Si se trata de usar máquinas para analizar un consumo más inteligente eficiente y satisfactorio en teoría, ya sea de alimentos, de contenidos audiovisuales o de compra de artículos en Amazon ¿veremos seguros que cubran divorcios? Es decir… puede que lo más lógico, eficiente y satisfactorio basándonos en parámetros sea casarte con X persona ¿verdad?

    Pero no siempre nos apetece hacer dieta, no siempre nos apetece dormir porque van a sacar el capítulo de X serie a las tantas de la mañana y mañana iremos con sueño al trabajo ¿se va a monitorizar nuestra cantidad y calidad del mismo en factores? ¿En qué factores para alguien que trabaje en qué sé yo? (Sí, ya se… vendrán las máquinas ese día y me sustituirán por muy asistente social que sea ¿no?

    Cuidado, porque toda esa eficiencia que se saca de los datos, de la obtención de esos datos… escapa de algo tan absolutamente ilógico como es el ser humano y su sentido. Y esclavizar a la raza con ese varemo puede ser terriblemente peligroso.

    ¿Skynet? No señor Dans, quizás Samaritan sea mejor definición de un mundo «mejor» y más ordenado, donde todo aquello que no parezca funcionar como un reloj suizo, deba de sobrar… .

    Pero me parece que en su artículo, en absoluto dirigió ningún camino hacia este sendero.

  • #029
    Carlos Quintero - 22 julio 2017 - 07:27

    Yo creo que vivo en un mundo distinto. Llevo unas semanas gestionando un cambio de casa e interactuando con empresas y entidades para gestiones aparentemente sencillas:

    – Compra de casa a propietarios mediante inmobiliaria
    – Cambio de titular de contratos de suministro (electricidad, agua, gas)
    – Obtención información catastro
    – Obtención / actualización información registro propiedad
    – Contratación seguro hogar
    – Contratación alarmas seguridad
    – Contratación hipoteca a banco online
    – Descalificación VPO en organismo autonómico
    – Información de transporte público
    – Papeleo con gestoría del banco
    – Firma notario
    – Etc.

    De todas esas cosas, incluso las dos más complicadas, la concesión de la hipoteca y la firma notarial, no son más que recopilación de datos, verificación de los mismos, toma de decisión y firma. Nada que no podamos imaginar hacer «en dos clicks» en un mundo donde la información está digitalizada, accesible y certificada, y la firma puede ser electrónica. Las contrataciones o cambios de titular de un contrato deberían poder hacerse en 1 minuto vía web y DNI electrónico/certificado digital.

    Pues bien, lo que debería ser una experiencia, si no placentera, al menos neutra, está resultando ser un absoluto infierno de días y semanas, incluso para los trámites más nimios. El único trámite que ha tardado solo 24h ha sido el que más componente humano y menos informático tenía: la tasación de la vivienda mediante una visita y un informe. Todo lo demás es un puñetero desastre de webs, call centers, operadores, apps, procesos automatizados no instantáneos e información no sincronizada durante días, contradicciones, y donde los sistemas informáticos, más que ayudar, parecería que les sirven de escudo a algunos.

    La discusión para mí no es si la inteligencia artificial está llegando al mundo o si es peligrosa, es si alguna inteligencia ha llegado siquiera a los procesos de negocio.

  • #030
    Jacinto - 22 julio 2017 - 07:48

    Un apunte: la IA funciona y se aplica mientras nos autoalabamos con temas como regulación, que llegara en un futuro, que todavia no esta madura, etc.

    http://omicrono.elespanol.com/2017/07/robot-de-combate-autonomo-de-kalashnikov/

    Y si lo dicen en publico, que no habra en privado y en USA, donde su supervivencia esta basada en su tecnologia militar..

    • gorki - 22 julio 2017 - 10:48

      Esto – https://sueltalo.com/robot-policia-se-tira-una-piscina-primer-dia-trabajo-fotos/

      • Jacinto - 22 julio 2017 - 12:07

        Si, creo que lo llaman «fuego amigo».

  • #033
    Toronjil - 22 julio 2017 - 14:41

    En el tema de juegos, y tras el éxito de las máquinas en el go y en el póker, la pelota está en el tejado humano.

    Parece que todos los juegos conocidos son (ahora) susceptibles de ser superados por un cerebro computerizado. Y que para esto solo es necesario dedicar un buen equipo de ingenieros durante unos meses para hacer esa tarea. Y hablo de mus, guiñote o ajedrez tridimensional.

    ¿Podríamos ser capaces de inventar un juego que tenga el propósito específico de ser extremadamente difícil para una máquina vencer a un buen jugador humano?

    • JJ - 22 julio 2017 - 15:26

      Si existen los poderes paranormales, como clarividencia, telepatía, visión remota, paragnosis, etc. es probable que en un juego donde estos fueran esenciales resultara vencedor el ser humano.

      • TORONJIL - 23 julio 2017 - 23:46

        Si no podemos inventar un juego especialmente difícil para las máquinas… Quizá podríamos ponerles un reto mayor:

        Probar o refutar conjeturas matemáticas muy importantes que se han resistido a grandes mentes: la de Goldbach, la de si existen infinitos primos gemelos o no, etc.

        De hecho ya se han comprobado algunas conjeturas menos importantes con la ayuda de ordenadores, como el teorema de los cuatro colores, o la ¿conjetura? de Kepler.

  • #036
    A. Martin - 22 julio 2017 - 17:10

    Hice un TFM educativo para ayuda en la enseñanza de la programación, en el ámbito de secundaria y universidad, basado en playful learning y serious games. Curiosamente basado en todo este tema sobre la IA ó AI en inglés, informando sobre los riesgos y beneficios de la misma, mediante un storyboard conjuntado con lo anterior, multimedia, etc. Te regalo dos enlaces que complementan lo que has escrito y que usé en su momento: https://futureoflife.org/ai-principles/ y https://www.youtube.com/watch?v=UTJH2nWeeQc , un saludo.

  • #037
    acerswap - 23 julio 2017 - 03:26

    Estamos olvidando que existe en la sociedad lo que se llama etica y las leyes.

    Basemonos en algo muy sencillo: dos niños pequeños que no comprenden lo que es compartir o un reparto igualitario en una habitacion y pongamos un juguete en el centro. Obviamente, ambos niños lo querran y a su manera se lo quitaran al otro niño.

    Con dos adultos quizas podrian llegar a un acuerdo para repartirse el uso de un objeto por turnos porque saben que no pueden tenerlo los dos a la vez y que deben intentar sacarle el rendimiento maximo de una forma equitativa. Si hubiera que repartir algo, lo harian de forma similar, mitad y mitad. Al menos en teoria.

    Esto para una IA no es tan evidente. Es egoista y no tiene ese sentido de la justicia. Por eso es necesario limitarlas mediante reglas y leyes, porque es algo irracional aunque universalmemte aceptado.

  • #038
    Muadib - 23 julio 2017 - 05:50

    No se si vienen al caso pero el video es interesante.

    https://www.youtube.com/watch?v=r674s2LaoY4

  • #039
    ruizdequerol - 23 julio 2017 - 13:03

    Creo que se pueden hacer varias críticas razonadas a este artículo. Algunas ya aparecen en los comentarios anteriores, y no es cuestión de repertirlas.

    Me limitaré a señalar (rspetuosamente) que creo el Profesor Dans usa de modo incoherente la ‘falacia de autoridad’. Si fuera apropiado usarla (tengo mis dudas) para desacreditar la opinión de Elon Musk sobre la IA, dado que es un campo en cuayo desarrollo no está directamente implicado, pienso que el Profesor Dans debería también usarla para desacreditar su opinión al respecto, por los mismos motivos.

    Y si además, como imagino, el profesor Dans no está directamente implicado en producir regulaciones, debería también desacreditar su propia opinión sobre la regulación y los reguladores.

    Porque, siendo cierto que hay mala regulación, la característica de la buena regulación no es prohibir, sino poner límites a abusos.

    Lo cual puede hacerse, hubiera podido hacerse y debería hacerse al respecto de las tecnologías, icluso antes de que existan. Porque una de las bases de la regulación ha de ser la ética, que parece ausente de los atributos de muchos de los que impulsan indiscriminadamente la causa tecnológica.

  • #040
    Muadib - 23 julio 2017 - 15:35

    Dos aspectos a considerar: Existira una carrera entre las grandes potencias por crear una IA con propositos estrictamente militares?? Y aqui siguiendo los postulados de G. Benford en su saga del Nucleo Galactico; Sera un paso inevitable en los planetas habitados del Cosmos la supremacia de la IA por encima del sustrato de carbono? Buscara constactarse con las otras IA que pudieran existir??

    • Muadib - 27 julio 2017 - 01:33

      Aqui una nota al respecto del uso de la IA con proposito militar:
      http://interestingengineering.com/russia-missile-technology-artificial-intelligence/

  • #042
    Asier - 23 julio 2017 - 22:53

    El hecho de que ahora mismo estemos lejos de conseguir una IA general no significa que, visto el ritmo de los avances, en unas pocas décadas no se consiga, como vaticinan muchos expertos en el área. Tampoco hace falta que una IA avanzada tome consciencia para dejar el mundo patas arriba: ponle a jugar a la bolsa con millones de dólares y podría hundir mercados completos con el objetivo de maximizar beneficios.

    El problema es que a la hora de construir una IA que pueda superar la inteligencia humana, no habrá dos oportunidades: hay que hacerlo bien a la primera porque de lo contrario estamos ante un riesgo existencial (sí, comparto en esencia la visión de Musk, Hawking, Gates y compañía). Recomiendo leer este artículo de la Wikipedia de arriba a abajo:

    https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence

    El problema que veo en este tipo de artículos que intentan minimizar la alerta que han lanzado algunos expertos es que no explican bien en qué consiste ese riesgo y tiran de tópicos tipo Skynet y «robots más inteligentes que las personas desplazándose por las calles y dedicándose a matar todo lo que se mueve» : todos estamos de acuerdo en que nada de eso ocurrirá como en las películas, alguien o algo más inteligente que nosotros nos destruiría de manera mucho más sutil. El riesgo viene fundamentalmente de objetivos mal especificados o de manera aparentemente correcta pero con efectos colaterales devastadores inesperados, el ejemplo clásico es el del maximizador de clips.

    Y como ya han comentado otros, regular no significa necesariamente prohibir y detener el avance, todos los grandes avances con posibles usos perniciosos han necesitado de regulaciones.

    • JJ - 24 julio 2017 - 15:46

      «…ponle a jugar a la bolsa con millones de dólares y podría hundir mercados completos con el objetivo de maximizar beneficios…»

      Asier, esto ya existe hace bastante tiempo, y se ha ido perfeccionado. Se llama High Frequency Trading y hoy es lo que mueve la mayoría de los grandes mercados. Básicamente, consiste en usar algoritmos cada vez mas inteligentes, para anticiparse a los demás.

      Mercer, asesor de Trump, es experto y pionero en esto. También son expertos los de Goldman Sachs.

      los peligros del High Frequency Trading

      Hay quien argumentará que esto no es exactamente IA. Pero si aún no lo es lo será. Aunque depende de como definamos que es IA.

      • Asier - 24 julio 2017 - 17:36

        Ya lo sé, JJ, hay un montón de algoritmos y posiblemente programas de machine learning jugando a la bolsa como bien dices. Considera que son los equivalentes a los programas que jugaban al Go o al poker hasta hace poco. Lo que temo es el día que aparezca el ‘AlphaGo’ o el ‘Libratus’ del juego de la bolsa y empiece a ganarlo todo…

  • #045
    Juanma - 24 julio 2017 - 11:54

    Gracias, Enrique, por compartir tu visión del asunto. Creo que todos pensamos más o menos sobre este tema. Y hay algo que no he visto reflejado nunca: como «artificial» significa, por ahora, «creado por el ser humano», entonces la creación de IA lleva aparejada la presencia de EA (estupidez artificial).

    Siento utilizar un término tan despectivo, pero creo que es muy representativo. Lo que creamos está sujeto a nuestra propia falibilidad, por lo que esa IA llevará en su «ADN» la certeza de que ante ciertos estímulos externos, la respuesta sea incorrecta, fuera de lógica. Y si vemos lo que a nosotros nos ocurre, esto puede aparecer a medio plazo, con respuestas previas perfectamente lógicas.

    Así que, por pura prudencia, yo creo que es una osadía intentar crear IA entendida como pensamiento genérico, hasta que dominemos los mecanismos de la Inteligencia.

    Mientras tanto, yo creo que es mejor aprovechar la tecnología en inteligencias parciales o especializadas, que mejoren la productividad o el desempeño de las personas en ciertos ambientes.

  • #046
    Papalagui - 24 julio 2017 - 12:18

    Sinceramente Enrique, si pretendes desacreditar a gente tan acreditada como Elon Musk, Stephen Hawking o Bill Gates, te aconsejo que lo intentes acreditando argumentos lógicos, contrastados y científicos. Me resulta irónico que apeles a la «falacia de la autoridad» cuando pareces hacer lo q críticas al no ser ni un experto en el tema sin justificar mínimamente tu afirmación. Bueno, tienes un par de coleguitas que creen q no pasará nada….

    Supongo que ha sido totalmente inconsciente tu olvido de Ray Kurzweil, una de las máximas autoridades en AI y que alerta del singular momento histórico al q nos enfrentamos. https://en.m.wikipedia.org/wiki/Ray_Kurzweil

    Finalmente aconsejo a todos la lectura de este realmente fascinante y explicativo post sobre el porqué de la peligrosidad de la AI. https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

    Espero tu argumentada réplica. Un saludo

    • Enrique Dans - 24 julio 2017 - 12:54

      ¿Argumentada réplica? ¿Te refieres a este Ray Kurzweil? No sé quién crees que soy, pero si piensas que escribo sobre las cosas en base a «lo que me cuentan un par de coleguitas», te recomiendo que te documentes sobre las cosas a las que me dedico. Cuando digo lo que digo, y sobre todo, cuando contradigo a personas a las que admiro, lo hago porque trabajo directamente en un tema y ellos no. Estoy harto de ver algoritmos, de ver cómo ser trabaja en ML, y de entender y tangibilizar perfectamente lo que supone educar un algoritmo. Quien no trabaje directamente – y enfatizo lo de «directamente», me refiero a «manos en la masa» – en ML, cree que esto es lanzar una rutinita sobre una base de datos, y ya está, ya aprende. Nada más lejos de la realidad. La gran verdad es que los datos tienen que prepararse de una manera muy específica, que su preparación cuesta tiempo y esfuerzo, que una vez preparados es muy difícil entender lo que realmente queremos, y que ese trabajo previo se lleva más del 80% del tiempo y el esfuerzo de un desarrollo. Y aún así, solo es eficiente cuando el ámbito y las restricciones están muy bien definidas. Se puede aplicar a muchas cosas, por eso hay muchas compañías que pagan por ello y obtienen valor a cambio, pero está aún no lejos, sino lejísimos de todas esas chorradas hipotéticas sobre killer robots, algoritmos que aprenden solos y barbaridades que se dicen en este hilo. Quien quiera demostrar que tenemos que tener miedo por eso, que traiga pruebas sobre cosas que se pueden hacer ya con ML y AI que de verdad den miedo. ¿Respuesta? No hay. Punto. Todo son elucubraciones. Y esas elucubraciones y esa dialéctica del miedo, puestas en la cabeza del político de turno, sí deberían daros miedo, mucho miedo.

      Si pasas por aquí a leer, que no sea a leer a un tipo «que se informa con unos coleguitas suyos», por favor. Un poco de respeto.

      • Papalagui - 25 julio 2017 - 15:35

        Primero de todo, mis disculpas si sientes que te he faltado el respeto, nada más lejos de mi intención.

        Ahora, y de nuevo con todos mis respetos, no creo que tenga que saber quién eres para poder opinar sobre tu opinión. Si eres un experto en el tema, disculpa mi desconocimiento, pero en ese caso esperaría de tí argumentos razonados, de ahí mi incorrecta suposición.

        Comentas las capacidades limitadas de la AI hoy, pero como es obvio y se ve tb en muchos otros comentarios, lo q hoy es imposible, mñn dejará probablemente de serlo. No me parece que por eso debamos quedarnos tranquilos.

        En mi opinión la actitud de Elon y cía no es más que de precaución, más vale prevenir que curar, ante una realidad que no hemos conocido jamás en la historia de la humanidad. La de convivir con un ente potencial e infinitamente superior a nosotros.

        Ante la duda, yo siempre estaría del lado del cauto. Te diría que si tú no lo estás, que sea por una razón de cristalina evidencia.

        Un saludo

      • Papalagui - 29 julio 2017 - 12:07

        Un claro ejemplo de como incluso hoy en día la AI nos supera y se nos puede ir de las manos. No me resulta nada difícil imaginar casos mucho más problemáticos…

        Noticia extensiva en inglés
        http://www.digitaljournal.com/tech-and-science/technology/a-step-closer-to-skynet-ai-invents-a-language-humans-can-t-read/article/498142

        Noticia resumida en español
        http://www.labioguia.com/notas/apagan-una-inteligencia-artificial-desarrollo-su-propio-lenguaje

        • Enrique Dans - 2 agosto 2017 - 14:49

          Todo falso. Puro sensacionalismo, como la mayor parte del tratamiento informativo que dan a estos temas…

          Facebook didn’t kill its language-building AI because it was too smart—it was actually too dumb

          Los bots de Facebook con inteligencia artificial que no daban tanto miedo como cuentan

          «¡¡Oh, dios mío!! ¡Se ha inventado su propio idioma y está planeando matarnos a todos!!!» Pffff…

          • Papalagui - 3 agosto 2017 - 09:48

            Sinceramente, me parece mucho más sensacionalista el artículo que citas que el que yo cito. En el yo te copie nadie dice nada de matar a nadie, por qué asumes que esa es la preocupación? Puro sensacionalismo simplista diría yo…

            El peligro evidente, y repito, es la incapacidad de entender lo que están haciendo las máquinas. La potencial incapacidad por tanto de controlarlas. Indudablemente nadie piensa en que tengan consciencia y mucho menos que sean malas, pero en el caso de un mal funcionamiento esa posible incapacidad nuestra es cuánto menos inquietante… Sobre todo si con el tiempo las AIs van a ir asumiendo responsabilidades cada vez más relevantes.

            Así que por favor, nada de killerbots ni sensacionalismos. Seamos serios

  • #052
    Alejandro Hellín - 24 julio 2017 - 14:45

    Isaac Asimov ya escribió en el siglo pasado sobre las Tres Leyes de la Robótica:

    1. Un robot no hará daño a un ser humano, o por inacción, permitir que un ser humano sufra daño.
    2. Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
    3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o Segunda Ley.


    Aunque aquí hablamos de Inteligencia Artificial sin entrar en robótica, dichas leyes son hoy en día perfectamente aplicables a modo de «Constitución» o «Leyes Fundamentales». No está de más que nos anticipemos a las cosas y se debata al respecto, que para eso somos humanos, con capacidad de previsión, capacidad pro-activa y capacidad intiutiva (si hemos intuido algún riesgo en todo este mundo y se ha plasmado en obras de ciencia ficción al respecto será porque dicho riesgo lo hemos intuido y podría ser real, aunque no en la actualidad, claro está)

    Las normas de convivencia más obvias y derechos fundamentales vienen ya recogidos en la Constitución de cada país y en las leyes que las desarrollan para salvaguardar a sus ciudadanos. Yo no veo mal actualizar dichas leyes fundamentales, en donde proceda, para salvaguardar a la persona de este cambio tecnológico que no es comparable a ningún otro cambio tecnológico. De hecho, en la Constitución Española se habla igualmente de otras tecnologías (telecomunicaciones, medios de transporte, servicio meteorológico, etc.), ¿por qué no recoger en unos años esta nueva tecnología para salvaguardar su uso correcto dentro de las normas de convivencia? Todo es cuestión de, como dice Elon Musk, ir pensando en ello para ser proactivos en lugar de reactivos, y desarrollar una normativa lo más coherente posible en el futuro. (Otra cosa es el rezo final del artículo de Enrique: el de los políticos temerosos o inspirados)

    • Muadib - 24 julio 2017 - 17:44

      No te olvides Alejandro de la Ley Cero:
      https://es.wikipedia.org/wiki/Ley_Cero

  • #054
    JJ - 24 julio 2017 - 16:23

    En este hilo se ha hablado y se han enlazado artículos en relación con Ray Kurzweil.

    Sin duda se trata de un genio, pero se puede ser genial, acertar en muchas predicciones, y a la vez conservar una dosis de fantasía (ya sea utópica o distópica).

    A Kurzweil le preocupa sobre todo la nanotecnología, es alli donde ve los mayores peligros.

    Luego, dice o predice cosas como que en 2020 se curarán el Parkinson y el Alzheimer (Dios quiera) o que en 2030 los seres humanos subirán los contenidos de sus cerebros a la nube… aunque no parece que estemos tan cerca de conseguir algo así.

    Kurzweil predice

  • #055
    David - 25 julio 2017 - 14:23

    Hace doscientos años nadie se podía imaginar todas las cosas que son «normales» hoy en día, desde que un avión que pesa 400 toneladas despegue y vaya al otro lado del mundo en unas horas, la energía nuclear, internet, etc.

    Por eso creo que es completamente imposible predecir los avances que tendrán lugar en unas pocas décadas.

    Simplemente por puro sentido común, lo más lógico sería pensar que la inteligencia artificial alcance niveles que ahora mismo ni nos imaginamos, más si tenemos en cuenta que es una tecnología que todavía está en pañales.

    En la gran mayoría de los artículos que escribes tus opiniones me parecen acertadas pero en este caso no coincido contigo, Enrique. :-)

  • #056
    Muadib - 27 julio 2017 - 15:38

    Esta «novela» de la IA continua con mas capitulos «apasionantes»:

    https://elpais.com/tecnologia/2017/07/25/actualidad/1500990944_982349.html

  • #057
    Josep Canal - 30 julio 2017 - 09:13

    Creo que partimos de un error de base al asociar IA con el concepto de inteligencia humana.
    Seguramente si abrimos el cajón del significado y definimos la inteligencia como capacidad de adaptacion al entorno, podremos entrar en entornos de inteligencias paralelas, superpuestas e incluso antagónicas.

    Hagan juego señores.

  • #058
    Muadib - 14 agosto 2017 - 00:23

    La ultima entrega de esta apasionante novela al menos hasta hoy 13 Agosto 2017.

    http://interestingengineering.com/elon-musk-says-ai-is-a-bigger-threat-than-north-korea/

Dejar un Comentario

Los comentarios están cerrados