La inteligencia artificial como supuesta amenaza para la humanidad

IMAGE: Higyou - 123RF

Un informe de un grupo de científicos independientes norteamericanos para el Departamento de Defensa (DoD) afirma que los cada vez más impresionantes desarrollos en el campo de la inteligencia artificial no suponen en modo alguno una amenaza para la humanidad, como algunos destacados personajes habían implicado recientemente.

Según este grupo de científicos, la inquietud con respecto al desarrollo de la inteligencia artificial proviene únicamente de la excesiva atención mediática por parte de periodistas y escritores de ciencia-ficción prestada a los progresos de la llamada Artificial General Intelligence (AGI) o Inteligencia Artificial Fuerte, que se corresponde con los intentos de crear inteligencia en máquinas que exitosamente puedan realizar cualquier tarea intelectual desarrollada por cualquier ser humano. Este enfoque generalista de la inteligencia artificial, aunque obviamente provocativo en sus propósitos y objeto de una elevada (y excesiva) visibilidad, supone en el momento actual un campo muy restringido, muy limitado en sus progresos, y está muy lejos de obtener resultados mínimamente preocupantes. Los miedos que genera en la población, simplemente, no se corresponden con los hechos: en la actualidad, la atención dedicada al desarrollo de máquinas capaces de tomar decisiones a largo plazo, pensar y actuar como seres humanos es más bien escasa. 

Por contra, el desarrollo de la inteligencia artificial, tanto en lo relevante para el DoD como en otros ámbitos, se centra más en potenciar las habilidades del ser humano y en liberarlo de determinadas tareas, que en su sustitución directa como tal. De hecho, uno de los ámbitos más prometedores en el momento actual, el desarrollo de vehículos autónomos que puedan desplazarse en condiciones de mayor seguridad que los manejados por seres humanos, acaba de recibir un importante espaldarazo de otro organismo gubernamental norteamericano, la National Highway Traffic Safety Administration (NHTSA), que acaba de cerrar su investigación sobre el por el momento único accidente fatal de un vehículo Tesla cuando circulaba con el llamado Autopilot considerando no solo que no tiene ningún sentido pedir una retirada de los vehículos con ese sistema, sino afirmando que no hay defectos en su funcionamiento y prácticamente felicitando a la compañía por haber obtenido un 40% de reducción del número de accidentes. El informe, celebrado por la compañía en un breve comunicado, exonera completamente a la compañía por el accidente y consolida la idea de que los sistemas de conducción automatizados pueden contribuir sensiblemente a la reducción de la siniestralidad en el tráfico rodado.

Por mucho que las películas de ciencia-ficción nos cuenten, la idea de que el desarrollo de la inteligencia artificial puede llegar a constituir una amenaza para la humanidad, de que las máquinas pueden tomar conciencia y, de alguna manera, atacar al ser humano está muy lejos de la realidad. Lo que corresponde es ver a la inteligencia artificial como una fuente de ventajas, de ayudas y de mejora en nuestras condiciones de vida a través de todo tipo de avances. Olvidemos al robot amenazador. Y mejor, centrémonos en el desarrollo de la inteligencia artificial como nueva frontera para la humanidad.

 

 

This post is also available in English in my Medium page, “Artificial intelligence is not a threat to humanity«

 

28 comentarios

  • #001
    xaquín - 21 enero 2017 - 15:52

    No hay que temer al robot evolucionado ni al posible ET. Toca temer la falta de solidaridad humana. Acaso la historia no ha demostrado con suficiencia, que las batallas principales no se ganan por la fuerza propia sino por la debilidad del enemigo?

    La CF no puede predecir el futuro, pero si nos avisa que los tejemanejes humanos (normalmente inducidos por su egoísmo) son los que dan ventajas a las «máquinas inteligentes».

  • #002
    Gorki - 21 enero 2017 - 16:38

    La IA como cualquier descubrimieto del ser humano, del fuego a la genética no son en si mismo ni buenas ni malas, lo peligroso son los MALOS usos que se le pueda dar.

    Por poner un ejemplo, ha tomado el poder en USA, TRUMP un autentico dinosaurio. Una de sus atribuciones es poder apretar un botón que desencadene una guerra nuclear. Evidentemente mucho riesgo corremos estando ese botón al alcance de semejante Individuo, pero ¿Preferirías que ese botón lo manejara una IA?

  • #003
    menestro - 21 enero 2017 - 17:10

    Vamos a matar a disgustos al abuelo (Stephen Hawking)

    Para que el DoD tenga que salir al paso de un brote de alarmismo, hay que imaginarse hasta que punto habrá el llegado el disparate, que no el avance en IA.

    Probablemente, ya se estaba poniendo en peligro proyectos de investigación, con algún tipo de dislate en el congreso de EE.UU., del estilo del que ha protagonizado Mady Delvaux en el Parlamento Europeo, solicitando que los robots pagasen Impuestos, o un ‘ Interruptor de emergencia’ para el caso de que tomasen la iniciativa propia.

    «Mi mayor preocupación es que los robots no dominen la humanidad» (sic)

    Mady Delvaux

    Es sencillamente esperpéntico. En la línea de Nigel Farage y el Brexit, o Paco Rabanne con la estación MIR.

    Y lo adereza con una renta básica apoyada en ese impuesto, para darle mayor atractivo entre las clases desfavorecidas y sin formación.

    (La persona que perdió la vida en el accidente del Tesla, podría ser una de las primeras víctimas documentadas del hype sobre la IA en internet)


    Campaign to Stop Killer Robots

    ‘My main concern is that humans are not dominated by robots’

    Robots should be given legal status as ‘electronic persons’ with ‘kill switches’

    • menestro - 21 enero 2017 - 23:28

      Por si alguien quiere saber lo que opino de Ray Kurzweil. :-)

      Mis predicciones son a corto plazo, probablemente porque mi preclaridad no alcance a la de Kurzweil (sobre todo en captar adeptos), pero estimo que, en aproximadamente menos de una década, la Singularidad tecnológica será indistinguible de la Cienciología.

      https://es.wikipedia.org/wiki/L._Ron_Hubbard

      Con probabilidad, se radicalizará en sus preceptos (Ya veréis cuando la palme Kurzweil antes de la primera venida de la IA consciente) y se ira apartando del desarrollo científico y fiando esa supuesta conciencia de las maquinas a fechas cada vez más lejanas en el tiempo, sin ninguna base científica o tecnológica que las sustente. Tal como hace ahora, ya en estos momentos.

      Seguramente se financien proyectos del estilo de Alcor para preservar consciencias de hombres prominentes y pudientes, almacenadas en backups digitales, de forma similar a como lo está intentando Ray Dalio en la actualidad.

      (Ray Dalio es un seguidor de Ayn Rand y se ha comparado su filosofía empresarial a la Cienciología)

      Una especie de Arca de Noé digital; cuando alguien te venda «El próximo gran cambio que va a experimentar la humanidad» y una «Nueva era para el ser humano» ya sabes de que trata la teoría.

      Un lucrativo engañabobos, con un flujo de efectivo garantizado.

      Exponencialmente hablando. ;-)

      Mastering the Machine

      “The Book of the Future” – The Brain of Ray Dalio

      Singularidad tecnológica y transhumanismo

  • #005
    lector - 21 enero 2017 - 18:30

    Completamente de acuerdo. Asusta que gente con responsabilidad en lugar de dejarse asesorar por expertos se dediquen continuamente a lanzar mensajes populistas. La IA débil nos irá librando de tareas más o menos monótonas permitiéndonos centrar el esfuerzo en otras. La IA fuerte sigue siendo por ahora materia de ciencia ficción sin signos recientes de avance, quizá pueda avanzar cuando conozcamos lo suficiente acerca de cómo funciona nuestro cerebro.

    Habrá que hablar más de cosas como la educación, tanto de jóvenes como de adultos en este contexto.
    El fracaso escolar puede conducir a no ser empleable en mayor medida que en el pasado y va a ser mucho más probable tener que pivotar a diferentes trabajos siendo adulto.

  • #006
    HERNANDO - 21 enero 2017 - 19:34

    Todo trabajo productivo, extractivo, intelectual, etc., debería ser hecho por maquinas, son más eficientes. Seguramente aprehenderán a sobrevivir del depredador. Cuál es nuestro papel? Crearlas y dotarlas de capacidad de sobrevivencia y que cuiden de nosotros. Pero la inteligencia no es el centro de gravedad de nuestra existencia, ese es quizá el problema, que en este mundo lógico creemos que ese es el fin y ese es un elemento mas hay que ponerle cuidado a los otros y empezar a tomarlos muy en serio. Que pasará cuando el modelo económico en lo productivo quede obsoleto y solo queden flotando nuestros deseos? De película me parece, le compraría un diseño de vestuario un robot a otro robot? Hemos hecho de nuestras necesidades y deseos una justificación económica y un aparato productivo y de servicios de base, pero no es hora de ir preparando nuestro futuro para algo diferente? Seguramente nuestro instinto de supervivencia en su momento hará lo suyo antes de que apretemos el botón indebido y seamos víctimas de nuestra precocidad tecnológica.

  • #007
    Juanjo - 21 enero 2017 - 20:00

    Lo que también es evidente es que la IA sustituye y sustituirá a millones de trabajadores. Y yo no he visto ningún gobierno, ninguna teoría, ninguna solución sobre como contrarestar sus enormes efectos negativos. Solo veo a unos pocos cada vez más ricos y a otros muchos cada vez más pobres.

    • Toronjil - 22 enero 2017 - 00:44

      Pues yo veo que los riqueza media de la humanidad no hace sino aumentar.

      Los pobres de ahora viven mejor que los ricos de antaño.

      • Juanjo - 22 enero 2017 - 10:56

        Escribe Marc Vidal: » la automatización mecánica es, junto al Big Data, el elemento transformador más intenso que nuestra especie ha vivido jamás. De hecho se considera que la amenaza que suponen los robots y software asociado a todo tipo de empleos supondrá la eliminación de millones de puestos de trabajo en los próximos años.» o «Cambios masivos que traerán tiempo para innovar si sabemos cómo afrontarlo. Si no hacemos nada, las crisis vividas hasta la fecha habrán sido una caricatura comparada con la que se nos viene encima.» … https://www.marcvidal.net/blog/mientras-llega-la-singularidad-y-el-empleo-sobre-la-transicin-robtica

      • Juanjo - 22 enero 2017 - 14:32

        Ellos, los pobres de ahora, se mueren de hambre, guerras, frío, … la riqueza solo ha aumentado entre los más ricos. . Y si algo descubro con esto es tu profunda insensibilidad.

  • #011
    Ignacio - 21 enero 2017 - 20:21

    Buenos días Profesor Dans.

    Que opinión le merece Ray Kurzweil? situando la Strong IA en menos de dos decadas y la singularidad tecnológica en menos de 4?

    http://www.kurzweilai.net/ask-ray-how-do-you-gauge-if-strong-ai-is-a-few-years-away

    • Enrique Dans - 21 enero 2017 - 21:20

      Hola Ignacio! Le tengo una gran admiración a Ray, me parece de las personas más preclaras en este tipo de cuestiones, y lleva mucho tiempo manejando esos plazos. Y precisamente a eso me refiero: dos décadas, en este momento y a la velocidad que nos movemos, son un espacio de tiempo tan grande que cualquier cosa puede pasar hasta entonces (con Trump en la Casablanca, es incluso posible que no lleguemos a ver más allá de media década). Si llegamos a dos décadas, la discusión habrá avanzado tanto, que dispondremos de todo tipo de metodologías y sistemas de control que pongan coto a los peligros que hipotéticamente pueda llegar a representar la AGI. Y en cualquier caso, la hipótesis de detener la investigación en un área «por lo que pueda pasar» es completamente inviable.

      • Asier - 22 enero 2017 - 00:29

        Estoy completamente a favor de desarrollar la IA todo lo posible (la promesa de los beneficios es demasiado buena) pero éste es un tema que sí me preocupa.

        Enrique, comentas:

        la idea de que el desarrollo de la inteligencia artificial puede llegar a constituir una amenaza para la humanidad, de que las máquinas pueden tomar conciencia y, de alguna manera, atacar al ser humano está muy lejos de la realidad

        Si llegamos a dos décadas, la discusión habrá avanzado tanto, que dispondremos de todo tipo de metodologías y sistemas de control que pongan coto a los peligros que hipotéticamente pueda llegar a representar la AG

        Si vamos a tener AGI en dos décadas y es un área en la que ya se está trabajando, los problemas derivados no los consideraría «muy lejos de la realidad». ¿Cúanto se tardó desde que se descubrió el fenómeno de la fisión nuclear hasta que se lanzó la primera bomba atómica para matar humanos? 7 años

        Con las armas nucleares al menos somos nosotros quienes decidimos usarlas y en qué medida, pero una vez desarrollada una AGI más inteligente que nosotros, en ese momento, perdemos el control. Si no hemos puesto mucho cuidado en su diseño, en lo que aspira a hacer y de los medios que dispone, veo un riesgo existencial para la humanidad. Y ni aun tomando esas medidas y disponiendo de «todo tipo de metodologías y sistemas de control» que comentas tenemos nada garantizado dado que alguien (o algo) más inteligente que nosotros sencillamente no sabemos de qué será capaz, podrá engañarnos de maneras que ni nos imaginamos. Es como si unos chimpancés hubiesen creado al ser humano y lo tuvieran encerrado en una jaula: salir de ella y dominar a los chimpancés sería sólo cuestión de tiempo.

        https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence

  • #014
    Krigan - 22 enero 2017 - 02:22

    Está ese hipotético futuro en el que supuestamente habrá máquinas que sean tan inteligentes como un ser humano, pero eso aún tardará, si es que llega a ocurrir alguna vez.

    Pero ahora mismo hay gente que reacciona de un modo bastante llamativo ante la simple idea de que una máquina actual tenga la inteligencia de (digamos) una hormiga. En parte es un problema de cómo definamos la palabra «inteligencia», pero hay algo más.

    Hay en algunas personas una especie de empeño en negar que las máquinas puedan ser inteligentes a cualquier nivel, incluso al bajo nivel de una hormiga. Esas mismas personas no parecen tener ningún problema en aceptar que hay algo de inteligencia en una hormiga, aunque sea muy poca, pero ¿una máquina? No, por Dios, eso es imposible.

    Tal vez tenga que ver conque por una hormiga no se sienten amenazados y por una máquina sí. La hormiga no va a mejorar, o como poco tardaría millones de años de evolución biológica, pero las máquinas incrementan muy rápido su potencia de cálculo. La máquina-hormiga de hoy puede convertirse en la máquina-chimpancé de mañana, y más tarde…

    Las redes neuronales fueron conceptuadas a semejanza de las redes de neuronas biológicas. Decir que es imposible que ahí haya ninguna inteligencia en absoluto es como poco aventurado. Pero ahí tienes a algunos humanos trazando una divisoria infranqueable sin ningún fundamento, adoptando una postura que me atrevería a calificar de religiosa.

  • #015
    Manuel Parra Palacios - 22 enero 2017 - 04:33

    La mayor preocupación viene de dos puntos de tipo ético:
    A medida que la inteligencia artificial crece y es capaz de tomar decisiones más complejas con datos más elaborados. ¿Podrán sustituir en decisiones clave a los humanos?. Llamemosle «efecto Matrix o Terminator».
    El segundo es más operativo, con el avance de la inteligencia artificial y la inteligencia cognitiva habrá puestos de trabajo que cambiarán o se extinguirán. ¿Crearán grandes bases de personas no cualificadas sin empleo?.
    Argumentos en pro y contra de ambas tendencias hay y a tenor del pasado parece que un horizonte no del todo pesimista, sin ser tampoco optimista, se cierne pero no sabemos si esta cuarta revolución industrial será diferente a las anteriores.
    Gracias por el artículo

  • #016
    menestro - 22 enero 2017 - 10:57

    Sin aludir a nadie, creo que existe alguna confusión sobre la terminología usada en tecnología.

    La metonimia es una figura retorica que consiste en denominar (sic)

    «Una cosa con el nombre de otra con la que existe una relación de contigüidad espacial, temporal o lógica»

    En el caso de las redes neuronales, se eligió este nombre por la similitud, que no equivalencia funcional, a la interconexión ramificada de las neuronas.

    Una denominación más fiel sería la de redes nodales, y se basan en modelos matemáticos semejantes a las redes bayesianas, donde una algoritmo matemático filtra la información y establece un modelado de esa capa de nodos, mediante sustracción, adición, etc de diferentes algoritmos.

    No existe una funcionalidad equivalente, de la misma forma que una calculadora no es semejante a la forma en que nosotros hacemos cálculos matemáticos o numéricos. El ‘aprendizaje’ que realiza una red nodal no es equiparable (similar) a la de los seres humanos, ni mucho menos.

    Utilizar términos biológicos en áreas de computación crea una familiaridad y cercanía con las metodologías usadas, que pueden ayudar a crear analogías amables a la hora de divulgar esas técnicas entre legos, o personas que no dominan esa base teórica.

    Por ejemplo, en mecánica cuántica y física de partículas, se utiliza la denominación ‘Sabores’ para designar las diferentes cualidades de los Quarks. Existe el quark ‘belleza’ que no es guapo, el quark ‘Encanto’ que no es encantador, y el quark ‘Extrañeza’ que no es extraño, ni nunca se ha extrañado de nada. (pobriño)

    Con las redes neuronales, pasa lo mismo, que se crean falsos amigos y analogías que inducen a confusión, creando una representación antropomorfizada de técnicas, que nada tienen que ver con sus homónimos biológicos.

    Y ahora, voy a llevarle el desayuno a la cama a la Roomba. (Sin enlaces esta vez).

    .

    ps.

    Miedo me da, utilizar cualquier termino técnico para describir algunos conceptos de computación, para que no acaben siendo utilizados de forma fabulada en cualquier elucubración sobre cerebros electrónicos y la dominación mundial por las maquinas.


    La Fantasía, es libre por supuesto. El conocimiento, cuesta esfuerzo.

    • Krigan - 22 enero 2017 - 13:24

      Menestro, ¿eres consciente de que acabas de hacer exactamente lo mismo por lo cual me acusaste a mí de «trolear en todos y cada uno de los comentarios de las personas que no opinan como tú»?

      Es decir, yo escribí un comentario en el hilo principal del artículo, y más tarde escribí 2 respuestas a sendos comentarios de otros, y ya solo con eso me vino la acusación tuya que he citado (y más cosas).

      Y tú has escrito un comentario en el hilo principal, y más tarde 2 respuestas a sendos comentarios de otros, recurriendo eso sí al artificio de contestarte a ti mismo en tu primera respuesta (pese a que respondías a otro), y escribir tu segunda respuesta en el hilo principal, en lugar de aquel al cual respondías.

      Porque vamos, creo que los comienzos de esas 2 respuestas son bastante elocuentes:

      – El comienzo de la primera respuesta fue : «Por si alguien quiere saber lo que opino de Ray Kurzweil. :-)» (después de que Ignacio le preguntase a Enrique su opinión sobre Kuzweil y que este contestase).

      – El comienzo de la segunda respuesta fue: «Sin aludir a nadie, creo que existe alguna confusión sobre la terminología usada en tecnología.» (después de que yo escribiese que las redes neuronales fueron conceptuadas a semejanza de las redes de neuronas biológicas).

      Oye, que me parece perfecto que expreses tu opinión todas las veces que quieras, ya sea o no en respuesta a comentarios anteriores, pero lo que está MUY FEO es que ataques personalmente a alguien, y le exijas que no escriba comentarios, por la única razón de que es de opinión distinta a la tuya.

      Y no, no es un caso de metonimia:

      «loosely modeling the way a biological brain solves problems»

      https://en.wikipedia.org/wiki/Artificial_neural_network

      «Rosenblatt was best known for the Perceptron, an electronic device which was constructed in accordance with biological principles and showed an ability to learn.» (esta frase es además un calco de otra que aparece en su obituario publicado por la Universidad de Cornell)

      https://en.wikipedia.org/wiki/Frank_Rosenblatt

      «Las redes neuronales como su nombre lo indica pretenden imitar a pequeñísima escala la forma de funcionamiento de las neuronas que forman el cerebro humano. Todo el desarrollo de las redes neuronales tiene mucho que ver con la neurofisiología, no en vano se trata de imitar a una neurona humana con la mayor exactitud posible.»

      Y también:

      «El primer desarrollo es presentado por McCulloch y Pitts en 1943 en su trabajo «A logical calculus of the ideas immanent in nervous activity»[1]. En este trabajo, las neuronas fueron presentadas como modelos de las neuronas biológicas y como componentes conceptuales de los circuitos que pueden desarrollar eventos computacionales.»

      http://ingenieria.udea.edu.co/investigacion/mecatronica/mectronics/redes.htm

      Y claro, al margen del origen histórico de los términos, está el «pequeño detalle» de que hay también hoy día una semejanza real. Así que ni de coña esto es metonimia.

  • #018
    Perico - 22 enero 2017 - 13:58

    Hola, Enrique. Vaya por delante que comparto tu tesis de que la IA es una fuente de ventajas, de ayuda, y de mejora en nuestras condiciones de vida. Por otro lado, no creo que este exenta de riesgos, incluyendo el riesgo social derivado de la transformacion del mercado laboral (tema sobre el que se ha discutido mucho en este blog), pero tambien el riesgo existencial de la inteligencia artificial general: lejano, improbable y con aspecto de ciencia ficcion, pero potencialmente devastador.

    Sospecho que, previamente a este articulo, habras tenido que soportar protestas de tecnofobos que utilizan este alarmismo existencial como una excusa mas (como los accidentes de tesla, como la perdida de puestos de trabajo) a favor de frenar o incluso prohibir la investigacion en IA. Pero no es ese tipo de reaccion la que propone gente con un perfil mas tecnico al hablar de riesgo existencial de IA. Cuando alguien como Musk – con su iniciativa OpenAI – dice que deberiamos preocuparnos de los potenciales peligros de la IA, no es para poner trabas al progreso de esta tecnologia, sino para fomentar la investigacion en aspectos de control y seguridad de la IA.

    El progreso tecnologico en IA es muy irregular, y dificil de predecir. ¿Era realista esperar hace una decada los actuales avances en problemas como el go o la conduccion autonoma? La IA general puede estar a un siglo de distancia, o ser imposible, pero tambien podria llegar en un par de decadas. El control de una IA de este tipo parece ser un tema muy complejo, y si ignoramos el tema hasta que la tecnologia parezca cercana, podria hacerse demasiado tarde.

  • #020
    menestro - 22 enero 2017 - 14:26

    Krigan, si lees la primera línea de mi comentario, veras que no he aludido a nadie en particular. Ni he respondido a ningún otro.

    Eres demasiado insistente. Y no tengo ningún interes en debatir lo que me cuentas. No puedo darte conversación, esto no es un chat.

    • Krigan - 22 enero 2017 - 14:49

      Ya, y ahora tampoco me estás contestando a mí.

      Y si no tienes ningún interés en debatir sobre metonimias imaginarias, ¿por qué escribiste tu mensaje? ¿De verdad, de verdad, de la buena que tu mensaje no fue una réplica a lo que yo había escrito?

      Porque vamos, yo lo que sigo viendo es la ley del embudo, según la cual tú sí puedes escribir comentarios en respuesta a cosas que han dicho otros, y (según tú) yo no puedo hacer exactamente lo mismo.

  • #022
    Gorki - 22 enero 2017 - 14:48

    Falso, los pobres que se mueren de hambre, guerras, frío, no han dejado de disminuir desde 1980
    http://internacional.elpais.com/internacional/2016/12/29/actualidad/1483020328_085937.html

    • Toronjil - 22 enero 2017 - 23:58

      Por no decir desde antes…

      Buen enlace.

  • #024
    María - 22 enero 2017 - 23:55

    No se trata de crear solo inteligencia sin más. Se trata de que sean inteligencias compasivas, bondadosas, sensibles. Inteligencias artificiales con valores. Será el camino para que podamos coexistir seres cibernéticos y biológicos.
    Todo esto también me hace pensar en la relación que tenemos los seres humanos con los animales…¿nos verán del mismo modo las superinteligencias del futuro? Sin ser alarmista, más nos vale que tengan empatía e inteligencia emocional.

  • #025
    Isangi - 23 enero 2017 - 09:20

    Me parecio un excelente artículo, aunque ni idea de cuan acertado:

    http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

  • #026
    Alvaro Alcántara - 23 enero 2017 - 09:44

    Para la versión móvil me parece una opción idónea. Se carga rápidamente y el hecho de simplificarse al máximo tampoco le resta valor porque cuando accedes desde disp. móvil buscas rapidez, que el scroll funcione bien, etc,…para acceder a recovecos de la página ya me voy a la versión normal en mi pc. Un abrazo y gracias

  • #027
    paginas web riobamba ecuador - 24 enero 2017 - 06:13

    Interesante articulo y es cierto que las películas de Ciencia Ficción, han hecho de la IA un tema tenebroso de cara al futuro, en esencia la IA trata de emular el funcionamiento del cerebro, con todo lo de redes neuronales y es indudable que hay mecanismos del funcionamiento del cerebro que aún no han sido descubiertos.
    La mayoría de cosas que se hagan con este sera para bien, no hay que temer.

  • #028
    Seguro - 25 enero 2017 - 07:16

    Yo creo que ni intuimos todavía lo que la tecnología puede cambiarnos la vida. Soy de los que piensa que el cambio será a mejor, pero lo que está claro es que nuestra forma de vida será distinta.

    Pongamos, por ejemplo, los drones. Son incontables las tareas humanas que puede sustituir un dron. Más seguro, más fiable, más barato, más….control, también. ¿Que van a hacer desaparecer un montón de puestos de trabajo actuales? Seguro. Aparecerá otros, claro está, pero nuestra forma de vida será distinta.

    Drones

Dejar un Comentario

Los comentarios están cerrados