Robots que matan

Remotec Andros robotEn la imagen, un robot Remotec de la serie Andros fabricado por Northrop Grumman, habitualmente utilizado para la desactivación remota de artefactos explosivos. Con un coste aproximado de unos $200,000, era uno de los tres que la policía de Dallas había adquirido recientemente, con el fin de incrementar su nivel de preparación ante posibles atentados terroristas con bombas.

Pero ayer viernes, el robot fue utilizado no para desactivar una bomba, sino precisamente para lo contrario: para enviar y detonar un artefacto, presumiblemente uno de los que habitualmente se utilizan para provocar la explosión controlada de otro mayor, en el lugar donde se hallaba Micah Xavier Johnson, uno de los francotiradores que acabó con la vida de varias personas durante una manifestación pacífica en Dallas.

La decisión, posiblemente acertada ante una persona con entrenamiento militar y equipamiento desconocido que era susceptible de provocar bastantes más bajas, no está exenta de polémica, y ha sido considerada por algunos como el inicio de la era de Robocop.

En realidad, el uso de robots semiautónomos para matar personas cuenta ya con una amplia tradición militar: la «guerra de los drones» desencadenada por la administración Obama en países como Pakistan, Yemen o Somalia, con los que los Estados Unidos no están oficialmente en guerra, pero que sirven de refugio a un enemigo, Al-Qaeda, que carece de un territorio como tal, ha provocado ya la muerte de varios miles de personas, incluyendo presuntamente 1,270 civiles considerados como errores y algunos casos especialmente sonados, como rehenes a los que se intentaba rescatar.

En el uso policial, sin embargo, el empleo consciente de un robot con una bomba para matar a un delincuente carece de precedentes, y permite imaginar una amplia gama de posibilidades ayer probablemente descartadas por la premura del momento, como el uso de otras técnicas: montar sobre el robot un cañón de agua, una pistola eléctrica tipo Taser o algún agente químico incapacitante. El robot utilizado ayer, como los drones militares, estaba siendo manejado por un humano mediante control remoto, pero los hechos comienzan a acercarnos bastante a la posibilidad de emplear robots autónomos y dotados de inteligencia artificial en conflictos armados, una posibilidad sobre la que ya mostraron alarma personas como Elon Musk, Steve Wozniak o Stephen Hawking y que reclama el desarrollo de unos principios éticos adecuados.

Es posible que el uso de robots por parte de las fuerzas policiales para dar salida a situaciones complicadas pueda tener sentido. Pero si ese va a ser el caso, habrá que asumir que ese tipo de situaciones pueden convertirse en relativa y tristemente habituales, y deberán no solo procedimentarse adecuadamente, sino además diseñar esas máquinas de manera que no solo se priorice evitar el posible peligro para agentes y ciudadanos, sino también el minimizar los desenlaces letales en todos los sentidos.

 

 

This article is also available in English in my Medium page, “Robots that kill«

 

20 comentarios

  • #001
    Gonzalo (@CCGO11) - 9 julio 2016 - 17:14

    Gran reflexión Enrique,

    Tengo un pequeño comentario. Realmente crees que la premura del momento es lo que ha hecho que se use un método letal y no uno más humano? No conozco el tema y por eso pregunto, pero si se pudo activar una bomba con el robot porque no se podía haber activado cualquier tipo de mecanismo que, por ejemplo, dejase inconsciente al individuo. Quizás sea mi ignorancia la que me lleva a preguntar esto, pero me gustaría saber si realmente esto se hizo por falta de tiempo o porque no se pensó lo suficiente. Gracias! Queda compartido

    • Isangi - 11 julio 2016 - 15:23

      No soy ningún experto del tema, pero se me ocurre que, sobretodo sin test pevios hay pocas cosas mas efectivas que una buena bomba.

      Puedes usar gas, pero le das tiempo de reacción.
      Puedes usar una pistola, un taser, una pistola de acido, etc, pero tienes que apuntar y acertar(y más dificil aún contra alguien entrenado)
      etc…

  • #004
    menestro - 9 julio 2016 - 17:43

    Enrique. ay.

    Mira, el miedo a las máquinas y lo de Wozniak y Hawking tiene que ver más con la psicología y el temor a lo desconocido – y el negocio del milenarismo tecnológico – que con ninguna amenaza real.

    Lo del Robot por control remoto de Dallas ha sido más una fenomenal chapuza, que el alumbramiento de Skynet. Usar ‘conscientemente’ un palo remoto para sacar del parapeto a alguien acorralado, no es precisamente un avance en seguridad o inteligencia artificial.

    También podrían haberle arrojado una colmena de abejas – biónicas – al mejor estilo Tex Avery.

    En realidad, demuestra que la cultura de la posesión de armas en EE.UU se debe a un enorme miedo interiorizado, más que a ningún deseo de autodefensa, porque enviando a un dispositivo que no está diseñado para eso a literalmente tirar al bulto, los cuerpos de policía de EE.UU están haciendo un ridículo internacional fastuoso.

    Creo que es de sobras conocido el funcionamiento de los drones militares, que llevan causando numerosas bajas desde hace ya bastante tiempo. Y el hecho de que no se pueden utilizar en el territorio de EE.UU.

    Ahora bien, si el recurso dialéctico es crear el temor a maquinas, porque son autónomas y pueden volverse locas, y ese es todo el punto de inflexión tecnológica, entonces es el momento de empezar a explicar que eso no sucede exactamente así, igual que las vacunas o el Wi-Fi no producen ‘enfermedades misteriosas’.

    Porque no es una singularidad, es puro miedo y estrés psicológico.

    Los hechos no nos han acercado a nada, más de lo que se estaba anteriormente.

    Si la intención es crear un debate sobre la AI, me parece fenomenal, pero si la premisa es que las maquinas ‘vienen a por nosotros’ y están muy locas, me temo que no va a dar mucho de sí.

    Automatonofobia

    Uncanny Valley

    Frankenstein complex (Síndrome_de_Frankenstein)

    Der Golem – 1915

    • Enrique Dans - 9 julio 2016 - 18:26

      ¿Miedo a los robots? ¿Yo? Te has equivocado de persona :-) Solo intento promover cierta reflexión sobre el marco ético que es preciso desarrollar para pasar a un entorno en el que las máquinas, por el momento no autónomas, pero pronto sí, empiezan a interaccionar con humanos en este tipo de contextos. Hay quien sugiere que las tres reglas de la robótica de Asimov podrían ser válidas, pero aún están lejos de convertirse en leyes, me temo…

      • menestro - 9 julio 2016 - 19:10

        Enrique, las maquinas no necesitan ética. No sienten, ni tienen motivaciones anti-éticas, ni de ningún tipo.

        Ni siendo ‘inteligentes’, ni contando con autonomía.

        Son términos conceptuales, no reales. :-)

        No toman decisiones de forma consciente, igual que un ascensor no tiene afición por la música.

        No necesitan de esa consciencia para ser ‘inteligentes’, ni se genera de forma espontánea. Ni se produce.

        Que ya sé que tú lo sabes, pero mejor aclararlo, no vaya a ser que en el próximo fraude fiscal acabe detenido el programa «Padre».


        Monsters Inc.

        • Xaquín - 9 julio 2016 - 23:25

          Iba comentar que resulta una reflexión típica de ED, por las que sigo este blog desde hace tiempo… pero en este hilo decidí ademas proponer una cuarta ley robótica: un robot debe escuchar al máximo lo que le dicen (AV) antes de tomar decisiones… para que queremos reproducir en los robots eso tan humanamente manido de «oidos sordos» (o algo así como «navegar en ríos paralelos»)?

  • #008
    Jose Antonio Garcia - 9 julio 2016 - 18:00

    Felicidades por el post, cuando iba leyéndolo se me ocurrían algunas ideas a comentar:

    Los cuerpos de seguridad son las personas autorizados por el Estado para ejercer la violencia contra sus ciudadanos. Eticamente discutible, o no?. Si por ejemplo una persona amenaza la vida de otra conduciendo nos parece normalmente bien que se multe, que se retire el carnet de conducir. Si amenaza en un secuestro que se la reduzca, neutralice. Si es un control a distancia accionado por una persona es el mismo caso moral que un disparo humano. Podriamos pensar porque no se ha neutralizado usando dardos o gases… Pero no le vas a pedir a EEUU que piense eso, ya que:

    A) al final lo van a ejecutar en unos años. Es un país que su sistema no conoce la palabra reinserción.
    B) No tienen medios. Recordar que tienen un bloqueo de sustancias para las ejecuciones.
    C) El ejecutado no es blanco, caucásico y es un paria viviendo en una Sociedad racista.

    El dejar a un robot decidir sobre una vida, … Pues en la misma línea de como actuan los humanos US que los toleran, los fomentan y se enriquece el lobby de defensa con ellos.

  • #009
    Jose Antonio Garcia - 9 julio 2016 - 18:16

    https://es.m.wikipedia.org/wiki/Tres_leyes_de_la_robótica

    Miedo a los robots?
    Depende de quien los ha programado y para que!!

    A un robot cirujano, industrial, domótico, no
    Un robot no debería atentar contra la vida humana, excepto?
    Su turno…

    • Peterke - 10 julio 2016 - 12:43

      Si la mémoria no me falla Asimov introdujo una cuarta ley, la ley ‘cero’ para protéger à la humanidad

  • #011
    Asier - 9 julio 2016 - 20:17

    Técnicamente, el Tesla que ha estado de actualidad ultimamente, es un robot que mata?

    Sorprendente la falta de una entrada sobre este asunto. Aquí sí que habría debate….

  • #012
    Gorki - 9 julio 2016 - 22:13

    No veo gran diferencia entre «abatir» a alguien con un robot conducido a distancia, o con una tanqueta conducida por un señor que va dentro. La discusión debería centrarse en si «abatir» al francotirador estaba justificado o no. La forma de hacerlo no modifica, (a mi juicio). mucho el asunto.

    • Jose Luis - 9 julio 2016 - 23:26

      Es un robot defensivo usado como ofensivo, y no es autónomo pero podría llegar a serlo.
      En cuando al argumento de «el objetivo es la muerte, tanto da herramienta», puede ser discutible tanto técnica como moralmente.
      Otros temas serian la más que previsible militarización de la Policía y la notable inferioridad e indefensión, frente a un robot, de un soldado del ejercito con la mayor preparación del planeta.

      • Jose Antonio Garcia - 10 julio 2016 - 10:09

        Mientras el robot no tenga consciencia en realidad lo que hace es seguir sus instrucciones aunque sea IA. Por tanto no se le puede imputar al no ser responsable. Es la empresa que los programa, en todo caso, responsable. Igual que Tesla con los coches.

    • Krigan - 10 julio 2016 - 02:33

      Yo tampoco veo la diferencia. Una vez tomada la decisión de cargarse a alguien, da lo mismo si usas un robot teledirigido o si un francotirador de la policía le pega un tiro.

      Curioso que nadie diga nada de los drones militares usados para asesinar a personas concretas en países donde no hay ninguna guerra. Y encima, con «daños colaterales». Es decir, gente que simplemente pasaba por ahí. Lo que de toda la vida se ha llamado homicidios, vamos.

  • #016
    acerswap - 10 julio 2016 - 01:01

    Del mismo modo que las empresas farmacéuticas se niegan a proporcionar fármacos para su uso en ejecuciones, ¿no deberían tener un código ético los fabricantes de robots? Al igual que existen límites en los escáneres para que no se digitalicen billetes o que se intenta que los drones civiles no sobrevuelen zonas como aeropuertos, ¿no debería instalarse un software o cualquier otro medio en los robots que límite el uso de armas? Al final cualquier interesado en saltar esos limites lo hará, pero al menos debería ponerse una limitación básica.

    • Isangi - 11 julio 2016 - 15:57

      En mi experiencia, suele ser rídiculo poner trabas a aquel que no tiene interés para hacer «algo malo» con tu producto cuando sabes que ese «algo malo» ya se puede hacer si estás interesado en ello.

      por ejemplo:
      El que quiere falsificar billetes de verdad puede hacerlo sin photoshop, mientrastanto me jodes a mi que tengo un software de 500 eur y no lo puedo usar para gastarle una broma a un amigo o incluso para un proyecto de deteccion de falsificaciones.

      Por ejemplo, la encriptación por defecto de las comunicaciones. que E.D. ya ha hablado mucho del tema.

      Por ejemplo, ¿desde que las farmaceuticas se han negado a propocionar farmacos muere menos gente y de mejor manera en las ejecuciones de eEUU?

  • #018
    Pablo - 10 julio 2016 - 08:21

    Es un robot programado y/o teledirigido. No matan las pistolas matan los que aprietan el gatillo.

  • #019
    Jose Antonio Garcia - 10 julio 2016 - 10:54

    http://www.juridicas.unam.mx/publica/librev/rev/facdermx/cont/22/dtr/dtr2.pdf

    Os adjunto un trabajo excelente sobre Etica y Estado, de la Dra. Aurora Arnaiz. Viene al pelo sobre el tema.

  • #020
    DANN ELIO 101 - 10 julio 2016 - 16:31

    >Sobre estos robots, me ha llamado la atención lo que se ha comentado sobre REGLAS de la robótica..sobre LEYES…y sobre Reglas que probablemente no llegan a Leyes…Me ha hecho reflexionar…

    Las Leyes robóticas deberían ser «las mismas»..sí sí…estoy diciendo exactamente las mismas que para los Humanos !!! –>Si los robots van de camino a adquirir forma humana..a ser Androides..y a integrarse con nosotros a los niveles en nuestra Sociedad humana…pues entonces que atiendan LAS MISMAS leyes que atendemos nosotros…¿qué menos no?

    >Leyes COMUNES a Humanos y Autómatas, las leyes son Generales..Universales..NADA debería estar por encima de ellas..ni siquiera las Máquinas..por avanzadas que estas sean…( con las adaptaciones que los Robots requieran, por supuesto: es absurdo mandar a un robot a la cárcel..como mucho lo desconectarás o lo reprogramarás..él no conscientemente, a lo mucho se avería..o se queda obsoleto con el tiempo…) Tampoco veo que nos vayan a dar ocasión de ponerles una multa x alcoholemia :-) jejeje
    > Lo dicho..con sus matices..pero LAS MISMAS…_A saber: en mi opinión *Leyes de la Robótica* deberían ser : ¡ nuestro CÓDIGO CIVIL adaptado..y nuestro CÓDIGO PENAL(tb. adapt) !!!! Así como la Legalidad Internacional, Municipal, procedimental, etc..que fuera razonable aplicarles xa que convivan..y si nosotros las tenemos que cumplir…que las cumplan también «ellos»..¿no? sería lo básico…

    ****En cambio las REGLAS..ya son otra cosa…a mí las reglas se me antojan más a lo específico de la función de cada 1 de nuestros robots, son Reglas ya de PROGRAMACIÓN específica de cada máquina, por lo que van ser muy distintas de 1 robot a otro: NO ES LO MISMO que tengamos que programar reglas xa un robot de Acompañamiento y Cuidado de ancianitos y discapacitados..que dar directrices para un robot de vigilancia y prevención de atentados terroristas…

    – ROBOT GERIATRICO: reglas para reconocer sintomas de enfermaedad, para reconocer expresiones de malestar o dolor, y para atender peticiones de ayuda motora o suministro de medicación..reglas que permitan llamada-automática a Personal Sanitario, Ambulancias y Emergencias…

    – ROBOT ANTI-TERRORISTA: reglas que permitan el reconocimiento biométrico absoluto del individuo, así como su Identificación legal…rastreo automático de posibles antecedentes penales, historial delictivo, u órdenes de busca & captura en vigor…Si el sujeto va armado, es advertido y no desiste, y está causando BCI ( bajas civiles inocentes :-)…iniciar modo de combate y ABATIRLO… :-( triste llegar a ese extremo de 1 máquina sobre 1 humano..pero sería necesario así las reglas..xa evitar males mayores y proteger Vidas.

    *** 1 poco de humor xa desempalagar: ROBOT=AUTÓMATA, si es que ya lo dice la palabra …..
    …AUTO +»MATA».. je je je je :-) —Calurosos saludos— Hasta luego

Dejar un Comentario

Los comentarios están cerrados