Reconocimiento facial: cuando la tecnología avanza demasiado rápido

IMAGE: D-ID

Ayer, en el Netexplo Innovation Forum 2019 en la UNESCO, tuve la oportunidad de participar en la presentación de una de las compañías premiadas a las que había puntuado mejor en el proceso de selección, la empresa israelí D-ID, y de conocer a uno de sus co-fundadores, Gil Perry. La compañía, fundada hace unos dos años, se dedica a la «des-identificación» de fotografías: sus algoritmos generan modificaciones imperceptibles en las fotos que impiden que las caras que se muestran en ellas sean reconocidas por los algoritmos de reconocimiento facial, lo que permite utilizarlas sin miedo a ser incluidos en bases de datos que posibiliten su identificación posterior. El concepto es importante, porque como la propia compañía dice, podemos cambiar nuestras contraseñas, pero no podemos, al menos de manera sencilla, cambiarnos la cara.

La fotografía, a todos los efectos humanos, sigue mostrándonos a nosotros, pero pequeñas alteraciones, por ejemplo, en la distancia de los ojos o en otros rasgos hacen que las características biométricas capturadas por los algoritmos de reconocimiento facial sean erróneas, y que la foto, en realidad, no se corresponda con nuestra identidad. Aunque nos muestra a nosotros y cualquier persona podría reconocernos en ella, los parámetros biométricos que muestra son erróneos, y por tanto, en caso de ser introducida en una base de datos de identificación, no permitiría que se nos identificase.

En un entorno en el que Facebook, por ejemplo, posee ya la mayor colección de fotografías asociadas con identidades del mundo, y en el que vivimos permanentemente rodeados de cámaras que captan nuestra imagen en cada momento, tener la posibilidad de eliminar la asociación entre nuestra identidad y una fotografía nuestra ofrece grados de libertad sumamente interesantes, y nos devuelve, en cierto sentido, el control sobre una tecnología que, en palabras de su fundador, «se ha desarrollado demasiado rápido», sin que tuviésemos tiempo de plantearnos todas sus implicaciones. Más aún, el uso de una tecnología así permite el «envenenamiento» de la base de datos: si una persona comienza a subir fotografías etiquetadas con su nombre a Facebook, la compañía pasa a tener varias imágenes con distintas características biométricas asociadas a esa persona, lo que también dificulta su uso para una eventual identificación.

El proceso de des-identificación de una fotografía se lleva a cabo rápidamente, y puede ser fácilmente incorporado a cualquier otro procedimiento, antes de subir una imagen a una red social, o para imprimir, por ejemplo, una fotografía que entreguemos para hacernos un documento de identidad. Paradójicamente, utilizar una fotografía en nuestro documento de identidad o pasaporte modificada mediante D-ID sería sencillo, pero podría impedir su uso, por ejemplo, al pasar por una puerta automatizada en un aeropuerto, cuando ese mismo proceso llevado a cabo de forma manual no nos generaría ningún tipo de problema.

La compañía, basada en Tel-Aviv, captó el año pasado cuatro millones de dólares de financiación, y tiene ya varios clientes que incorporan su tecnología. La idea de la compañía es que esta tecnología esté disponible para todo aquel que quiera utilizarla, devolviendo así a los usuarios una parte del control sobre su privacidad.

El concepto de «des-identificación» me ha resultado sumamente interesante, y también la idea de intentar poner bajo control tecnologías que se desarrollan a tanta velocidad, que desencadenan procesos o posibilidades que no nos habíamos llegado a imaginar hace tiempo. Sobre todo, me ha interesado la posibilidad de eliminar la demonización del acto de compartir: la idea de decir a los usuarios que no compartan sus fotografías en las redes sociales porque eso permite que se les identifique o genera algún tipo de efectos nocivos sobre su privacidad no me gusta, atenta contra algo tan natural como compartir un recuerdo. Dedicarse a ir por los colegios explicando a los niños que bajo ningún concepto deben subir sus fotos a una red social genera una sociedad paranoica, temerosa y obsesionada, algo completamente innecesario cuando esos problemas pueden ser razonablemente puestos bajo control llevando a cabo un proceso muy sencillo antes de subir la fotografía. Un grado de libertad en manos del usuario que, de otra manera, no podríamos tener. Si además, el concepto de la compañía es que su tecnología esté disponible en cuantos más soportes posibles, mejor aún.


This post is also available in English in my Medium page, “Worried about facial recognition technology? Here’s a simple-to-use de-identification solution«


18 comentarios

  • #001
    Gorki - 18 abril 2019 - 13:34

    El proceso de «“des-identificación” es lo que yo he llamado «contaninar la base de datos» y es el sistema que yo propugno desde hace tiempo como mejor sistema para defender tu privacidad.

    Se basa en alimentar el insaciable deseo de obtener datos de los «vijilantes». Si en vez de establecer muros, ( las corazas siempre han sido poco efectivas a la hora de protegerse de los proyectiles), lo que haces es, ´a taza de datos que toman , añadir taza y media de datos «trufados», llevas al sistema al caos, y te proteges no solo tu, sino a los demás,.pues cuando se pierde la fiabilidad en el contenido de una Base de Datos, ningún resultado que ofrezca, sera tenido en cuenta.
    .
    Por ello, yo propugno por crear sistemas que ofrezcan quienes nos vigilan, información abundante, que pudiera ser cierta, pero es falsa. Por ejemplo, es fácil hacer un programa que en segundo plano, haga consultas aleatorias en Google, que a partir de un concepto semilla , por ejemplo «tapadera», elija un documento cualquiera de la primera pagina de Google, tome una palabra de mas de 5 letras para la siguiente consulta y de vez en cuando, aleatoriamente abra algún link que se encuentre en el documento, no importa si a otro documento, o a un anuncio. y que después de un tiempo aleatorio, vaya cerrando todo lo que abre, Entre los 500 consultas falsas, pasarán desapercibidas las 20 consultas verdaderas que hagamos..

    Para defender los email, whatsApp y mesajeros varios, montar grupos y mandarse automáticamente mensajes, que el receptor sabe discriminar por quien lo envía y algun dato más y que automáticamente lo abre lo lee y envía a la papelera. el texto puede ser un párrafo de cualquier página web y un título que sea una frase genérica tomada de una lista determinada, cosas como «tu que opinas», o «sabias esto» o cosas así,. Diez o doce personas que manden aleatoriamente entre si 50 mail diarios ,pueden romper cualquier método de vigilancia que se tenga sobre emails,

    Los conspiranoicos pueden mandar listas de numeros derivados del millón de decimales de Pí y que traten de descifrar el mensaje «cifrado» bloquearemos cualquier máquina de descib frar que inventen

    Cookies lo mejor seria establecer un punto de intercambio de cookies, que el programa periódicamente p una vez cada dos horas pase por el punto de intercambio, deje 7 cookies y cargue otras 7 al azar, o bien, comparando los datos de las cookies, en la web de intercambio de cookies intercambiar los elementos que contienen informacion como fechas nunmero de visitas y códigos de visitante

    Y asi con todo.

    La experiencia profesional que tengo, es que el trabajo mas difícil es tratar de depurar una base de datos contaminada, pues hagas lo que hagas, el resultado de intentar hacerlo automáticamente es eliminar, tantos registros con falsos positivos, como dejar registros con falsos negativos.

    • Isangi - 18 abril 2019 - 16:22

      Yo veo una buena oportunidad de negocio en eso que dices :D

      • Gorki - 18 abril 2019 - 16:52

        Pues adelante, cuenta con mi asesoría gratuita y ya tienes un primer cliente.
        Lo que no se me ocurre de forma clara es el modelo de negocio, (si no es vendiendo los datos de los usuarios Jajaja )

    • Jose Miguel - 18 abril 2019 - 17:11

      Con respecto a las fotos el programa de Gorki lo que hace es enviar su foto entre la de su cuñado, un primo de Llanes, el alcalde de Fuenterrabía y una de Santiago Abascal cuando estaba en la mili. Al llegar a ésta última la IA de facebook o lo que sea se cuelga en un bucle infinito.

      De esa manera sólo quienes le conocen saben que es el de la foto en la playa con la cerveza en la mano.

      • Gorki - 18 abril 2019 - 20:32

        Para las fotos aun no se me ha ocurrido nada, A bote pronto, pienso que lo mas útil es «identificar» con tu alias una serie de personas que por edad complexión y forma del pelo, pueda ser. Pero pienso que si detectan fotos con el mismo nombre y distinta cara, sea por mi sistema o por el de israelies, se decidan por considerar la mas validad la que ingresó la primero. Habra que dar una pensada al asunto.

  • #006
    Jose Miguel - 18 abril 2019 - 16:00

    Vendo cederrón Enciclopedia Espasa, máquina escribir Olivetti portatil y teléfono Nokia 3310. Segunda mano pero todo en buen estado y con protección anti-espionaje. Interesados dejar comentario.

  • #007
    Angel - 18 abril 2019 - 19:24

    Vamos Apple, hora de comprar o licenciar esta tecnología e implementarla de serie en los iPhone.

  • #008
    Chubasco - 18 abril 2019 - 20:10

    Me gusta la idea, esto ya lo intentamos antes, pero la IA nos supera siempre :-/
    De todos modos, avisa si tienes algo más que una idea

    • Gorki - 18 abril 2019 - 21:13

      Te confundes, con IA o sin IA, las máquinas son totalmente idiotas,. (al menos de momento). Yo ganaría sin esfuerzo a AlphaGo, sólo tendría que hacer trampas, ni siquiera sabe que es lo que está haciendo… y ¿hay alguna razón por la que no puedo hacer trampas?

      • Chubasco - 21 abril 2019 - 16:29

        Está clarisimo que no conoces la diferencia entre IA, ML o como funciona AlphaGo.
        También está claro que demonizas a las máquinas. La tecnología es neutral, la intención depende de las manos en las que cae.
        Mezclas muchos temas estimado.

  • #011
    menestro - 18 abril 2019 - 21:45

    Todo lo que rodea al reconocimiento facial empieza a ser un enorme cúmulo de Fake Tech y conspiranoia.

    Para empezar, no es posible reconocer un rostro en una multitud si previamente no está en una base de datos. No vamos a hablar de que sea o no posible la interoperabilidad de esos datos entre diferentes sistemas. No suele ser posible, porque no existe un RFC o Estándar establecido.

    No tengo ni idea, de porqué todo el mundo obvia ese detalle, que casualmente, sin el cual no cabe fabular sobre distopías y conspiraciones tecnológicas, y es además crucial para entender como funcionan realmente esos sistemas.

    Lo segundo, es que como sucede con las huellas digitales o cualquier dato biométrico son datos de carácter personal clasificados como sensibles, y están especialmente protegidos.

    Puedes consultar la guía del INCIBE si tienes un pequeño negocio y no entiendes como te afecta. Ya hay algunas empresas que han sido sancionadas por usar un lector de huellas digitales, lo cual tendría una multa según el RGPD de entre 40.001 a 300.000 euros.

    Así que, es fácil imaginar, que la mayoría de los países, que están sometidos ya a una legislación similar a la Europea (incluyendo centro áfrica, Sudáfrica, Corea, etc, por si viajas) tienen una legislación que no permite ningún tipo de identificación mediante reconocimiento facial indiscriminado.

    Ni siquiera funciona en los aeropuertos para el control de acceso; su única aplicación es para la ordenes de búsqueda emitidas por un juez, ni siquiera las policiales. Y lo curioso, es que así funciona en china.

    No, por ser captado por una cámara de video-vigilancia no se puede efectuar ningún tipo de reconocimiento facial ni es posible, si no se está previamente registrado en una base datos. Y esta, a su vez, sujeta al normativa de protección de datos de carácter personal clasificados como especialmente sensibles.

    Con Facebook, pasa exactamente lo mismo. Lo datos que se cedan están sometidos a las condiciones de uso e igualmente protegidos por la legislación. No se pueden usar para el entrenamiento de algoritmos, como ha sucedido con Flickr, porque son datos con una protección especial y necesitan de una autorización explicita del usuario.

    Ya sé que Minority Report alimenta la imaginación de los apocalípticos de la tecnología, pero la realidad habla por sí misma. Ni siquiera en China funciona así.

    Pero siempre puedes ver Mr. Robot y su Evil Corporation, o Star Trek para hablar de algoritmos CHIRP, o pedirle su opinión sobre el tema a David Bisbal (Que no es periodista).

    • Matt - 19 abril 2019 - 00:52

      Una vez más Menestro escribiéndonos desde el mundo de la piruleta.

      Que eso no se hace porque la legislación dice que no se puede hacer. Juuuuuuuuaaaaas.

      • Chubasco - 22 abril 2019 - 12:59

        Menestro es capaz de decir que lo prohiben las leyes de la robótica.
        Menestro, aunque sea un golpe para ti, muchas empresas no respetan las leyes, sobretodo aquellas que les reportan grandes beneficios y caen en zonas grises de TI o no es fácil fiscalizar.
        En particular en el tema de reconocimiento facial solo tienes que investigar lo que ofrecen las empresas

    • Gorki - 19 abril 2019 - 13:07

      jajaja

  • #015
    Asier - 19 abril 2019 - 12:53

    Es una buena idea pero dudo de su efectividad a medio-largo plazo porque al final no hace más que iniciar una ‘carrera armamentística’ entre algoritmos de reconocimiento de caras y los de contra-reconocimiento. La batalla la ganarán las de reconocimiento porque al final si la cara de una foto es como para que los humanos la reconozcamos sin problemas, habrá un algoritmo que imite lo suficientemente bien nuestro sistema de identificación de caras como para que ningún otro algoritmo de modificación pueda engañarlo (sin engañar a su vez a los humanos claro, lo cual no interesa).

    • Gorki - 19 abril 2019 - 13:13

      Por cierto el otro día leí que habia un programa par eliminar los pixelados de las fotografías, https://www.cnet.com/es/noticias/google-ia-fotos-pixeladas-corregir/
      Desconozco el si el resultado es volver al original, (lo que veo difícil), o simplemente es una «reconstrucción lógica» de la fotografía, (lo que es más probable).

      Si fuera en el primer caso, (lo cual dudo, pero es posible), adios el anonimato de los policias que participan en captura de terroristas.

  • #017
    LEON - 19 abril 2019 - 13:06

    La pregunta que hay que hacerse es ¿Ese algoritmo funciona en un solo sentido? porque si no es así, la empresa israelí se va a poner las botas vendiendo el servicio inverso y estamos como antes solo que con una empresa israelí mas rica que antes.

    En cuanto a las técnicas de ofuscasión en base a generar ruido o como dicen por aqui «contaminar» bases de datos, tienen un éxito limitado, las técnicas de extracción de datos en ambientes ruidosos están muy avanzadas.

    • Gorki - 19 abril 2019 - 23:38

      ¡Ah!. ¿Si?

Dejar un Comentario

Los comentarios están cerrados