Reconocimiento facial y escenarios de futuro

IMAGE: Teguhjatipras - CC0 Creative CommonsCada vez más noticias apuntan a la popularización y ubicuidad de las tecnologías de reconocimiento facial, en una variedad de ámbitos cada vez mayor. Desde ciudades de todo el mundo erizadas de cámaras, hasta el extremo de control social de las ciudades chinas, en las que en las que no puedes hacer nada sin que tus pasos, las personas con las que estás o los sitios por los que pasas sean almacenados en una base de datos que monitoriza tus costumbres, tus compañías o tu crédito social, pases por delante de una cámara o por delante de las gafas de un policía.

Pero más allá de las calles de nuestras ciudades, las cámaras y el reconocimiento facial empiezan a ser, cada vez más, utilizadas en otros ámbitos. La última polémica ha saltado a partir de las escuelas norteamericanas que intentan prevenir posibles episodios de violencia, probablemente de manera infructuosa dado que los protagonistas suelen ser alumnos del propio centro con acceso autorizado a sus instalaciones: sociedades de defensa de los derechos civiles como ACLU se han posicionado abiertamente en contra de este tipo de sistemas, que consideran inaceptables en un entorno escolar por ser invasivas y con numerosos errores que tienden a afectar especialmente a mujeres y a personas de color.

En las escuelas chinas, un entorno violencia completamente inexistente, no utilizan esta tecnología con ese motivo, sino con uno completamente diferente: monitorizar el rendimiento y la atención de los estudiantes. En varias escuelas piloto, los estudiantes saben que si sus expresiones muestran aburrimiento o si se duermen, sus clases están llenas de cámaras capaces no solo de tomar una prueba gráfica de ello, sino de interpretarlo y etiquetarlo además con los algoritmos adecuados. En algunos ámbitos se especula incluso con la posibilidad de llegar algo más allá, y probar la eficiencia de otra familia de tecnologías, las de vigilancia emocional, ya en uso en el ejército chino y en varias compañías privadas, que sitúan sensores inalámbricos en gorras o sombreros y son capaces, mediante una lectura de las ondas cerebrales, de optimizar cuestiones como las pausas en el trabajo, la reasignación de tareas o la localización física dentro de las instalaciones, y prometen a cambio importantes incrementos de eficiencia.

¿Estamos yendo hacia un futuro de monitorización permanente mediante tecnologías de este tipo? Algunos abiertamente afirman que las tecnologías de reconocimiento facial están aquí para quedarse, y que lo mejor que podríamos hacer es, sencillamente, aceptarlo como un elemento más de las sociedades del futuro. Actitudes tecno-fatalistas de este tipo asumen que incentivos de adopción como los generados por el miedo o por los posibles incrementos de productividad son tan poderosos, que la sociedad no puede dejar de plantearse dejar a un lado sus temores y resistencias, y proceder a la implantación, oficializando la aceptación por la vía de los hechos. En realidad, hablamos de una tecnología por la que nadie va a preguntar a los ciudadanos, y de decisiones de adopción que dependerán, en último término, de gobiernos, autoridades municipales o departamentos de educación. La resistencia pasiva mediante elementos como gafassombreros u otros elementos parece fútil, lo que podría determinar un futuro de adopción con más bien escasas resistencias.

¿Qué hacer si, en efecto, este tipo de tecnologías se disponen, de manera irremediable, a formar una parte integrante de nuestro futuro? ¿Debemos, como instituciones educativas, aceptarlo como tal y proceder a su implantación? Si ese es el caso, entiendo que es fundamental llevar a cabo una reflexión sobre cuál va a ser su papel. En IE Business School, por ejemplo, coincidiendo con el desarrollo de nuestra WoW Room, un aula interactiva con 45 metros cuadrados de pantallas en las que los estudiantes participan en remoto, probamos un algoritmo de engagement, que permite al profesor diagnosticar qué alumnos están prestando atención y cuales están aburridos o distraídos. Los resultados iniciales de su uso, aunque podríamos pensar que algunas resistencias podrían desaarecer con la costumbre y el uso habitual, apuntaron a que los alumnos no se sentían cómodos conociendo la existencia de una herramienta así que pudiese, eventualmente, afectar a sus calificaciones, así que resolvimos utilizarla fundamentalmente como una alerta en tiempo real al profesor: si mientras das tu clase, ves que el número de alumnos aburridos o distraídos se incrementa en algún momento, es que ese contenido, esa parte de la discusión o ese elemento que estás utilizando no está funcionando, y deberías pasarlo más rápidamente o solucionar esa falta de atractivo del contenido de alguna manera.

¿Cómo nos afectaría el uso de cámaras, sistemas de monitorización de ondas cerebrales o algoritmos de ese tipo en entornos de trabajo? En una situación como la actual, cabe esperar que serían utilizados para el control exhaustivo o incluso para sanciones o exclusión de aquellos que son evaluados negativamente. Sin embargo, cabe pensar en otro tipo de entornos con muchos más matices: un trabajador aburrido o distraído no necesariamente implica un trabajador no productivo, sino que puede indicar muchas otras circunstancias. Entornos sometidos a un control de este tipo ya existen, como hace una semana comentaba David Bonilla en una de sus newsletters: en compañías como Crossover, un supervisor evalúa constantemente cada período de trabajo de diez minutos de sus subordinados en función de herramientas de monitorización como WorkSmart, que recopilan estadísticas sobre las aplicaciones y sitios web que tienes abiertos, el timepo que pasas en ellos, tus pulsaciones de teclado y movimientos de ratón y que, cada 10 minutos, aleatoriamente y sin previo aviso, toma una foto desde la cámara del portátil y guarda una captura de lo que tengas en pantalla. Más de 1,500 personas en 80 países colaboran con esta compañía sometidos a la monitorización de esta herramienta, en las que la compañía paga únicamente el tiempo que considera de dedicación plena, no las pausas ni los momentos de distracción.

En escenarios de futuro en los que el trabajo cambia su naturaleza y se convierte en algo voluntario, vocacional o que no forma parte de una obligación necesaria para la subsistencia gracias al desarrollo de sistemas de renta básica incondicional, este tipo de herramientas podrían facilitar sistemas de compensación basados en criterios que optimicen la productividad: si el análisis de un trabajador revela que está somnoliento o distraído, envíalo a dormir o a hacer otra cosa hasta que muestre un incremento en sus capacidades productivas, y optimiza su rendimiento. ¿Aceptable, o una auténtica pesadilla distópica? ¿Nos aboca el futuro necesariamente a un escenario en el que el uso de tecnologías de reconocimiento facial, expresiones o incluso análisis de ondas cerebrales nos ubique en entornos de vigilancia y monitorización permanente? ¿Debe la formación incorporar ese tipo de tecnologías para facilitar una familiarización con ellas y un uso adecuado y conforme a unos estándares éticos? ¿Debemos las instituciones educativas a todos los niveles intentar preparar a nuestros alumnos para unos escenarios futuros que parecen cada vez más reales, más tangibles y más inevitables? ¿O debemos ignorarlos como si esa adopción tecnológica no estuviese teniendo lugar? ¿Existen alternativas?

 

 

 

This article was also published in English on Forbes, “Facial recognition and future scenarios”  

 

11 comentarios

  • #001
    Javier - 25 junio 2018 - 13:53
  • #002
    JM - 25 junio 2018 - 15:31

    Este es el peor tipo de esclavitud que puede uno imaginarse

    Responder
  • #003
    menestro - 25 junio 2018 - 15:41

    Enrique, ya te han desmontado ese escenario en el que insistes desde tu blog unas cuantas veces. Hasta Youtubers. Es la nueva singularidad.

    Yo no puedo dedicarle más tiempo, al menos en tu blog.

    El problema es, que mucha gente que no tiene un conocimiento real de estos temas, te toma en serio, y se alimenta un pedrito y el lobo del que al final se hacen eco en otros sitios.

    Es muy triste hacer ese tipo de cosas. Y solo espero, que la respuesta, si la das, sea educada. Con exabruptos tampoco te voy a conceder la razón.

    No es una invitación al debate, solo una nota al margen.

    Responder
  • #004
    Gorki - 25 junio 2018 - 16:41

    Lo que dije hace unos días (11/6/2018 ). sigue siendo válido hoy. “Habrá que acostumbrarse a vivir en una sociedad distópica, La tecnología está aquí y no la podemos enterrar, pensar que nuestras “autoridades” y nuestras “corporaciones” tengan en su mano algo y no lo utilicen, es ser o muy optimista o muy miope.

    Nos guste o no nuestro móvil va dejando rastro de nuestro paso y aunque no todas, las cámaras, si algunas, están unidas a Internet, y por si fuera poco lo estarán. los dispositivos IoT, los Alexa y similares, los contadores de luz y agua, mas todos los “filbit” que queramos, o tengamos que llevar puestos, por un motivo o por otro, a lo que sumará en un futuro próximo los vehículos autónomos , Por falta de datos no va a quedar.

    Si presionamos a nuestras “autoridades” para que nos protejan, quizá tengamos éxito y consigamos, lo que hemos conseguido con la cookies y con la nos nuestros datos privados, que saquen una ley en el que “libremente” autorizamos que nos sigan el rastro, como condición previa, sin la cual no, se nos da un servicio que nosotros consideramos imprescindible..

    ¿Alguien se encuentra más protegido con el que soliciten permiso para las cookies, o con la ley GDPR?”

    Soy muy pesimista en este tema, ni es fácil encontrar por uno mismo una solución, ni tengo la menor confianza que “nuestras autoridades” pongan el menor empeño en hacerlo. Siempre habrá un motivo que lo justifique, del terrorismo o la seguridad ciudadana, al rendimiento profesional o la propia salud y siempre habrá gente que opine que “la persona honrado nada tiene que ocultar”.

    Responder
    • Guillermo Hotel - 25 junio 2018 - 16:52

      El monitorizar asume por principio una desconfianza clara hacia una parte. La parte monitorizada suele actuar de forma reactiva, ajustando su productividad al marcado por la relación contractual. Algo parecido a lo que pasaba en la URSS, el Estado pagaba como si hiciera falta tu trabajo una miseria, con control de los Comisarios Políticos, y por el otro la gente hacía como que trabajaba. Al final las relaciones insanas terminan por no ser viables y el sistema Kaput.

      Sin embargo en un sistema democrático justo, de esos que existieron en el S.XX que tanto molesta citar por aquí: En las empresas que se valora a las personas, se les da confianza y si estas responden, no es en absoluto necesario monitorizar nada, es el sistema que mejor ha funcionado para ambas partes en Occidente. Ahora tenemos los amigos del Gran Hermano que parecen que tienen nostalgia de los tiempos del KGB y quieren a toda costa controlar nuestros datos y nuestra vida, para vendernos cupones para su Domund particular.
      Las cosas se permiten hasta que llega un momento que te tocan tanto las narices que explotan. Como sucedió con el movimiento proletario del XIX. Y empieza todo a rodar de nuevo cuando hay bonanza, y otra vez surgen los que se aprovechan de los demás, y otra vez se deteriora, y empieza la rueda a girar de forma cíclica…

      Es la condición humana.

      Nada tiene que ver con la tecnología, siempre ha existido.

      Responder
  • #006
    Guillermo Hotel - 25 junio 2018 - 16:43

    El que llegue a monitorizarse colegios mediante reconocimiento facial no va a suceder en Madrid ya que no nos podemos permitir el despilfarro de poner aire acondicionado (palabras de Enrique Osorio), y es algo que nos deja absolutamente tranquilos, ya que no van a tener presupuesto para aplicar tecnologías en contra de la privacidad de nuestros escolares

    off topic:

    Al que le interese un manual de Google Wifi para ver lo que hace lo puede descargar en:

    https://www.netvigator.com/pdf/201709_GoogleApp_Application_eng.pdf

    Responder
  • #007
    Matt - 25 junio 2018 - 18:18

    Bueno, como suelen repetir muchos por aquí la tecnología no puede desinventarse y cualquier cosa que se desarrolle debe aplicarse … así que a vivir en 1984 con una sonrisa.

    Lo de la sonrisa no es opcional, a este paso si no sonries podrás acabar en un campo de reeducación.

    Responder
  • #008
    Xaquín - 25 junio 2018 - 19:15

    Los chinos nunca necesitaron de la tecnología para estar casi mudos. Y tampoco la necesitaron para tener cambios bruscos. Les bastó siempre fomentar la característica animal que tenemos los humanos de ser competitivos (para cazar) y ser desconfiados ante el “otro” (para defenderse). Todo eso, arropado por el miedo ancestral a la muerte que favorece el Síndrome de Estocolmo, sirve para que los dictadores anden por la Tierra como “Perico por su casa”.

    Las diversas dinastían chinas (incluida la de Mao) se sirvieron de la tendencia humana a tribalizarse (y a trivializarse) en masas inconscientes.

    La alta tecnología ayuda, para esa masificada tribalización. Desde luego. Si tomamos como constumbre seguir los dictados de pantallas de plasma y diversos cantos de sirena tecnológicos, ¿que David se puede enfrentar a tamaño Goliat? Además, cuando los poderes tienen miedo siempre tenderán a cerrarse en banda. Incluso pareciendo algo diferentes.

    Y eso si, por mucho que se precie un hacker no hay trompeta tecnológica que abra las murallas modernas de Jericó. Como mucho puede traer el caos, ¿pero como considerar al caos capaz de generar una democracia real?

    El poder dictatorial se regenara sobre si mismo facilmente. La democracia necesita mucho tiempo de maduración para que florezca.

    Responder
  • #009
    Mezo - 25 junio 2018 - 20:26

    El problema con vigilancia masiva es su escasa eficiencia: pese a tener millones de cámaras apuntando sitios conflictivos de nuestras ciudades la criminalidad sigue en aumento.

    Vigilancia tipo NSA y china es más curioso: pese a tener tanto millones de datos ( pagados por nuestros impuestos), estas agencias son incapaces de detener los constantes ataques, explosiones, tiroteos, asesinato de policías que suceden todos días. Esas agencias tendría fácil recuperar la confianza del publico mostrando detenciones gracias a esos datos, pero parece que es más entretenido espiar el facebook de una persona aleatoria que detener los malvados terroristas árabes?

    Responder
  • #010
    Gorki - 25 junio 2018 - 22:22

    Aparecieron las Tarjetas de crédito, todos sabíamos que se sabía lo que comprábamos y donde lo comprábamos, y si pagamos al contado o a plazos. Nadie sabe ni con qué fines ni por cuanto tiempo se guardan esos datos, …. pero nos acostumbramos.
    Apareció el Teléfono móvil, todos sabíamos que por él se sabia de donde venías y a donde ibas y que los datos se guardaban, Nadie sabe ni con qué fines ni por cuanto tiempo se guardan esos datos, …. pero nos acostumbramos.
    Pusieron cámaras en las autopistas y en los parkings, cada vez que pasabas te fotografiaban la matrícula, luego viste que con validar el pago en la caja ya podías salir, Todos sabemos que la matrícula queda asociada con tus compras y con tu tarjeta de crédito, Nadie sabe ni con qué fines ni por cuanto tiempo se guardan esos datos, …. pero nos acostumbramos.
    Dieron reconocimiento facial a las cámara que hay en la calle, unas puestas por el ayuntamiento, otras por tráfico otras por compañías privadas de seguridad. Todos sabemos que tu cara queda asociada con tu paso por un sitio a qué hora y en que dirección y si te acopaña alguien o vas solo, Nadie sabe ni con qué fines ni por cuanto tiempo se guardan esos datos, …. pero nos acostumbraremos.

    Responder
  • #011
    Cristina - 29 junio 2018 - 09:54

    Sí, sin duda este es el futuro hacia el que vamos, ¡da hasta miedo!

    Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG