No creas a tus propios ojos…

IMAGE: E. DansUn artículo en The Atlantic, «The era of fake video begins«, subraya el problema que surge cuando el desarrollo del machine learning hace perfectamente posible crear vídeos manipulados en los que se puede obtener prácticamente cualquier efecto, desde insertar una cabeza en un cuerpo de otra persona con un nivel de perfección que convierte el cambio en prácticamente imperceptible, hasta cambiar el movimiento de los labios de un personaje y su voz para que parezca que dice algo que no ha dicho, pasando por cambiar el tiempo o pasar del día a la noche.

Es el mundo del deepfake, término creado por la fusión de deep learning y fake, y popularizado por el primer usuario que creó un canal para subir vídeos de ese tipo: la posibilidad de, con herramientas relativamente sencillas, manipular o alterar la realidad para que se ajuste a lo que alguien pretende, sea un vídeo porno con su actriz favorita, un político diciendo algo que no dijo, o cualquier otro tipo de invención que, en realidad nunca tuvo lugar, pero se hace parecer perfectamente real y recogida en vídeo. A partir del momento en que las herramientas son suficientemente sencillas, cualquiera con tiempo e interés puede hacerlo, y la tarea se convierte en algo similar a contar con un asistente prácticamente perfecto que corrige los detalles fotograma a fotograma. Algunas páginas han prohibido su uso, pero en otras, particularmente pornográficas, es fácil encontrar secciones enteras de deepfakes, de vídeos creados por usuarios en los que se utilizan este tipo de técnicas, con resultados, en muchos casos, perfectamente creíbles o muy difíciles de detectar para un observador casual o no entrenado.

¿Qué ocurre en un mundo en el que la tecnología avanza para crear realidades inventadas que no podemos creer aunque las estemos viendo con nuestros propios ojos? ¿Qué consecuencias puede tener que podamos ver un vídeo porno protagonizado por quien nosotros queramos, poner a un político a decir la frase que estimemos oportuna, o falsear cualquier otro detalle de cualquier tipo? El problema de las fake news, la invención de titulares y noticias falsas destinadas a su difusión, pasa a tener una nueva dimensión: ahora no solo se trata de creer o no a la fuente, sino al material audiovisual que viene con ella. Desde posibles problemas reputacionales a crisis de imagen o simple entretenimiento, generados tecnológicamente de una manera tal que convierte en sumamente difícil diferenciar la ficción de la realidad. Puedes no haber rodado un vídeo pornográfico en tu vida, no haber estado jamás en un sitio o no haber dicho nunca una frase determinada, pero eso ya no es obstáculo para que tu imagen sea distribuida apareciendo en un vídeo pornográfico, en un sitio en el que no has estado, o diciendo algo que nunca has dicho. Y la cosa no tiene por qué limitarse a celebridades o políticos: ¿qué posibilidades puede tener este tipo de tecnología aplicada al deleznable y asqueroso revenge porn?

Como en toda caída de barreras de entrada, se generan espacios de muy difícil definición. Desde un punto de vista estrictamente legal, las consecuencias parecen claras. Pero si añadimos una capacidad para crear este tipo de vídeos completamente distribuida y herramientas para darles una difusión masiva mucho antes de que nadie pueda reaccionar, ese desarrollo legal que supuestamente protege al afectado se convierte en prácticamente irrelevante, porque cuando es capaz de reaccionar, el daño, en muchos casos, ya está hecho, y las imágenes no pueden ser borradas de los cerebros de quienes han sido expuestos a ellas. El valor de un vídeo, de algo que presuntamente sucede ante nuestros ojos, reducido a la de documento que casi cualquiera con cierta habilidad puede crear y manipular, prácticamente sin límites. Toda una necesidad de reeducar a una sociedad no preparada para ello y hacerles entender que aquello que sus ojos están viendo no tiene por qué haber sucedido realmente, y no es necesariamente producto de una maquinaria sofisticada o cinematográfica de efectos especiales, sino que puede haber sigo creado por casi cualquiera.

Curioso mundo este…

 

 

 

This post is also available in English in my Medium page, “A photograph can lie, we know that: but how about a video?» 

 

10 comentarios

  • #001
    Sen - 9 abril 2018 - 17:09

    Hola Enrique. Precisamente anoche, el programa Cuarto Milenio emitió un reportaje sobre este tema, recopilando algunos videos, no muy nuevos, pero con un enfoque muy didáctico
    .

    Enhorabuena por tu blog :-)

  • #002
    Xaquín - 9 abril 2018 - 18:38

    Qué malas son las tecnologías…Cuando unha masa enorme de alemanes creía a pies juntillas lo que le contaba Hitler, no necesitaban para nada retocar tecnologicamenet su figura… decía lo que decía… y todo mentira (creída). Que duda cabe que los dictadores no son tontos y se acoplan a los avances tecnológicos, pero… el estado educativo de las masas sigue siendo fundamental en esa partida.

    Sigue faltando lo mismo: una educación adecuada del pueblo alemán, para diferenciar entre Hitler y Kant, por ejemplo.

    Cuando se enseña a memorizar lo que dijo un filósofo, o cuando se memoriza como funciona una computadora, poco avance educativo se hace con el conjunto de neuronas de un ser humano.

    El problema de como se enseña a Kant (o a Ortega) no es muy diferente del problema de como se enseñan las nuevas tecnologías. ¿Y que puedo esperar de un algoritmo «producido» con neuronas tratadas por métodos educativos medievales o «producido» por un MIT en una sociedad aún no postrenacentista, con cortapisas económicas e ideológicas a todo trapo?

    Y es que la gente se «cree» que puede avanzar la IA a mucho mejor ritmo que la neurociencia. Los humanos fuimos artistas hasta ahora poniendo trabas para dar saltos tipo cuánticos, como por ejemplo pasó con el Renacimiento. No veo (en la parte visualizadora final de mi cerebro) muchos avances en ese aspecto.

    • Matt - 10 abril 2018 - 01:09

      Pues sí … en este caso la tecnología es mala. No se me ocurre qué buen uso se le puede dar a esto y aunque exista palidece comparado con el mal uso que se le va a dar.

      • Enrique Dans - 10 abril 2018 - 01:15

        Siempre hay usos buenos. Tengo entendido (aunque no estoy completamente seguro ni soy experto en el tema) que la última película de la serie Star Wars utilizó este tipo de tecnología para suplir la ausencia de la recientemente fallecida Carrie Fisher…

        • Matt - 11 abril 2018 - 01:28

          Sí, pero me parece que poder hacer pelis con actores muertos no compensa las pruebas falsas que se van a montar en todo el planeta contra opositiores y en general contra todo aquel que moleste al poder, lo de tu mujer, tu hija o tu madre protagonizando un gangbang, etc.

  • #006
    Javier - 9 abril 2018 - 19:21

    Varias cosas:

    1- No creí que iba a vivir lo suficiente para leer sobre porno en este distinguido lugar :D

    2- Ahora sí hablando en serio, recuerdo de joven (10 o 12 años, hoy tengo 43) estar leyendo la revista «Muy Interesante» donde se hacía una nota sobre un programa de edición de imágenes (Photoshop, recién salido de fábrica) y los «riesgos» que ello implicaba, y tengo en mi mente el recuerdo perfectamente grabado de la foto de los líderes en la conferencia de Yalta y entre ellos, editada, la imagen de Rambo, haciendo notar que «en el futuro sería dificil distinguir que iba a ser cierto y que iba a ser verdad».

    Y más allá de algún caso anecdótico, hoy no nos cuelan tan facilmente las imágenes, pero por ejemplo recuerdo a un coterraneo de ustedes, el periodista científico Antonio Martinez Ron del blog «Fogonazos» que le coló a muchísima gente que las estructuras de Stonehenge eran falsas, confirmado por la misma National Geographic, lo cual por supuesto era falso, y hasta la NG tuvo que salir a desmentir el bulo, pues se festejaba el día de los inocentes…

    Lo más triste de todo, es que a una foto 100% real «solo se le añadió» (las comillas son mías) el logo de la National Geographics. Lo cual dice mucho de nuestro sesgo de autoridad al leer o ver las cosas…


    – National Geographic destapa el fraude de Stonehenge

    – Así la lié parda con el hoax de Stonehenge

    Como usuario asiduo de de este tipo de tecnologías de edición de imágenes y video, me imagino que así como existe la forma de manipular la realidad, también existe, o se creará, la forma de detectarlo.

    Quizás se arroje el video sospechado a las fauces de algún software que detecte píxeles interpolados, o inconsistencias sonoras o vaya uno a saber qué.

    Pero si algo puedo decir al menos en mi caso, es que no tiendo a creerme nada de lo que veo / leo / escucho hasta que lo contrasto.

  • #007
    JJ - 9 abril 2018 - 19:37

    Conocía algo el tema, pero me parece muy interesante el artículo y bien documentado.

    Es cierto que esto da para crear todo tipo de barbaridades, pero me alegra que se difunda la existencia de esta tecnología, que todo el mundo sepa que se pueden crear vídeos comprometedores totalmente falsos. De esta forma, se acabará con los chantajes basados en ese tipo de material.

    Recuerdo, que meses atrás se habló de que Donald Trump podía ser chantajeado por los rusos, de los que se decía que tenían material videográfico sexual sobre él. Con esto, me parece, se acaba con cualquier posibilidad de chantaje de este tipo. Y eso también me alegra.

    El único problema, para el que habría que estar preparados, sería un programa que analizara perfectamente los vídeos para determinar fehacientemente si son o no fake. Pero supongo que la efectividad de un programa de este tipo se podría poner en duda.

    Ahora, puede que comiencen a aparecer un montón de vídeos aparentemente comprometedores y que nos terminemos preguntamdo si son o no fake. Pero, en principio, supongo que los que no sean creíbles los tomaremos como fake.

    También es bueno saber sobre las posibilidades de manipulación de imágenes y sonido para acabar con la credibilidad de vídeos de tipo conspiranoico que confunden a mucha gente porque se los cree.

  • #008
    Queimacasas - 10 abril 2018 - 08:15

    Y por supuesto falta la otra cara de la moneda: que siendo verdadero se acuse de que es falso …

  • #009
    Luis Hernández - 11 abril 2018 - 11:16

    Existen herramientas para detectar cuando una imagen ha sido retocada, aunque no he sido capaz de encontrar algo similar para los vídeos. De todos modos seguro que no tardarán en aparecer e imagino que tarde o temprano se integrarán como una funcionalidad más en las principales redes sociales. Bastaría una simple etiqueta «Fake» para alertarnos de que lo que estamos viendo es ficción o ha sido alterado de alguna manera.
    Otra posibilidad no excluyente sería la contraria: vídeos que cuenten con algún tipo de certificado de autenticidad.
    En general, siempre que surge un problema, surge una oportunidad.

  • #010
    Jaír Amores - 18 abril 2018 - 21:07

    Buenas! Por aquí Jaír, de EfectiVida. He descubierto esta página por casualidad, y me ha encantado. Obviamente, claro, porque es excepcional.

    En cuanto a este artículo, es una prueba más (si es que hacían falta) para decidir conscientemente cuáles son las fuentes de las que nos nutrimos, en vez de consumir información a destajo, sin saber de dónde proviene realmente o su fiabilidad.

    Gracias por tu esfuerzo en difundir este tipo de artículos. Saludos desde Gran Canaria!

Dejar un Comentario a Javier

Los comentarios están cerrados