Will Smith, fotos de naturaleza y la pérdida de la inocencia visual

IMAGE: A close-up, AI-generated portrait of Will Smith with a concerned and inquisitive expression, staring intensely at the viewer against a vibrant abstract red-orange background

Mi columna de esta semana en Invertia se titula «Cuando ya no creemos lo que vemos: la era de la sospecha visual» (pdf), y trata sobre un episodio aparentemente anecdótico, pero enormemente revelador: la polémica generada en torno a un vídeo de Will Smith en uno de sus conciertos, en el que aparecía rodeado de multitudes y que muchos interpretaron como manipulado mediante inteligencia artificial. La historia, relatada con detalle y explicada en varios medios, se resolvió con la constatación de que la multitud era completamente real. Pero eso, en realidad, importa poco. Lo verdaderamente relevante es la sospecha automática que surge ya cada vez que vemos una imagen demasiado perfecta, y que nos sitúa en un escenario cultural completamente distinto.

Lo que planteo en mi columna de hoy es que estamos entrando en una era en la que la confianza en las imágenes se ha roto de manera definitiva. La fotografía y el vídeo, que desde sus orígenes funcionaban como testimonios privilegiados de la realidad, han perdido completamente su valor probatorio. A partir de ahora, cada vez que contemplemos una multitud, un paisaje, un animal o una cara como la que acompaña a este artículo, nos acompañará la duda de si aquello fue real o si alguien lo fabricó con un algoritmo. Y esa duda, aunque pueda parecer un matiz, lo cambia todo.

La reflexión me vino reforzada por una visita reciente con mi nieto al Museo Nacional de Ciencias Naturales de Madrid, donde se exhibía, entre otras cosas, una magnífica colección de fotografías de animales en poses divertidas o con expresiones inesperadas. Mi mujer comentó algo muy acertado: «somos de los últimos que podemos disfrutar de una exposición así sin pensar que las fotos han sido generadas por inteligencia artificial». Y tiene razón (como siempre): dentro de poco, cuando veamos una imagen así, nos costará mucho no sospechar que no hubo detrás un fotógrafo paciente y apasionado esperando horas para captar ese momento mágico, sino simplemente un sistema generativo capaz de inventar escenas con una calidad completamente verosímil. La consecuencia es la pérdida de esa inocencia visual que asociábamos con la fotografía: ya no basta con mirar, ahora tenemos que preguntarnos si creemos lo que vemos.

Este cambio tiene implicaciones culturales, sociales y políticas. Si cualquier imagen puede ser cuestionada, su valor como prueba o como documento se reduce drásticamente. Y en paralelo, aparecen nuevas tensiones generacionales: un buen ejemplo lo recogía hace unos días el Washington Post en un buen artículo sobre el pánico moral con la Generación Z y la inteligencia artificial, donde se analizaba cómo los jóvenes son sistemáticamente percibidos como tramposos por sus profesores en un mundo en el que la línea entre lo auténtico y lo artificial se difumina de manera constante. El trasfondo es siempre el mismo: la sospecha, la dificultad creciente para establecer qué es real y qué no. Al final, la verdadera utilidad de esos algoritmos que intentan averiguar si un texto está escrito por una persona o por un algoritmo va a ser que los alumnos puedan utilizarlo para ir modificando lo que les sale de sus algoritmos, hasta que el resultado del test resulte aceptable.

De ahí que el caso de Will Smith, sin necesidad de engaño intencional alguno, funcione como metáfora perfecta de un cambio de época. No se trata de si la multitud estaba allí o no, sino del hecho de que ya nadie está dispuesto a creerlo sin más. Hemos entrado en una era en la que la autenticidad se convierte en un bien escaso y muy valioso, mientras la sospecha se convierte en nuestro modo habitual de mirar.


Using this link, you can also read this article in English for free on my Medium page, «Seeing is believing. Really

27 comentarios

  • #001
    Asamoraga - 3 septiembre 2025 - 12:05

    ¿Qué pasará en los juzgados con las fotografías, audios o videos aportados como prueba? ¿Quién o qué máquina verificará su autenticidad, y cómo lo hará? Llega un futuro de cambios profundos, y debemos prepararnos bien y rápido, porque esto ya está aquí.

    • Ángel “el bueno “ - 3 septiembre 2025 - 12:31

      En muchos juzgados ya no te dejan entrar portando una Body Cam, por ejemplo…

      No te lo explico, entiéndelo tú.

    • KOLDO SARRIA - 4 septiembre 2025 - 00:17

      Pero… ¿Está justificada la preocupación por el valor probatorio de fotografías, audios o videos EN EL FUTURO, cuando lo que tenemos EN EL PRESENTE es que tiene valor el testimonio oral de un testigo presencial, basado únicamente en la capacidad de su memoria para recordar y reconstruir el hecho juzgado?

      Teniendo sobre todo en cuenta (como muestran cantidad de experimentos realizados al respecto) lo endeble y floja que llega a ser esa memoria bajo condiciones de desequilibrio o estrés.

      Se sigue juzgando a día de hoy, dando valor probatorio a una herramienta que falla más que una escopeta de feria. ¿Quién o qué máquina verifica su autenticidad?

      Son simples preguntas que solo pretenden mover a la reflexión.

    • Matt - 4 septiembre 2025 - 01:16

      Lo que menos nos debe preocupar de esto es lo que respecta a la justicia.
      Actualmente a los jueces ya se la suda absolutamente todo y actuan al dictado de su ideología sin importar las pruebas o la ausencia de ellas y ni siquiera lo que diga la ley. La justicia es lo que menos va a cambiar.

      • Dedo-en-la-llaga - 4 septiembre 2025 - 01:59

        Exacto, tan exacto que consideran pruebas y aceptan o rechazan las testificales a su conveniencia, y con argumentos claramente prevaricadores. Y aquí paz y después gloria…

        Y por otra parte, y ya lo dije hace tiempo: «No creas nada de lo que leas y solo la mitad de lo que veas».

        • Rafa - 4 septiembre 2025 - 11:39

          Y si lo has visto/oído en internet, la mitad, de la mitad, de la mitad, de la mitad…

  • #007
    Luis Hernández - 3 septiembre 2025 - 12:24

    Esto, lejos de ser anecdótico o limitado al campo educativo, puede convertirse en una verdadera pesadilla.
    Si no tenemos manera de distinguir lo verdadero de lo falso en fotografías, videos, locuciones, etc. cada uno alimentará sus propios sesgos, de manera la realidad de cada cual puede ser muy diferente de la de los demás y llegar a estar completamente distorsionada.
    Esto, que ya pasa en buena medida con las burbujas digitales y que termina por alimentar los extremismos, se hará todavía más evidente.

  • #008
    Buzzword - 3 septiembre 2025 - 12:55

    » los jóvenes son sistemáticamente percibidos como tramposos por sus profesores en un mundo en el que la línea entre lo auténtico y lo artificial se difumina de manera constante»

    Vamos a ver no vas a descubrir el mundo ahora, desde que el mundo es mundo, los exámenes, pruebas de acceso, etc se realizan desde la VIGILANCIA para que el alumno no copie. Porque en realidad la enseñanza se basa en que un profesor ENSEÑA una serie de tópicos, y los alumnos los reciben… y lo que se demuestra en un examen, es que el alumno es CAPAZ de responder adecuadamente a eso que se le pregunta. Y en STEM además se responden a ejercicios que normalmente el alumno no ha visto antes y tiene que aplicar su lógica y razonamiento. El mandar PROYECTOS o TRABAJOS, los famosos casos en las clases de MBA, son en general para tener al tonto entretenido, y hacerle discurrir, para que estruje su cerebro, y deje de ser el tonto, al que sabe desenvolverse, tener sentido crítico etc. Si al tonto le das la IA, no deja de estar en ese estado letárgico en la inopia, y lo que hace es presentar el trabajo de otro. Será el profesor ( si no es un tonto maduro) el que con su bienhacer, sepa poner pruebas adecuadas a 2025…. y a los medios disponibles…

    Lo del video de Will Smith, que más me da que su público sea generado con IA ( con manos de pulpo) o sea real… lo que me deberá importar es que si le compro el producto que trata de venderme o no. La respuesta es que no.

    Los videos musicales generados por IA, en tono humorístico por monosestocasticos, sin embargo me gusta oirlos… Hasta detrás de un video de IA, tiene que haber un humano creativo, dando las órdenes… y no un minundi intelectual por muy Will Smith que sea…

    • Rafa - 4 septiembre 2025 - 11:44

      El tonto seguirá siendo tonto, pero con un MBA. El que copiaba en clase existía, y seguirá existiendo.

      Lo que cuesta hacerles entender es que, a mí, el resultado me importa «relativamente».

      Lo importante es el camino que tienen que andar para alcanzarlo (el aprendizaje) y en ese «transitar», los atajos, ahorran tiempo a costa de limitar lo aprendido.

  • #010
    Javier Cuchí - 3 septiembre 2025 - 13:08

    Lo que más mal me sabe de todo eso, es que la fotografía dejará de ser un instrumento válido para documentar la Historia, pasará a ser una obra más o menos artística, pero su valor documental será quizá no nulo, pero prácticamente. Como los cuadros hasta comienzos del siglo XIX: nos permiten hacernos una idea, pero pasada por el tamiz de la visión del pintor, de su exaltación romántica, de su pesimismo o de su animadversión a lo reflejado.

    Es el signo de los tiempos, pero qué pena…

  • #011
    Het - 3 septiembre 2025 - 14:12

    Creo que me he perdido algo.

    No era el problema, justo el contrario? que tenemos masas con encefalograma plano que se creen todo sin rechistar y sin ningún tipo de pensamiento crítico?

    Creo que prefiero la época de la desconfianza a la época de la desinformación.

    Respecto a las pruebas judiciales, existen los peritos y legislación de sobra para determinar lo que es una prueba válida de lo que no.

    Saludos

    • Dedo-en-la-llaga - 4 septiembre 2025 - 02:02

      «Respecto a las pruebas judiciales, existen los peritos y legislación de sobra para determinar lo que es una prueba válida de lo que no.» Ya, que te crees tú eso… Y si te lo crees, vas dao.

  • #013
    JM - 3 septiembre 2025 - 14:41

    Antes de existir la fotografía ya se investigaban delitos y había políticos y magnates mentirosos.

    Lo único es que ahora se vuelve todo más difícil de lo que estamos acostumbrados.

  • #014
    Gorki - 3 septiembre 2025 - 14:46

    Yo que he visto manipular la imagen de todas las formas posibles, siempre pensé que la fe de que la fotografía era la «verdad» era absolutamente errónea, en el mejor de los casos era simplemente el punto de vista de un testigo.

    No es lo mimos la imagen de una manifestación fotografiada desde el lado de los manifestantes, que soportan una carga de los antidisturbios, que desde el lado de estos, aguantando estoicamente las pedradas de los manifestantes, y sin embargo el hecho es el mismo.

    Bueno es que aprendamos a dudar de todo aquello que viene expuesto en imágenes.

  • #015
    Juan T. - 3 septiembre 2025 - 14:54

    La otra cara de la moneda es que empieza el reino de la gente con imaginación.

    Cualquier cosa que imagines la puedes «materializar».

    Una de las preguntas es como evolucionarán los youtubers, e influencers, visto que no se necesitarán personas reales ni tampoco entender sobre temas especificos ya que todo te lo proporcionará la IA.

    Si que se necesitará talento para empaquetarlo en un formato atractivo pero ni siquiera hará falta programación ni ser experto en aplicaciones especificas.

    Por ejemplo ya hay IAs que te hacen un Power Point de una calidad increible con un mero prompt.

  • #016
    Chipiron - 3 septiembre 2025 - 15:17

    Desde luego es un cambio de paradigma!

    Lo más importante es educar a la gente para que no se crea que toda imagen o video es real. Hay que informar a TODA la población de la posibilidad de que sea una foto o video fake (sea o no hecho con IA, pues también hay formas de usar el photoshop para alterar imagenes reales).

    De todas maneras creo que hay métodos que se requerirán en su momento para poder demostrar que una imagen o un video no sea fake. De hecho, ya tardan en implementarlo.

  • #017
    Asier - 3 septiembre 2025 - 15:57

    Un forma de paliar en cierta medida el problema de diferenciar un original de una copia manipulada (imagen o vídeo) es registrar el hash en una blockchain pública, de forma que por ejemplo un periodista publica su grabación junto con la transacción donde se registró el hash. No asegura que el original no haya sido manipulado pero sí evita futuras manipulaciones que intenten hacerse pasar por el original.

  • #018
    Xaquín - 3 septiembre 2025 - 16:20

    «dificultad creciente para establecer qué es real y qué no», «la autenticidad se convierte en un bien escaso y muy valioso, mientras la sospecha se convierte en nuestro modo habitual de mirar.» (EDans).

    Partiendo de esto y del comentario gorkiano, sobre que parece ser lo mismo estar frente a los grises que ser un gris, aguantando mi cabreo (incluso si le tirara piedras)… nos damos de bruces con un problemón enorme.

    Pero que no «es «nuestro» porque ya se daba en los romanos. Ellos no solo inventaron el Derecho, si no que perfeccionaron en mucho el mecanismo de expresar mentira oficiales, como si fueran auténticas verdades… y daba igual que fuera un suceso en la metrópoli, que una falsa victoria de César en sus terrenos de expansión imperial.

    El Fouché y el Goebbels solo fueron alumnado aventajado.

    Y de nuevo volvemos al problema básico de confundir mirar con ver, muy de crucigramistas, y la falta de filtros mentales propios, que son lo únicos que te pueden garantizar (y nunca al 100%O), que lo que miras es lo que estás viendo (en tu cerebro), y eso que miras es la realidad, más o menos aproximada, que tienes delante.

    La gente moderna se ríe de la foto del Che que tan famosa se hizo, aunque no tenga puta información de la realidad que le tocó vivir a este individuo. Y ahora, la gente normal, empieza a darse cuenta que la famosa foto de la niña vietnamita, corriendo desnuda y medio quemada, podía ser un montaje.
    Entonces nos la creímos, pero básicamente la creímos (en ese momento histórico) porque teníamos datos fehacientes de que había un 99% de probabilidades de que era real… el dato fiable no estaba en el papel, ya no después de Stalin, estaba en nuestro coco.

    Así que sí, volvemos a lo mismo (aunque no lo parezca), es un simple problema de probabilidades… que se relacionan directamente con el nivel de información que tu cerebro posea… nada que ver con el corazón, o con el centro de información, real o virtual, de la autoridad (o de la contraautoridad) que intenta manipularte.

    Y volvemos a otro sitio bien trillado… el pensar que te engaña un alumno, no es cuestión de fe, es cuestión de mirarle a los ojos (ya el primer día) y tener la suficiente información sobre su actividad escolar, para evitar que te la cuele o no. Y sí, eso no se aprende en ninguna universidad!!!

    Es cierto, nos la puede colar, pero repito : no hay que ser cuanticófilo, para saber del enorme poder de la probabilidad.

  • #019
    Benji - 3 septiembre 2025 - 17:04

    Me he reído con «puedan utilizarlo para ir modificando lo que les sale de sus algoritmos» porque parecía que la frase iba a decir «puedan utilizarlo para ir modificando lo que les sale de sus mismímos…»

    De todas formas, la generación Z debería estar mas preocupada por dejar de estudiar derecho o contabilidad o ADE y estudiar más cuello azul para librarse de la que viene.

    PD: Me encantan las exposiciones de fotografías

    • Enrique Dans - 3 septiembre 2025 - 18:37

      Exactamente por eso lo escribí así… ;-)

  • #021
    Dedo-en-la-llaga - 4 septiembre 2025 - 02:08

    ¿Veis cómo al final NUNCA pasa NADA? Ahora, el juez prevaricador de turno, sale con la excusa de la IA… Si es que…

    https://www.eldiario.es/tecnologia/juez-permite-google-conserve-navegador-chrome-condenada-monopolio_1_12574315.html

  • #022
    Gabriel - 4 septiembre 2025 - 09:00

    Desde hace mucho tiempo deberíamos tener poca confianza en las imágenes y vídeos. Si un medio de comunicación informa sobre una manifestación alienada con su línea editorial, nos muestra fotos o vídeos en los que parece que hay mucha más gente que la que había. Fotos o vídeos que si se sacan desde un poco más arriba o más lejos vemos la realidad (ha asistido poca gente) pero que sacadas desde el ángulo «adecuado» muestran una multitud… Lo mismo pasa con una guerra o cualquier acto que estos medios quieran magnificar o minimizar. Ahora este tema de la desconfianza en las imágenes se maximiza, pero no es un problema nuevo. Necesitamos medios fiables. Es decir, la imagen no es fiable, lo es el medio en que la vemos. El problema es si existe alguno. La polarización acompañada del «todo vale» se está cargando la confianza en las instituciones y en los medios serios. ¿Nos queda alguien de que fiarnos?

  • #023
    Gorki - 4 septiembre 2025 - 10:05

    ¿Tiene peso el que escriba que Luis mató a Juan si aportar ninguna prueba mas? Pues el mismo peso jurídico tiene que yo presente una fotografía donde se ve a Luis matar a Juan si no aporto mas pruebas

  • #024
    Juan Jose - 4 septiembre 2025 - 10:26

    Para algo fue creado WORLD COIN por Sam Altman , sabia que ese dia llegaria, ya ha llegado , todos y cada uno de los video e imagenes deberan llevar una marca de agua (qr etc) que con un dispositivo sabras de inmediato si lo que estas viendo es IA o no. La herramienta ya esta dispoble solo falta perfecionarla , solo un clic sobre imagen de video o foto y su naturaleza real sera revelada.

    • Rafa - 4 septiembre 2025 - 11:52

      Eso deja en manos del que crea el algoritmo la capacidad de decidir lo que es (puede ser) real de lo que de verdad lo es, ya que puede decidir cuando no introducir la marca de agua.

      Mientras, en Europa, los tecnólogos se quejan de que no les dejan innovar por la sobre regulación sin tener en cuenta estas consideraciones.

      Al final, no vamos a saber si estamos en lo más profundo de la caverna o a plena luz del sol, porque aquellas sombras las veremos en ultraHD y HDR.

  • #026
    jose alberto - 4 septiembre 2025 - 15:43

    Enrique excelente artículo. Confirmo lo que dices porque aqui en Venezuela a Maduro lo único que se le ocurrió decir, luego del ataque de USA a una lancha que habia salido de Venezuela con droga, fue que era un video generado por IA. Decir otra cosa era autosuicidiooooo con el perdon de la RAE. Feliz día.

  • #027
    Carlos - 4 septiembre 2025 - 21:59

    Solo una cosa más a añadir al saco del «shitification of the Internet» en mi opinión. No mucha gente publica su vida, si no lo que quiere que los demás piensen de ella. Buena parte de los videos más virales y las ideas más compartidas eran falsas. Internet en si misma es ya el equivalente a una versión exponencial de lo que producía la televisión: una visión determinada de «la realidad» que alguien te quería contar.
    Ayer mismo oí que Trump había anunciado que habían interceptado 50 millones de dolares que se iban a usar para comprar condones en Gaza, «para fabricar bombas». El presidente de la primera potencia mundial anunciando esto te da una idea de en que punto estamos ahora mismo.

Dejar un Comentario

Los comentarios están cerrados

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.