Venganza y veneno: los artistas contra la IA generativa

IMAGE: Noorataijala - Pixabay

Cuando se presentó Dall·E, y al poco tiempo, otros algoritmos generativos de tratamiento de imágenes como Midjourney o Stable Diffusion, sus problemas se pusieron rápidamente de manifiesto: las compañías que los habían creado habían acumulado enormes colecciones de imágenes etiquetadas con descripciones, y las habían utilizado para entrenarlos.

¿De dónde habían sacado esas enormes colecciones de imágenes? Fundamentalmente, haciendo scraping de páginas web que las contenían, sobre todo de repositorios de imágenes. La denuncia del repositorio Getty Images contra Stable Diffusion recoge claramente el problema: la recolección de sus imágenes era tan evidente, que en muchos casos las imágenes generadas contenían versiones distorsionadas de su marca de agua, porque el algoritmo la interpretaba como una parte más de la imagen.

El problema legal era evidente: nos hemos pasado años diciendo que si algo es público en la web puede ser objeto de scraping. Hay precedentes legales de todo tipo que afirman el derecho de alguien a dirigirse a una página web abierta al público, y tomar todo su contenido para los fines que estime oportuno. Por su complejidad, e caso en cuestión puede pasarse años y terminar en el Supremo, y mientras, los artistas cuyas imágenes han sido utilizadas para el entrenamiento de algoritmos ven cómo sus creaciones pueden ser fácilmente imitadas, o cómo alguien puede simular su estilo para hacer imágenes nuevas.

Ante la dificultad de la reclamación legal, algunos artistas han comenzado otro tipo de venganza: crear imágenes tratadas con un software que introduce alteraciones invisibles en ellas para confundir a los algoritmos, de la misma forma que se utiliza, por ejemplo, para «anonimizar» fotografías y evitar su uso por algoritmos de reconocimiento facial. Bautizado como Nightshade en honor a la Atropa belladonna, una planta que provoca alucinaciones, el algoritmo permite publicar fotografías alteradas que generan en el algoritmo descripciones diferentes a su contenido real, lo que provoca que el algoritmo se confunda en sus resultados y ofrezca imágenes que no son lo que el usuario había pedido.

El resultado es equivalente a envenenar los repositorios con imágenes que siguen cumpliendo su función – el usuario normal puede verlas y escogerlas para ilustrar lo que quiera respetando las condiciones establecidas por los artistas – pero que, en caso de ser ingeridas por un algoritmo, dan lugar a «alucinaciones» que distorsionan su funcionamiento. Cuantas más imágenes «envenenadas», más impredecible se vuelve el algoritmo, lo que obliga a las compañías a establecer mecanismos de supervisión de los contenidos que usan para su entrenamiento, elevando considerablemente sus costes.

En la práctica, una advertencia para quienes crean este tipo de herramientas, que está detrás de muchos de los problemas que advertimos en su uso: si alimentas a tu algoritmo con basura, generará basura. En muchos casos, hablamos de una industria que está pretendiendo ir demasiado deprisa, que necesita ofrecer resultados muy rápido para justificarse con sus inversores, y eso hace que terminen utilizando información inadecuada que nunca debería estar en la base de ningún entrenamiento, lo que hace que sus algoritmos sean potencialmente menos fiables. Básicamente, «garbage in, garbage out». En estas cosas, como cuando se enseña a un niño, las prisas no son las mejores consejeras.

En la práctica, nada puede impedir que un artista trate sus creaciones como buenamente quiera, del mismo modo en que hasta el momento se creía que nada podía impedir que una empresa hiciese scraping de todo el contenido de un repositorio y lo utilizase para entrenar un algoritmo. Pero en estos temas, verdades absolutas hay pocas, y cuando aparece un nuevo uso, es habitual que esos conceptos que lo parecían sean revisados, como prueban las intenciones de algunos artistas – y sobre todo, de quienes gestionan sus derechos de autor – de ser compensados cuando sus imágenes son utilizadas para el entrenamiento de algoritmos.

Ya veremos cómo acaba esto.


This article is also available in English on my Medium page, «Tired of being ripped of by AI companies, artists are booby trapping their work«

13 comentarios

  • #001
    Gorki - 18 diciembre 2023 - 14:30

    En efecto, nadie puede impedir que los artistas introduzcan en sus obras y si eso provoca alucinaciones a los algoritmos, pues se siente.
    Lo que yo no llegó a enteder es por qué ahora protestan y no protestaron cuando Gogle hizo lo mismo para adiestrar su buscador de imágenes.
    No me cabe la menor duda que pronto los algoritmos aprenderan a no caer en ese tipo de trampas, con lo que entraremos en la tradicional lucha entre la muralla y el ariete, que siempre ha ganado el ariete.

    • Marcos - 18 diciembre 2023 - 19:42

      No lo tengo yo tan claro, Gorka.

      Hoy he escuchado la frase “te doy mi teléfono” y he pensado en la obvia y posible confusión basada en eso, una frase hecha.

      ¿Cuando podrán las máquinas identificar la ironía y el sarcasmo? ¿Las dobles intenciones? Me gustaría verlo, cuando incluso los humanos no podemos y nos cuestan (de ahí tantos malos entendidos).

      Veremos…

      • Marcos - 18 diciembre 2023 - 19:43

        Quise decir Gorki y no me di cuenta de la corrección automática que se llevó a cabo. Todo el respeto.

    • Miquel - 18 diciembre 2023 - 20:05

      Cuando Google hacía lo mismo, no se protestaba porque lo que los artistas conseguíamos era visibilidad de nuestro trabajo. La principal razón por la que subimos imágenes de nuestro trabajo a la red. Para promocionarnos y conseguir encargos.
      Muy diferente al tema que nos ocupa.
      No me parece muy complicado de entender. Aún para quien le importe un bledo el problema que tienen hoy en día los artistas, porque a él, no le afecta el asunto.

    • Dorado Comandante - 19 diciembre 2023 - 04:07

      Si no entiendes la diferencia entre el rastreo de información que realiza un buscador de internet para mostrar resultados, con una IA generadora de contenidos, una de dos: o has sido un informático de palo toda tu vida, o es que ya estás demasiado mayor para ciertos temas.

      • Gorki - 19 diciembre 2023 - 18:48

        No ofende el que quiee sino el que puede.
        Los informáticos de palo somos los que hemos programado la AI, la mayoría de los actuales,no sabeis copiar un fichero sin ayuda de Wivdows

        • Dorado Comandante - 20 diciembre 2023 - 02:12

          Quien se pica…

        • Lua - 20 diciembre 2023 - 07:57

          Tambien has programado las AI, Gorki…???

          Con o sin punteros…??? XDDD

  • #009
    menestro - 18 diciembre 2023 - 20:01

    ¿Cuál es la editorial de tu copia del código civil, Enrique?

    En mi casa desde niño había una buena biblioteca, mi padre la compró para decoración y por ver si el niño era de los que leían, de verdad, o se lo inventaban los profesores y psicólogos (no veas qué carreras se metían por los pasillos). Había una copia del código civil.

    (Y para que no vaciase las bibliotecas de otros colegios, institutos, etc.)

    Luego, cuando me interesé en el tema, me dieron la llave de la biblioteca del claustro de la facultad de derecho. En la Complutense, solo podía acceder a la de los alumnos. He leído tomos enteros de pie, en la Casa del libro.

    Bien, nunca ha existido ninguna desprotección de la propiedad intelectual de las imágenes o documentos que están en abierto en las páginas webs. Ni de los datos, direcciones, etc., que aparecen en ellas.

    Aunque el web scraping sea legal en EE.UU en base a la Fair Use Act, la ley impide procesar y tratar esos datos obtenidos para la reproducción, o creación de obras derivadas, sin autorización o licencia del autor.

    Y, el punto importante aquí, no solo es la reproducción o creación de obras derivadas, sino mucho peor, no se puede tratar o procesar digitalmente la información obtenida de las páginas web sin autorización.

    Por supuesto, en este contexto del procesamiento con un fin comercial de las imágenes obtenidas.

    Lo mismo sucede con Worldcoin y los datos biométricos. No puede salir ningún hash o utilizarse ningún procesamiento de datos biométricos, parcial o total, sin someterse al GDPR y las leyes de tratamiento de datos de especial sensibilidad.

    Worldcoin es una violación flagrante de los acuerdos de exportación de datos. Si tienes algún abogado de confianza, consúltale y te dirá lo mismo.

    O échale un vistazo a las sentencias sobre utilización de la huella digital para el acceso a Gimnasios, en los periódicos.

    Lo mismo sucede con los metadatos, hash y cualquier otro procesamiento o tratamiento de la información (ojo) por algoritmos de difusión, generativos o vectoriales.

    No se pueden utilizar pedacitos de datos de una obra original, si se produce un tratamiento digital, con un producto comercial derivado.

    Puedes cogerlos y manipularlos, pero en el momento en que los metas en la coctelera, y los agites, se está produciendo un tratamiento de la información protegido por la ley de derechos de autor. Cualquier producto que salga de ahí, tiene derechos de autor como obra derivada.

    No se libra Ni Warhol.

    Supreme Court Weighs Warhol’s Art.

    Si quieres imitar el estilo artístico de alguien, tendrás que hacerlo sin procesar digitalmente su obra. O solicitando una licencia para hacerlo.

    Lo mismo sucede con el código de los programadores.

    Sparse matrix addition – Tim Davis

    Insights from the Pending Copilot Class Action Lawsuit

    Si encuentras un abogado que diga lo contrario, tráemelo y yo mismo le sacaré el aguinaldo ante un juez.

    (aunque no sea una ex.)

    The current legal cases against generative AI are just the beginning

    OpenAI Hit With Class Action Over ‘Unprecedented’ Web Scraping

    Google hit with class-action lawsuit over AI data scraping

    Stablediffusion litigation

    Santa baby, I don’t need your presents tonight
    Don’t want diamonds, cash, or stocks

  • #010
    Morath - 18 diciembre 2023 - 20:47

    Curiosa paradoja la que se presenta, al menos a mi entender.
    Por un lado, el artista dedica una buena cantidad de recursos en optimizar su «escaparate» (web, redes sociales, etc.) para que sea adecuadamente «engullido» por los robots buenos: arañas, buscadores, indexadores y similares gracias a una adecuada metadatación y mecanismos similares que seguramente le cuesta un dinerillo porque lo tiene subcontratado.
    Pero, por otro lado, justo en esas imágenes, mete «cacurcia» para que los «robots malos», esos de la inteligencia artificial no puedan aprovecharlos y utilizarlo malignamente y lucrarse con su trabajo.
    Difícil solución tiene este problema porque, tan buena me parecería la posición de alguien que se cierra en banda y quiere exponer solo en pequeños ambientes aunque llegue a menos gente como el que pasa de todo esto y lo único que quiere es que se difumine su obra, cuanto más, mejor.
    Como no soy artista, no sé hasta qué punto mi opinión es válida, pero nunca me ha importado que los contenidos que he vertido en internet hayan sido utilizados, algunas veces de manera torticera con copipegado directo porque es algo que entra dentro de lo esperable y, en el fondo y afortunadamente, representaba un porcentaje muy pequeño respecto al uso que se le daba a ese contenido de manera «normal» (en normal incluyo no solo la lectura o citas sino también el que se usara para generar contenido sospechosamente similar, pero auténtico al fin y al cabo).
    Así que, olé por los que están generando ese tipo de herramientas de «envenenamiento», no porque sean capaces de engañar a la IA, sino porque, en el fondo, están contribuyendo a la «invención» de cosas nuevas que, seguramente acaben sirviendo en algún momento para cosas útiles (a veces soy muy optimista con lo de los avances de la ciencia, lo reconozco).

  • #011
    c3po - 18 diciembre 2023 - 20:56

    Hoy toca una de puñeteros gatitos ;-)

    Pues resulta que si a un modelo de generación de imágenes le pones un prompt «A cat like a person in red boots dressed as a musketeer and skiing in the snow», sabe que generar pq está mezclando y conoce lo que es un gato, lo que es un mosquetero y esquiar. Un algoritmo no sabe crear un gato si no ha sido entrenado con una imagen, y se le ha dicho esto es un gato. Y con los mismos parámetros, los cambios de imagen, dependen por eso del modelo, Y de ahí la burrada de modelos que hay. Los especializados en anime, en monstruos, fotorealistas, etc.

    Pero con el arte es más complicado, de hecho el mal ya está muy avanzado y ya hay tantas copias de modelos, como aficionados, afortuandamente para los aficioandos. Y después si dibujas un dragón quien es el padre intelectual de ese dragón que el usuario lo va a pedir en colores, formas, y mil perrerias que se le hagan, por mucho al estilo de Greg Rukowsky que no pongas, es imposible diferenciar, si lo has puesto o no.

    A modo de ejemplo, si encargas un cuadro impresionista puedes incluir fácil más de 10 artistas, casi imposible saber si pones uno de ellos y ves la imagen de quien es. Eso si habrá artistas inconfundibles, un Botero, Frida Kahli, pero un ilustrador sin un estilo tan marcado, casi imposible. Y además el daño de las imágenes de entrenamiento ya se produjo. Y totalmente de acuerdo con Menestro que son obras derivadas. Las leyes están bien, pero expertos en no pedir permiso, es lo que abunda.

    En mi modo de pensar sobre el tema, jamás un prompter debería cobrar un duro, y las imágenes no deberían ser vendidas. Y cuanto menos se usen en modo profesional (artículos, periódicos, etc) mejor para defender a las personas que son profesionales.

  • #012
    Xaquín - 19 diciembre 2023 - 17:25

    Debe ser la primera vez que me pongo del lado de los «artistas»… o peor aún «autores de por vida», cuando ni Picasso le pagó derechos al pueblo africano, no Van Gogh a los dibujantes japoneses.

    Pero si quieren pelear con los «robadores» de imágenes, como si fueran de cabezas, totalmente con ellos. Y excelente que hagan diluir su obra en la imagen copiada, porque ahí radica la esencia del arte humano. Una expresión indefinible (no científica) de las entrañas mentales de esta versión actual, tan mediocre, del homo sapiens.

    Bienvenidos al mundo real, de una sociedad adulta donde la imaginación está penada de por vida. Y con unos castigos tremendos a quien se desmande imaginando «de más». Igual que a quien teorice científicamente, en contra de las creencias de eses adultos dominantes.

    Puede que hasta nos entendamos (en «futuros»).

  • #013
    Luis - 19 diciembre 2023 - 23:33

    Pírrica victoria eso de engañar al algoritmo.
    Es una batalla perdida a medio-largo plazo como repetidamente ha pasado en todo lo que la informatica esta de por medio, no hay más que tirar de la historia.

Dejar un Comentario

Los comentarios están cerrados