Ilegalizar el uso de voces generadas algorítmicamente en llamadas telefónicas

IMAGE: Paco Silva - Pixabay

Todo indica que la Federal Communications Commission (FCC) estadounidense está planteándose la criminalización del uso de inteligencia artificial generativa para la síntesis de voces en campañas de marketing telefónico, una medida que seguiría a un importante crecimiento en su uso para tratar de suplantar a personajes conocidos.

Hace una semana, una campaña de llamadas fraudulentas con la voz de Joe Biden intentó convencer a entre cinco mil y veinticinco mil votantes del estado de New Hampshire para que no votasen en las elecciones primarias. El origen de la campaña es desconocido, pero los audios con la voz del presidente eran un deepfake generado algorítmicamente.

Clonar una voz a partir de unas cuantas muestras de la misma es, hoy en día, un proceso prácticamente trivial. De los primeros algoritmos que precisaban varios minutos de lectura de frases específicas, hemos pasado a otros que simplemente necesitan unos pocos segundos de una voz para lograr copiarla. En el caso de personajes públicos, dado que suele resultar enormemente sencillo obtener muestras de su voz, se han encontrado en muchos casos campañas que pretenden utilizarlos como forma de generar confianza en el interlocutor. Al unir esa tecnología con la algoritmia generativa, podemos encontrarnos con algoritmos conversacionales razonablemente convincentes.

En algunos casos, esas llamadas con voces clonadas están siendo utilizadas para hacer creer a personas que un familiar se encuentra en apuros y necesita dinero. Pero en otros, la intención es falsear, por ejemplo, la recomendación de un producto por parte de una persona famosa o influyente, evitando así que la marca tenga que pagar a esa persona por el uso de su voz.

La Telephone Consumer Protection Act (TCPA) de 1991 restringe en los Estados Unidos la realización de llamadas de telemarketing y el uso de sistemas de marcación telefónica automática con mensajes de voz artificiales o pregrabados sin previo consentimiento del receptor. Si ahora, además, se prohibe el uso de llamadas que utilizan voces clonadas, se aseguraría un marco legal razonable para ese tipo de actividades. ¿Tiene sentido tipificar como delito algo que es utilizado precisamente por delincuentes, cuya actividad está, por definición, al margen de la ley? Obviamente, eso no impide su uso ilegal, pero al menos, facilitaría la persecución posterior del delito y la imposición de unas penas adecuadas.

En cualquier caso, parece una medida bastante razonable. Cuando una tecnología como el clonado de voces se convierte en técnicamente sencilla y su uso predominante es para cometer fraudes, ilegalizar su uso, aunque no sea algo sencillo, parece una forma bastante lógica de intentar proteger a los consumidores del mal uso de esa tecnología.


This article is also available in English on my Medium page, «The time has come to ban robocalls using AI-generated voices«

23 comentarios

  • #001
    Benji - 2 febrero 2024 - 10:09

    Menos mal, una buena noticia.

    De momento, la IA está generando más problemas que alegrías. A ver si se invierte la ecuación en algún momento

    • Juan Ignacio - 2 febrero 2024 - 10:17

      Algo me dice que tu no trabajas usando Chatgpt o los modelos de creación de imágenes… ajjaj

    • Benji - 2 febrero 2024 - 11:56

      xD

      Muy buena Juan Ignacio, pero me refiero a que el 70% de las noticias son negativas.

      – La IA roba trabajo a los creativos imitando su estilo
      – La IA escribe libros tan rápido que Amazon tiene que limitar la subida de novelas diarias por la inundación que tiene
      – La IA hace superfluos a muchos diseñadores/maquetadores
      – La IA mantiene cuentas de falsos influencers
      – La IA mantiene cuentas dedicadas a promover agendas políticas
      – La IA se usa para robarte por redes sociales
      – La IA se utiliza para hacer robollamadas
      – La IA estampa coches porque los sensores le fallan en ciertas condiciones
      – La IA puede estar controlada por Altman y Zuckerberg
      – La IA se usa para pervertir elecciones en algunos países
      – La IA como maestra de la desinformación. Se inventa la información cuando no la tiene
      – La IA va a quitar miles de puestos de trabajo
      – La IA programa fatal

      Estoy perezoso para buscar artículos de cada uno, pero se han estado comentando aquí.

      Por eso me alegro de algo de regulación para evitar abusos en uno de los muchos canales

  • #004
    Juan T. - 2 febrero 2024 - 10:19

    Todas las medidas que se tomen para evitar la manipulación electoral son pocas.

    Sobre todo por que son utilizadas ( y consumidas) al 99% por aquellos que nunca ganarían sin manipularlas, es decir, por los republicanos golpistas.

    Asi que es pura defensa de la democracia.

    • Benji - 2 febrero 2024 - 11:59

      Lo dices como si los demócratas en USA no usasen las mismas tácticas, o casi todos los políticos en Europa.

      Tendemos mucho a demonizar al contrario viendo la paja en el ojo ajeno sin reparar en la viga del nuestro.

      No digo que los republicanos sean unos santos ni mucho menos, pero han sabido usar esas herramientas mejor que sus contrincantes que también las utilizaron.

      Como dijeron una vez, no fue que Trump ganase las elecciones, es que Clinton las perdió (entre otras por usar un servidor privado para sortear la vigilancia de sus emails). Creo que si no fuera por eso Clinton habría ganado de calle.

      Luego lo que pasó, todos fuimos testigos. Al final fueron los seguidores de Trump (y tal vez él mismo) los que intentaron dar un golpe y es Biden quien está construyendo el muro que Trump prometió.

      Superloco este mundo

  • #006
    menestro - 2 febrero 2024 - 11:09

    Hay centros de llamadas en España dedicados a estafar a personas mayores con ventas comerciales de todo tipo, desde paquetes de telefonía, seguros, hasta suscripciones a todo tipo de productos, que luego no saben cancelar.

    El problema es que se permiten llamadas a personas vulnerables y que no pueden gestionar los métodos de captación agresivos, con lo que te encuentras a ancianas pagando miles de euros de productos que no querían comprar. Totalmente desprotegidos.

    Y ese el problema, y actual crisis en EE.UU, no la inteligencia artificial.

    Ahora que no nos ve nadie, vamos a hablar de algo que está tocándome las narices.

    Muchas personas culturales están confusas y no entienden por qué Carlos Vermut exhibía escenas de abusos en su cine, o ha admitido con naturalidad que cometía abusos en su vida privada. ¿Era arte y talento?

    No, se llama catarsis.

    Es el último acto de liberación de un depredador, quitarse la máscara en público para ser ovacionado, validado socialmente. No tener que ocultarse, ni ocultar a sus víctimas.

    Hay consentimiento?, pues no. Se llama control coercitivo. Es como cuando vas al médico o a la parroquia. Se aprovechan del efecto de autoridad, ya sea prestigio o relevancia social, o ser «líder» de una pandilla.

    Es un truco Jedi.

    Pero eso sí, estoy impresionado de como Clara Serra y compañía han conseguido convertir las relaciones sentimentales en violaciones, sí o sí, porque las mujeres no son conscientes de su deseo, ni pueden cuestionar el ajeno.

    Es lo que pasa con los intelectuales de botellón y el popper, que los colegios de monjas salen caros al final.

    ¿Quienes son ellas para cuestionar el «deseo» ajeno, verdad?

    Otro día hablamos de los monos voladores y complicidad. Vox me preocupa mucho menos que la falta de brújula.

    • Matt - 3 febrero 2024 - 01:28

      ¿Eres un preocupado productor o director de cine aficionado a abusar de mujeres?

      Porque todos los días nos repites lo mismo aunque no pueda estar más fuera de lugar con el tema que se trate aquí.

      • menestro - 3 febrero 2024 - 12:55

        No te lo repito a ti.

  • #009
    Gorki - 2 febrero 2024 - 11:19

    Creo que en el caso que indicas, utilizar la voz de Biden para que un ciudadano no vote, es el ejemplo perfecto para fijar mi postura en este caso.

    Lo que es ilegal es suplantar a una persona conocida, para dar autoridad a un mensaje, Eso es delito, tanto si se hace imitando su voz, como si se hace imitando que lo ha firmado en una carta, o simplemente haciendo llegar a la prensa, esa noticia como salida de la Casa Blanca, o hackeando una cuenta de twitter. Son casos claros de suplantación de personalidad algo que es un delito.

    Pero prohibir el uso de inteligencia artificial generativa para la síntesis de voces en campañas de marketing telefónico creo que es tratar de matar moscas a cañonazos, Puede haber montones de casos en que utilice la inteligencia artificial generativa para la síntesis de voces en campañas de marketing telefónico con fines totalmente legales. Supongamos que Biden decide hacer una campaña basada en que el público le pregunte sobre la política que va a realizar en su siguiente mandato, y las contestaciones al público a las llamadas por teléfono que reciba, las da una IA con la voz de Biden, que explica la acción política que va a tomar en lo relativo a la pregunta que se le ha realizado.

    Si condenamos el medio utilizado en un delito, en vez de condenar el acto, terminaremos prohibiendo hasta el uso de pinceles, porque con ellos se puede simular que determinados personajes públicos cometieron que no cometieron,

  • #010
    c3po - 2 febrero 2024 - 13:16

    ¿De verdad hay que legislar el uso de una IA, una grabadora o cualquier medio por nuevo que sea?

    El delito existe y se llama estafar, no hace falta que se legisle nada nuevo, lo que si hace falta es perseguirlo… coincide plenamente con Gorki da igual que se haga imitando una voz o amenazando con una motosierra. Herramientas que tienen otros usos legales.

    PS: Los fakes no son en si delito, ahí está el anuncio «con mucho acento» de Cruzcampo, como tampoco los memes de como se fabrica una cerveza fake.

    • Gorki - 2 febrero 2024 - 13:31

      Muy bueno el ejemplo de Cruzcampo. Yo estaba buscando algún uso de la imitación de voz con la IA, pero no lo encontré.

      Se me ocurrió utilizar otro ejemplo como es «hablar» con seres queridos muertos, pero me pareció un tanto macabro

      ¿Hablar con seres queridos que han fallecido?

      • Lua - 2 febrero 2024 - 13:40

        Macabro es poco…

  • #013
    Gorki - 2 febrero 2024 - 13:46

    A mi me preocupa mucho esta moda, aplicada por el Poder, pero aplaudida por muchos ciudadanos, de prohibir por elevación.

    Un señor se ha suicidado tirándose por el viaducto, pues ponemos unos cristales en la barandilla del viaducto, Ha habido una muerte en un accidente de circulación a 110 kmh, pues prohibimos circular a mas de 90, Que un patinete se incendia en el metro, pues prohibimos introducir patinetes en el metro. Que han copiado la voz de Biden en una estafa, pues prohibimos la IA que imita voces

    Estoy convencido que estas medidas y disminuyen los suicidios, ni reducen el número de accidentes mortales, ni disminuyen el número de baterías de litio que circulan en el metro. Ni reducen en las elecciones el número de fraudes. Pero lo políticos parece que han hecho algo, cuando sólo han estampado su firma en una mueva prohibición, y lo que es mas triste, a un montón de ciudadanos les parece la solución al problema y que viven mas seguros.

    • F3r - 2 febrero 2024 - 14:02

      Estoy totalmente de acuerdo. Cada vez más prohibiciones absurdas, como si fuéramos chiquillos.

      Por otro lado, la prohibición de la que se habla aquí es como la de las armas de fuego: solo tiene un posible uso, y es deleznable.

      • Gorki - 2 febrero 2024 - 16:57

        El que a ti no se te ocurra otro, no quiere decir que no lo tenga.

        Por ejemplo en un futuro próximo se puede hacer una película con Humphrey Bogart e Ingrid Bergman, (En España habría que hacerla imitando la voz de sus dobladores)

    • c3po - 2 febrero 2024 - 15:01

      Gorki

      En ese mundo de prohibir por elevación hay mucho caradura, sin ir más lejos a ver a que marca te suena esto:

      «No podemos abrir la store para que no se llenen de virus las apps del Iphone y defendemos al usuario»

      que les falta decir que «como son gilipollas…»

      • Gorki - 2 febrero 2024 - 16:50

        Repito una vez mas, que cuando el Poder, (sea quien sea el que lo detenta), dice de algo, que es para defender al ciudadano. En un 99% de los casos miente descaradamente, lo que quiere es mayor control sobre el ciudadano, y este es un caso típico de lo que digo.

    • Juan T. - 2 febrero 2024 - 17:20

      Tu harías lo mismo si fueras político….El mismo que dice que no hay que prohibir el patinete en el metro por que uno de diez millones se incendia es el que le cruje vivo al político si se incendia otro y le quema a su hijo por que ya había precedentes y bla, bla ,bla.

      • Gorki - 2 febrero 2024 - 17:45

        Posiblemente hiciera lo mismo, como no estoy seguro que no metiera la mano en el baúl del dinero. Por eso mismo no he intentado nunca ser político.

        Creo que el político debería siempre seguir su criterio, si opina que una prohibición es boba, no prohibir, Si se achanta por lo que dirán, pues que se vaya a su casa.

        Cuando todos llevamos en el metro una batería de litio, es absurdo prohibir a alguien que suba en el metro porque lleva una batería de litio.
        Si es una bicicleta eléctrica, si. si es un ordenador, también, pero si es un patinete no. ¡Francamente, que quieres que opine!

    • JM - 4 febrero 2024 - 18:56

      Totalmente de acuerdo.

      Otra vuelta de tuerca sería prohibir algo sin destinar medios a vigilar que la prohibición se cumpla. Esto es muy habitual en España.

      Un ejemplo facilón: está prohibido pasear perros sin correa (y algunos con bozal) la mayor parte del día, pero nadie se ocupa de que se cumpla la ley. Lo mismo con recoger sus deposiciones.

      Menos mal que la mayoría de los dueños son responsables, que si no…

  • #021
    Gorki - 2 febrero 2024 - 19:20

    En la línea de lo que se discute en este post un video de Carlos Santana @DotCSV

    sobre la llamada NIGROMANCIA DIGITAL

    • c3po - 2 febrero 2024 - 20:44

      Mira el último de Carlos sobre… si utilizar una IA es plagio o no…
      enlace. Hace un esfuerzo para explicar lo de la difusión de imágenes que es loable

      Y cuando lo vuelva a tratar Enrique lo hablamos. Por cierto noticia de mosqueo con una novela de Planeta por usar la IA en una portada.

  • #023
    Dedo-en-la-llaga - 5 febrero 2024 - 01:37

    Pues van a tener que prohibirlo todo, voz e imagen. Ya vais a ver qué risa, como ya dije aquí, cuando tengamos que tener un santo y seña para cada familiar y amigo…

Dejar un Comentario

Los comentarios están cerrados