Algoritmos contra la desinformación

IMAGE: Gordon Johnson - Pixabay (CC0)

Es algo sobre lo que llevo mucho tiempo convencido: la solución a la gran mayoría de las campañas de desinformación en redes sociales va a tener mucho que ver con el desarrollo de algoritmos diseñados específicamente para ello. El uso de cuentas falsas o específicamente diseñadas para provocar reacciones virales en redes sociales, o los fenómenos conocidos como astroturfing, en los que se intenta simular una gran masa social detrás de una consigna y hacerla pasar por un fenómeno genuino de protesta en modo grassroots o movimiento de bases, tiene patrones de difusión que todos hemos podido presenciar en alguna ocasión, y que un algoritmo debe ser perfectamente capaz de identificar.

Ahora, un desarrollo del MIT llamado Reconnaissance of Influence Operations (RIO), prueba que, en efecto, ese tipo de operaciones no genuinas pueden ser identificadas algorítmicamente, automatizando una tarea que ha sido utilizada a gran escala por algunos actores para sembrar división y polarización en muchos países. El marco conceptual integra el procesamiento del lenguaje natural, el aprendizaje automático, el análisis de grafos y un enfoque de inferencia causal en red para poder cuantificar el impacto de los actores individuales en la difusión de narrativas.

Hablamos de fenómenos para los que es sencillo contar con datos adecuados para entrenar un algoritmo: existen ya numerosos ejemplos de campañas de desinformación lanzadas por actores maliciosos en numerosos países y que han podido ser trazadas a fenómenos de este tipo, con patrones específicos reconocibles. Diferenciar una campaña viral genuina, algo que «incendia las redes», de un fenómeno premeditado y diseñado con el apoyo de redes de cuentas específicas puede parecer difícil, sobre todo teniendo en cuenta que en muchos casos, muchas cuentas reales se unen a la difusión de mensajes originalmente diseñados de manera no genuina simplemente porque los mensajes difundidos coinciden con sus visiones, puede parecer complicado, pero cuando se tiene acceso a la arquitectura de relaciones y a la información de las cuentas, hablamos de una tarea de identificación de patrones de difusión que un algoritmo puede llevar a cabo particularmente bien.

Identificar rápidamente este tipo de campañas es fundamental de cara a poder reaccionar ante ellas de la manera adecuada, sobre todo en momentos en que el incremento de la polarización que buscan puede redundar en reacciones concretas más allá de las redes sociales, en momentos como unas elecciones o un período de especial sensibilidad social.

Básicamente, hablamos de controlar un entorno que creció de manera natural, pero en el que muchos vieron una gran oportunidad para la manipulación, que comenzó de manera relativamente espontánea, pero que en la actualidad utiliza todo tipo de técnicas y mecanismos sofisticados para simular ese tipo de procesos, ante la pasividad o la incompetencia de los gestores de las redes sociales. En el fondo, un engaño más, en un contexto que aún no nos resulta fácil de identificar. Cuanto antes entendamos cómo funcionan este tipo de fenómenos no genuinos, mejor para todos.


This article is also available in English on my Medium page, «How algorithms can help defend us against social network disinformation campaigns«


23 comentarios

  • #001
    Gorki - 2 julio 2021 - 17:42

    El «nihil obstat» de toda la vida, pero digitalizado,… ¡Vivan las caenas!

    • Juan T. - 2 julio 2021 - 23:09

      Como debe ser.

      Los que quieren ahora libertad total de expresión para propagar sus mentiras son curiosamente los primeros que acabarían con ella si mandaran.

      Trump, Bolsonaro, y compañia.

      Ni agua.

      • Gorki - 3 julio 2021 - 10:33

        ¡Absolutamente de acuerdo!
        Soy partidario de crear un Ministerio de la Verdad. controlado por un Salvador del Planeta, que nos indique lo que debemos ver y leer el pueblo llano y sencillo.

        • Juan T. - 3 julio 2021 - 10:42

          Eso es justo lo que harían los que mencioné si pudieran.

          • Gorki - 3 julio 2021 - 11:39

            Y que quieren hacer los que no mencionas como el MIT

          • javier bilbao - 3 julio 2021 - 16:29

            entonces la culpa de crear censura, incluso por boe ,no es de los que gobiernan sino de los que podrían gobernar?

            ¿no es mas lógico pensar que es la izquierda la que pretende censurar ya que ha sido ellos los que han promovido las agencias de verificación y un órgano institucional de la verdad que depende del gabinete de la presidencia según el boe y faculta?

            Puede que del incendio tenga culpa el agua, pero seria interesante ver si el fuego esta implicado :-)

          • Gorki - 3 julio 2021 - 21:04

            La censura es de izquierdas y de derechas, pues es de todos los que están convencidos que poseen la «Verdad Absoluta» y que esa verdad es buena, por lo que hay que abrirla paso entre la gente, si es necesaeio a garrotazos.

  • #008
    Mauricio - 2 julio 2021 - 18:08

    Off topic: Un auto eléctrico Tesla Model S Plaid de 129.000 dólares, calificado por Elon Musk en su presentación como «más rápido que cualquier Porsche y más seguro que cualquier Volvo», estalló en llamas este martes cerca de Filadelfia mientras el propietario conducía, solo tres días después de haberlo recibido. El conductor inicialmente no pudo salir del vehículo porque su sistema electrónico de puertas falló, por lo que tuvo que arrojarse contra la puerta con todo el peso de su cuerpo para poder abrirla.

    La noticia pueden leerla, entre otros sitios, en:

    –> Tesla top-of-range car caught fire while owner was driving, lawyer says
    –> Tesla Model S Plaid caught fire while driver was at the wheel, says fire chief

    • LUA - 2 julio 2021 - 18:15

      Ups…. efectos colaterales asumibles.. diran…

  • #010
    Marcos - 2 julio 2021 - 21:13

    “ Es algo sobre lo que llevo mucho tiempo convencido: la solución a la gran mayoría de las campañas de desinformación en redes sociales va a tener mucho que ver con el desarrollo de algoritmos diseñados específicamente para ello”

    No es una crítica a Enrique, nada más lejos… .

    Creo que el sistema ya da por perdido lo que sería fácilmente educar a una sociedad que tuviera pensamiento crítico, básicamente.

    Es una pena.

    • Enrique Dans - 2 julio 2021 - 21:16

      No creo que estemos dando nada por perdido. Desde el mundo académico se está haciendo mucho por fomentar el pensamiento crítico. Pero como toda solución basada en la educación, no es rápida, y toda ayuda que permita parar a los hijos de perra que diseñan esas campañas de manipulación masiva es poca…

    • Matt - 3 julio 2021 - 01:30

      No me parece a mí que educar a toda la sociedad para que tenga pensamiento crítico, no sea manipulada y no se trague las mentiras y bulos que quiera creerse sea precisamente algo facil. De hecho, jamas ha existido ninguna sociedad así.

      Y me parece bien tomar medidas porque lo de «esto se resuelve educando a la sociedad» que se suele decir me parece equiparable a miss mundo deseando la paz mundial. Cosas muy bonitas y deseables pero que seamos serios, no van a suceder.

      • Marcos - 3 julio 2021 - 11:27

        No creo que sea tan difícil. Lo que pasa es que hay unos 7 mil millones de participantes, claro.

        Sinceramente creo que hay un grave problema con las noticias Fake y el pensamiento crítico. Pero que está estrechamente relacionado con el hecho de que ahora “todo pueda ser interpretable”, de aquella manera.

        Para empezar, la cual siempre he creído que parte fundamentalmente de los gobiernos y los medios de comunicación. Sí siendo poco inocentes, debemos recordar que estos siempre han sido indulgentes con empresas, gobiernos y poderes que les ha venido bien y han maquillado cómo han deseado o deliberadamente han mentido….

        En un mundo en el que la mentira se erige y donde ellos pierden audiencia a todo trapo… podrían haberse hecho figuras de responsabilidad, verdad y rigor.
        De aquellos polvos estos lodos.

        Por otra parte, por muy freak que suene y muy absurdo… ¿no deberían de instaurar sé en nuestro país ligas de debate como aparecen en las películas norteamericanas?
        Primero porque el nivel parlamentario se ve cada miércoles, que está a la altura del barro.
        Segundo, porque si te “toca” defender algo con lo que estás absolutamente en contra quizás llegues a comprender donde, quien defiende ciertas posturas, lo hace con argumentos, creyendo en ello o todo lo contrario y quizás incluso empatizas con dicha postura y la radicalización de posturas también impuesta en la sociedad se podría ir diluyendo.

        Y esto llevaría a un mejor análisis de lo que dice cada una de las partes. Seguro que Enrique, creo que lo ha comentado más de una vez, fomenta la participación en su aula de una manera más que activa.

        ¿Se hace esto en nuestras aulas? ¿A partir de qué edad? Espera ¿cuando llegan al instituto? Bien, es como ese mantra instaurado en la sociedad paterna (y materna) donde se le indica a un hijo que sí “le tocan las narices y le pegan él responda con mayor contundencia, porque así no volverán”.

        Que habrá quien defienda esto, pero ¿es luego cuando les enseñamos a no pegarse? Ósea, primero una cosa, luego la contraria.

        Y no me voy por las ramas aunque lo parezca. Igual deberíamos de pensar en educar en sentido crítico desde el principio, no esperar a que tengan edad suficiente como para discernir si quieren hacerte caso a ti o a su móvil, obviamente.

        Pero creo que aún las aulas antes de llegar al instituto, siguen siendo lo suficientemente mecánicas como para seguir siendo la figura del profesor, la que 20 niños más deben de seguir de manera armonizada todos a una, realizando la misma tarea todos, los mismos ejercicios y tratando el mismo tema concreto. Vaya, parece que es como si una inmensa mayoría fuera llevada por el mismo carril, si habitamos del mundo de los adultos.

        • Gorki - 3 julio 2021 - 17:04

          Cualquier sisitema considera un público con «sentido crítico» como algo muy peligroso. Lo que desearía es un rebaño de mansas ovejas, que van por el camino que les indique el pastor, sin hacerse preguntas.

  • #015
    Javier Lux - 2 julio 2021 - 22:13

    Nada hay que hacer contra la desinformación. Esta existe antes de las redes sociales(RRSS) y los algoritmos de lenguaje natural.

    Quizás las RRSS y los algoritmos hayan hecho la desinformación un poco más poderosa y viral, pero ha existido siempre.

    El estado español es especialmente vulnerable a ese cáncer de la desinformación. Sus estructuras políticas son débiles y rechazadas. Sus medios públicos y privados están desprestigiados por venderse al mejor postor, y lo peor, es que la gente es muy poco autónoma intelectualmente y traga toda la basura.

    Cualquiera que haya trabajado un poco por europa corroborará lo que digo. Conozco una enfermera que trabajo en un pequeño hospital público del norte de francia y alucinaba con las lecturas y TV que los pacientes leían, veían. Allí no había Sálvame y la belén esteban ladrando en las TV de ñas habitaciones del hospital, y las lecturas eran muchas veces libros de historia o novelas frente a la revista hola que se suele ver en los hospitales españoles.

    Una pena. Y así nos va…

    • KOLDO SARRIA - 3 julio 2021 - 14:19

      Efectivamente.

      El grado de nivel cultural de una población es inversamente proporcional a su vulnerabilidad para ser manipulada. Cosas que en España, Portugal o Grecia cuelan, no cuelan en Dinamarca, Alemania o Francia por este motivo.

      Pero no conviene olvidar que es una cuestión de grado, no de blanco o negro. Por tanto, ocurrirá que en esos países más avanzados la manipulación se dará en planos culturales de niveles más altos, porque los más sencillos se dan por sabidos.

      La única constante de esta ecuación es el deseo de manipulación, al que me temo que el ser humano no renunciará jamás.

  • #017
    SIN CENSURA - 3 julio 2021 - 10:03

    «Hasta ahora les han contado las noticias a partir de ahora les contaremos la verdad: los chinos; RT America, Sputnik, etc les manipulan»

    Resumen del MIT a la hora de entrenar una IA

  • #018
    Nicole Dyver - 3 julio 2021 - 15:42

    «Un mundo feliz», los algoritmos controlando la desinformación y propiciando una realidad paralela. Esperemos que no perdamos la facultad de estar, o no, conectados.

  • #019
    Xaquín - 3 julio 2021 - 15:56

    Como dice un comentarista en plan megapesimista, hablamos mucho de «cosas que non van a suceder».

    Pero hablar no cuesta dinero (en internet, por ahora solo la conexión) y las conclusiones suelen estar muy sobrevaloradas. La ciencia se marca unos pasos constantes de afirmación negación, que como dijo el Hegel, no significa otra cosa que la marcha de la Historia Humana. Aprendamos a sobrevivir con conclusiones siempre parciales. Y a repetir, lo que consideramos acertado, las veces que sea necesario.

    Así que nos repetimos : se necesitan más algoritmos mentales propios (en modo filtro, por ejemplo) y menos algoritmos ajenos (del MIT o de quien sean). Fomentar la subvención mental (aplicaciones ajenas) del ser humano, nunca estuvo en los planes de la naturaleza, ¡estoy seguro!

  • #020
    Guillermo - 4 julio 2021 - 10:58

    Las campañas de desinformación con la intención de manipular, llevan años en nuestro día a día y las hemos interiorizado como algo natural.
    Un político opinando del adversario, medios de comunicación y sus noticias diarias, la publicidad, etc etc son jugadores que a menudo juegan a “decirnos la verdad”.
    Que algoritmo limitará toda esta información/desinformación ?

    • Enrique Dans - 4 julio 2021 - 11:15

      Ninguno limitará la «noticia», limitará su difusión a partir de que observe sus patrones de difusión. Si el patrón de difusión refleja, por ejemplo, el uso de bots o de cuentas con unas determinadas características, etiquetará esa noticia como falsa y su difusión como campaña no genuina. Pero no a partir de la naturaleza de la noticia, sino de las características de su difusión.

  • #022
    Luis - 4 julio 2021 - 20:11

    «…El ex director de monetización de Facebook, Tim Kendall, acerca algunas verdades incómodas: “Es preocupante hasta qué punto estamos siendo manipulados sin saberlo”. Los expertos reflexionan sobre cómo los jóvenes deben enfrentarse a unas redes sociales llenas de noticias falsas impulsadas por algoritmos pensados para apuntar al instinto de las personas….» https://www.rtve.es/alacarta/videos/la-noche-tematica/yo-soy-generacion-z/5959319/

  • #023
    JM - 5 julio 2021 - 12:59

    Creo que el problema de este tipo de desarrollos es que sean propietarios, lo que dará lugar a que se utilicen para «censurar» sin que el ciudadano sepa los motivos.

    Sería más apropiado que estos sistemas fuesen de código abierto y cada cual pudiera elegir el que desee utilizar para que este sistema no fuese una censura previa sino una herramienta más a elección del usuario.

Dejar un Comentario

Los comentarios están cerrados