Las noticias y las prisas

Las Vegas strip shooting (IMAGE: Alex Canton)Los terribles sucesos de ayer en Las Vegas, con casi sesenta personas muertas y más de quinientos heridos, volvieron a poner de manifiesto la dificultad de obtener información fiable en la era del llamado information overload.

En las primeras horas tras la tragedia, tanto Google como Facebook se convirtieron en auténticos altavoces para todo tipo de noticias falsas, hipótesis y suposiciones dadas como ciertas sobre la identidad del asesino, rumores sin fundamento, cazas de brujas y foros de más que dudosa credibilidad. Google se encontró con que un error algorítmico había clasificado como fuente fiable nada menos que a 4chan, y se dedicó a distribuir sus noticias a través de Google News y Google Now. Facebook destacó durante bastante tiempo un foro creado nada más ocurrir la noticia por una persona de nula credibilidad, que fue considerado como interesante por su elevado crecimiento y participación. Las disculpas de ambas compañías, muy parecidas, igualmente insatisfactorias y poco menos que «echando la culpa a la máquina», resultan un escaso consuelo. En plena era de la hiperconexión y la velocidad, informarse adecuadamente empieza a resultar una tarea cada vez más compleja.

Las prisas, en efecto, no son buenas consejeras. Pero cuando una noticia toma un elevado protagonismo y lo que está en juego, además del deber de informar, es la posibilidad de derivar interesantes flujos de ingresos por publicidad, las estrategias pueden convertirse en muy peligrosas. Como en el caso de las inserciones publicitarias en Facebook durante la campaña electoral, la respuesta podría estar en un mayor nivel de supervisión humana al menos mientras los algoritmos son entrenados adecuadamente, pero no está claro que los patrones de difusión de las noticias de última hora respondan a patrones repetitivos que permitan que esos algoritmos lleguen, en realidad, a proporcionar una respuesta. En cada noticia, los posibles actores y el cúmulo de intereses en torno a la difusión de un hecho falso pueden ser ampliamente diferentes, las fuentes pueden ser de todo tipo y sin que necesariamente tengan credenciales anteriores que chequear (podría ser simplemente un testigo de los hechos con un smartphone) y parece complicado que un algoritmo llegue a tener la capacidad de discernir adecuadamente.

Cada pocos minutos, echamos mano de nuestro smartphone para ver Facebook o nos encontramos con noticias en Google Now. Sin embargo, ninguno de esos servicios posee periodistas preparados para escribir, editar o evaluar las noticias que difunden, y se basan fundamentalmente en algoritmos que inspeccionan y clasifican las generadas por terceros. Eso podría generar una forma de informarse más plural y poliédrica, pero en la práctica, se convierte en un infierno de noticias falsas y sensacionalistas cuya visibilidad crece en una especie de bucle sin fin, sin que nadie se responsabilice por ello, hasta que un humano con dos dedos de frente interviene. No hablamos de un hecho aislado: en cada noticia reciente considerada suficientemente importante para ello, el fenómeno vuelve a tener lugar, y nos enfrenta de nuevo con el problema. Crear una noticia falsa, sea un tiburón photoshoppeado nadando en una autopista o una persona ensangrentada que en realidad hace varios años que fue golpeada, es algo que hoy está al alcance de cualquiera, como lo está el publicarlo mediante redes sociales o el contribuir a difundirlo con un retweet o un share tras poner cara de sorpresa. En la era de la velocidad, el juicio crítico parece estar en desuso.

¿Puede un algoritmo desarrollar juicio crítico, al menos para eliminar aquellas noticias que nunca habrían pasado la supervisión de un periodista con algo de oficio? ¿O la solución está necesariamente en fichar hordas de verificadores para todo?

 

 

 

This post is also available in English in my Medium page, “Hold the front page!» 

 

12 comentarios

  • #001
    Luis Hernández - 3 octubre 2017 - 09:56

    Un algoritmo probablemente puede avisar sin problemas de que una imagen ha sido manipulada o de la fecha en que fué publicada por primera vez, pero muy probablemente siempre habrá quien consiga sortearlo y colar una foto falsa.
    Así que probablemente la solución pasa por un primer filtro automático que descarte lo más burdo y un segundo filtro manual.
    Además se me ocurre:
    -Retener los beneficios por publicidad a publicaciones manifiestamente falsas.
    -Dar mayor visibilidad a noticias que cuenten con referencias o un autor con credibilidad ganada previamente.
    -Potenciar conceptos como el «Author Rank» de Google.
    -Facilitar un sistema de denuncia de «noticias falsas».
    -Crear un distintivo de «noticia contrastada» o puntuación especifíca segun credibilidad otorgada.

  • #002
    Gorki - 3 octubre 2017 - 11:40

    Yo creo que al menos de momento, la cosa no tiene solución, Deberemos entender que las noticias que nos llegan por Internet, son simples rumores sin confirmar que corren por la red. Como antes eran los rumores que nos llegaban por nuestra red social física.

    Me ha dicho un amigo, que tiene un amigo, que tiene un primo en el ministerio de la vivienda,que el precio de el cemento va a subir,. — ¿Ah, si?, …. bueno.

    . .

  • #003
    Pedro - 3 octubre 2017 - 15:40

    Por ahora no tiene solución, se propagan más los bulos que las verdaderas noticias.

    Hay interés en que esto sea así, y no hay algoritmo que pueda pararlo. Al menos de momento.

    Como a Facebook -por ejemplo- le harían falta casi tantas personas verificando como personas tengan perfil creado, es imposible hacerlo de forma manual.

    El verdadero problema es que si empieza a propagarse una foto falsa, los que la están propagando no atienden a razones: esa foto es para ellos dogma de fe, siguen y siguen enviando esa foto como si fuera verdad.

    ¿Podrá un algoritmo aprender a discernir esa foto falsa que tanto se propaga, de otra verdadera? Si el algoritmo se basa, precisamente y entre otras cosas, en la velocidad a la que se propaga, difícilmente podrá calificarla como falsa.

  • #004
    JJ - 3 octubre 2017 - 15:52

    Creo que en redes sociales hacen falta hordas de verifiadores. Se trata de empresas muy grandes, importantes e influyentes y tienen que invertir también en responsabilidad si no quieren, a la larga, hundirse en el fango.

    En cuanto a los algoritmos, pueden mejorar bastante. Es necesario que cuando una noticia toma notoriedad y llega a un cierto volumen, que se verifique su procedencia, y si la fuente es desconocida o poco fiable, que se advierta claramente sobre ello. De esa forma, ni la gente ni los medios se harán eco masivamente frente a una noticia o imagen poco fiable, y así el problema de la desinformación se reduciría bastante.

    Con los buscadores, hay que tener en cuenta que el criterio que deben seguir para seleccionar una noticia no puede ser puramente «democrático», pues cualquier mentira sensacionalista puede llamar mas la atención que una noticia verídica despertando gran interés, y esto hay que evitarlo.

    • JJ - 3 octubre 2017 - 17:57

      Olvidé algo. Aparte de las «hordas de verificadores» sin más hacen falta expertos en comunicación y en información; sociólogos y periodistas con experiencia.

  • #006
    Gorki - 3 octubre 2017 - 16:08

    También creo que cada palo debe aguantar su vela. Si yo sigo a Mendez en Facebook y Mendez es un idiota integral, la culpa de que reciba lo que Mendez me mande, no es tanto de Facebook como mía. ¿Por qué motivo ha de ponerse Facebook, a evaluar si lo que envía Mendez, es una idiotez o no? ¿Solo porque es una empresa RICA?

  • #007
    Daniel Terán - 3 octubre 2017 - 16:41

    Con las fotos es terrible. Al menos los vídeos reducen bastante la incertidumbre pero una foto puede ser cualquier cosa: tomada en otra fecha, otro lugar, bajo otras circustancias, fácilmente manipulable … Pero a la gente le muestras lo que quieren que les muestres y enseguida disparan desde la cintura. Tardaremos mucho en desarrollar esa habilidad para contrastar noticias.

  • #008
    Santi Martínez Rodríguez - 3 octubre 2017 - 21:01

    Cada vez que se habla de la supuesta destrucción de empleo causada por la robótica y el «machine learning» se suele decir que se crearán nuevos tipos de trabajos que ahora ni imaginamos.

    Puede que uno de esos nuevos trabajos sea el de «fact checker». Un trabajo así requeriría conocimientos de periodismo (enfocado más en la investigación que en la redacción) y puede que de informática para detectar imágenes manipuladas o recicladas (por ejemplo descubrir mediante la información EXIF que una foto es vieja).

    Algo así no se puede dejar en manos de colaboradores voluntarios (como hace Google con Maps o la app de Colaboraciones), puesto que la gente con intereses personales empeorarían las cosas. Hacen falta trabajadores que sepan que pueden ser despedidos si dan noticias falsas por buenas.

  • #009
    Gorki - 4 octubre 2017 - 01:07

    Por este camino terminamos montando el Ministerio de la Verdad, y antes de sacar algo por Internet, un Twit, un mensaje por WhatsApp, un comentario en Facebook, una iimagen en Instagram digo nada de un post en WordPress, , tendremos que ir a una ventanilla digital , a que nos pongan el sello de «nihil obstat», «no existe impedimento para que sea digitalizado»

    Francamente prefiero que de vez en cuando me engañen, que unos señoritos, Dios sabe con que criterio, decidan que esto se puede publicar y esto no.

  • #010
    Guillem Comí - 4 octubre 2017 - 09:30

    Sin parecer demasiado «Nietzschiano» ni irónico… no sé si llegaremos a tener alguna día Inteligencia Artificial, teniendo en cuenta desarrollada por los humanos y poca inteligencia hallo en ellos…

    Sobre este caso concreto, el algoritmo que usamos nosotros para decidir si algo es cierto o falso, la primera pregunta que nos hacemos es: ¿quien lo dice? A partir de esto ya podemos descartar un 60-70% de noticias. Para ello solo hay que clasificar sitios (posible) y gente (la gente se opondría, obviamente).

    Lo segundo que hacemos, es discernir si este hecho lo dice mucha gente. Cosa que también sería fácil de implementar. Así ya descartamos, junto con el anterior paso, un 80%.

    Lo tercero, investigar los hechos. Aquí es donde aparece la complicación de la IA. Y para este caso concreto es imprescindible el machine learning. Entonces, si Google y Facebook no tienen capacidad para desarrollarlo, ya me dirás quien.

    En resumen, creo que si Google y Facebook no ponen de verdad cartas en el asunto es, probablemente, porqué les interesa que sea así. O esto, o el machine learning no está tan avanzado como nos venden…

  • #011
    luis - 4 octubre 2017 - 11:04

    Periodismo ciudadano + maqina = 95% basura

  • #012
    Xaquín - 4 octubre 2017 - 18:28

    Creo que le pillé a Gorki algun consejo útil: huir del rumor (incluso del amigo de un amigo) y huir de los amigos gilipollas. Y que conste que eso no lo inventó Gorki sino la madre normal de todo individuo normal (también se dice el sentido común).

    Y como siempre: educación. Partir del socrático dictamen y andar con tiento, especialmente mirar donde te «educas», porque sitios hai muchos, pero la mayoría de los lugares realmente efectivos no son centros «normalizados» como educativos (o por lomenos, no en las horas más formalizadas!).

    Tenemos que conseguir que internet (como siempre fue «la calle»), sea un complemento esencial del proceso educativo. Pero si esperamos sentados, vamos dados!

Dejar un Comentario a Gorki

Los comentarios están cerrados