Redes sociales y líneas editoriales

IMAGE: Mipan - 123RFSiguiendo al debate sobre la pregunta que algunos trabajadores de Facebook dirigieron a Mark Zuckerberg sobre la responsabilidad que tenían como compañía a la hora de evitar una presidencia de Donald Trump, un artículo en Gizmodo, Former Facebook workers: we routinely suppressed conservative news, da voz a algunos ex-trabajadores freelance de la compañía dedicados a la función de editorialización de noticias (news curation), que afirman que del mismo modo en que se les instruía para que noticias referidas a la propia Facebook no apareciesen en los trending topics, también se dedicaban a eliminar de los mismos noticias con marcado tinte conservador.

La reacción de Facebook ha sido inmediata: además de afirmar que la compañía no permite la supresión de ninguna perspectiva política, asegura que se toma las alegaciones de sesgo de manera muy seria, y publica una entrada de Tom Stocky, responsable de los trending topics, en la que intenta dejar claro que las alegaciones anónimas son falsas y que nadie en su equipo se ha dedicado nunca a nada que no sea auditar los temas que emergen del algoritmo para incluir en la lista aquellos que reflejen eventos reales, eliminando simplemente “basura, temas duplicados, hoaxes, o temas con fuentes insuficientes”, que su herramienta no permite la discriminación de noticias por su color ideológico, que todas sus acciones son sistemáticamente registradas y revisadas, y que cualquier violación de estas normas constituiría una falta castigada con el despido. 

Las alegaciones de sesgo en la selección de los trending topics han sido una cuestión habitual en todas las redes sociales. El desarrollo de los algoritmos implicados en la detección y selección de esas temáticas es bastante mas compleja de lo que parece, y por lo general, suele responder no solo al número de menciones sin más, sino a factores como el crecimiento de las mismas en el tiempo o a su dispersión geográfica, entre otros. En los medios tradicionales, el concepto de línea editorial está perfectamente aceptado, es parte de la identidad de la cabecera, se consolida a lo largo del tiempo, y es una de las razones por las que los lectores tienden a preferir informarse en un medio u otro.

Las redes sociales, sin embargo, han intentado desde un principio responder a los gustos e intereses de la totalidad de la base de usuarios, sin reconocer en ningún momento sesgos que pudiesen hacer que aquellos más próximos a uno u otro lado del espectro político pudiesen llegar a sentirse incómodos. El color de las noticias que vemos en nuestros timelines está algorítmicamente condicionado, se supone, por las acciones de aquellos a los que seguimos, como lo está también la selección de los trending topics. Pero es en este desarrollo algorítmico precisamente donde surge el problema: dado que los algoritmos no pueden ser completamente transparentes supuestamente para evitar una explotación interesada, toda diferencia entre lo que una persona ve y lo que querría realmente ver en ellos en función de su sesgo personal es fácilmente etiquetada como manipulación.

¿Existe manipulación en los trending topics de Facebook? Parece difícil llegar a saberlo, y en caso de existir, podría provenir de líneas marcadas institucionalmente, o de procesos no oficiales llevados a cabo por trabajadores individuales afectados por el desarrollo de un clima determinado, algo que sucede de manera natural en algunas organizaciones. Parece claro que aunque las compañías de Silicon Valley no discriminen de facto a sus trabajadores en función de su pensamiento político, pueden tender a atraer de una manera más acusada a personas con inclinaciones más progresistas, menos conservadoras o con una afinidad mayor por los cambios sociales, un sesgo que podría terminar reflejándose en procesos como la selección de noticias si se permite que esta se desarrolle de manera claramente manual. De hecho, en la mayoría de los entornos de noticias con un mínimo de calidad que conozco, la línea editorial no se expresa de manera directa, sino que responde más bien a procesos sociales que determinan un cierto “clima general” que termina condicionándola.

Para Facebook, empeñada desde hace algún tiempo en sacudirse el componente más “frívolo” de lo que consideramos una red social para pasar a ser ese lugar en el que nos informamos, en el que leemos las noticias que comparte nuestro entorno o en el que vemos vídeos generados y compartidos por aquellos que conforman nuestro panorama informativo, las acusaciones de sesgo son enormemente graves. A partir del momento en que te sientas encima de una pirámide que puede ver los intereses de mil seiscientos millones de personas en todo el mundo, la tentación de tratar de influir sobre su pensamiento puede llegar a ser enorme, y de hecho, se ha expresado anteriormente en experimentos A/B que fueron considerados manipulaciones psicológicas de sus usuarios, y que generaron un cierto rechazo. Como suele decirse, un gran poder conlleva una gran responsabilidad, y Facebook tendrá ahora que esforzarse por demostrar de manera fehaciente que no está utilizando su posición para editorializar las noticias que los usuarios ven en sus timelines o en sus trending topics, so pena de generar dudas sobre el nivel de manipulación que pretende ejercer sobre ellos.

Quien controla la red, puede controlar el mundo, sí. Pero antes de imaginarnos a Mark Zuckerberg acariciando su gato mientras quita y pone gobiernos, habrá que tratar de averiguar si las fuentes anónimas consultadas para el artículo Gizmodo responden en base a procesos establecidos de manera intencional para generar una línea editorial, o simplemente a sesgos personales o, incluso, a un malestar con una compañía para la que, presuntamente, ya no trabajan. Habrá que estimar si la parte manual de esos procesos permite, en efecto, que se lleven a cabo procesos de manipulación en función de un clima de opinión o unas tendencias mayoritarias determinadas en la compañía. Y habrá que auditar cuidadosamente los archivos de noticias descartadas para detectar si realmente se produjo, por la razón que sea, algún tipo de ocultación.

Facebook se encuentra ahora en una posición de crisis comunicativa complicada: como la mujer del César, no solo tiene que ser honesta, sino además, parecerlo. No parece una discusión que se pueda o se deba dejar pasar, o que llegue a generar un cierto poso de duda. Veremos la reacción.

 

ACTUALIZACIÓN: ya tenemos una primera reacción, y por la tremenda: una comisión del Senado norteamericano preguntará específicamente a Facebook por los detalles del funcionamiento del algoritmo de sus trending topics.

 

This article is also available in English in my Medium page, “Does Facebook have an editorial line?”

 

9 comentarios

  • #001
    Juan - 10 mayo 2016 - 10:43

    La frase: “basura, temas duplicados, hoaxes, or subjects with insufficient sources” esconde un punto de partida sobre la realidad, lógico por otro lado y dentro de lo que se debería de esperar de un trabajador de una gran empresa, pero que en si mismo podría considerarse como una ideología política.

    Sin entrar posibles sesgos cognitivos que serían de los más normales, la petición expresa de evidencia (fuentes) limita de forma muy importante que información es bien recibida y cual no.

    Este tema ha sido extensamente tratado en los debates de la propia Wikipedia, donde la elección de que fuentes eran aceptadas y cuales no a supuesto innumerables quebraderos de cabeza. En algunos casos creando gran controversia al elegir medios occidentales como fuente fidedigna para artículos sobre oriente medio, mientras que prensa o artículos académicos locales eran marginados, para el malestar de los wikipedistas autóctonos.

    Volviendo a los sesgos, teniendo en cuenta la importante disparidad ideológica de las actuales campañas presidenciales norteamericanas, no sería de extrañar que ciertas noticias fueran eliminadas por su escasa calidad periodística o su ausencia de fuentes, ocultando un importante prejuicio ideológico y exigiendo unos estándares de calidad que no hubieran sido exigidos si la noticia fuera de otro color.

    En SMBC justamente ayer, hablaban del tema con su particular humor: http://www.smbc-comics.com/index.php?id=4105

    • Enrique Dans - 10 mayo 2016 - 10:49

      Gracias por recordarme que se me había olvidado terminar de traducir la frasecita! ;-)

  • #003
    Jose Antonio Garcia - 10 mayo 2016 - 10:58

    Prueba Número 1: teclear “censura Facebook” en Google. Número Resultados: 12.5M
    Prueba Número 2: teclear “insultos de Donald Trump” 300,000 resultados

    Decir que Facebook es una fuente no dirijida de noticias es como creer en la imparcialidad de un periódico o de este blog. ¿Es malo ser parcial? mi opinión es que no. Lo mejor es informarse en distintos medios y aplicar tu propio pensamiento crítico. Me disgusta cuando una noticia no es firmada por un periodista, y se trata la información como una copia impresa de agencia.
    Tomar una red social como ún medio informativo es olvidar que es una red social. Salvando las distancias antes de internet estaba el patio de vecinas y se llamaba cotilleo…
    La diferencia entre un ciudadano y un súbdito es que el primero lee varios diarios y el segundo es feliz en su ignorancia. Viva en Corea del Norte o del Sur…

  • #004
    menestro - 10 mayo 2016 - 11:03

    Me temo que es sencillamente lo que se suele denominar un FUD “por parte interesada”. Hasta ahora, sólo lo ha denunciado un único trabajador, en base a alegaciones anteriores de un partido conservador así que, hasta que no exista una segunda fuente, habría que tomarlo con pinzas.

    Las redes sociales no son medios de comunicación, ni creo que exista ninguna intencionalidad política. Lo que sí es cierto es que en la actualidad, con Internet, la línea editorial la decide el usuario a su medida, y eso es lo que hacen los algoritmos al seleccionar noticias. No puede ser de otro modo.

    El descartar noticias espurias o sin relevancia de forma manual, solo es un reflejo de la escasa calidad de los algoritmos de Facebook, más que de una consigna política, en una empresa con decenas de miles de trabajadores.

    Y no es casualidad que suceda en periodo de elecciones en EE.UU.

    Que se descarten temas o fuentes, de uno u otro signo, es casi inevitable cuando se trata de evitar duplicados o temas que cumplan un criterio de calidad.

    La suspicacia y la desconfianza hacia las compañías que manejan información, y que han llegado a democratizarla hasta el punto de poner en serios apuros a los políticos y los medios tradicionales, son pasto abonado para la rumorología y la siembra de la incertidumbre.

    Si algo ha logrado Internet, es precisamente poner la información a alcance de todos, sin barreras, ni cortapisas de índole político.

    Solo hay que recordar, que el único Impeachment reciente de un presidente de EE.UU, Bill Clinton, se produjo a causa de la información de una publicación digital, The Drudge Report, después de ser descartada por Newsweek.

    La Caza del zorro en las compañías de Internet, es bastante fiel a como la describía la frase de Oscar Wilde; “Lo indescriptible en persecución de lo incomestible”.

    Fear, uncertainty and doubt – Wikipedia.es

    Original Drudge Reports Of Monica Lewinsky Scandal

  • #005
    Gorki - 10 mayo 2016 - 16:48

    ¡ Qué dilema ! No se qué me da más miedo, que salga elegido Donald Trump, o que Facebook sea quien decida lo que debemos saber y lo que conviene ocultarnos…

  • #006
    xaquin - 10 mayo 2016 - 23:25

    Partiendo de la base de considerar incomestible al amigo Trump, quiero señalar que prefiero la indescriptible libertad de las redes sociales ( siempre tendremos algún hacker a mano) que la antidemocrática cerrazón del aspirante a ser elegido ( entre otras cosas por el significado de su elección!).

  • #007
    José Enrique - 11 mayo 2016 - 00:16

    Yo llamaría la atención sobre un concepto que Enrique ha desenredado y que creo que ha dado en el clavo.

    Como no se puede hacer público el algoritmo para evitar que los SEOs se aprovechen de ello, la diferencia entre lo que veo y lo que podría ver y me gustase más se puede entender como manipulación.

    Para desactivar esto, lo que hay que justificar es esa diferencia: ¿por qué existe?

    En mi opinión, la diferencia entre lo que veo y lo que podría ver es que el algoritmo me “iguala” a los referentes (los amigos y los amigos de los amigos que han interactuado sobre tal o cual noticia) en lugar de tratar de “distinguirme” de ellos… y eso es, creo, por 2 razones, principalmente:

    1ª Lo tiene fastidiado para saber que es lo que quiero ver en realidad… y más todavía para saber que es lo que quiero ver ahora o lo que querré ver mañana

    2ª También lo tiene fastidiado para saber qué es lo que, en realidad, me está enseñando y qué me podría enseñar…

    No es que el algoritmo sea una mierda… que puede que sí. En realidad, creo que facebook lo hace bastante bien en eso.

    Pero si me sale una foto de un gato en mi timeline no es porque me gusten los gatos (los odio) sino porque el post con id 624143827752097 ha sido compartido/megustado/visto/ por x amigos míos, y personas de mi entorno, z compañeros de colegio.

    Dudo mucho que el algoritmo tenga ni la más mínima idea de qué es 624143827752097… ni creo que le importe.

  • #008
    xxx - 16 mayo 2016 - 23:40

    Actualmente las redes sociales no son más que bases de datos bestiales donde almacenan vete tu a saber que, pero desde luego saben más de nosotros que nuestras propias familias.
    Me da mucho miedo pensar que pueden hacer redes sociales como facebook con nuestros datos dentro de unos años.

  • #009
    Robert Portela - 25 mayo 2016 - 22:28

    En respuesta a lo que comenta el amigo Jose Enrique, bajo mi punto de vista hacer público el algoritmo podría poner punto y final no solo al SEO, sino a la web tal y como la conocemos hoy en día.

    Sin duda, generaría una especie de “Gran Guerra versión 2.0”

    Ahora bien, más allá de estas consideraciones, por desgracia las redes sociales están imitando las malas prácticas de la humanidad del mundo offline.

    Esto es así en ambos lados: por parte de los usuarios, creando guerras mediáticas y por parte de los propietarios de las plataformas sociales, no teniendo una política igualitaria en todos los casos.

Dejar un Comentario

Los comentarios están cerrados