Algoritmos y sensacionalismos

IMAGE: Alan Cotton - 123RFEs un tema que lleva coleando desde que Larry Page y Sergey Brin tuvieron la idea de, adaptando originalmente el sistema de cuantificación de citas del mundo académico o citation index, desarrollar un motor de búsqueda basado en la relevancia social, en lo que otros decían sobre nuestra página medido en función de sus enlaces hacia ella.

Con su algoritmo, Google solucionó el principal problema que los motores de búsqueda tenían anteriormente, el de tener algoritmos basados en el contenido que resultaban fácilmente manipulables por los propietarios de las páginas, pero falló en un tema fundamental: en la diferenciación entre páginas que obtenían muchos enlaces porque eran objetivamente buenas, y aquellas que los recibían porque eran fundamentalmente sensacionalistas.

El sensacionalismo es, sin duda, un mal de nuestro tiempo. Obtener atención mediante el recurso al escándalo, a llamar la atención a cualquier precio, a condicionar cualquier valor otorgado a la verdad o a la objetividad a la obtención de más atención es algo que lleva mucho tiempo haciéndose, y con resultados indudablemente positivos para quien lo practica. Las sociedades humanas muestran, en muchos casos, tanta o más avidez por el escándalo o por el cotilleo como lo pueden mostrar por la veracidad o la objetividad. En la web, hemos vivido exactamente lo mismo: desde un algoritmo que originalmente primaba aquellos sitios que eran más enlazados con una palabra o palabras determinadas, algoritmo que va siendo progresivamente revisado para incluir a las redes sociales como indicadoras, sobre todo, de la relevancia instantánea o inmediata (que tardaba tradicionalmente más tiempo en reflejarse en forma de enlaces), hasta ver la prostitución del mismo por parte de todo tipo de click-baiters y de «pornógrafos de la atención» que millones de usuarios circulan en función de lo escandaloso o intrigante de su título, o simplemente de paginas que divulgan mentiras grandilocuentes y conspiranoicas, pero que igualmente obtienen enlaces, aunque sean negativos y con objeto de denunciarlas. En la web, y con la algoritmia tradicional, la adaptación de aquella frase de Oscar Wilde tenía muchísima razón: lo importante era que hablasen de uno, aunque fuese mal (la frase original decía «hay solamente una cosa en el mundo peor que el que hablen de ti, y es que no hablen de ti»)

Ahora, Google parece lanzarse a un interesante intento de cambio en su algoritmo que pretende buscar criterios diferentes. Durante más de dieciséis años, nadie ha sido capaz de enfrentarse a Google con un principio que no fuese otro más que el tratar de perfeccionar sus propias reglas, sobre todo la que decía que la mejor manera de medir la relevancia de algo era la vía social, la de analizar qué decían otros sobre ello. Ahora, la tecnología empieza a permitir un nivel de cualificación superior: podemos aplicar análisis semántico a los textos de los enlaces o al contexto que los rodea para diferenciar «enlaces positivos» de «negativos» o «neutros», y podemos medir otras cuestiones como el clickthrough, o el rebote, para evaluar si la reacción de quien aterriza en un contenido es la de consumirlo o la de salir corriendo (o simplemente, no hacer clic aunque te lo pongan delante de la nariz, porque entiendes que no es más que clickbait, carnaza diseñada para obtener el clic a toda costa).

Estamos hablando de un cambio que puede afectar al desarrollo de toda la web en su conjunto, y que nos lleva a pensar en las posibles implicaciones de que sea una empresa, en este caso Google, la que tenga la clave de «las cosas que son verdad y las que no». Si Google obtuvo lo que obtuvo con un simple algoritmo cuando no era más que una startup creada por dos universitarios, el posible impacto de un cambio tan dramático en su algoritmo – afectaría a la introducción de nuevas métricas entre los primeros criterios, los de más peso en la indexación – podría tener un alcance potencialmente enorme. Ya no se trataría de obtener enlaces, retweets y compartidos a toda costa, sino de primar la calidad, el enlace con contexto, la métrica que privilegia un consumo de calidad. Según los expertos, con la limitada validez que puede tener la observación de quienes tratan de hacer ingeniería inversa del algoritmo de Google en función de metodologías de diversos tipos, el algoritmo ya ha empezado a cambiar, y hemos pasado de la versión de 2013, que privilegiaba intensamente la compartición en redes sociales, a uno en 2014 que introduce en la cúspide métricas como el clickthrough rate.

Pero todo esto, lógicamente, no es sencillo, y por el momento no hablamos de trabajo conseguido, sino simplemente del ideal buscado. Lo que sí conviene ir pensando es de qué manera afectará a nuestra compañía un cambio así, y qué posibles efecto notaremos una vez que empiece a aplicarse. Pero intereses propios o ajenos aparte… el tema es para dedicarle, cuando menos, una pensadita.

 

This article is also available in English in my Medium page, “Algorithms and sensationalisms«

8 comentarios

  • #001
    Soy SEO - 9 marzo 2015 - 14:11

    Google está, cuando menos, a 2 o 3 años de cualquiera de sus competidores en buscadores. Nadie como Google ha sido capaz de crear un buscador con 2 elementos que no son ningún secreto:

    – Ponderar los links + anchortext de forma rápida, precisa y justa.
    – Luchar contra el spam en los SERPs; en el TOP10 es prácticamente invisible.

    Esto les da una ventaja extraordinaria para AÑADIR más criterios a su constantemente mutable algoritmo, que no sustituir. Creo que sería un grave error el cambiar la base de su algoritmo, y que toda mejora de su motor y mantenimiento de liderazgo, vendrá por sumar variables, sin alejarse del Page Rank basado en links + anchortext, como hace ahora con el valor extra a webs con diseño responsive, por ejem.

  • #002
    Pedro Torres - 9 marzo 2015 - 14:40

    Acabo de hacer la misma búsqueda en Google y DuckDuckGo. Un termino generico, 2 palabras que definen nuestro negocio.

    En DuckDuckGo aparecemos los 6º y el Google voy por la 6ª página y seguimos sin aparecer.

    Me da que o google nos castiga por insistir el necio del hijo del jefe en pagar a tercerso por un posicionamiento artificial, o Google nos castiga porque ya no nos gastamos una pasta en addwords.

    Llevo tiempo usando DuckDuckGo y es la primera vez que veo una diferencia tan grande.

    Todo webmaster se preocupa del posicionamiento de su web en los buscadores y manda huevos que donde nunca hemos pagado salgamos los 6º.

    Google used to be GOOD.

  • #003
    Observador - 9 marzo 2015 - 15:06

    #003 Pedro, yo, que soy el más «neoludita» de este blog (según algunos sujetos), y que odio que Google pague sus ingresos en países que no toca, te puedo asegurar que su posicionamiento natural parece no tener que ver con la inversión en Adwords (es decir, yo no he encontrado todavía una relación directa en los experimentos que hice en su momento). Si fuera así yo ya lo habría dicho aquí unas cuantas veces, a diferencia de otros. En ese sentido, Google parece preocuparse de la calidad de las búsquedas, al menos hasta donde sabe (aunque el del contenido, como es el caso de Amazon, le importe una mierda pinchada en un palo y que además ofrezca las puertas directas a todo tipo de historias que no deberían existir).

    Otra cosa es que intentéis manipular su algoritmo de forma artificial y que os mande todo su zoológico para evitarlo. También es posible que un buscador como Duck esté dándole trascendencia a algo que el otro considera «menor», por eso la diferencia.

    Yo voto por lo del hijo del jefe. Sobre todo si estáis en España.

  • #004
    Antonio Gregorio Montes - 9 marzo 2015 - 15:46

    Dices que falló con el sensacionalismo. Me pregunto si querían fallar. Al fin, ‘la gente va en búsqueda de sensaciones’…

  • #005
    Antonio Castro - 9 marzo 2015 - 18:09

    Google lo que persigue es maximizar sus propios resultados. Sus algoritmos no pretenden ser objetivos. Pretenden ser eficaces para los intereses que se persiguen sean cuales sean estos. Seguramente publicar cosas novedosas originales y de interés para mucha gente tenga su premio. Es natural, a Google no le interesa ofrecer basura, salvo que esa basura tenga algún interés especial para la propia Google.

    Los blogs se pusieron de moda porque tenían algo interesantísimo para el propio buscador. Resultaba muy fácil priorizar una pequeña parte de aquellos enormes contenidos buscando simplemente por fecha. Se priorizó los contenidos de actualidad frente a los contenidos de calidad y eso convirtío Internet en algo mucho más ligero y tratable. Ya no era como beber a morro en una boca de incendios.

    ¿Sigue teniendo Google el mismo interés por los contenidos de actualidad? Yo creo que sí, pero creo que se están abriendo otros espacios que interesan a Google y que compiten con los contenidos de actualidad.

    A mí me está interesando la oferta de los videotutoriales. Claramente no son contenidos de actualidad y tienen mucho éxito. Algunos tienen un millón de visualizaciones y hay una enorme cantidad de ellos y muchos de ellos incluyen publicidad que deja beneficio a Google.

    ¿Qué beneficio deja a Google un buen Blog como el de Enrique Dans? Yo creo que ninguno.

  • #006
    Observador - 9 marzo 2015 - 22:42

    #005 Sinceramente, Antonio, espero que no estés confundiendo calidad en una búsqueda y su resultado (Google) con la calidad del contenido (conjunto de palabras que más o menos dispuestas en cierto orden generan información), porque no tienen absolutamente nada que ver.

    Efectivamente, se empieza a vislumbrar lo que nos «neoluditas» más observadoriles pronosticábamos: Google juega a su favor con que el usuario promedio es un vago absoluto que se ha acostumbrado a que se lo den todo hecho. A ese usuario le da exactamente igual la calidad de algo. Si busca información sobre un dolor en la campanilla y encuentra un blog en el que un mexicano un buen día se levantó pensando que con cuatro palabras podía igualar la información de un médico, al usuario eso le da igual porque es un absoluto ignorante en la materia. De la misma forma, si alguien busca información sobre economía y se encuentra con el blog de un tecnólogo que cree ser Keynes, Beccaria o Kelsen tampoco le importa la diferencia. Al final todo es cuestión de letras. Porque para muchos, como ya ha quedado comprobado, una canción de cumpleaños y la novena de Bethoveen son lo mismo porque todo es música.

  • #007
    Pedro Torres - 10 marzo 2015 - 10:43

    #003 Hola observador, estamos preparando un escrito a Google. En Bing y Yahoo tambien aparecemos en la primera página, con términos que definen la especialización de nuestro negocio. No hay por donde cogerlo, es un desastre para nuestros clientes que usen Google y para nosotros como clientes de Google Addwords.

    A veces he comentado ese modelo de «ciclo de la empresa», donde hay dos fases, primero la ilusión por crear y luego lo aburridos hombres negros que ordeñan la vaca durante el declive. Un modelo que uso para entender porque no va a haber empresas de 1000 años.

  • #008
    Observador - 10 marzo 2015 - 19:19

    #007 Es muy posible que os hayan enviado a toda su cohorte de animales para evitar la sobreoptimización de vuestro site. Hay algo que no estáis cumpliendo en el algoritmo googleniano. Mandarle un escrito a Google es como enviarlo directamente a la basura: no tienen personal suficiente para responder más allá de que pongas dinero en Adwords (para eso sí, obviamente). Pero que en realidad Google sea la mayor agencia de publicidad del mundo, por encima de un buscador, no significa que no estén haciendo el trabajo para el que fue concebido.

    Ese modelo del que hablas es el mismo desde hace décadas. Está el creativo, el inventor, el desarrollador (1) y luego la persona que pone el dinero y se encarga de explotar el tema (2). Pero no caigas en el cinismo, el segundo también es necesario para que (1) pueda funcionar (sobre lo cual aquí no tienen ni puta idea, como era de esperar y piensan que convirtiéndose (1) en una orquesta podrá mantener calidad y sostenibilidad.

    El problema se da cuando el segundo es un gilipollas y cree que puede hacer lo que el primero. Entonces es cuando aparecen los problemas. Y eso, en un lugar donde los gilipollas crecen como las setas, es estadísticamente más probable.

Dejar un Comentario

Los comentarios están cerrados