Adiós al PageRank

PageRankEl anuncio de Google de volver el PageRank a su naturaleza de métrica interna de la compañía, en lugar de ser una magnitud que podía ser observada por cualquiera, exhibida en una amplia variedad de herramientas o consultada mediante una API pública, debería llevarnos a pensar en las consecuencias de este tipo de medidas de relevancia y las formas de manejarse en una web caracterizada por una brutal sobreabundancia de información.

El PageRank nació como elemento fundamental que dio origen a Google. La idea, original de Larry Page y que lleva su nombre, respondía a una modificación de algo que el fundador veía de manera constante durante su período de estudiante doctoral: el citation index que, en el mundo académico, identifica a los autores más relevantes. El PageRank suponía, en realidad, la traslación prácticamente exacta de la idea de ese índice científico: si en el mundo académico, para saber si un paper determinado es relevante o no, consultamos cuántos otros autores lo citan en su bibliografía y, a su vez, cuál el la importancia relativa de cada uno de los que lo citan, en la web podíamos aplicar lo mismo para atribuir a una página una idea de relevancia.

A partir de esa idea original y tan aparentemente simple, el PageRank se convirtió en una manera de alejar la métrica de relevancia de las sucias manos de unos webmasters que, si podían influirla directamente, la iban invariablemente a contaminar. En efecto, mientras las métricas estuvieron basadas en criterios presentes en la página, el deterioro de los motores de búsqueda fue constante: spam con las palabras clave más buscadas, intentos de esconder absurdamente términos dentro de la página para que los motores de búsqueda los viesen pero los usuarios no, y mil perversiones más. La llegada del PageRank convirtió la manipulación en una tarea indudablemente más compleja, inventó toda una industria millonaria – el SEO – y, al introducir en sus criterios los enlaces provenientes de las redes sociales, tapizó las páginas web de pegatinas de «comparte eso en todas las redes que puedas», al tiempo que daba lugar a toda una obsesión por el sensacionalismo y el clickbait. Curiosamente, nunca pudimos decir que no se viese venir: si conviertes en métrica sacrosanta el número de veces que otros han compartido o enlazado lo que tú dijiste, no es de extrañar que el sensacionalismo sea el resultado.

En las últimas iteraciones del algoritmo, Google ha ido degradando progresivamente la importancia de las redes sociales, al tiempo que trabajaba en una nueva métrica, el Knowledge-Based Trust score o KBT. Para desarrollar ese criterio que trata de evaluar las páginas por la fiabilidad de su contenido y no tanto por los enlaces que consiguen, Google conforma una red de páginas de confianza, elabora una serie de criterios que considera objetivos, verídicos o fiables, y compara cada página con esos criterios aceptados con el fin de descartar las páginas sensacionalistas, las llenas de factoides absurdos, las inútiles, o las que directamente mienten o dicen barbaridades consideradas en contra de la ciencia o de los criterios de verosimilitud generalmente aceptados.

La idea de un KBT, de una clasificación de las páginas web en función de si dicen la verdad o no, parece interesante desde un punto de vista científico, pero indudablemente peligrosa en manos de una compañía que no solo puede tener su propio criterio sobre lo que es verdad o no, sino también un pasado relativamente turbio en cuanto a la posible manipulación del algoritmo para beneficiarse de ello. ¿Qué ocurriría si, del mismo modo en que Google manipuló su algoritmo en su momento para degradar a determinados competidores a riesgo de dañar a sus usuarios, la compañía terminase estando en una posición desde la que fuese capaz de afectar la manera en que consideramos o evaluamos determinadas cuestiones para concluir si son ciertas o falsas? La idea de un mundo en el que pseudociencias como la homeopatía o teorías de la conspiración o pseudocientíficas como los chemtrails o el movimiento antivacunas caigan a la zona de irrelevancia de la web resulta obviamente interesante, pero ¿y si, de manera imperceptible, aquellos movimientos sociopolíticos que no resultasen convenientes para los intereses de Google fuesen relegándose igualmente a esa zona? ¿Estamos dispuestos a confiar ciegamente en que Google – o la empresa que sea – utilizará un algoritmo así de manera completamente objetiva y sin manipulación alguna? ¿Estaría dispuesta Google – o la empresa que fuese – a supervisar sus prácticas en ese sentido con los niveles de transparencia adecuados como para que esa sospecha no pudiese existir?

Los años que han ido desde 1999 hasta 2016 se han caracterizado por definir un mundo en el que lo social era la única manera conocida de evaluar la relevancia. Mientras Google ha definido su algoritmo fundamentalmente mediante componentes sociales, hemos ido viendo cómo todo el resto de los motores de búsqueda se adaptaban a jugar al mismo juego – con resultados obviamente poco exitosos – o desaparecían, al tiempo que veíamos cómo un nuevo tipo de sensacionalismo invadía la web. Pasar a definir la relevancia mediante otros criterios parece recomendable si no queremos pasar el resto de nuestra vida rodeados de titulares absurdamente intrigantes, de listas estúpidas, de personajes dedicados a compartirlo todo a cambio de dinero y de spam social.

Si Google no cambia su algoritmo, no podrás creer lo que pasará después. Pero si efectivamente decide cambiarlo y tratar de consagrar la verdad y la ciencia como criterios, la gran realidad es que tampoco va a ser nada sencillo, y que nos esperan aún unas cuántas curvas. Ese cambio no es trivial: de hecho, es enormemente importante. El criterio por el que el mundo entero decide lo que es o no fiable, lo que es o no relevante o lo que merece o no la pena leer no se cambia fácilmente…

 

This article is also available in English in my Medium page, “Bye bye, PageRank«

 

27 comentarios

  • #001
    Pascual Vila - 13 marzo 2016 - 16:45

    Un buen análisis, como sienpre Enrique.
    Pero, ¿de verdad tanto le puede afectar a Google que sepamos su criterio de evaluación de páginas? El único interés que veo es que los generadores de link building fallen y ellos incrementen ventas de adwords.
    Saludos!!!

    • acerswap - 13 marzo 2016 - 19:39

      Muy simple: el algoritmo de Google pasa a ser analizado, y la relevancia de las busquedas pasa a depender de la habilidad del programador o del dieñador y no del contenido. Entonces, la gente opta por otros buscadores, y junto a ellos, a sus servicios asociados.

      • Pedro G. - 15 marzo 2016 - 10:39

        Tal cual, sería una ventana abierta para el spam, ya lo hemos visto hace algunos años… ahora el problema reside en saber cuándo es bueno o cuándo es malo el cambio y que Google sea el que todo lo decide con su tecnología.

  • #004
    WebRivas - 13 marzo 2016 - 16:55

    Sin duda muy bueno y persuasivo tu artículo.

    Me parece que la participación activa y critica puede ayudar a que la sociedad termine por exigir y ocupar un puesto con poder de veto en la junta directiva de Google y/o todas las empresas tecnológicas del mundo.

    No puede ser posible la libertad infinita para las empresas tecnológicas.

    Personalmente soy Googlesimo pero es irritante que la gestión de la información del mundo sea monopolizada.

    También es cierto que hay mucha desinformación y contenido basura y que tenemos la obligación de filtrarla peto esa decisión debe ser colectivizada y no corporativizada….

    Saludos Enrique….

  • #005
    Ernesto - 13 marzo 2016 - 17:16

    El escenario asusta, pero porque complica las posibilidades de que la «cola larga» pueda emerger, solo quienes tengan suficientes recursos y tiempo pueden luchar por aparecer, a ver que tanta capacidad tiene Google de lograr que la cola larga vuelva a tener su oportunidad de visibilidad con el nuevo algoritmo.

  • #006
    Goomer - 13 marzo 2016 - 17:27

    Esto parece venir como consecuencia de la refrenda de la editorialización de los resultados de Google. Pero la ventaja de que lo haga una empresa tan relevante es que si además de por fin acabar con el clickbait, o con resultados desinformantes, intenta editorializar comercial, política, ética, o socialmente más de lo que se perciba como razonable, al final se topará con demandas, o dejaremos de usar sus servicios.

    Empresas como Google, Facebook, Apple, y demás son gigantes que necesitan una adopción masiva. Cuando no la tienen, aparece el «síndrome de Twitter».

  • #007
    Gorki - 13 marzo 2016 - 18:34

    Google siempre ha padecido el problema de ser incapacidad de valorar la relevancia real de un contenido, por lo que ha sustituido, el concepto de calidad, por el de popularidad, y si bien suele haber cierto paralelismo entre excelencia y popularidad, ambos conceptos no son iguales.

    Google, no lo puede evitar que Belén Esteban, se coloque como más relevante que Md. Curie, por la sencilla razón que evidentemente, es mas popular la Esteban, aunque su relevancia sea nula.

    El segundo problema de Google, es que cualquier métrica que utilice para medir popularidad, puede ser simulada y engañada por los profesionales del SEO, consiguiendo con ello, posicionar en Google páginas, que no solo son poco relevantes, sino que tan siquiera son populares. Lo que le obliga a Google a cambiar sus métricas periódicamente y mantenerlas en secreto para que tardan más en ser descubiertas y pervertidas, pero también están a cubierto de la posible crítica de personas independientes, tanto de los contenidos como del buscador.

    Dos problemas al menos para mi insolubles, aunque, es de reconocer que pese a ello, Google es el mejor buscador existente.

    Lo que a mi juicio es muy preocupante, es que la política del, «Don’t be evil», ha pasado al baúl de los recuerdos, sustituida por la política de «subamos, (como sea), la cotización de nuestras acciones». Política que la esta llevando a una visión cortoplacista de potenciar aquello que produce «profit», indendientemente de que para conseguirlo, se empeñen las «joyas de la abuela» y que esto sea «pan para hoy y hambre para mañana».

    Pero estamos hablando de una empresa totalmente capitalista, que siempre caerá, irremediablemente en los «errores» o «pecados» que afectan a todas estas empresas.

    Mi apreciación, es que, aun reconociendo que es el mejor buscador que hoy existe, es hoy inferior a como era hace sólo un par de años y que sospecho que ira perdiendo más y más calidad poco a poco..

    • Ferran Muñoz - 13 marzo 2016 - 19:52

      Lo del «Don’t be evil» es un eslogan que les ha funcionado de maravilla a nivel público pero que jamás han cumplido. Solo hay que leerse el libro de Alejandro Suárez llamado «Desnudando a Google» para ver algunas prácticas non-gratas…

      Guardaré tu comentario en la hemeroteca, para que cuando realmente pasé poder decir: mira, Gorki en marzo de 2016 ya lo dijo.

      Ahora la pregunta es: pasará realmente? Que cataclismo ha de suceder para que Google deje de monopolizar las búsquedas (y demás temas tecnológicos) y ver cómo poco a poco se hunde? Lo veo poco factible, es una araña que ha tejido demasiada tela como para que todo se derrumbe…

      Además, ahora con Alphabet, las búsquedas solo son una porción del poderío de Google. Coches autónomos, IoT, Maps, Big Data…

      • Gorki - 13 marzo 2016 - 21:25

        Gracias por tu respuesta.
        Si realmente cuesta ver que cataclismo le puede ocurrir a Google. Clato que si en el futuro sus ingresos se basan por ejemplo en la conducción automática, nada tendra que ver su situación con la actual.

        Pero lo cierto es que hoy hay en Google una dependencia total de su buscador. Si fallara el buscador fallaría quizá el 80% de los ingresos y eso es tener un «Talón de Aquiles» brutal. Y además el buscador depende economicamente de otro «Talón de Aquiles», la publicidad contextual.

        Si esta falla todo el andamiaje se va abajo, y en mi opinion hay un riesgo cierto que falla por los siguientes motivos:

        1).- La publicidad contextual no funciona, basta con que observes los anuncios que te llegan por ese canal para ver, que o no tienen mada que ver con tus intereses, o te llegan anunciando bienes, cuando ya los has adquirido. Existe el riego que el anunciante se canse y prefiera poner millones de anuncios al buen tuntun muy baratos, antes de los caros e inutiles impactos publicitarios.

        2)- ;ovimietos ciudadanos tipo Adbloks especilizados en el buscador de Google. La gente esta muy levantisca con la publicidad y pudiera ser que se inventara un filtro que eliminara la publicidad del buscador de Google y este fuera instalado por una gran mayría de usuarios.

        3)- Empresa listilla que reelabore las respuestas obtenidas de Google, como paso previo a su entrega al usuario, ordenándolas de forma acorde a los intereses de los usuarios y no de Google y de paso sustituye con su publicidad a la de Google. Supongo que esto es ilegal, pero tambien lo es MEGA y ahi está.
        .

    • acerswap - 14 marzo 2016 - 14:33

      Definir que Mme. Curie es menos relevante que Belen Esteban es un error. La Curie es mas relevante en su campo, en el tema del cotilleo carece de relevancia, al mismo tiempo que en el campo de la ciencia la Esteban no tiene el mas minimo interés (ni ella por la ciencia ni lo opuesto).

      Otra cosa es que hables de prestigio, que no es lo mismo, y para un motor de búsqueda el prestigio siempre queda por detrás del interés publico.

      • Gorki - 14 marzo 2016 - 17:11

        Como Google. confundes, o tratas de hacer pasar, popularidad por relevancia, si Md. Curie tiene una opinión sobre la cirugía estética, pongo por caso de un tema que probablemente Belen Esteva sepa algo, seguirá siendo más relevante la opinión de Md. Curie que la de Belén Esteban.

        Pero eso si, a Belén Esteban la conoce el 98% de la población, (española). y posiblemente Md. Curie solo sea conocida por un 60% de la población (española)

  • #012
    Nuria Cámaras - 13 marzo 2016 - 19:02

    Hola Enrique,

    Muy buen post. Me quedo con esta frase tuya: «Pasar a definir la relevancia mediante otros criterios parece recomendable si no queremos pasar el resto de nuestra vida rodeados de titulares absurdamente intrigantes, de listas estúpidas, de personajes dedicados a compartirlo todo a cambio de dinero y de spam social.»

    Sin duda, intentar mejorar las métricas SEO y hacer todo lo posible por «engañar» a Google para posicionar proyectos de poca calidad por delante de los que realmente deberían estar en el top 1 nos ha llevado a llenar la red de basura. Podemos decirlo así de claro porque es una pena.

    Yo trabajo como copywriter web y me escandaliza pensar la gran cantidad de contenido con fiabilidad 0 que leemos cada día (y que Google ha colocado en primeras posiciones) o las numerosas formas Black Hat SEO que utilizan un gran número de empresas con tal de mejorar su tráfico web y su posicionamiento.

    Veremos cómo evoluciona esta nueva «ciencia del SEO».

    Un saludo,

  • #013
    Iván - 13 marzo 2016 - 19:29

    Me ha parecido un análisis excelente: interesante y preciso. Ha abordado una de las cuestiones más delicadas de lo que supone el que Google esté desarrollando una métrica en la que el factor primordial sea la fiabilidad del contenido: ¿qué es y que no es fiable?

    Hay diversos elementos con los que medir la fiabilidad del contenido a nivel de lectura. Como estudiante de Historia con el objetivo de investigar, sé que cada vez que leo he de fijarme en sus fuentes y las referencias que utiliza, sé que vivimos en un mundo donde el «copia y pega» está presente no solo en el mundo académico (el contenido duplicado infecta la red) y que por ello hay que tener los ojos bien abiertos, leer e indagar bien en los resultados de búsqueda. Estoy seguro de que Google, sus desarrolladores y su tecnología son capaces de medir la fiabilidad con variados y precisos elementos.

    Sin embargo, usted ha dado en el clavo al plantear la posible polémica: ¿y si Google controla el «factor fiabilidad» en su favor? No sería la primera vez en la que los resultados de búsqueda respondan a determinados intereses. Y es que Google no deja de ser una empresa con un capital inmenso y una influencia más que notable en todos los ámbitos de la vida (cotidiana, educativa, profesional, política…).

    Por mi parte, hace más de un año que utilizo DuckDuckGo. Me ofrece una interfaz agradable y noto que sus resultados de búsqueda están menos «influenciados». Aunque he de admitir que en ocasiones he de realizar visitas a Google, sobre todo cuando estoy investigando para alguna publicación o algún trabajo. ¿Cuál será el futuro de Google como buscador? Por el bien de la sociedad y el derecho a la información, el acceso abierto y la cultura libre, espero que no se decante por el «interés propio» y por la manipulación de aquello que no le conviene. Pero para eso hemos de esperar.

    Excelente artículo Dr. Dans (para no variar).

    Saludos, Iván

  • #014
    Krigan - 14 marzo 2016 - 00:37

    En realidad el ideal de Google debería ser el darle a cada uno lo que cada uno esté buscando. Al que quiera homeopatía y otras supersticiones, eso debería darle. Lo mismo para la propaganda política (derechas vs. izquierdas). Y por supuesto, al que quiera objetividad y hechos ciertos, también darle eso.

    En este sentido, el KBT puede ser útil, pero solo si se acompaña del LBT (izquierda), el RBT (derecha), y el HBT (homeopatía). Más aún, lo que una persona puede querer es el KBT para temas científicos y técnicos, y el LBT (o RBT) para temas políticos.

  • #015
    Matt - 14 marzo 2016 - 01:38

    «¿Estamos dispuestos a confiar ciegamente en que Google – o la empresa que sea – utilizará un algoritmo así de manera completamente objetiva y sin manipulación alguna? »

    La respuesta a esa pregunta es sencilla y corta: NO

    • Gorki - 14 marzo 2016 - 08:45

      Corta pero incompleta.
      Suponiendo que Google namiìle los resulyados, (lo cuál a mi juicio es inevitable). ¿ Qué hacemos?

      No olvidemos, que con todos sus defectos, el buscador de Google sigue siendo «El Mejor»

      • Pit - 14 marzo 2016 - 09:34

        Respuesta: partir Google.
        No hay otra forma a mi juicio de garantizar mínimamente el interés general que separar el motor de búsqueda del resto de servicios. Una campañía más pequeña, que cobra por anuncios, como hasta ahora, y al resto de compañías que quieran usar su motor de búsqueda (maps, email, etc).
        Su interés por deformar los resultados a su conveniencia será menor, y también lo será su capacidad. Y se incrementaría la posibilidad de competencia en los motores (que no obstante seguiría siendo complicada), al desagregar el buscador de los servicios de usuario.

        Es cierto que es algo muy complejo, que sería imposible de hacer sin un acuerdo con el gobierno USA (algo extremadamente improbable por el momento), y que puede provocar algunos inconvenientes (seguramente habría servicios que dejaría de ser gratuitos al 100% ). Pero hay que romper huevos para hacer una tortilla, y los riesgos de seguir el camino actual en mi opinión son excesivos

  • #018
    PERIAÑEZ - 14 marzo 2016 - 10:15

    Don Enrique, hablas de la relación de Google con la Metafísica aunque no la mencionas. ; )

  • #019
    Enrique F. Brull - 14 marzo 2016 - 12:59

    En definitiva, Google posicionará a su antojo. Ya comenté hace tiempo que seguro que desde la compañía no están nada contentos de que existan profesionales SEO que alteren los resultados de búsqueda. Pienso que Google quiere mejorarse hasta el punto de conseguir ser el «mejor SEO del mundo», pero eso solo se puede llegar a conseguir con inteligencia artificial. Lo veremos en el tiempo.

  • #020
    Nombre - 14 marzo 2016 - 13:01

    Tal vez sea una locura lo que estoy pensando, pero tal vez la solución sea un «buscador libre» al igual que existe el software libre, sistemas operativos, herramientas tipo Wikipedia, OpenStreetMap, etc. que sea controlado y gestionado por «la Comunidad».

  • #021
    Kico - 14 marzo 2016 - 17:02

    Google está constantemente trabajando en su algoritmo para que muestre los mejores resultados, y que sean lo más naturales posibles, y penalizar aquellos resultados que hayan sido manipulados con diferentes técnicas seo ilegales. El problema está en delimitar esa frontera, los seos, trabajan para que las webs se posicionen de la forma más natural posible. El pagerank fué dejando de ser un referente para dejar paso a otras métricas como el Domain Authority y Page Authority de Moz. También parece que una tendencia de Google será la de dar más relevacia a la marca versus las palabras clave. Es decir que cuanto mayor se hable de nuestra marca más relevancia le dará Google. Pero todo esto puede cambiar de un dia para otro pués es Google quien marca el camino y los demás vamos por detrás.

  • #022
    Luis J Castañeda - 16 marzo 2016 - 16:02

    Muy interesante, Enrique, pero estaría bien que hicieras un análisis más profundo de por qué no surgen competidores significativos a Google, dado que tiene tantos puntos flacos.

    Por qué no surgen buscadores «profesionales» (entendido como que la búsqueda atiende a razones profesionales o de negocio, y no como particular), donde las razones de relevancia son otros distintos a la popularidad, y donde el conjunto de web relevante no pasa de unos miles de páginas, y no el océano general donde Google busca un descriptor.

    Y no solo es un problema de tamaño, o de «winner takes it all», no hablo de competidores del mismo tamaño, sino de buscadores especializados en un campo, expertise, área… determinada, y que aún sin ser tan grandes como Google, sean mucho más relevantes para su sector de referencia.

    Bueno, no me extiendo, el análisis te lo dejo a ti, el experto. Aunque los inteligentes comentarios de los lectores van desgranando un buen número de items relevantes a analizar…

    Yo llevo tiempo recopilando información acerca de otro tema que dejas apuntado. Lo de «LA EMPRESA», esa con poder omnímodo, universal, capaz de manipular las masas, por encima del bien y del mal, de los gobiernos, de los países. Inquietante. Y hay más ejemplos que Google…

  • #023
    Sugar - 17 marzo 2016 - 14:12

    Si el problema es donde buscar en el pajar de información, no sería mejor que la gente pudiese elegir con quién hacer la búsqueda desde diferentes ángulos? Es decir, podríamos escoger el buscador con los criterios rigurosos acorde a mi sentido de búsqueda.

  • #024
    Varela Íntimo - 17 marzo 2016 - 20:24

    Estaremos atentos a ver que nos depara el futuro en cuanto a seo y posicionamiento, pero tarde o temprano sabemos que las cosas van a ir evolucionando..

  • #025
    Antonio Miranda - 18 marzo 2016 - 10:41

    Una de las Vs del Big Data, y Google es una compañía Big Data, es la Veracidad, una de las claves más importantes del futuro de la computación, sin duda.

  • #026
    Wilzon - 30 marzo 2016 - 22:37

    Interesante, supongo que no se debe confiar al 100 %
    jejejee

  • #027
    Manuel - 31 marzo 2016 - 18:32

    Todavía se usa o no?, porque aun hay servicios web que permiten calcularlo.

Dejar un Comentario

Los comentarios están cerrados