La muerte de la búsqueda

IMAGE: OpenAI's DALL·E, via ChatGPT

Un reciente informe de Gartner afirma que el volumen de búsquedas en motores de búsqueda en internet se habrá reducido en torno un 25% en el año 2026 debido al crecimiento de las búsquedas en chatbots y otros agentes virtuales alimentados por algoritmia generativa, una tendencia que está llamada a redefinir el marketing en la red tal y como lo conocemos.

La conclusión es, como tal, escasamente sorprendente: desde el inicio de la popularidad de los algoritmos generativos con el lanzamiento de ChatGPT a finales de noviembre de 2022, todos empezamos a ver cómo cada vez más necesidades de información podían ser satisfechas de manera más directa y satisfactoria mediante un prompt bien formulado en lugar de recurrir a motores de búsqueda tradicionales.

La tendencia, que pronto pudimos corroborar todos los que hacemos habitualmente exámenes a nuestros alumnos a laptop abierto, tiene mucho sentido: mientras una búsqueda nos dirige generalmente a un conjunto de enlaces o, en algunos casos, a algunas preguntas formuladas que tratan de proporcionar respuestas más o menos directas, el resultado de una pregunta a un algoritmo generativo resultaba, de la noche a la mañana, mucho más sencilla de gestionar. En esto había, por supuesto, un fuerte componente de novedad, pero además, una compleja relación de confianza que tendía en muchos casos a sustituir al pensamiento crítico, como anteriormente había pasado con los propios motores de búsqueda. Si ya hace años el primer resultado de una búsqueda en Google y parecía ser muchos algún tipo de verdad absoluta, el que ahora ChatGPT contestase un párrafo correctamente redactado con determinada información hacía que muchos nunca dudasen de él, a pesar de la tendencia de muchos algoritmos a «alucinar» a partir de correlaciones, en muchos casos, sumamente bajas.

De hecho, sabemos que Google, a pesar de tener disponible tecnología para crear algoritmos generativos, rechazó lanzarlos al mercado en su momento, en lo que sería un corolario perfecto para el genial libro de Clayton Christensen «El dilema del innovador» (1997), precisamente porque temía unos efectos sobre el negocio de la búsqueda que era bastante sencillo anticipar:

  1. Los fallos o «alucinaciones», que otros competidores podían justificar fácilmente por su escasa experiencia o por ser vistos como más novedosos, resultaban inaceptables en una compañía con la cuota de mercado y el prestigio de Google, y en caso de suceder a menudo, podrían llegar a comprometer la percepción de fiabilidad de los resultados del buscador.
  2. Los costes de una búsqueda en la descomunal base de datos de Google están muy contenidos gracias a la hiper-optimizada ingeniería de Google, mientras que los de una consulta a un algoritmo generativo son más de un orden de magnitud superiores. Esa diferencia de costes puede ser asumida por compañías con un volumen de actividad relativamente bajo en búsqueda, pero podrían desestabilizar completamente la cuenta de resultados de Google, con más de un 95% de cuota de mercado, si el proceso de sustitución tuviese lugar muy rápido.
  3. La publicidad mediante enlaces patrocinados, fuente principal de negocio en Google, deja de funcionar cuando el usuario, en lugar de recibir una serie de enlaces, algunos de ellos patrocinados, en los que hacer clic, pasa a encontrarse un párrafo perfectamente redactado.

Esos tres factores hicieron, en su momento, que una compañía como Google pospusiese la idea de lanzar un algoritmo generativo, y fuese completamente tomada por sorpresa cuando OpenAI lanzó ChatGPT. Dilema del innovador en su mejor versión, en un ejemplo que haría levantarse de la tumba al mismísimo Christensen para darse el gustazo de explicarlo en una clase. Como no lo haces cuando puedes, son otros los que pasan a hacerlo por ti.

Así, los motores de búsqueda tradicionales, que iniciaron su andadura en 1993 con actores como W3Catalog, ALIWEB, JumpStation o WWWWorm, todos ellos inactivos desde hace ya muchos años, podrían empezar a escribir de alguna manera su epitafio – obviamente, las transiciones nunca son tan sencillas, y por lo general, los muertos que algunos matan suelen gozar de buena salud – a partir del año en que los algoritmos generativos con interfaces sencillas se convirtieron en tecnologías de uso habitual.

Nunca he sido muy creyente en las predicciones de Gartner, pero esa caída de un 25% en un par de años me resulta razonablemente creíble, o incluso prudente. Y con ella, empezaríamos a ver toda una nueva forma de hacer las cosas en la red, y pasaríamos de un modelo, el de los motores de búsqueda, muy contaminado con el SEO y sus tácticas, a encontrarnos con nuevas técnicas diseñadas para conseguir que los algoritmos generativos mencionen más a unas marcas o empresas que a otras. Como siempre, el problema no está en la tecnología, sino en la naturaleza humana…

ACTUALIZACIÓN (18/03/2024): Laura Montero, de ABC, me llamó para documentar su artículo relacionado con este tema, que fue publicado como «La hegemonía de Google como gran motor de búsqueda se tambalea«, en el que me cita.


This article is also available in English on my Medium page, «The search engine: chronicle of a death foretold«

19 comentarios

  • #001
    Juan T. - 4 marzo 2024 - 20:48

    La mejor IA para búsquedas, en mi opinión, es Perplexity.

    Además de contestar cualquier pregunta como ChatGPT, tiene información actualizada de internet, te apoya la respuesta con varios enlaces a información relacionada con el tema, además de sugerir nuevas preguntas relacionadas.

  • #002
    Gorki - 4 marzo 2024 - 20:55

    A ojo, un 25 % me parece excesivo. Yo utilizo ChapGPT para muchas cosas, pero no creo que hay reducido mis búsquedas en Google mas de un 10%, porque en mi caso, el uso que doy a ambos servicios es diferente, uno me da una contestación rápida y otro además de eso que también lo hace, me facilita el poder llegar a fuentes fiables. Pero de momento mi página de inicio sigue siendo el buscador de Google.

    Otra cosa es que muchas de las «búsquedas en Google», no sean tales búsquedas, bien porsino por ejemplo, simples comprobaciones ortográficas. Estas contarán como búsquedas en Google pero no lo son a efectos prácticos.

    También hay programas desde los cuales las búsquedas llevan a BING directamente, porque lo tengo por defecto, aunque habitualmente no lo use. Por ejemplo desde Processing, si buco un mandato me los saca en BING, Todo lo cual evidentemente hace perder búsquedas efectivas a Google, que para mi son cundo haces un link desde sus respuetas.

    Yo creo que hoy por hoy el buscador de Google pierde terreno, pero sigue siendo el líder indiscutible, pese a que su calidad, no hace mas que bajar con el paso del tiempo, por culpa de los posicionamientos pagados y el SEO. Coogle está copiando el mismos error que cometió Yahoo,.se han olvidado del «Don’t be evil», y se camina por la senda que lleva al olvido.

  • #003
    Sergio Espósito - 4 marzo 2024 - 21:16

    Para mí los modelos generativos no son sustitutos de las búsquedas, sino herramientas complementarias

    • NOSTRAM - 4 marzo 2024 - 21:51

      Yo soy de la misma opinión que Enrique, las busquedas van camino de no representar la respuesta correcta, cuando no es por SEO, es por el buceo y tiempo perdido entre las respuestas del buscador, desde que chatgpt ha aparecido mis búsquedas tradicionales se han reducido significativamente. Que quiero una receta basta con decir que tengo en el frigo y que me gustaría comer. Que tengo que hacer cálculos de alguna indole le pido que los haga y me justifique como , que necesito un informe le digo el concepto y el estilo, que lleva un gráfico le pido que genere una imagen asociada, y así hasta el infinito. Google ha muerto apenas balbucea. Y eso sin contar la cantidad de tiempo que me ahorro.

  • #005
    c3po - 4 marzo 2024 - 21:52

    Una cosa es buscar información y comparar fuentes, y otra es que te generen un texto sobre un tema, que siempre será algo más cerrado y menos informativo.

    Son animales distintos. Por mucho que lo afirme Gartner. Las profecías en innovación fallan más que las escopetas de feria. Eso es como cuando dicen en 2020 tendremos un vehículo autónomo, el próximo paradigma son las gafas de buzo, el futuro son los teléfonos plegables, o el transporte irá por un tubo, o manejaremos los ordenadores con la mente, o la AGI está a la vuelta de la esquina, o FB tiene los días contados, etc etc. Los buscadores estarán ahí por muchos años. Y los gepetos también. ¿Unos y otros se complementarán estilo Bing? Pues seguramente pero como no mejoren los de MS su motor de búsquedas, seguirán siendo otro más

  • #006
    Benji - 4 marzo 2024 - 23:43

    Hombre, a ChatGPT le hago preguntas cuyas respuestas tardaría mucho en rebuscar en Google. Por ejemplo «escríbeme una función en PHP sobre como cambiar de LCH a HEX». Aunque falle como una escopeta (me pone los rojos a verdes), la lógica que sigue me sirve como plantilla.

    Si busco lo mismo en Google, tengo que abrir 9 respuestas en 9 lenguajes distintos (Go, Java, Javascript, una librería C++…)

    • Benji - 4 marzo 2024 - 23:44

      Se me cortó, otro ejemplo:

      «Quiero un Regex que saque todo lo que está escrito entre brackets [ y ], pero sin incluirlos»

      No solo me da la respuesta, me la explica

  • #008
    Gorki - 5 marzo 2024 - 00:02

    La cosa acabará cuando google te de como respuesta, los dos caminos a elegir, o la explicación estándar e inmediata, o las fuentes donde buscarlas. Dudo mucho que se deje comer el terreno

    Al fin y al cabo la explicación estándar puede soportar también patrocinios y publicidad. Si hoy las LLM son políticamente correctas, se demuestra que se las puede hacer con cualquier tipo de ideología, de dar respuestas de acuerdo con un determinado idealismo político a incitarte a cambiar tus objetos por otros nuevos.

  • #009
    Morath - 5 marzo 2024 - 07:25

    Los buscadores se convertirán en chatbots ofreciendo las dos opciones y los chatbots ofrecerán las fuentes en las que se han basado.
    Mientras tanto, pueden coexistir perfectamente, son dos tipos de recurso diferentes como lo eran, salvando las diferencias, las enciclopedias y los diccionarios. La mayoría iba a buscar al que tenía más a mano, algunos elegíamos una u otra fuente de información en función de lo que necesitáramos buscar y el objetivo que tuviéramos.

    ¿Acabarán convergiendo los buscadores y los chatbot? Posiblemente, pero espero que no desaparezca la «búsqueda crítica» y la posibilidad de buscar «segundas opiniones».

  • #010
    c3po - 5 marzo 2024 - 09:56

    Y si el BOT está hecho con sesgo y por fascistas.

    https://algorithmwatch.org/en/italian-neofascists-artificial-intelligence/

  • #011
    Alqvimista - 5 marzo 2024 - 09:56

    Creo que sería más correcto poner en primer lugar el punto 3.

    La IA generativa nace de un documento científico publicado por Google.
    No quisieron desarrollarlo como producto porque no vieron cómo seguir ganando dinero con ello. Así que lo dejaron pasar.
    Las alucinaciones son excusables fácilmente y los medios físicos se subsanan con dinero pero, ¿cómo ganar dinero para esos medios físicos? ¿Con publicidad insertada? ¿Sin publicidad pero cobrando? Ahí es donde Google dijo no y se quedó quieto.

    Y ahí es donde otros -Microsoft- vieron la oportunidad. Y aquí estamos.

    ¿Y Apple? Pues Apple, que utiliza mucha IA Machine Learning, no vio venir el poder de la IA Generativa pero dice que está en ello y que pronto la veremos en sus Sistemas Operativos. Dice.
    Y hablando de Google y Apple, si el papel de Google siguiera disminuyendo, ¿le seguirá pagando a Apple la carretada de dinero que le paga para que Google siga siendo buscador por defecto y que no desarrolle uno propio? ¿Decidirá Apple dar el paso y creará su propio buscador basado en IA-G?

    Cosas interesantes veremos este año…

  • #012
    Chipiron - 5 marzo 2024 - 11:25

    Como ya se ha dicho antes, hay diferentes objetivos al realizar una búsqueda.

    Si se trata de encontrar un archivo concreto, una imagen/video, etc, lo mejor es seguir con la búsqueda tradicional.

    Pero yo muchas veces lo que quiero son explicaciones o datos concretos sobre un tema, por ejemplo «las características principales de Burgos».

    En este tipo de búsquedas voy directo a Wikipedia.

    Pero si encima quiero hacer preguntas complejas como la que hice hace recientemente a gémini: «cual es la esperanza de vida de mi tia que ya tiene 99 años?» Recurro a Gemini (en este caso ChatGPT 4.0 no me dió la respuesta y Gemini si.

    Este tipo de búsquedas no se pueden hacer, en la mayoría de los casos, de forma tradicional.

    En otras palabras, distinguiría entre búsquedas y preguntas. Las primeras, con un buscador. Las segundas con un LLM.

    Saludos.

  • #013
    c3po - 5 marzo 2024 - 13:05

    Sería bueno que se tratara desde un punto de vista técnico porque se produce lo que llamamos alucinación, y que no es más que una manifestación intrínseca del modo en que un LLM de texto, o un modelo de imagen, procesa un prompt y saca un resultado. De hecho una alucinación no es ningún mal funcionamiento, es simplemente una salida lógica del proceso que se usa. En lo que si hay intervención humana es por ejemplo cuando Gemini saca un soldado nazi negro. Ahí lo que se hace es añadir al prompt condicionantes para que por ejemplo el resultado no tenga un sesgo racial caucásico. Y la cagada, es que debe prevelecer el rigor histórico al buenismo racial…

    En el caso de la alucinación el modelo simplemente toma un prompt de usuario, lo tokeniza en matrices numéricas, agita su coctelera transformer, y tras múltiples procesos estocásticos y aleatorios, el resultado es un texto o una imagen acorde a ese proceso. Veo muy dificil controlar ese tipo de resultados. Salvo que crees filtros que detecten en automáico que ciertos resultados no son admisibles. Por ejemplo si le pones un análisis semántico que no puede tener insultos, entonces del resultado se borran ciertas expresiones. Pero en general detectar errores en el resultado, se asume que el esfuerzo de rigor lo has hecho en el training, así que dificil de detectar.

    Si teneis un SD de imagen probar a poner en el prompt algunos tokens sin sentido: «jjaf asas ger!» lo que saca es algo que numéricamente le suena… ¿es ese prompt el de una mujer china? No verdad, está correlando tokens.

    Salvo que haya otras arquitecturas, un LLM nunca va a ser muy fiable. La forma de mejorar las respuestas es hacer mejores entrenamientos y aplicar técnicas como el fine tuning.

    • Chipiron - 5 marzo 2024 - 14:03

      Completamente de acuerdo.

      De hecho, a día de hoy, el porqué una «caja negra» como un LLM funciona tan bien (con la excepció de las ilusiones) es un proceso desconocido.

      De ahí el peligro de la IA y, a la vez, su milagro. Dando billones (con B castellana) de datos y parámetros, da respuestas (exactas o no) que parecen humanas, cuando sabemos que sólo son correlaciones estadísticas.

      Pero con una dimensión tan grande, quien es capaz de poner el collar al galgo? Quien puede determinar el porqué del alucine?

      Lo veo a la vez, casi como un milagro como un posible peligro, pues no se entiende a fondo su funcionamiento. Son todo procesos estocásticos y aleatorios. Deberían salir herramientas (si es posible, yo no sabría por donde empezar) para analizarlos.

  • #015
    Xaquín - 5 marzo 2024 - 13:47

    Ah, las búsquedas, desde el Síndrome del Enciclopedista al de un Indiana cualquiera, buscando sus amadas Arcas y Templos… también se usan mucho los gurús, ahora los coach e influencers… ¿qué haría un Livingstone sin preguntar a los nativos africanos?

    El tito Google nos manipula, con esa caterva de SEOs y demás siliconada fauna virtual… pero parece que los algoritmos ya no tienen SEOs o lo que coño sea, metido en su mente chíptica, tan perversa (o más) que cualquier otra mente. Como si fueran a ser tan calibrados como al EB, que también tiene sus sesgos megaculturales británicos, y no transmitir sesgos como si fueran churros. Y sesgos cada vez más sofisticados (y «razonados»… podrán hacer el relato del abogado rico, para salvar al mismo Diablo Cojo).

    Como pasa en la interacción con un gurú, solo los filtros propios serán capaces de frenar el trasvase de mierda, más o menos diarreica, de su iluminada mente a tu mente fortificada. Desde luego, escapar de tal interacción solo te puede dejar en una especie de limbo de los justos (de sesera), para ocupar plazas secundarias en la maquinaria social dominante.

    La IA no viene para dominarnos, viene, como todo avance tecnológico mal dirigido, a ser un pilar muy fuerte en la dominación de las IH, que ya tienen el poder en este planeta. O por lo menos, son los que más fácil lo tienen para doblegarnos al resto. Mantenernos en esta especie de Síndrome de Estocolmo del Terrestre Habituado al Desastre del Planeta. Ya sea por aficción o por omisión.

    • Chipiron - 5 marzo 2024 - 14:08

      Para mi, Xaquín, el peligro fundamental está en que (a no ser que me pierda algo) no puedes saber a priori si la respuesta que te da el LLM es correcto o es una alucinación.

      Si cada vez cometen menos alucinaciones y aciertan más, la gente empezará a suponer que siempre son correctas y eso puede llevar a errores mayúsculos cuando no sea el caso y estén alucinando.

      Es como si no supieras si una calculadora, que el 99% del tiempo te da el resultado correcto, se equivoca el 1% de las veces. Mucha gente, por comodidad, la seguiría utilizando y tomando sus resultados como 100% correctos, y eso puede llevar a cualquier tipo de catástrofe.

      • c3po - 5 marzo 2024 - 14:51

        Eso es. Funcionan mejor porque los van ajustando, pero es un modelo que por si mismo le resulta dificil detectar el error.

        OJO: Las personas nos equivocamos en un %, así que tampoco vamos a matar a gepeto por ello, hay que entrenarlos mejor, que estamos empezando con este tipo de IA

        ¿dentro de 20 años nos dan mil vueltas? Seguro.

        Nota: Acabo de vacilarle a gepeto, y ha mejorado mucho te pilla bastante, no lo transcribo, porque son muchas líneas y no es el foro

  • #018
    Arcadi - 6 marzo 2024 - 11:56

    La intención de búsqueda es clave; es decir, dependiendo de lo que se busque, la herramienta más adecuada puede variar. Por ejemplo, en búsquedas relacionadas con temas que requieren un desarrollo extenso, chat GPT es muy bueno y funciona bien, gracias a su capacidad para desarrollar temas de manera coherente. Sin embargo, en búsquedas relacionadas con productos concretos o comparativas en temas que no requieren un desarrollo tan extenso, Google es mejor.

    A medida que estos modelos de inteligencia artificial vayan avanzando, serán cada vez más capaces de resolver todo tipo de consultas. Pronto, con la integración de interfaces de voz charlaremos con el asistente, haciendo preguntas como «¿Dónde puedo encontrar las mejores zapatillas de tal característica y en este intervalo de precios?», y a partir de aquí entablaras una conversación donde le podrás preguntar cuáles son sus criterios de selección, reorientar la respuesta en base a su feedback, etc. I pasar la opción o opciones a la pantalla para terminar haciendo la compra, si es que no la haces directamente desde la interfaz de voz.

    El modelo de negocio detrás de estos avances es otra historia. Probablemente veremos anuncios en los resultados de búsqueda (yo ya los he visto en copilot). Además, es posible que estas plataformas adopten modelos de pago sin publicidad y gratuitos con publicidad. En las interfaces de pantalla, por ejemplo, podríamos empezar a ver publicidad en los laterales, links patrocinados, etc.

    En cualquier caso, estamos solo al inicio y seguramente todo esto cambiará rápidamente. Ahora puede ser un poco pronto para tener esta discusión, pero en 3 años, el panorama será muy diferente. Lo que está claro es que los buscadores, tal y como los conocemos terminaran desapareciendo.

  • #019
    trifasik - 6 marzo 2024 - 13:44

    Lo expuesto en el artículo, con las naturales variaciones de porcentajes y de ritmos de evolución, creo que lo vemos todos.
    Por un lado los chatbots van mejorando a buen ritmo y están mejor adaptados a determinadas solicitudes que un motor de búsqueda. Por otro lado Google lleva años degradando la calidad de sus respuestas, sin llegar a darlas peores que sus magros competidores, pero a la baja al fin y al cabo.
    Ahora falta ver como evoluciona a partir de aquí. La fusión o hibridación parece un camino probable.

Dejar un Comentario

Los comentarios están cerrados