Google y las cuentas de la IA generativa…

IMAGE: OpenAI's DALL·E, via ChatGPT

Lo comentamos en su momento: uno de los mayores obstáculos que hicieron que Google no incorporase unas prestaciones de inteligencia artificial generativa a su producto principal, la búsqueda, a pesar de estar tecnológicamente preparada para ello mucho antes de que OpenAi lanzase sus primeros productos, fue ni más ni menos que su coste unitario.

El coste unitario de una búsqueda en Google es extremadamente bajo. Aunque la base de datos sobre la que la compañía lleva a cabo las búsquedas es obviamente enorme (porque si estás leyendo esta página, asumo que no creías que las búsquedas se llevaban a cabo directamente sobre la web, algo técnicamente imposible si quieres entregar resultados instantáneos) y viene a ser una copia de toda la internet accesible, la tecnología que permite hacer búsquedas en esa base de datos ha sido refinada por la compañía de manera brutal a lo largo de su historia, con tecnologías de bases de datos como MapReduce, Bigtable y muchas otras, algo que ha sido una obsesión de la compañía desde sus orígenes. Cuando las búsquedas en Google indican no solo el número de resultados obtenidos, sino también los segundos que tardaron en obtenerlos, algo completamente irrelevante para el usuario, refleja unos bragging rights, una forma de que los ingenieros presuman del nivel de optimización que son capaces de obtener.

Gracias a eso, el coste unitario de una búsqueda convencional es extremadamente bajo, algo fundamental en una compañía que lleva a cabo 320,000 búsquedas por segundo, y toda la cuenta de resultados de la búsqueda está organizada en base a esos costes y a su optimización. De ahí que cuando una tecnología como la IA generativa comience a esbozarse rápidamente como una alternativa a la búsqueda convencional, las preocupaciones sobre su coste se conviertan en importantísimas, sobre todo si, además, exceden a los costes de una búsqueda en una base de datos convencional en varios órdenes de magnitud.

¿Qué puede plantearse hacer Google para poder ofrecer búsquedas mediante IA generativa, sin desequilibrar completamente con ello su cuenta de resultados? Muy sencillo: cobrar por ellas. Así, vemos cómo la compañía está considerando por primera vez poner un muro de pago alrededor de su búsqueda, y ofrecer esas búsquedas mediante IA generativa únicamente a quienes estén dispuestos a pagar una suscripción por ellas.

Por supuesto, el muro de pago no sería el primero en la historia de la compañía – muchos otros productos se ofrecen en modo freemium, en versiones profesionales o con opciones adicionales de pago – pero sí sería la primera vez que se plantea aplicar ese muro de pago a lo que sin duda es su producto principal y el que dio origen a la compañía.

Ahora, la pregunta que se plantea es clara: ¿cuántos usuarios de la búsqueda de Google estarían dispuestos a pagar una suscripción por ella? Mi sensación es que la inmensa mayoría de los usuarios de la búsqueda de Google la consideran, a pesar de la disponibilidad de otros motores de búsqueda, algo fundamental en su vida, que necesitan para prácticamente todo incluyendo usos personales y profesionales, y que ante la posibildiad de encontrarse con que no pueden acceder a determinado tipo de búsquedas, sí podrían llegar a plantearse pagar una suscripción siempre que su precio no resultase prohibitivo. Pero esas cosas, cuando el posicionamiento de algo ha sido gratuito durante toda su historia, pueden dar sorpresas, y será muy interesante, si Google finalmente se decide, ver la reacción de su mercado. También puede ser muy interesante ver si, en su producto de pago, Google se decide a eliminar la publicidad – que en su formato actual no sería, en cualquier caso, muy efectiva – o intenta experimentar con otros posibles formatos y mantenerlos a los clientes que pagan.

Para la compañía, muchas opciones a considerar, y un fin fundamental: mantener el liderazgo en un producto, la búsqueda, que ha puesto a la compañía donde está hoy. En el panorama competitivo, quien no canibaliza sus propios productos corre el riesgo de encontrarse con que quien se los termina comiendo son sus competidores, y Google lo sabe bien. La estrategia parece estar clara: ahora veremos qué tal se les da su ejecución.


This article is also available in English on my Medium page, «Google and the costs of generative AI«

38 comentarios

  • #001
    Dedo-en-la-llaga - 4 abril 2024 - 13:08

    «(…) muy interesante ver si, en su producto de pago, Google se decide a eliminar la publicidad (…)»

    A que no, en 3, 2, 1… (Peor aún, la incrementará sino ahí, en otros servicios hasta el infinito y más allá…).

  • #002
    Javier M - 4 abril 2024 - 13:26

    Siempre me ha llamado la atención el cambio tecnológico.

    Tu tienes tu chiringuito montado, eres el mejor del mundo, eficiente, prestigioso, etc, hay un cambio tecnológico y al hoyo. Irremediablemente.

    Ejemplos a cientos: constructores de carruajes con la llegada del coche, picahielos con la llegada del congelador, empresas de fax con la llegada de internet, etc, etc.

    Toda la vida currandotelo sin cometer ni un error y zasca.

    A ver qué pasa ahora con Google (se adaptará, imagino) o con BP/REPSOL, etc..

    Time a changing, que diría Dylan.

  • #003
    Lua - 4 abril 2024 - 13:27

    Con el tiempo me he acostumbrado a DuckDuckGo (sin olvidar a Google, los uso indistintamente)…

    Tengo la ventaja de que al no estar «perfilado», me ofrece resultados, que si no «mas precisos», al menos si «mas neutros».

    Si a Google, se le ocurre pedirme aunque sea un centimo por cada 100 busquedas, ya te digo que salto de cabeza a DDG.

    • JM - 4 abril 2024 - 16:13

      Ídem

  • #005
    f3r - 4 abril 2024 - 14:47

    1) el otro día leí una noticia que hablaba que las predicciones a futuro de consumo de la AI generativa requerirían la creación de chorre-mil centrales nucleares. Me parto…creo que con los videos de gatitos que hay en internet es suficiente, no hace falta crear más.

    2) ahora en serio, seguro que se puede impantar una pequeña AI en tu móvil que hace la tarea «gorda» y le pasa unos key-codes (llámale Pepe; algo de contenido muy reducido pero que centra perfectamente la búsqueda) al buscador tradicional. De esa manera, el gasto unitario lo hace la persona en su móvil, y sin enterarse. Todo el mundo contento.

    • Lua - 4 abril 2024 - 15:37

      Te has instalado algun modelo en local…???

      Lo pregunto por si te has dado cuenta de como se disparan los consumos, en energia, en CPU/GPU, etc…

      Muy bestia ha de ser un movil para soportar esa carga de trabajo, a menos que no vaya lanzando peticiones a servidores…

      • C3PO REAL - 4 abril 2024 - 15:58

        Si te instalas LM Studio puedes bajarte el modelo phi 2 3B con una cuantización Q2_K ocupa 1.17GB, solo habla inglés ocupa en RAM 1.17GB y la VRAM se queda en 4GB

        Valer no vale para mucho, te hace frases cortas en inglés, muy triviales, vamos que no sirve para nada, pero lo podrías poner en un móvil…

        https://huggingface.co/microsoft/phi-2

        • Lua - 4 abril 2024 - 17:31

          Ya vale de experimentos… XDDD

          Aun no he logrado arrancar a Grok… y lo tengo medio instalado… XDDD

      • f3r - 4 abril 2024 - 16:42

        Eso refuerza la idea de que:

        1) es una estupidez todo esto de la AI (à la it’s very difficult todo esto)

        2) no tendrá sentido hasta que no aligeremos los modelos en consumo computacional/energético

        • Lua - 4 abril 2024 - 17:27

          Como ya te ha contestado C3PO, los modelos “portátiles”, por el momento (no se en un futuro), no son viables. Espacio (mucho) + potencia de calculo (mucha).

          Otra cosa, es que como he dicho antes, estén haciendo llamadas a servidores que les hagan el trabajo (hola conexiones bestias de datos).

          Un modelo 7B en un i7 me pone tanto la CPU como la GPU a freír huevos… (de hecho, ya me he cargado dos GTX Ti)

    • Enrique Dans - 4 abril 2024 - 16:48

      Es la típica noticia chorra basada en una estimación chorra que luego todo el mundo repite como si fuera rigurosa. Ni puto caso a esa chorrada.

      • Lua - 4 abril 2024 - 17:20
      • Alqvimista - 5 abril 2024 - 07:53

        Hay lugares, Inglaterra, por ejemplo, donde los Centros de Datos empiezan a ser un problema por su consumo eléctrico.
        Terrapower* ya ha pedido permiso en EEUU para construir su primer SMR ( https://www.terrapower.com/terrapower-submits-cpa-nrc/ ). Y sólo es el primero de más de una docena de proyectos. No se tardará mucho en exigir que cada Centro de Datos sea autosuficiente energéticamente, sin importar cuál sea su fuente de energía mientras sea verde en cuanto a producción de CO2 se refiere.

        Oponerse a la energía nuclear hoy en día es como oponerse al VE con argumentos tan contundentes como que “no hay nada como el olor a gasolina por la mañana”. ¯\_(ツ)_/¯

        * Uno de los principales socios e impulsores de la empresa es Bill Gates, presidente ejecutivo de la junta directiva, y uno de los objetivos de la empresa es ofrecer SMR a grandes consumidores como explotaciones mineras o Centros de Datos.

  • #014
    C3PO REAL - 4 abril 2024 - 15:09

    Como dijo Sam Altman, y en eso podemos estar de acuerdo, dentro de un tiempo lo que tenemos ahora de IA nos parecerá basura. Sin embargo básicamente el understanding que podemos hacer del artículo es que google estaba hace años en una zona de confort, si no incluye respuestas con IA en su buscador es simple, no toques lo que funciona. Por otro lado la realidad es que los 7G se están dejando los cuernos con sus IAs…

    La estrategia de Open AI es poner zanahorias a los burros que si chatgpt 4, que si agentes, que si multimodal, que si que si,… pero en mi PC proletario, corro un 7B perfectamente, corro SD perfectamente, lo del gasto por IA, no digo que para entrenar modelos sea cierto ¿Cuanto tiraba un For Muastang de los 70s a los 100? ¿Y ahora cuanto tira un diesel ultima generación? Estamos donde estamos en el neolítico de las IAs… cuidado con el próximo invierno que si no monetizan…

    Sam: Deja de anunciar tanta historia, danos pan circo !!!

  • #015
    Enrique - 4 abril 2024 - 15:41

    El problema a mi juicio es el siguiente: ¿Quien va a pagar (yo no por supuesto) por una herramienta de IA generativa como es Gemini…cuando esta FALLA MÁS QUE UNA ESCOPETA DE FERIA.

    Saludos tocayo.

    • Ignacio Enríquez - 4 abril 2024 - 16:29

      Y no sólo Gémini. Todas fallan. No entiendo la IA generativa en las búsquedas. Cuando busco en Google o ddg, no busco una respuesta definitiva, completa. Lo que busco es quién habla de esto, qué dicen y en qué se basan. La conclusión es mía. No de ese oráculo.
      Preguntarle por precauciones de contacto en caso de gérmenes multirresistentes, ver las fuentes que ha utilizado y descubrir que son la BBC y la CNN. Te vas al buscador y las fuentes son CDC, ecdc, sociedad de tal y cual y multitud de artículos publicados en revistas de prestigio.
      Hoy, esa IA no me sirve. Si esas son sus fuentes no la quiero ni para hacer un resumen del estado de la cuestión ni nada. Me voy a un sumario de la evidencia como hay tantos

      • Gorki - 4 abril 2024 - 18:26

        Lo escribi hace un par de dias en este blog (2 abril 2024)

        Te acuerdas de aquellos que pregonaban «Don’t be evil», pues ahora pregunta cual es la mejor bombilla wifi.- Qué curioso en los mejores puestos están Amazon, Leroy Merlin, y MediaMarkt. Para este viaje no necesito alforjas

        En cambio ChatGPT, (después de obligarla a ello), me indica por fin, Philips Hue como una opción sólida.- ¿Quien se quedará sin usuarios en un futuro próximo?

        ¿De veras ChatGPT no vale para nada? ¿De veras sus respuestas son perores que las de Google?

        • Lua - 4 abril 2024 - 18:31

          Si has obtenido la respuesta «despues de obligarle a ello»… tu diras si es util….

          • Gorki - 4 abril 2024 - 19:11

            ¿He obtenido la respuesta o no?.

            La primera respuesta fue un respuesta políticamente correcta, que es uno de los errores que están introduciendo en la AI, «el mundo de Yupi», que unas veces sacan a nazis negros y otras veces eluden decir la Philips es la mejor . Concretamente la consulta fue que sigue:

            ChatGPT 3.5

            User
            cual es la mejor bombilla wifi.
            ChatGPT
            La mejor bombilla WiFi puede variar según las necesidades y preferencias individuales, pero algunas marcas populares y bien consideradas en el mercado incluyen Philips Hue, TP-Link Kasa, LIFX, Nanoleaf, y Sengled, entre otras. Estas bombillas suelen ofrecer una variedad de características, como la capacidad de cambiar de color, ajustar la intensidad de la luz, programar horarios, y la integración con asistentes de voz como Amazon Alexa, Google Assistant y Apple HomeKit.

            Al considerar qué bombilla WiFi es la mejor para ti, es importante tener en cuenta factores como la compatibilidad con otros dispositivos domésticos inteligentes que puedas tener, la facilidad de configuración y uso, así como también el presupuesto. Además, leer reseñas y comparar las características específicas de cada marca y modelo puede ayudarte a tomar una decisión informada.

            User
            quiero que lo decidasd tu
            ChatGPT
            Dado que no tengo información sobre tus necesidades específicas, presupuesto o preferencias, te puedo sugerir la Philips Hue como una opción sólida. Philips Hue es una de las marcas más reconocidas en el mercado de iluminación inteligente. Ofrecen una amplia gama de bombillas WiFi que son conocidas por su calidad, durabilidad y características avanzadas.

            Las bombillas Philips Hue son compatibles con una variedad de sistemas domésticos inteligentes, incluyendo Amazon Alexa, Google Assistant y Apple HomeKit. Además, su aplicación móvil es fácil de usar y ofrece una amplia gama de opciones de personalización, como ajuste de colores, programación de horarios y control remoto.

            Sin embargo, te recomendaría que investigues un poco más sobre las diferentes opciones disponibles y consideres tus propias necesidades antes de tomar una decisión final.

          • Lua - 4 abril 2024 - 20:08

            Preguntas para llegar a:

            «Sin embargo, te recomendaría que investigues un poco más sobre las diferentes opciones disponibles y consideres tus propias necesidades antes de tomar una decisión final.»

            Dime donde esta la diferencia, entre que le preguntes al Gepeto… o que te hubieras metido directamente en la web de Xataca (Smarthome) que no es lo mas d elo mas precisamente, pero tendrias los mismos resultados y comparativas en tablas…

            hubieras perdido el mismo tiempo, y seguramente, obtenido la misma respuesta… o mejor.

          • Gorki - 4 abril 2024 - 20:28

            Es que lo que me recomendó Gepeto, como tu lo llamas, no es que mirara en Xataca, si no que mirara en Amazon, Leroy Merlin, y Madia Mark. Si no supiera lo que es Xataca nunca habría entrado en se web. Si hay un contenido magnifico en una web que por ejemplo se llame «Zapato», Google lo sabe con su pagerank, pero a mi me indicará que mire en Amazon, Leroy Merlin, y Madia Mark.

            Actualmente Google trata de «engañarte» y que vayas a ver la web de los que pagan, lo cual es comprensible pero molesto,

            No entiendo que no haya salido aun un servicio Open Source que «filtre» las respuestas de Google y elimine los enlaces «bonificados».

          • Lua - 4 abril 2024 - 20:48

            Ese producto existe…
            Y se llama Duck Duck Go…

            Y ya hace años….

          • Lua - 4 abril 2024 - 21:00

            Por otro lado…

            me recomendó Gepeto, como tu lo llamas, no es que mirara en Xataca, si no que mirara en Amazon, Leroy Merlin, y Madia Mark.

            No veo que te haya recomendado esas cosas… entre otras cosas, porque una de las pocas cosas que hace bien, es no recomendar «marcas», de momento (que eso ya llegara) :P

          • Gorki - 4 abril 2024 - 21:19

            Y yo que pensé que Amazon, Leroy Merlin, y Madia Mark eran marcas, ¿Qué son?.

          • Lua - 4 abril 2024 - 21:39

            En que punto… El Gepeto te las menciona…???

          • Lua - 4 abril 2024 - 21:41

            Como veo que siguiendo tu Modus Operandi, esto se va a alargar inutilmente…

            Por «marca», me referia a establecimiento comercial…

            Pero te repito la pregunta…

            En que momento Gepeto te las ha mencionado, suponiendo que lo que has escrito arriba, sea un copia/pega de su respuesta????

          • Gorki - 4 abril 2024 - 22:01

            L a primer respuesta que me ofreció Google fue
            Amazon,. la segunda Leroy Merlin y la tercera Madia Mark, Francamente no lo grabé, pero tampoco esperaba que nadie dudara de mi palabra, sobre todo cuando él mismo puede hacer la prueba,

          • Lua - 4 abril 2024 - 22:29

            Madre mia Gorki, que aburrido eres… y eso que te lo he dicho:

            Como veo que siguiendo tu Modus Operandi, esto se va a alargar inutilmente…

            Primero sueltas:

            «Es que lo que me recomendó Gepeto, como tu lo llamas, no es que mirara en Xataca, si no que mirara en Amazon, Leroy Merlin, y Madia Mark.»

            y ahora…

            «L a primer respuesta que me ofreció Google fue
            Amazon,. la segunda Leroy Merlin y la tercera Madia Mark, «

            Mientes o te flipas tu solo? Los punteros bien???

        • Gorki - 4 abril 2024 - 23:31

          He intentado contestar a lo que preguntas. Si no soy suficientmente claro, lo siento, quiza tus preguntas tampoco lo sean ,

          Google no me dijo en los tres primeros puestos que buscara en Xataca, ni en ningun sitio me dijo el producto que él consideraba adecuado. Quizá mas lejos lo dijera, no lo recuerdo. y ChapGPY tampoco se refirió a esta página, me dijo el producto que el consideraba mas adecuado y punto,

          En los días anteriores, había estado explorando las posibilidades de la IoT, quizá por eso el interés de Google por mandarme a sitios que venden..

      • Enrique - 5 abril 2024 - 02:08

        Tengo una teoría…que a lo mejor es muy «cuñada». Es la siguiente:

        Como toda aplicación, la IA precisa de una Base de Datos.

        Tal es el volumen de peticiones tanto para «contestar» como para «aprender» que la misma base de datos no puede ser SQL (tablas) pero si de etiquetas. Las BB.DD. de etiquetas no tienen carácter relacional, por tablas, pero si por índice. Lo cual suelen ser mucho más desordenadas.

        Entremedias hay (o debería haber) un analizador que «aprende». Intentando poner cierto orden a las etiquetas. https://d1.awsstatic.com/products/generative-ai/getting-started-with-generative-ai-and-foundation-models.pdf

        En teoría (eso dicen muchos gurús de la cosa IA que pululan por ahí) es cuestión de tiempo. Que el «entremedias» aprenda bien lo que está almacenado en la Base de Datos.

        Disculpa el exceso de simplicidad.

  • #031
    Gorki - 4 abril 2024 - 17:54

    Primera cosa soy forofo del anterior, buscador de Google. Y digo anterior porque el actual viene mediatizado por aquello que hundió a Yahoo, el posicionar las respuestas de acuerdo con lo que pagan, y como indican mas arriba que hayan transformado el buscador con la ayuda del conocimiento que tiene de mi, en una cámara de eco. No preciso un Google personalizado, prefiero uno basado en pagerank

    Dicho lo cual a nadie le extrañaría si digo que es de los escasísimos servicios de internet que estaría dispuesto a pagar si se tratara de volver a tener el «viejo» buscador de Google.)

    Comprendo el problema, si hacer una búsqueda LMM tiene un coste energético elevado, no pueden darlo «gratis», o sea que nuestros dados, no cubren el coste del servicio.

    Yo les propondría algo que creo que puede ser un solución, Cobrar por adelantado a quien lo desee 5 US$ por 25 consultas de GEMINI . Cuando lo desees, o necesites, utilizas GEMINI, (te recuerdan que el servicio no es gratis y que te quedan X consultas) y si sigues te descuentan una consulta, Cuando vayas por la 20, te envían un mensaje para que vuelvas a cargar otras 25 consultas o acaban en servicio contigo.

    Personalmente, odio las suscripciones, pero si abrir una cuenta de donde tirar del servicio, (Esto es ampliable a otros muros de pago, por ejemplo el acceso a los periódicos. Google les podría hacer el servicio de cobrar pequeñas cantidades que indicara el propietario,.por la lectura de una pagina. o la concesión de un servicio.

  • #032
    Xaquín - 4 abril 2024 - 18:02

    Como todo dependerá de la lavadora que te quieren vender…al menos a cierto tipo de compradores.

    Pero maticemos que esto de la llamada IA está muy burbujeado. Viene a ser como considerar que la búsqueda tío Sherlock Holmes depende de una IH descomunal, cuando básicamente es un entrenamiento constante, para poder hacerlo con una inteligencia básica, pero buscando una tasa de eficiencia bestial… lo que conlleva tener muy bien organizada su ROM/MOR , tanto en la salida a la RAM/MONR…como, muy especialmente, la reentrada de los datos renovados en la ROM/MOR… que precisamente marcará su eficiencia de uso,…

    En fin, que por aquí nos quedamos con el cuento del amigo Conan, mientras no mejore el de los siliconados tecnólogos… por algo el Elon no lo tiene claro, como no lo tuvo con Twitter…

    • Xaquín - 4 abril 2024 - 18:18

      Por cierto, que me gusta la idea gorkiana de pagar por “n” consultas, en vez de “por suscripción temporal”… porque además incentiva mejor al que proporciona los datos, para ser eficiente,,,

      • C3PO REAL - 4 abril 2024 - 18:25

        Tampoco se ha inventado la rueda…
        precio por token …

        https://openai.com/pricing

        • Gorki - 4 abril 2024 - 19:16

          En efecto mas o menos lo mismo, pero esto de OPENAI mucho mas sencillo, ¡Donde va a parar!

          . Los precios se pueden ver en unidades de 1 millón o 1 millón de tokens. Puede pensar en los tokens como fragmentos de palabras, donde 1000 tokens equivalen aproximadamente a 750 palabras.

  • #036
    Jesús Pérez Serna - 4 abril 2024 - 19:47

    El tema es que en gratis tiene el mercado copado y ha ido empeorando la calidad de resultados para beneficio de su cuenta de resultados. Si quieren mi dinero ya pueden mejorar mucho, porque de pago hay opciones mucho mejores hoy día, como Kagi.com

  • #037
    Demócrito88 - 5 abril 2024 - 09:00

    Si el coste de las búsquedas gratuitas potenciadas por IA no es sostenible para Google en términos de rentabilidad económica, por capacidad de cómputo, etc… entiendo que tampoco será muy rentable a día de hoy para otras compañías, más allá de arañar algunos usuarios de los motores de búsqueda tradicionales, o usarlo como escaparate tecnológico.

    Al igual que hay usuarios que abonan la suscripción premium de OpenAI y otras similares, también habrá un segmento dispuesto a pagar por la IA generativa de Google. Músculo financiero no le falta a Google, para si no este año el siguiente ofrecer un servicio diferenciado frente al resto con una propuesta de valor clara, bien sea desarrollando su propio producto o bien adquiriendo alguna empresa innovadora. Es lo que suelen hacer…

    • Enrique Dans - 5 abril 2024 - 10:12

      No es lo mismo el coste para Google, con un 95% de cuota de mercado, que para una compañía que tiene un 1% o un 2%. Para la primera, es una cuestión de supervivencia. Para la segunda, un problema menor.

Dejar un Comentario

Los comentarios están cerrados