¿Resucita Google? De la muerte del buscador, al reset y al contragolpe con todo…

IMAGE: A glowing neural network radiates from behind the Google logo, with orange and blue energy streams symbolizing Google’s AI resurgence

Durante la última década, el gigante que transformó la búsqueda en un negocio colosal, Google, fue además la encarnación de la excelencia en machine learning: el sitio en el que se escribió el artículo «Attention is all you need« que desató la revolución transformer, y la primera compañía grande que entendió que la inteligencia artificial era la tecnología del futuro, en la que tenía que formar a todos sus trabajadores.

Pero, en la era de la inteligencia artificial generativa, algo se rompió: pese a haber estado en el origen de la tecnología, se convirtió en un caso de libro del «dilema del innovador«, temió no ser capaz de adaptar su modelo de negocio a la inteligencia artificial, y permitió que OpenAI tomara la primera first-mover advantage real con ChatGPT. Con eso quedó relegada, tanteando mientras el cambio de paradigma devoraba su modelo publicitario. Muchos, yo entre ellos, apostaban por una muerte lenta: un buscador sin clics, un anuncio sin trampa ni cartón, y un modelo de negocio que quedaba obsoleto. Hoy, sin embargo, entramos en otro capítulo: Google parece despertar, contraatacar, y hasta provocar nerviosismo en la propia OpenAI.

Recordemos cómo llegamos aquí: Google lideró el terreno del machine learning y de los modelos de atención, desarrolló infraestructura, talento e investigación. Pero frente a la explosión de la inteligencia artificial generativa centrada en conversación, el buscador actuó con lentitud. Mientras ChatGPT y otros LLMs se posicionaban como amenaza directa al dominio de la búsqueda, porque al final el usuario ya no «busca y hace clic» sino que «pregunta y recibe», el ecosistema de anuncios hiper-segmentados de Google perdió parte de su brillo: ¿para qué hacer clic en un enlace si puedes obtener la respuesta directa? Vivimos una transición del «motor de búsqueda» al «motor de respuestas».

Y es en ese punto donde el modelo de negocio de la publicidad display o búsqueda experimenta una fisura: los usuarios pueden empezar a preguntarse si la respuesta que reciben es la mejor para ellos o simplemente la que alguien pagó para que salga primero. Esa duda erosiona la confianza, elemento clave en el engagement y en la monetización. Como ya comenté el pasado junio y el pasado octubre, el buscador afrontaba un doble problema: tecnológico y de modelo económico.

Pese a ello, Google no se quedó quieta: en los últimos meses hemos visto movimientos que indican que la empresa, al fin, entiende el nuevo juego: el lanzamiento de Gemini 3 (o al menos su anuncio) con funciones multimodales, razonamiento mejorado y agentes autónomos, el de Nano Banana Pro o la potenciación del brillantísimo NotebookLM. Al mismo tiempo, Google está integrando anuncios en su «AI Mode«, es decir, en ese nuevo formato de búsqueda conversacional, y explicando su uso a los anunciantes. Y, no menos importante, la propia compañía ha explicado internamente que la infraestructura debe duplicar su capacidad cada seis meses para seguir el ritmo de la demanda de inteligencia artificial.

¿Es una resurrección? No exactamente: sigue habiendo enormes obstáculos, tanto tecnológicos (capacidades, eficiencia, coste) como sobre todo, de confianza de los usuarios (¿me cuentas la verdad, o me vendes cosas?) y de modelo de negocio (¿Anuncios? ¿Quién quiere hacer clic en un maldito anuncio?). Pero el giro es real, y quizás estemos ante algo distinto: no una fuga hacia delante del pasado, sino una redefinición del papel de Google en la era de la inteligencia artificial.

Tres reflexiones que son, para mí, claves:

  • Primera, el problema del first-mover advantage. Que Google lo tuviera todo para liderar no significa que lo hiciera eficientemente. Dejar que OpenAI tomara esa ventaja le costó un tiempo precioso. Al principio muchos analistas la dieron por muerta. Pero renunciar al primer lugar puede no ser un crimen si sabes redirigir estratégicamente, aunque sí requiere conciencia del error, velocidad de corrección y músculo. Google, con el liderazgo de Sundar Pichai y la inestimable colaboración de un Demis Hassabis elevado a la categoría más alta, parece estar está demostrando ambas cosas.
  • Segundo, el modelo publicitario hiper-segmentado está bajo presión severa. En un entorno de inteligencia artificial generativa, donde el usuario recibe directamente la respuesta, el clic y, por tanto, el enlace de anuncio, podría perder valor. Añadir anuncios dentro del diálogo de inteligencia artificial plantea retos de confianza: según estudios recientes, cuando los usuarios detectan publicidad dentro de respuestas generadas por inteligencia artificial, la confianza baja sensiblemente. Aquí Google parece apostar por un «AI Mode» que transforma tanto el formato como la lógica del anuncio: ya no solo keyword sino conversación, contexto y agente. Si lo logra, podría reinventar el modelo publicitario en la era de la inteligencia artificial. Si no, podría pagar el coste de haber llegado tarde al juego.
  • Tercero, la infraestructura como arma estratégica. Google está invirtiendo masivamente: 75,000 millones de dólares sólo en 2025 según algunas estimaciones. Pero la exigencia de doblar capacidad cada seis meses implica que el reto no es solo dinero sino eficiencia, coste energético, entrega del servicio. Las barreras de entrada en inteligencia artificial no son solo algorítmicas, son físicas: chips, centros de datos, energía, redes. En ese sentido, Google recupera una ventaja que quizá nunca perdió del todo: su ecosistema global, su hardware propio, su inversión en silicio con sus TPU, y su escala, tanto económica como de distribución. Eso puede marcar una diferencia frente a jugadores más ligeros pero menos integrados. Sin embargo la apuesta es enorme y tiene riesgos.

Por tanto, mi conclusión es que es posible que Google no está muerta, sino que esté renaciendo en otro cuerpo, en otra lógica, como dice su reciente memorandum interno, titulado «Reset». El buscador tradicional puede dejar de ser su eje central tal como lo fue, pero Google se está convirtiendo en un jugador serio en el nuevo campo: el de la inteligencia artificial generativa, la infraestructura de gran escala, y la monetización conversacional. Y eso cambia la narrativa: de «Google esperando su ocaso» a «Google reaccionando con todo lo que tiene», que parece estar seduciendo al mercado: las acciones de la compañía han cerrado la semana en su máximo histórico.

¿Significa esto que todo está ganado para Google? De ningún modo. El tiempo perdido cuenta, la confianza del ecosistema importa, y los competidores (OpenAI, Anthropic, Microsoft, etc.) ya están posicionados. Pero la sorpresa es que Google ha pasado de ser «el gigante dormido» a convertirse en el gigante que se mueve. Esa es la noticia. ¿Vamos a abandonar ChatGPT por Gemini 3? No lo sé, por el momento, ChatGPT tiene muchos más usuarios que Gemini: 800 millones de usuarios semanales, mientras que Gemini reporta solo 650 millones de usuarios mensuales, una gran diferencia que refleja la ventaja de OpenAI como pionero. OpenAI conservará a muchos de ellos simplemente por inercia. Pero es inevitable: OpenAI parece haberse quedado atrás, y que recurra a la pornografía sintética como haría un vulgar Grok no es, decididamente, buena señal.

Para los analistas de monopolios y tecnología, este cambio invita a replantear: no se trata solo de ver quién inventó la inteligencia artificial, sino quién la integra, la escala y la monetiza. Y en ese terreno, todo indica que Google podría volver a estar en la partida.


This article is also available in English on Medium, «Google’s AI comeback: three reasons to take it seriously«

23 comentarios

  • #001
    Alqvimista - 23 noviembre 2025 - 11:23

    Es ciertamente sorprendente ver que, efectivamente, Google no estaba muerto, tan sólo estaba dormido. Quizás observando por dónde se movía el mercado antes de reaccionar.

    A su artículo sólo le falta un punto: el acuerdo Apple-Google.
    https://www.elmundo.es/tecnologia/2025/11/06/690cd4effdddff18458b459e.html
    Apple paga [sólo] 1.000 M$ por un modelo reducido de Gemini de sólo 1,2 billones de parámetros que, y esto es lo que más sorprende*, se ejecutará en sus propios servidores de procesadores M de la casa.

    Actualmente Apple deriva a OpenAI las consultas complejas a la IA, pero ha confiado en Google para añadir una verdadera IA a Siri.

    “ Es un plan temporal. A pesar de la millonada del acuerdo, Apple no mantendrá este Gemini personalizado indefinidamente: su plan es reemplazarlo con su propia tecnología tan pronto como sea posible.” Pongamos muchos puntos suspensivos aquí porque vaya usted a sabar qué demonios acabará haciendo Apple.

    ¿Veremos en el futuro cómo o Google paga a Apple más de 20.000 M$ por utilizar GoogleIA como IA preferente a cambio de que Apple no desarrolle su propia IA?

    _____
    * Tal vez alguien con más conocimientos técnicos sobre el tema nos explique cómo es posible tal adaptabilidad del modelo a los diversos procesadores.

    Responder
    • Enrique Dans - 23 noviembre 2025 - 11:58

      Es una pregunta excelente, que toca el núcleo de uno de los avances más importantes en la inteligencia artificial actual: la portabilidad y eficiencia de los modelos. Precisamente esta semana lo comenté en clase: la adaptabilidad de un modelo como Gemini para ejecutarse en arquitecturas de hardware tan diferentes (los servidores de Google con sus TPUs/GPUs y los servidores de Apple con sus procesadores M) no es magia, sino el resultado de técnicas de ingeniería muy avanzadas. Te explico las que creo que son, al menos para mí, las claves fundamentales:

      1. Cuantización: probablemente la técnica más importante. El problema es que los modelos grandes como Gemini se entrenan típicamente usando números de punto flotante de 32 ó 16 bits (FP32, FP16). Esto ofrece una alta precisión, pero consume mucha memoria y potencia de cálculo. La solución es la cuantización: tras el entrenamiento, los pesos del modelo (los «parámetros») se pueden convertir a formatos de menor precisión, como enteros de 8 bits (INT8) o incluso de 4 bits. Esto reduce drásticamente el tamaño del modelo y los requerimientos de memoria. ¿El beneficio? Un modelo cuantizado es significativamente más pequeño y rápido, y puede ejecutarse de manera eficiente en hardware menos especializado, como los procesadores M de Apple, que tienen una arquitectura de CPU y GPU unificada muy potente, pero obviamente no son TPUs dedicadas.

      2. La segunda clave es el uso de modelos relativamente «pequeños» y especializados: como tu mismo mencionas en tu comentario, hablamos de un modelo reducido de «sólo» 1.2 millones de parámetros. En el contexto de la IA actual, eso es relativamente manejable. No es el modelo completo: Google no está intentando ejecutar su modelo más grande (Gemini Ultra, con probablemente más de un billón de parámetros) en un chip M: lo que ha creado es una versión específica (probablemente basada en Gemini Pro o Nano) que ofrece un equilibrio perfecto entre capacidad y eficiencia para el caso de uso de Apple. Es diseño para la eficiencia: los modelos modernos se diseñan desde el principio teniendo en cuenta la eficiencia, usando arquitecturas como Mixture-of-Experts (MoE), donde sólo se activan partes del modelo para cada tarea, ahorrando recursos.

      3. La optimización de los motores de inferencia y del software: el hardware es solo una parte de la ecuación. El software es igual de importante. Las librerías de bajo nivel son extremadamente importante. Tanto Apple como Google tienen motores de inferencia de IA altamente optimizados. Google tiene TensorFlow y JAX (que corre en sus TPUs), y Apple tiene su framework MLX, específicamente diseñado para ejecutar modelos de machine learning de manera eficiente en sus chips Apple Silicon (M1, M2, M3, etc.). Pero además, tienes la traducción de modelos: es más que probable que Google haya entregado el modelo a Apple en un formato estándar (como ONNX, Open Neural Network Exchange), que Apple luego puede optimizar y ejecutar usando su stack de software MLX en sus procesadores M. MLX permite que las operaciones se ejecuten de manera unificada en la CPU, GPU y Neural Engine de los chips M.

      4. Y por último, la arquitectura unificada de los chips M: no subestimemos el hardware de Apple. Los procesadores M tienen una arquitectura de memoria unificada, la CPU, GPU y el Neural Engine comparten la misma memoria física. Esto elimina cuellos de botella al transferir datos, que es un problema común en sistemas con GPUs discretas. El Neural Engine es un bloque de hardware dedicado específicamente para acelerar operaciones de aprendizaje automático (como multiplicaciones de matrices). Aunque obviamente no llega al rendimiento de una TPU, sí está muy optimizado para estas cargas de trabajo.

      Vamos, que para mí, lo que hace que el acuerdo no solo sea posible, sino además, estratégicamente brillante es la combinación de estas técnicas. Google toma su modelo Gemini (o una versión específica de él), aplica cuantización y otras técnicas de compresión, y lo entrega en un formato que Apple puede ingerir. Apple utiliza su framework MLX para optimizar y ejecutar este modelo cuantizado, aprovechando al máximo la arquitectura unificada y el Neural Engine de sus procesadores M. Esto le da a Apple una IA potente y de respuesta rápida para Siri, PERO manteniendo el control sobre la privacidad y los datos (al ejecutarse en sus servidores), mientras sigue desarrollando su propia tecnología. Y le da a Google un pie en el ecosistema de Apple y un flujo de ingresos masivo, manteniéndolo así como un actor muy relevante en la carrera de la IA.

      Es, efectivamente, un movimiento sorprendente que demuestra que la guerra de la IA ya no se juega solo en la nube, sino también en el «edge computing», en los dispositivos y servidores privados, y a través de alianzas estratégicas increíblemente flexibles.

      Al menos, así lo veo yo…

      Responder
      • Juan T. - 23 noviembre 2025 - 12:11

        Creo que Gemini 3 es tan brillante que es capaz de explicar a un niño de 10 años el trabalenguas que acabas de soltar.

        Responder
        • Juan T. - 23 noviembre 2025 - 12:18

          Aquí lo pongo para que lo entienda gente como yo:

          El texto explica cómo la avanzada Inteligencia Artificial Gemini de Google puede funcionar en diferentes tipos de ordenadores, incluidos los de Apple con chips M (como los que usa Apple para Siri).La clave es hacer el modelo de IA más pequeño y más rápido, y que el hardware de Apple esté listo para usarlo.Lo Más Importante (En lenguaje simple)Concepto ClaveExplicación Simple1. Cuantización (Reducción de Peso)La técnica más crucial. Imagina que el modelo de IA es un archivo de altísima calidad que ocupa mucho espacio. La cuantización es como comprimir ese archivo (hacerlo más pequeño). Pasa de usar números muy precisos (como con muchos decimales) a usar números más simples. Esto lo hace mucho más rápido y eficiente para los chips de Apple.2. Modelo EspecializadoGoogle no usa su versión más grande y pesada de Gemini. Usa una versión más pequeña y hecha a medida que es perfecta para funcionar en los servidores de Apple, encontrando el equilibrio justo entre inteligencia y velocidad.3. Hardware de Apple (Chips M)Los ordenadores de Apple están diseñados de una forma especial: el cerebro, los gráficos y el acelerador de IA (Neural Engine) comparten la misma memoria. Esto hace que la IA no pierda tiempo moviendo información y responda de forma casi instantánea.4. Alianza EstratégicaEste acuerdo es bueno para ambos: Apple obtiene una IA potente y rápida sin comprometer la privacidad (porque se ejecuta en sus propios servidores). Google consigue que su IA esté en el ecosistema masivo de Apple.

          Responder
          • Juan T. - 23 noviembre 2025 - 12:23

            Lamentablemente la muy brillante Gemini es incapaz de separar los parrafos de un simple copy-paste

            Responder
        • Enrique Dans - 23 noviembre 2025 - 12:24

          Joer, pues francamente, no me parece que haya «hablado tan raro» como para que le tengas que pedir a una IA que te lo traduzca…

          Responder
          • Juan T. - 23 noviembre 2025 - 12:35

            A ver ,la explicacion ha sido perfecta pero te hago una apuesta.

            Paramos a cien personas por la calle y si encuentras a dos que lo entienda y me lo pueda repetir , ganas.

            Responder
            • Marcos - 23 noviembre 2025 - 17:27

              A veces me da la sensación de que Enrique se olvida de lo que es el ciudadano común.

          • Javier - 23 noviembre 2025 - 13:36

            jajaja… Dans, esta semana me tocó ser testigo de como una persona, luego de que escuchó a alguien que comentó lo de las ganancias de Nvidia, esta persona preguntó en voz alta «¿qué es Nvidia?».

            Está claro que la algunos de los que estamos acá lo estamos por conocer aunque sea de oídas de algunas cosas, o por querer saber sobre ese tema de parte de alguien versado en ello, pero otros (infiero que una gran mayoría) desconocen los ríos subterraneos sobre los que están parados, porque por definición son subterraneos.

            Sin querer sonar derogatorio, pero a esa gente hablarle de «cuantización», «neural engine», y demás palabros, es chino básico.

            Responder
            • MAGI - 23 noviembre 2025 - 14:20

              Levanto la mano. Me gustan mucho los temas que aquí se tocan y el rigor con que se enfocan, pero entiendo lo justito , ya que no me dedico profesionalmente a ello. Y si que me ha resultado incomprensible la explicación de Enrique en respuesta a Alqvimista.
              Entiendo que este blog no trata de hablar para legos y disfruto habitualmente mucho de lo que se comenta. :)

          • Alqvimista - 23 noviembre 2025 - 15:11

            Un punto de razón sí tiene Juan T., hay que tener un cierto conocimiento técnico para comprender los términos.
            Estoy muy lejos de tener los conocimientos de usted o de Buzz en estos asuntos, pero ser informático ayuda mucho a comprenderlos, pero si no los términos suenan mucho más extraños.

            Sea como fuere, yo, agradecido.

            Responder
            • Buzzword - 23 noviembre 2025 - 15:23

              Gracias por la referencia !!

              Considerar maravilloso un LLM de 1.2B es algo que tengo lejos de mi percepción sensorial.

              Si Apple no puede destilar un LLM es algo que habría que mirarse en el espejo de la autocrític, cuando el gobierno español lo tiene en abierto,…

              https://alia.gob.es

              PS: Me quejo del mejor LLM en 7B, (qwen) como para opinar de otras mierdas…

            • Alqvimista - 23 noviembre 2025 - 15:53

              Tienes razón, Buzz, el problema es que Apple es una lenta ballena y el mundo de la IA es un mercado de rápidos tiburones.
              Tal vez no sea tanto incapacidad de hacerlo sino incapacidad de hacerlo a la velocidad demandada.

              También que las inversiones se están volviendo obscenas.
              Hay quien ha comparado la política de Apple con la película “Juegos de guerra”:
              Joshua: Saludos, profesor Falken.

              Stephen Falken: Hola, Joshua.

              Joshua: Un juego extraño. El único movimiento ganador es no jugar.

              Tal vez, como Google, están esperando a ver cómo acaba esto para hacerlo, y mientras tanto usan lo que otros hacen.

        • Dedo-en-la-llaga - 23 noviembre 2025 - 15:18

          Esto te pasa y os pasa por querer entenderlo todo, y no hacer el ejercicio de lectura que permita quedarse con el «conceto». Y claro, luego pasan las cosas que pasan…

          Responder
      • Alqvimista - 23 noviembre 2025 - 15:34

        El M5 ha sido diseñado para dar un gran salto en el proceso de IA, pero Apple está diseñando junto con Broadcom un chip específico para sus servidores.
        Las noticias tienen más de un año, así que no deberíamos tardar mucho en tener noticias. Supongo que en paralelo a la aplicación de la nueva AI.

        «“Baltra”: el chip de servidor AI que quiere aspirar a ser el rey

        Lo más llamativo de la filtración es la existencia de un chip para servidores de IA, de nombre en clave “Baltra”, desarrollado junto a Broadcom. Este procesador estaría siendo probado en configuraciones que multiplican por dos, cuatro e incluso seis los núcleos CPU y GPU del ya potente M3 Ultra.

        Para ponerlo en perspectiva, el M3 Ultra cuenta con hasta 32 núcleos CPU y 80 núcleos GPU. Las versiones más ambiciosas del chip “Baltra” podrían llegar a 192 núcleos CPU y 480 GPU, cifras impensables hace apenas unos años, que lo posicionarían como uno de los procesadores más poderosos del sector.»
        https://www.hardwarepremium.com/noticias/18278/apple-prepara-un-salto-colosal-en-rendimiento-con-sus-proximos-chips-m6-m7-y-un-servidor-ai/

        Responder
        • Alqvimista - 24 noviembre 2025 - 08:52

          Por cierto, interesante podcast sobre cómo está construido el nuevo M5, por qué es tan rápido* y qué se puede esperar de sus sucesores los M5 Pro, Max y Ultra.

          «Qué significa que generar el primer token sea 4 veces más rápido en el M5. Por qué la generación posterior solo mejora un 20-27% (y por qué tiene sentido) Hablamos de MLX y cómo ejecutar modelos de 30B parámetros en tu MacBook Pro sin despeinarse.»
          https://youtu.be/5odlJDRORIE
          https://pca.st/episode/d2d13f97-e5ff-4c5c-947a-004d294304ac

          Responder
    • Santo - 23 noviembre 2025 - 16:16

      Llevamos 10 años con youtubers mezclando contenido con anuncios y parece que no han perdido interés.

      Igual deben clonar el modelo…

      Responder
  • #018
    Gorki - 23 noviembre 2025 - 13:37

    Sique teniendo como tarea pendiente, cómo monetizar su buscador, Hablo de mi experiencia personal, que no se si seráa general, o no, En la inmensa mayoría de las consultas a Google, me quedé en la respuesta de la AI. sin acceder a páginas web.
    .
    1º.-¿Como puede esto afectar a Internet?.,- ¿Puede ser el fin de las participaciones de todos excepto los «fenómenos» como Edans, porque las páginas que vivian de la audiencia enviada por Google no tiene hoy un umbral de visitas que las haga atractivas, (el cao de mi blog, que «falleció» porque Google dejó de enviarme lectores).

    2º.- ¿Tendrá Google suficientes ingresos para pagar la energías y el hadware de las operaciones para generar un respuesta, con los únicos anuncios que pueda colocar, en la pagina de la respuesta AI?

    Responder
    • Buzzword - 23 noviembre 2025 - 15:26

      El negocio de google no es tener un determinado producto que de más o menos dinero es que vayas a ALPHABET y ver en cada Q su stock, y sus financials. Lo mismo podemos decir de Llama y de Meta.

      ¿ganan pasta por vender humo y anuncios? Pues olé

      Responder
      • Lua - 23 noviembre 2025 - 16:18

        — IA, hazme una tortilla.
        — Lo siento, cariño. Tu suscripción a esta casa es el «Plan Básico con Anuncios».
        — ¿Y eso qué incluye?
        — Pan con tomate. Para que te haga la tortilla necesitas el Plan Family Premium.

        y asi… XDDD

        Responder
        • Gorki - 24 noviembre 2025 - 00:19

          De mi entorno, donde por ejemplo, hay muchos suscritos a Netflix, no hay nadie suscrito a una AI- Le va a ser difícil conseguir suscripciones de los particulares, otra cosa son las empresas con que contraten y agentes autónomos especialmente diseñados para su negocio.

          Responder
  • #022
    Guillermo - 23 noviembre 2025 - 15:13

    No es la primera vez que una tecnología pionera desaparece por la competencia de otra compañía y si no que le pregunten a xerox por su sistema de ventanas.
    OpenAi, salió de la línea de salida y puso eje ella y sus adversarios una gran distancia, pro últimamente está más centrada en alianzas económicas que en potenciar su producto.
    O se ha dormido en los laureles y google la esta adelantando a base de crear un producto mejor y ponerlo disponible a todo el mundo a base de perder dinero o OpenAi, tiene una meta que no es agua mismo mejorar si llm…
    Ya veremos…. pero que cantidad de dinero se está quemando en esa carrera.
    Mientras en otros países se apuesta por modelos más baratos y de código abierto.

    Responder
  • #023
    Xaquín - 23 noviembre 2025 - 17:26

    «transición del «motor de búsqueda» al «motor de respuestas»(EDans).

    Dejando de lado la duda clave de si estás usando el concepto de cuantización con todo el rigor necesario (parece como la inclusión x integración), digamos que me quedo, como siempre, con una frase pertinente…

    Memorizar mecánicamente (chapar) viene a ser como usar un motor de respuestas. Mayor desprecio a un cerebro humano es imposible. Y también al algoritmo… En su tiempo se llamaba libro de texto!!!

    Mientras que un motor de búsqueda, el uso «normal» de una inteligencia humana no mediocre, significa que hay una búsqueda, correspondiente a una pregunta… y que se busca la respuesta que mejor se adapte a ella (la exactitud tiene poco de científica… no es lo mismo que precisión)… con el colofón correspondiente, de que ESO llevará a otra pregunta, más específica (más precisa)… y así hasta el infinito… o más bien, hasta que se canse el circuitado mental de hacer preguntas y organizar respuestas en el tejido neuronal correspondiente (ah, la famosa eficiencia)…

    En fin, como dice el otro, sigue siendo muy interesante seguir navegando por estos mares.

    Y, como no, el conformismo (con la primera respuesta) y la sacrosanta mediocridad al poder… (para ponerse en onda con esta España nuestra)

    Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.