¿Qué podemos deducir de los asistentes de inteligencia artificial de Apple, Amazon, Meta y Google?

IMAGE: A user silhouette surrounded by three AI archetypes—sleek orb (device-native), smart speaker hub (commercial), and colorful data-nodes (ad-driven)—with a tiny DIY robot on a desk hinting at personal superintelligence

Si hace una década discutíamos qué app se quedaba con nuestra atención, hoy la batalla es otra: se trata de quién la va a intermediar. Los asistentes de inteligencia artificial se están convirtiendo en la puerta de entrada a todo lo que hacemos en un ordenador: búsqueda, compras, medios, trabajo. Quien gane esa interfaz decidirá qué vemos primero, qué opción consideramos «predeterminada», buena parte de la narrativa que nos rodea y cuánto de nuestra vida pasa a través de su modelo de negocio.

En ese contexto, tres estrategias están en colisión. Apple, fiel a su intuición respecto a la privacidad, está integrando una capa de inteligencia llamada Apple Intelligence directamente en los dispositivos que ya usan las personas, con modelos locales y un nuevo Private Cloud Compute para las consultas más exigentes. Amazon apuesta por Alexa+, un asistente de pago, más activo, capaz de ejecutar tareas completas. Y Meta propone un mundo de «superinteligencia personal», asistentes altamente contextuales y personalizados, diseñados para ti más que para una plataforma.

Cada visión es coherente y está impulsada por incentivos distintos, y cada una apunta a un futuro dividido: una pequeña élite disfrutará de asistentes a medida, de alto rendimiento y muy personales; la mayoría vivirá dentro de asistentes comerciales «de talla única».

La jugada de Apple es la más previsible, pero también una de las más profundas: Apple Intelligence mantiene tanto como sea posible en el dispositivo, y cuando se necesita la nube, lo hace dentro de un envoltorio de privacidad verificable. Esa es la promesa detrás de Private Cloud Compute, que extiende la seguridad del dispositivo al centro de datos, sosteniendo las nuevas funciones de Siri y los sistemas de redacción, imagen y notificaciones anunciados en WWDC25.

Para los desarrolladores, Apple ha abierto acceso al modelo local, permitiendo que las apps lo utilicen sin enviar tu vida a terceros. Es el manual de Apple aplicado a la inteligencia artificial: integrar, mitigar riesgos y convertir la confianza en un muro de retención.

Amazon aborda la jugada de otro modo: convierte al asistente en un agente capaz de realizar acciones complejas, cobra por ello y utiliza el ecosistema Prime para difundir su adopción. Alexa+ no es una simple capa sobre el Alexa actual: utiliza lenguaje más natural, integra acciones de terceros y cuesta 19,99 USD/mes (gratis con Prime). El modelo económico importa: pagar por el asistente lo transforma de un producto perdedor en uno con su propio resultado financiero, justificando los recursos computacionales que demanda.

El impulso tardío de Google expone lo que está en juego: Gemini for Home empezará a reemplazar Google Assistant en los dispositivos Nest, con versiones gratuitas y de pago, y una experiencia más conversacional y contextual. Cuando cambia el comportamiento más allá de la «palabra de activación», sabes que la jugada es seria, un auténtico reemplazo.

Luego está Meta. Mark Zuckerberg ha empezado a hablar de «superinteligencia personal», cambiando el enfoque de un asistente que vive en una app a una inteligencia que habita tu contexto personal, en múltiples dispositivos, servicios y dominios de conocimiento. Su arquitectura es clara: modelos que pretende vender como de código abierto (desde Llama 3.1) afinados con tu propio corpus, ejecutados localmente cuando es posible y usando cómputo ajeno cuando es necesario. La magnitud de la inversión demuestra tanto el compromiso como cierta desesperación.

Dos clases de inteligencia artificial para usuarios

Lo que esto significa para las personas reales es bastante simple: se están formando dos clases de asistentes de inteligencia artificial:

  • Clase A: una minoría con los recursos, el tiempo o el respaldo institucional para construir su propio asistente superpotente: con base de conocimiento personal, memoria continua, herramientas propias, privacidad controlada y capacidad para inyectar datos específicos (documentos, contratos, código, archivos) en cada respuesta. Las piezas ya existen: modelos de código abierto que puedes ejecutar tú mismo, integraciones como Home Assistant que dan control local a un LLM, y herramientas sobre escritorio que convierten el concepto de un «segundo cerebro» en realidad de trabajo. Es geek, sí, pero mucho menos exótico que hace un año.
  • Clase B: la mayoría, que usa el asistente predeterminado de la plataforma —porque venía con el teléfono, está incluido en Prime o remplazó al asistente de tu altavoz inteligente. Serán competentes e incluso encantadores. Pero también estarán moldeados por los incentivos de la plataforma: un gigante del comercio priorizará ventas para sus asociados, una empresa centrada en publicidad optimizará el descubrimiento dentro de su ecosistema, un fabricante de hardware buscará retenerte. No es conspiración. Es el sentido mismo de tener un asistente. En los asistentes financiados por publicidad, el incentivo sigue siendo vender anuncios: aunque insistan en que «no venden tus datos», la tecnología de pujas en tiempo real replica tus señales de comportamiento a decenas de terceros en cada subasta. Reguladores y académicos ya critican esta difusión omnipresente de datos. Estos asistentes continuarán convirtiendo tu vida en señales vendibles, y la mayoría aceptará el intercambio porque la conveniencia enmascara el verdadero costo de la privacidad perdida.

El mercado se ordena solo

Observa las nuevas barreras de pago por capacidades: Apple incorpora inteligencia en los dispositivos que ya compraste, Amazon vende una capa más potente con Alexa+, Google prepara versiones gratuitas y de pago de Gemini for Home. Así se ordena el mercado: usuarios comunes obtienen una experiencia básica competente; los más exigentes pagan por más autonomía; y las empresas construyen sus propias infraestructuras. En medio, una cola larga de entusiastas ensambla modelos locales, datos personales y automatizaciones que se sienten hechas a medida… porque lo son.

Si el modelo de negocio es publicidad, espera que el asistente optimice para momentos monetizables, usando los datos que recolecta para alimentar un mercado que los reguladores aún intentan contener, ya sea con el retroceso respecto a las cookies o juicios antimonopolio sobre ad-tech. Como sucede siempre en modelos publicitarios, tu atención —y el rastro de tus acciones— es el producto. No venderán tus datos como una tabla CSV, pero sí venderán acceso a tu perfil, una y otra vez, a velocidad de subasta.

Poder y cultura: se pre-ordenará el mundo para ti

Si tu asistente conoce tus archivos, tu historial, tus gustos y tus limitaciones, deja de ser una caja de chat y se convierte en un motor de contexto. Puede liberar tiempo —menos pestañas, menos fricción—. Pero también tiene un lado más oscuro: se normalizan los valores de un solo proveedor, no porque los hubieras elegido, sino porque vinieron integrados con el dispositivo que escucha tu voz. Cuantas más decisiones deleguemos a agentes, más deberemos cuestionar de quién es ese agente.

¿Qué deberíamos observar?

Tres preguntas simples lo resumen todo:

  1. ¿Quién paga? Si no pagas tú, eres el producto. Si pagas, ¿qué cuenta se mide? ¿tokens, tareas o tiempo? Alexa+ explora explícitamente esa transacción, mientras el retroceso de Google sobre la eliminación de las cookies muestra hasta qué punto los ecosistemas publicitarios no están dispuestos a soltar sus fuentes de datos.
  2. ¿Dónde reside tu contexto? Apple apuesta por privacidad verificable con PCC; Meta por pesos abiertos y portabilidad; Google por «Gemini en todas partes». Los detalles importan: no si tu asistente «recuerda», sino cómo lo hace, si lo hace para ti o sobre ti.
  3. ¿Puedes llevártelo contigo? Las primeras señales de un modo DIY (Home Assistant, LLM locales, flujos de trabajo estilo «segundo cerebro») sugieren un camino en el que el asistente es un artefacto que posees, no una suscripción que alquilas.

Un futuro dual en ciernes (pero vigilado)

También está la cultura de lo predeterminado. La mayoría no construirá su superinteligencia personal; usará lo que venía en el teléfono, el altavoz o la app social —y esos asistentes pertenecen a compañías que monetizan mediante profilado y segmentación. Los tribunales y reguladores europeos han empezado a intentar frenar ese modelo; mientras en los Estados Unidos, el stack publicitario sigue diseminando datos a escala planetaria. La conveniencia existe —pero el costo en privacidad también.

¿Cómo elegir?

Mi apuesta: coexistirán ambos mundos. Una minoría creciente, pero minoría al fin y al cabo, ensamblará su propia «superinteligencia personal» —una versión de un «RAG con esteroides» bien afinada a su corpus y valores—; pero la mayoría desconocerá esa alternativa y vivirá con los asistentes que vengan incluidos en sus dispositivos o suscripciones.

Si aspiras al primer camino: comienza por poseer tu contexto: conserva notas, documentos e históricos en formatos portables; experimenta con modelos locales; evita atarte a la interfaz de un solo proveedor.

Si prefieres el segundo (o estás sin tiempo para seguir este texto): al menos sé consciente de qué incentivos estás adoptando — ese asistente estará optimizando algo; asegúrate de que esté optimizando para ti.


(This article was previously published on Fast Company)

40 comentarios

  • #001
    Lua - 5 septiembre 2025 - 12:01

    Me vais a perdonar lo mal sonante de mis palabras, pero…

    Los cojones voy a dejar mis datos y mi vida privada en manos de “esos terceros”, por más garantía que me pongan por medio (y menos aún, Amazon, Google o Meta). (y menos aún, pagando).

    No me fui de las redes sociales para ahora regalar otra vez mi vida solo para ahorrarme cuatro clicks.

    Lo mejor, es un modelo local, y de esto ya hemos hablado extensamente. Al principio parecía ser una cosa de muy locos o de mucho dinero. Pero mientras esperamos el “cacharro” de Nvidia para ello (ya debería estar a la venta), tenemos soluciones más o menos “háztelo tu mismo por cuatro duros” (i9 + 64RAM + 5090, unos 2500 lereles) o directamente, soluciones ya preparadas como esta de ACER Acer Veriton GN100 que soporta modelos 70B y entrenamiento.

    En otro orden de cosas (casi Offtopic), dos noticias se leen mejor juntas:

    Satya Nadella says as much as 30% of Microsoft code is written by AI

    Nueva actualización de seguridad de Windows: nueva oleada de problemas

    En fin…. XDDD

    • Enrique Dans - 5 septiembre 2025 - 12:44

      Pues eso, «sorpresa»: un lector de esta página no pertenece a la Clase B, sino a la Clase A. Lo esperable.

      • Lua - 5 septiembre 2025 - 13:00

        Creo que en cuanto refiere a la IA hace falta formación. Pero no sobre la IA en si misma (que también y por supuesto) sino formación, en tanto a que esa “cosa mágica”, puede estar en tu salón, sin esos “terceros”.

        Actualmente podríamos decir que si, que es cosa de Geeks, pero porque la gente (o las empresas) no saben que se puede hacer. Solo se publicita que tal BIG ha sacado esto o aquello. Y vamos a por las suscripciones.

        Otro error, que creo que China, esta solventando con cierta solidez, es no apostar por el santo grial de la AGI, sino por pequeños modelos dedicados a sectores concretos (medicina general, radiología, análisis, electrónica, mecánica… etc) Es decir, personalmente (igual me equivoco) creo que los pequeños modelos dedicados y -especializados-, van a tener a la larga mucho mas futuro, que una IA generalista que vale para todo.

        No se… yo solo pasaba por aquí… :P

    • Gorki - 5 septiembre 2025 - 13:22

      ¿Utilizas teléfono móvil´? ¿Has pemsado el reguero de datos que das a Movistar?

      Número IMEI (identidad internacional de equipo móvil), número de serie teléfono junto con todos los datos de registro personal como nombre, correo electrónico, número de teléfono, fecha de nacimiento y foto de perfil.
      En donde estas y por donde te mueves, en tiempo real, almacenando historial completo de ubicaciones, rutas frecuentes y patrones de movimiento. Esta información, combinada con metadatos de fotos (datos EXIF), revela no solo dónde estás, sino dónde has estado y cuándo. A quien te acercas., si por su parte lleva movil.
      Registro detallado de todas tus llamadas (números contactados, duración, horarios), mensajes de texto enviados y recibidos, y tu consumo de datos móviles con sitios web visitados y aplicaciones utilizadas.

      ¿De veras te preocupa, que además sepan algo de ti por las RRSS o el Asistente personal.?

      • Lua - 5 septiembre 2025 - 13:44

        Espera espera…. Que Gorki acaba de descubrir la sopa de ajo…

        Gorki, me echas en cara lo que, si tiramos de hemeroteca en estas mismas líneas, te he estado contando en infinidad de ocasiones mientras lo negabas??? Has visto la luz???

        Por lo pronto deja la IA, que se nota desde Villaconejos.

        Tu IMEI, es como el numero de bastidor de tu coche. Único. Que conduzcas un coche, no implica que estes en Villaconejos, a menos que no pongas otros “atractivos” en marcha, como pueda ser activar un GPS. Que tengas un móvil, no implica mucho más, sino haces lo propio.

        Y lo “propio” (sea un coche o un móvil) es lo que te delata.

        – El Exif de mi cámara? Solo si comparto mi foto en redes, que no tengo. (y eso, si lo tengo activado).

        – El número de teléfono? Solo si, “solo” tengo una SIM. (o si mi móvil, solo acepta una, que no es mi caso).

        – En donde estas y por donde te mueves, en tiempo real, almacenando historial completo de ubicaciones, rutas frecuentes y patrones de movimiento…??? Solo si das permisos para ello o si, porque desconoces que existen alternativas, estas ligado a los servicios de Google, que tampoco es mi caso.

        El resto de chorradas que intentas usar para desacreditar “no_se_que” de mi comentario, porque para variar, te vas por los cerros de Ubeda y despistas con argumentos que no vienen al caso, y son tan “chumineros”, que ni hace falta responderlos. Hay una cosa llamada GPRD que priva a tu operadora de hacer uso de dichos datos, y si lo hace, denuncia al canto. A diferencia, de como se decía en el articulo anterior, esas BIG’s, que como vemos, las leyes se hacen a su conveniencia, a nuestras operadoras, si les caen paquetes, aunque no todo lo fuerte que deberían ser.

        Como no tengo RRSS ni Asistentes personales, vivo muy tranquilo. Si quieren, sabrán lo que precisen sobre mí. Pero se lo pongo más difícil que tú, que por muy Felix Maocho o Perico Palotes que te hagas llamar, no dejas de ser ese ID que es en lo que ellos se fijan.

        Y sí. Como yo si sé que son y cómo funcionan los punteros, porque si he sido informático de verdad y no de comic, pertenezco a esa «Clase A» a la que alude eDans.

        Es Viernes… XDDD

        • Gorki - 5 septiembre 2025 - 22:45

          Hay una cosa llamada GPRD que priva a tu operadora de hacer uso de dichos datos, y… Ja, ja. ja

          • Lua - 6 septiembre 2025 - 00:02

            Los punteros bien?

            Perplexity te ayuda con eso? O sigues sin puta idea, ni aún con IA?

    • Dedo-en-la-llaga - 6 septiembre 2025 - 02:15

      Yo nunca fui tan feliz como cuando, ya dije cienes de veces, bloqueé TODAS las updates de Windows 10. Más feliz y más seguro. Y es exactamente lo PRIMERO que voy a hacer cuando me vea obligado a cambiar de PC.

      • f3r - 6 septiembre 2025 - 11:48

        La felicidad solo llega cuando te pones linux…todo lo demás es ver el mundo por un agujero, jeje.

      • Chema - 6 septiembre 2025 - 14:14

        Al ver alguna de las ultimas «cositas» que Microsoft ha añadido a Windows, y que no se pueden quitar facilmente, en mi casa iniciamos el proceso de eliminación total de Windows. Y he de decir que el resultado ha sido fantástico. La instalación de muchas distros es hoy en dia tan sencilla como la de Windows, sin tocar el terminal, y hasta ahora no echamos de menos ninguna aplicación incluyendo juegos. Si está en Steam, casi seguro que funciona en Linux.

  • #011
    Chema - 5 septiembre 2025 - 12:37

    Ya hace años que mediante VPN redirijo todo el trafico de datos de los móviles de la familia a través de la conexión de casa, y eso nos está permitiendo poco a poco montar el «cluster-asistente familiar» con el control que mi mujer ejerce sobre el presupuesto como única limitación.

  • #012
    Enrique Dans - 5 septiembre 2025 - 12:47

    Me interesa vuestra opinión sobre este tipo de artículo: para Fast Company, donde escribo directamente en inglés, estoy usando un formato más largo, más detallado y que baja un poco más al terreno de los interesados en inteligencia artificial, no tan generalista como aquí. De ahí que el formato incluya listados, clasificaciones, secciones, etc. y baje un poco más a lo técnico (dentro de mis limitaciones, claro). En parte soy yo, en parte mi editor allá, que es quien me contactó originalmente.

    ¿Opiniones?

    • Lua - 5 septiembre 2025 - 13:04

      Pues si no fuera porque creo conocerte, la primera impresión ha sido “se te ha ido la mano con la IA”…. (porque sería la típica respuesta que daría un Gepeto) XDD

      Pero mi fe en ti, me impide desplegar mi mala leche… XDDD

      Creo que esta bien argumentado y bien, no se si la palabra seria “editado”. Pero se entiende, que es lo primero de todo y esquematizar, algo que todos odiábamos cuando estudiábamos, con los años se demuestra que es siempre la mejor opción para “comprender”.

      • Enrique Dans - 5 septiembre 2025 - 13:31

        No, utilizo ChatGPT para asegurarme de que el inglés está correcto (y por supuesto para algunas búsquedas, documentar enlaces, etc., como hago cuando escribo en castellano), pero eso es todo. No voy a pedirle que escriba por mí cuando a mí lo que me gusta precisamente es escribir…

        • Lua - 5 septiembre 2025 - 13:49

          Pues por mí, puedes hacer todos los artículos igual. Quizás será más trabajo, no lo se. Pero esa esquematización te favorece. Si me lo permites, a veces te pierdes con mucho recurso lingüístico. Hay artículos que mas cortos y específicos, quedarían más claros.

          • Marcos - 5 septiembre 2025 - 15:11

            Totalmente de acuerdo con este comentario de Lua. Me ha sorprendido lo bien desarrollado y/o estructurado que hoy estaba.

            En cuanto al artículo en sí…, está esta es de esas veces que me siento, callo y escucho. Lua propone soluciones por “módicos” 2500 euros mientras que a Chema el límite económico se lo pone otra persona, lo que me ha hecho sentirme bastante identificado.

            Yo sinceramente, de momento no puedo permitirme por conocimientos ni economía una solución así, así que engroso el modo B (“siempre la B” que diría alguno en algún sitio que yo me sé…).

            La verdad es que cuando comenzáis a usar palabrotas como Cluster y demás… la cabeza se me embota. Me siento como hace 20 años como cuando por mi cuenta quería aprender de WordPress y la cabeza me iba a explotar a la primera de cambios.

            No se rían de mí por favor.

            • Chema - 5 septiembre 2025 - 17:21

              Precisamente por tener el presupuesto «supervisado» (aunque a veces es ella la del «lo barato sale caro, si vamos a hacerlo, hagámoslo bien») suelo empezar las cosas en pequeñito y voy escalando.
              Mis primeros experimentos con IA en local los hice, con ayuda de ChatGPT, instalando Ollama en un LXC sin GPU (que para el que no lo sepa, es utilizar una fracción de la potencia del equipo en el que esté instalado) Funcionaba muy lento, pero funcionaba. Luego poco a poco fui ampliando aprovechando que cuando cambio de PC no tiro el viejo.
              Está claro que si quieres tener en casa una «IA para todo» que responda inmediatamente vas a necesitar presupuesto, pero para tareas sencillas y especializadas, ni de lejos necesitas los 2500 leuros que sugiere Lua (aunque molaria tenerlos).
              Mi primer enfoque iba en la línea de montar una IA que sirviera para todas las necesidades, presentes y futuras, pero luego aprendí que eso genera problemas, principalmente 2:
              – Hay que especificar en el prompt de qué va la cosa, para que no te de la receta del arroz con leche cuando le digas que añada leche a la lista de la compra.
              – Si se «cambia de tema» frecuentemente, tiende a olvidarse de cosas y aumenta la alucinación
              Eso me ha llevado a pensar que una IA General solo sirve servirá para crear problemas. No necesito que mi clasificador de fotos sepa actualizar la lista de la compra, ni que la domótica de casa sepa analizar una radiografía. Desde el punto de vista académico una IA-G puede sonar estupendo, pero tiene pocas utilidades prácticas.
              Como lo tengo montado ahora es con un cluster (palabro que significa «equipos interconectados») de mini-ias especializadas trabajando en paralelo, cada una en lo suyo.

            • Marcos - 5 septiembre 2025 - 18:35

              Gracias por la respuesta, Chema.

              Sinceramente debo de reconocer que ahora mismo no tengo material “viejo” con el que pueda trastear, tiempo para ello (tengo la agenda de un ministro serio) y pelas… estamos en modo economía de guerra casi.

              Supongo que la privacidad es algo que en el futuro será si no lo es ya, un concepto de lujo.

              Por otra parte, sí que veo bastantes opiniones sobre la IA. Yo en mi caso no necesito que me ayude con labores del hogar. Hasta ahora la he usado en algo tan “superfluo” como edición y diseño de imagen, pero de manera bastante autodidacta.

              De manera igualmente sincera, estoy ansioso en mi nuevo horizonte académico, ver cómo se le puede exprimir bien. Ya nos han dicho hoy que vamos a trabajar duro con ella. Veremos.

    • Benji - 5 septiembre 2025 - 13:32

      Pues me pareció bueno. Iba a ponerlo en un comentario pero ya te adelantaste.

      A nosotros posiblemente nos ayudará a inferir mejor sobre cual de tus aseveraciones responder.

    • Gorki - 5 septiembre 2025 - 13:40

      Me interesa todo lo referente a los asistentes virtuales, porque creo que es algo que yo mismo utilizaré y no tengo claro cual es su utilidad real, las implicaciones que suponen su uso y la «influencia» que pueda tener el asistente a las decisiones que tome.

    • Chema - 5 septiembre 2025 - 15:39

      Efectivamente, como dice Lua, a primera vista el cambio de estilo hace pensar lo ha escrito una IA, pero luego leyendo el articulo está muy claro que no es así.
      Creo que depende del enfoque que tu, el autor, le quieras dar a cada articulo, en ocasiones querrás ser mas generalista, y en ocasiones mas detallista.
      Personalmente, yo te voy a leer con el mismo interés independientemente del formato, como hago desde hace muchísimos años, aunque raramente comente.

    • Javier - 5 septiembre 2025 - 18:10

      …hemmm*, el formato me parece muy bueno y me gusta que haga énfasis en algunas cuestiones más técnicas. Voto por que, cuando el contenido lo amerite, mantengas este formato…

      * Ahora, (ya que se me debita religiosamente de la tarjeta de crédito mi suscrpción mensual a este blog, y como cliente me creo con derecho a reclamar lo que se me ocurra), para ser denominado «largo», me quedé con gusto a poco, pero quizás sea porque esté sesgado por el hecho de que el tema y sus ramificaciones me interesan.

      • Enrique Dans - 5 septiembre 2025 - 18:21

        Eh, eh, eh… ¿en qué cuenta has dicho que se ingresa esa suscripción???? :-D

    • RaulSB - 7 septiembre 2025 - 12:49

      Para temáticas técnicas me gusta más. Permite tratar los distintos puntos de una forma más independiente y me resulta más claro y sencillo de seguir.

      Me atrevo a animarte a que vuelvas a repetirlo.

      • Enrique Dans - 7 septiembre 2025 - 13:22

        No, no creo que lo haga. A lo mejor me he explicado mal: yo el artículo lo escribí como siempre, de corrido, sin secciones ni nada parecido. Está así porque mi editor en Fast Company lo prefiere, y por tanto, lo retocan (en formato, sin tocar el contenido) antes de publicarlo. Después, yo retomo ese artículo y lo traduzco con ChatGPT para publicarlo aquí, y lógicamente, replica la estructura. Pero yo no escribo así, yo simplemente me pongo a escribir y no me preocupo de más. ¿Podría hacerlo? Posiblemente, pero tal y como escribo, seguramente me distraería demasiado…

    • Greg - 7 septiembre 2025 - 16:09

      Me ha chiflado, tanto en el fondo a pesar de no entenderlo del todo, como en la forma super estructurada con 2 soluciones (Clase A & B) y Preguntas tipo F.A.Q. totalmente acertadas en cuanto a la elección y con sus respuestas precisas, concisas y didácticas (What else ?)

      Resultado final: guardado (Clase A, obvio) para enviar al proveedor en cuanto toque pedirlo implementar para mi empresa.
      PS: sí, por supuesto que haré el ingreso correspondiente en la misma cuenta que Javier :-D

  • #027
    Enrique - 5 septiembre 2025 - 13:04

    Tengo prácticamente todo mi vida personal y profesional desde hace bastantes años en Notion. Antes en un blog que también he importado a Notion.

    Si bien esta solución no es autohospedada (también estuve en Obsidian, pero no me apañaba), al menos si que permite exportar en markdown si algún día fuera necesario.

    Pero para la parte de asistentes y chatbot si que lo tengo claro: Notion MCP y ollama en local.

    Os lo recomiendo si os queréis entretener una tarde.

    • Buzzword - 5 septiembre 2025 - 13:24

      Ollama en local con obsidian es un juego de niños. Te bajas el plugin de conexión, y ya…

      Otra cosa es que mucha gente podrá preguntarse ¿para qué?. Eso es como el que usaba excel por los colores…

  • #029
    Buzzword - 5 septiembre 2025 - 14:56

    Espero que perdonéis pero aqui viene un comentario de un clase B sin más !!!

    Apple Intelligence no es un asistente como Alexa o Siri. Es un sistema de IA integrado en el dispositivo (no un asistente por sí mismo), aunque pueda potenciar funcionalidades que muy poquitos veran enSiri.

    Apple Intelligence, no está «tardando» simplemente solo está disponible en modelos recientes mediante iOS 18.1 (lanzado en octubre de 2024) y desde abril de 2025 en Europa. En la práctica eso hace que una mayoría «nunca llegará», salvo que se actualicen y pasen por caja (as usual)

    Pero casi mejor que no tengan acceso a las cagadas de Apple Intelligence, asi no accederan a esos resumenes que decían que Rafa Nadal era gay, o que habían arrestado a Netanyahu,…. ¿o no nos acordamos de la suspensión temporal de la función en iOS 18.3 beta? ¿o no nos acordamos de la demanda colectiva de accionistas durante la WWDC2024 cuando Apple se fue de bareta con su venta de humo (progreso IA)? ¿ Y el reportaje de The Information con sus fallos, salidas de talento? ¿Y claro la demo de SIRI en WWDC2024 que daba vergüenza ajena todo un alarde de animación visual?

    Y para flash, ese estudio que afirmaba el colapso de los modelos razonadores que en su momento comenté. Lo de la inteligencia manzana, es una tras otra. Mucjho sacar pecho de su política de privacidad de Apple, restrictiva como es, limitó la recopilación de datos para entrenar sus modelos, lo que lógicamente impactó negativamente en su capacidad tecnológica frente a competidores… lo de la privacidad está muy claro, cuando tienes los huevos pelados, pues pones un disclaimer o un botoncito…
    Que hicieron el año pasado: básicamente la gilipollez de renovar el look and feel… Manda Huevos !!!

    No hace falta creerse un clase A para tener un RAG. Hoy existen herramientas sencillas como LM Studio, AnythingLLM, Ollama o PrivateGPT que permiten montar entornos RAG de forma local sin altos requerimientos técnicos ni integración compleja.

    La IA para quien se la trabaja con pocos medios. Como un servidor o los propios chinos, que les dan mil vueltas.

  • #030
    Lua - 5 septiembre 2025 - 17:06

    Yo no se, si tiene que contestar un Clase A, B o C… XDDD

    Pero a Alqvimista le estan creciendo los pelos de los huevos esperando respuesta… XDDD

    • Buzzword - 5 septiembre 2025 - 17:18

      Acabo de leer la referencia de LUA…

      Pregunta:

      Tienes un modelo instalado en local en tu ordenador o móvil; al conocimiento base que trae se le añade el conocimiento del día a día, el que el usuario le aporta, profesional o personal. Cuando ese modelo se actualiza, ¿cómo mantiene e integra el conocimiento extra adquirido?

      Respuesta (ChatGPT)


      Sí, puedo explicarlo con detalle. Lo que describes se refiere a un **modelo de lenguaje personalizado o “fine-tuned” localmente** que acumula conocimiento adicional más allá del que trae preentrenado. El manejo de ese conocimiento extra depende de **cómo se implementa la actualización y la integración**. Vamos paso a paso:

      ---

      ### 1. Tipos de conocimiento

      * **Conocimiento base**: Lo que el modelo ya sabe al ser entrenado en grandes cantidades de datos generales (por ejemplo, gramática, hechos históricos, matemáticas básicas, etc.).
      * **Conocimiento extra o específico**: Información que el usuario añade al modelo:

      * Datos personales (gustos, hábitos)
      * Datos profesionales (protocolos, terminología específica)
      * Experiencia acumulada en interacciones previas

      ---

      ### 2. Cómo se “recuerda” o guarda el conocimiento extra

      Hay varias estrategias:

      **a) Memoria explícita externa**

      * El modelo no retiene todo internamente.
      * Se guarda en archivos o bases de datos las notas, hechos o preferencias del usuario.
      * Durante la generación de respuestas, el modelo consulta esta memoria y la integra.
      * **Ventaja**: Las actualizaciones del modelo base no borran este conocimiento, porque está externo.
      * **Ejemplo**: Sistemas tipo “RAG” (Retrieval-Augmented Generation), donde el modelo usa un buscador interno que contiene la información extra.

      **b) Fine-tuning incremental**

      * El modelo se vuelve a entrenar periódicamente usando la información extra.
      * Este entrenamiento se hace “sobre el conocimiento previo” sin borrar el entrenamiento original.
      * **Desafío**: Hay riesgo de **catástrofe del olvido**, donde el modelo olvida parte del conocimiento previo si no se hace cuidadosamente.
      * Técnicas para mitigarlo:

      * **LoRA / adapters**: Se ajustan solo capas o parámetros pequeños, preservando el modelo base.
      * **Replay**: Se reentrena mezclando datos antiguos y nuevos para no perder conocimiento base.

      **c) Ajuste mediante “prompts” o embeddings**

      * El conocimiento extra se convierte en vectores o embeddings y se almacena por separado.
      * Durante la interacción, el modelo consulta esos embeddings y los incorpora en la respuesta.
      * **Ventaja**: Actualizar el modelo no requiere retrain completo; solo se actualizan los embeddings.

      ---

      ### 3. Cómo se integra cuando el modelo se actualiza

      Supongamos que el modelo base recibe una actualización (mejoras de arquitectura, nuevo entrenamiento general):

      * **Memoria externa**: No se pierde. Simplemente el nuevo modelo sigue consultando la memoria.
      * **Fine-tuning incremental**: Hay que **reaplicar o adaptar el fine-tuning** sobre el nuevo modelo base.
      * **Embeddings o vectores**: Se vuelven a indexar si cambia la forma en que el nuevo modelo consulta los vectores, pero el conocimiento en sí no se pierde.

      **En resumen:**
      El conocimiento extra no se fusiona automáticamente dentro del modelo base; requiere **estrategias de integración** como memoria externa, fine-tuning controlado o embeddings. La actualización del modelo base suele ser independiente, y el conocimiento del usuario se preserva o se vuelve a aplicar según la estrategia usada.

      ---

      Si quieres, puedo dibujarte un **diagrama sencillo** de cómo un modelo local puede mantener el conocimiento extra durante actualizaciones, para que se vea visualmente cómo fluye la información. ¿Quieres que haga eso?

      ¿te hago un croquis dice el mamón?
      Ja ja ja

      PS: Lo de preguntar a un GEPETO sobre su familia NO está vetado…

      • Buzzword - 5 septiembre 2025 - 17:25

        Resumiendo:

        * EL LLM no recuerda de por si nada, es como una ENCARTA con lo que tuviera
        * Si se le añade (p.ej. con un RAG) información adicional. Si cambias de modelo, o lo actualizas, le enchufas esa documentación. Y el nuevo LLM la usará..

        Si no la tienes el modelo no puede hacer nada con lo que hicieras en un pasado si no la has guardado ( lo que dice de Fine tuning, es destilar un nuevo modelo que incluya información adicional.

        Lo más sencillo es pensar en NotebookLM. Esta IA está pensada para tratar con tus documentos (RAG) si le borras los documentos en tu cuaderno, la IA no hace magia.

    • Enrique Dans - 5 septiembre 2025 - 17:20

      Hala, poyatá, contestado…

      • Buzzword - 5 septiembre 2025 - 17:30

        Enrique

        Te das cuenta que no nos acostumbramos a las «meta preguntas».

        El otro día Gorki, decía eso de que no se le ocurría como aplicar una IA a un almacen, pues dile a la IA que te lo diga, que seguro que «aunque sean loros no creativos» tendrán mil historias que ya conoce… que no inventen no quiere decir que no sean buenos resumiendo y dándonos ideas , y más como GEPETO, que se les ha entrenado a con un dataset brutal

      • Lua - 5 septiembre 2025 - 17:47

        Decidselo a Alqvimista, que yo solo pasaba por aqui camino del aeropuerto y embarco en breve… XDDD

        Las respuestas del Gepeto estan muy bien. Hasta el Paki de la esquina sabe preguntar (creo).

        Yo diria que Alqvimista se referia a «como coño lo haceis vosotros»… lo que viene siendo la «experiencia personal»…

        (puedo ponerlos? Si? XDDDD)

        • Lua - 5 septiembre 2025 - 17:51

          Por cierto, que ayer por la noche, con unos amigos definimos un PAL con el Qwen de mi móvil, sórdido, sarcástico, irónico y hasta despectivo… tras 4 intentos, empezó a acercarse a lo que pedimos… lastima no haber puesto la grabación de pantalla porque nos proporcionó unos delirantes diálogos entre los Hermanos Marx y Hannibal Lecter… que no todo es trabajar…

        • Buzzword - 5 septiembre 2025 - 18:01

          El Paki de la esquina, Maqui-Navaja, Martinez el facha, el Dios,

          … y Clara de Noche cantando Bingo

          2950 millones de muuulllta !!!

  • #038
    Xaquín - 5 septiembre 2025 - 20:41

    Me estoy perdiendo, quizás me vuelva a La Montaña Mágica, que me proporciona una mejor interactuación.

    Sobre el formato nada que decir (negativo), aunque siempre dará más para «desconfiar»… pero el formato no lo es todo.

  • #039
    Dedo-en-la-llaga - 6 septiembre 2025 - 02:03

    Lua podrá decir misa sobre sus datos y cómo los quiere proteger, y yo no le voy a quitar razón, muy al contrario. Gorki se podrá escarallar de la risa con eso de que las teleco respeten nada de ti, que yo también le voy dar la razón… Peeeero, en eso somos 4 gatos y un perro, al resto les importa un güebo sus datos y todas las cochinadas que nadie pueda hacer con ellos, pero un güebo: entregarían a sus padres o a sus hijos por estar conectados y en sus redes.

    Y, como si hay, cuando las hay, si es que las hay, sanciones o multas, son de descojonarse, pues tomad otro adelanto -como el que os dejé del antimoniopolio de risa-, sobre el cínico descerebrado de Musk, del cual se ha despotricado hasta el hartazgo, y él tan feliz riéndose a vuestra costa…

    https://www.eldiario.es/economia/tesla-propone-incentivo-record-elon-musk-convertirlo-primer-billonario_1_12581661.html

  • #040
    Guillermo - 6 septiembre 2025 - 09:25

    Vayamos por partes como decía Jack…
    No todo el mundo sabe gestionar la seguridad en sus dispositivos igual que todo el mundo no es capaz de arreglar un motor de un coche.
    Los usos de la IA pasan por un abanico desde en que quiere que le haga una foto de una roca hasta usos profesionales donde su implementación no es tan rápida.
    Ahora mismo las grandes tecnológica están envueltas en una carrera por ofrecer servicios y hacerse con una cartera de clientes a costa de quejar dinero como papel pero también a costa (para mi lo más peligroso) de seguridad y de saltarse cualquier regla que pueda frenar si desarrollo.
    Y como en todo de esta vida, habrá soluciones para todos los colores y todos los bolsillos. Una mejores y otras peores.
    El artículo me gusta porque aporta más información y entra más en profundidad.

    Recordad, la IA os hará libres….. o no

Dejar un Comentario

Los comentarios están cerrados

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.