La inteligencia artificial no está aprendiendo: está extrayendo

IMAGE: A hyper-realistic close-up of a human face partially obscured by layers of transparent digital interfaces, surveillance cameras, and glowing data streams, suggesting constant monitoring and invisible data extraction by artificial intelligence

Mi columna en Invertia de esta semana se titula «Horizonte 2026: la brecha entre las promesas de la inteligencia artificial y la realidad» (pdf), y habla de las promesas rotas de la inteligencia artificial y de cómo una serie de empresas, mayoritariamente las mismas que destrozaron la propuesta de valor de las redes sociales, están ahora haciendo lo mismo con la inteligencia artificial: pretendiendo convertirla en una máquina de espionaje masiva.

Llevamos meses escuchando la misma cantinela: que la inteligencia artificial se va a convertir en nuestro copiloto, nuestro asistente, nuestro secretario, nuestro agente. Que nos liberará de tareas tediosas, que anticipará necesidades, que hará el mundo más eficiente. Y, sin embargo, cuanto más se despliega, más evidente resulta una realidad mucho menos romántica: la inteligencia artificial falla con una facilidad exasperante en tareas básicas… pero funciona de maravilla cuando se trata de capturar contexto personal, perfilar conductas y convertir vida privada en materia prima. Esa aparente contradicción no es un error: es un modelo de negocio. Y a la vez, un problema.

La brecha entre promesa y realidad no se ve mejor en ninguna parte que en el llamado «hogar inteligente». Los nuevos asistentes conversacionales son más parlanchines, sí, pero también más impredecibles, más inconsistentes y, en muchos casos, directamente peores que sus predecesores a la hora de ejecutar órdenes simples. La ironía es casi perfecta: hemos cambiado sistemas deterministas por modelos probabilísticos… para encender luces y hacer café. Cuando un dispositivo falla, se nos dice que «la IA está aprendiendo». Lo que en realidad ocurre es que se está normalizando la chapuza como fase permanente del producto, porque lo que menos importa es el usuario, y lo que más, espiar todo lo quehace para poderlo revender al mejor postor.

Pero mientras el usuario se acostumbra a que lo supuestamente «inteligente» sea también «caprichoso», la industria está consiguiendo algo muchísimo más importante: acceso. Acceso a conversaciones, documentos, correos, hábitos, rutinas, preferencias y, sobre todo, contexto. Un asistente mínimamente útil necesita saber cosas, uno «revolucionario» necesita saberlo todo. Y en ese «todo» está el verdadero negocio: no la utilidad, sino la extracción. No la ayuda, sino el perfilado.

La fase actual del capitalismo digital ya no se conforma con registrar clics o historiales de compra. Ahora quiere inferir quién eres: tus inclinaciones, tus vulnerabilidades, tu estado emocional, tus sesgos, tus patrones de decisión. Y los modelos modernos son sorprendentemente buenos en eso. Hay investigación reciente que muestra cómo sistemas basados en lenguaje pueden inferir disposiciones psicológicas a partir de texto generado por usuarios, abriendo la puerta a una psicometría barata y escalable que, en manos equivocadas, es una pesadilla de manual.

Y aquí entra el sempiterno elefante en la habitación: los «agentes» y los navegadores con inteligencia artificial. Se nos venden como una forma de automatizar tareas en la web, rellenar formularios, gestionar cuentas o «hacer cosas por ti». Pero el precio real de esa comodidad es que el navegador, la herramienta que atraviesa bancos, sanidad, impuestos, trabajo y vida personal, se convierte en una tubería de datos hacia servicios en la nube. No es una hipótesis: investigadores han advertido de que muchos asistentes de navegador recopilan y comparten datos altamente sensibles (incluidos registros médicos o identificadores), sin ningún tipo de salvaguardas.

Si a eso le añadimos el factor «autonomía» (que el agente actúe por su cuenta), el riesgo se dispara. Gartner ha alertado explícitamente sobre los peligros de los llamados «agentic browsers» por su potencial para exfiltrar credenciales y datos financieros, y por la facilidad con la que pueden ser manipulados por sitios maliciosos para enviar información sensible a servicios de inteligencia artificial externos. Dicho de forma simple: el futuro prometido de «déjalo en manos del agente» puede convertirse en «el agente acaba de regalar tus datos al primer postor».

A estas alturas conviene decirlo sin rodeos: la inteligencia artificial, tal y como se está desplegando y mayoritariamente con los mismos protagonistas, es la expansión natural del capitalismo de vigilancia. Shoshana Zuboff lo ha formulado con claridad al señalar que la inteligencia artificial no es una ruptura con ese modelo, sino su continuación y ampliación, su edición corregida y mejorada. Lo que antes era extracción masiva de datos conductuales, ahora es extracción de contexto íntimo, inferencia de atributos sensibles y predicción de comportamiento a una escala obscena.

El problema no es solo que te observen: es que te «modelen». Y, en cuanto te modelan, pueden influirte, porque lo saben todo, todo lo que te hace reaccionar y de qué manera. Ahí es donde el sistema deja de ser «publicidad» y se convierte en ingeniería de comportamiento. La inteligencia artificial no necesita convencerte con un anuncio. Le basta con aprender qué tecla emocional funciona contigo y pulsarla cuando convenga. Ese salto del rastreo a la predicción y de la predicción a la manipulación es lo que hace que este ciclo tecnológico sea más peligroso que los anteriores, incluso aunque sus demos sean mediocres.

Cuando alguien intenta refugiarse en la regulación, la respuesta es igual de incómoda: llegamos tarde. El Comité Europeo de Protección de Datos dedicó una opinión específica a los modelos de inteligencia artificial y a cuestiones como la anonimización y el tratamiento de datos personales en su desarrollo y despliegue. Es un texto relevante y técnicamente duro, precisamente porque deja claro lo resbaladizo que es afirmar que un modelo «no contiene datos personales» o que lo extraído está «anonimizado».

Y mientras la ley intenta ponerse al día, la industria sigue aplicando la doctrina de siempre: desplegar primero, pedir perdón después, y sólo si es estrictamente necesario. Con el agravante de que la inteligencia artificial añade opacidad: es cada vez más difícil saber qué se capturó, qué se infirió y qué se compartió. El usuario queda reducido a «aceptar» términos imposibles de entender, en productos que cambian cada pocas semanas, con arquitecturas híbridas entre local y nube, y con incentivos económicos que apuntan en una sola dirección: más datos, más dependencia, más extracción.

La guinda es que todo esto se está normalizando bajo el discurso del progreso inevitable. Como si no hubiera alternativa. Pero sí la hay. UNESCO adoptó una recomendación global sobre ética de la inteligencia artificial que, entre otras cosas, aborda riesgos asociados a vigilancia y derechos fundamentales. Que exista ese marco no resuelve nada por sí solo, pero sirve para recordarnos una verdad básica: esto no es física, es política. Son decisiones de diseño y de negocio.

Si de verdad miramos hacia 2026, el espejo devuelve una imagen bastante clara: una tecnología que se vende como asistente mientras se comporta como extractor, que promete fiabilidad mientras entrena al usuario para tolerar el fallo, que pide acceso total a cambio de beneficios marginales, y que convierte la privacidad en una moneda de cambio ya definitivamente normalizada. La inteligencia artificial no está «aprendiendo» en el sentido romántico. Está afinando el arte de saber quién eres, qué harás y cómo empujarte hacia donde convenga.

Y si no se cambia el incentivo, si no se corta la dependencia estructural de la extracción de datos como motor del negocio, la inteligencia artificial seguirá avanzando exactamente en esa dirección. No hacia el futuro brillante del asistente perfecto, sino hacia un presente más rentable para unos pocos: el de la vigilancia permanente, automatizada y cada vez más descarnadamente íntima.

21 comentarios

  • #001
    Juan T. - 31 diciembre 2025 - 12:03

    Imagínemos el pack completo: una sociedad gobernada por una oligarquía que son los dueños de esos servidores y algoritmos.

    Para ellos, la IA no es una herramienta de progreso, es una aspiradora de datos optimizada exclusivamente para la monetización salvaje.

    Y aquí viene lo potencialmente chungo: esa élite pone la IA al servicio del dictador de turno porque es quien les garantiza que nadie les va a tocar sus privilegios ni sus monopolios.

    Es el matrimonio perfecto: el dictador pone la fuerza bruta y la represión, y la IA pone la ‘inteligencia’ predictiva.

    Con esa capacidad de extracción que mencionas, la IA no necesita ser inteligente; le basta con tener datos suficientes para detectar quién se está quejando en un foro, quién tiene potencial de líder disidente o qué barrios están empezando a organizarse.

    Antes de que abras la boca para protestar, el algoritmo ya le ha chivado al sistema que eres una amenaza.

    Básicamente, estamos construyendo la jaula perfecta con nuestros propios datos.

    Es mas , ni siquiera hace falta una dictadura formal por que la IA sería tan buena manipulándonos (visto el IQ medio) que se puede permitir un sistema democrático aparente.

    Independientemente de que, en el mejor de los casos, acabe siendo una utopia nos espera un periodo de adaptacion muy convulso, ademas de que todos los expertos que hablan claro ultimamente dicen que la alineación es practicamente imposible, y que dada la situacion geopolítica nadia va a ir con precaución para que el oponente no se haga con la IA mas fuerte.

    Segun dicen lo mejor que podría pasar es un desastre relativamente manejable comparado con la extinción, como un efecto Chernobil, para que los estados lleguen a acuerdos de control de la IA, como en el caso de las armas nucleares..

    Responder
  • #002
    Lua - 31 diciembre 2025 - 12:08

    No me gusta decir «ya lo decía yo» _… Però ya lo decia yo…

    Feliz año nuevo a todos XDDD

    Responder
  • #003
    Javier - 31 diciembre 2025 - 12:09

    Recomiendo enfáticamente su lectura, porque, a pesar de que este sería el cisne negro más anunciado de la historia del mundo, si alguien llega estornudar y eso provoca la estampida, el 2026 podría ponerse «movidito» de lo lindo…

    Los bancos que prestaron 178.500 millones para centros de datos de IA han empezado a cubrirse: ya no se fían de su propia deuda

    Responder
  • #004
    Xaquín - 31 diciembre 2025 - 12:53

    Supongo que, cuando hablas de la extracción de la intimidad (incluida la fiscal) también incluyes a las app, como Instagram y todo tipo de extractoras sin necesidad de algoritmo no humano, basta con la perniciosa e imperiosa necesidad humana (mediocres etc) de exponerse al público… aunque sea con simplezas analógicas tipo peluquería, o sacerdotes. Ya no digamos los expertos en extracción mental llamados psiquiatras… No hay que ser muy inteligente ni artificial, para sacarle cosas a la IH «normal». A veces un simple título llega, la experiencia analógica del titulado se la pasan por sus partes.

    ¿O no?

    Responder
  • #005
    Guillermo - 31 diciembre 2025 - 13:48

    Siempre se piensa en un dictador gobernando el mundo a través de la ia.
    Y si la población fuese tan ciega que se exija a un político votado democráticamente que por nuestro bien, nos dirija y nos salve de los enemigos y miedos con todas las herramientas que tenga disponibles para asegurarnos nuestra seguridad, mientras vemos nedddfis .

    Responder
  • #007
    Buzzword - 31 diciembre 2025 - 14:55

    Creo que la tecnología sigue unos dictados al margen del interes del ciudadano, nos meten las bondades de la IA porque favorece el «mainstream» la voz única, la IA es el sueño húmedo en 2025 de lo que fue el Pravda.

    Os voy a hacer una pregunta en SERIO y ser honestos

    ¿Quien sabía que las emisiones de RNE cesaron en Onda Media esta noche? ¿Tanto costaba mantener un servicio público en AM que como se vió con el apagón fue capaz de llegar a decenas de km. mediante el uso de un simple aparato de radio simplón?

    Lo mismo que las V16
    Lo mismo que prohibir circular si no tienes la letrita de los cojones
    etc etc

    El problema es que no hay un partido que diga hasta aqui, fue el propio VOX los que propusieron como medida el uso de esa maravilla técnica que era el V16, aunque ahora recule el mentiroso de Abascl y vaya contra ella

    https://www.youtube.com/watch?v=_jo64fisA4Q&t=192s

    Estamos rodeados de hipócritas que nos mienten a la cara

    Responder
  • #008
    Gorki - 31 diciembre 2025 - 15:07

    ¿Cómo pueden valer tanto nuestros datos? .- Sinceramente, no lo comprendo

    Responder
    • Juan T. - 31 diciembre 2025 - 15:17

      Si que lo sabes, pero en cantidad de dinero valen mas de 5 billones de dolares a nivel mundial cada año. Tela

      Responder
      • Gorki - 31 diciembre 2025 - 18:16

        No lo creo . Hay 7 billones de personas en el mundo,
        ¿Me vas a decir que pagan por los datos de un rumano de los Cárpatos, casi un dólar, cuando son casi iguales que los del año pasado ?

        Responder
        • Enrique Dans - 31 diciembre 2025 - 18:37

          Gorki, no has entendido lo que son datos personales. Y mientras no lo entiendas, este tema se te seguirá escapando completamente…

          Responder
          • Gorki - 31 diciembre 2025 - 19:32

            He consultado a Gemini lo siguiente «Datos personales que recogen las empresas en Internet» y esta es su respuesta

            En 2025, las empresas en Internet recopilan una vasta cantidad de información personal para personalizar servicios, mejorar sus algoritmos de IA y monetizar datos. Esta información se clasifica generalmente en cuatro categorías principales:
            1. Datos de Identificación Personal (PII)
            Son los datos que permiten identificar a una persona directamente o en combinación con otros datos:
            Identificadores básicos: Nombre y apellidos, DNI/pasaporte, fecha de nacimiento y género.
            Contacto: Dirección física, correo electrónico y número de teléfono.
            Identidad digital: Direcciones IP, huellas digitales del navegador (browser fingerprints), cookies y IDs de dispositivos móviles.
            2. Datos de Comportamiento y Navegación
            Información sobre cómo un usuario interactúa con plataformas y sitios web:
            Patrones de navegación: Historial de búsqueda, páginas visitadas y tiempo de permanencia.
            Interacciones precisas: Movimientos del ratón, mapas de calor (heat mapping) y grabaciones de sesiones de usuario.
            Redes sociales: «Me gusta», comentarios, perfiles seguidos y conexiones sociales.
            3. Datos de Transacción y Financieros
            Detalles vinculados a la actividad económica del usuario:
            Historial de compras: Productos adquiridos, frecuencia de compra y carritos abandonados.
            Información de pago: Números de tarjetas (a menudo cifrados), métodos de pago preferidos y facturación.
            4. Datos de Ubicación y Actitud
            Información que revela el contexto físico y las preferencias del usuario:
            Geolocalización: Ubicación exacta mediante GPS o aproximada vía redes Wi-Fi.
            Datos actitudinales: Opiniones en encuestas, criterios de compra y percepción de marca.

            .
            Me resulta difícil creer que estos datos de un campesino de los Cárpatos que en gran medida se tenían de años anteriores valgan cerca de un dólar, cuando además hay cerca de una docena de empresas que los tienen-

            Responder
  • #013
    gapreg - 31 diciembre 2025 - 15:54

    Creo que es muy aventurado decir que extrae en lugar de aprender. Por supuesto que aprende, de eso tratan las redes de neuronas artificiales, de extracción de patrones.

    El neoludismo y la negación de la realidad no nos va a llevar a ninguna parte. Y la lucha no es contra la IA: la lucha debe ser por una IA libre instalada localmente y que no reproduzca los sesgos introducidos por las multinacionales ni dependa de unos datasets privatizados en manos de estas mismas multinacionales.

    Te recomiendo profundamente el libro «DeepSeek y por qué el futuro de la IA es el software libre», donde se puede encontrar una perspectiva con mentalidad abierta acerca no de cómo negar el futuro, sino de cómo tratar de redirigirlo para ponerlo al servicio de todos.

    Responder
  • #015
    Joshua - 31 diciembre 2025 - 15:58

    No puedo estar más en desacuerdo. Si decides regalar tus datos, es tú problema. Hay muchísimos servicios que pueden desplegarse localmente, es decir, en tu propio ordenador sin necesidad de enviar datos a nadie. Igualmente, si buscas alguna alternativa alojada en algún servidor remoto, intenta que sea una alternativa que cumpla con tus estándares de calidad y seguridad para tus datos.

    Del mismo modo que no regalas tu dinero al primero que te lo pida por la calle, por muy bonito que sea el disfraz que lleve, no regales tus datos.

    Responder
    • JM - 31 diciembre 2025 - 17:10

      Lo que vienes a decir que el que haga algo perjudicial para sí mismo porque le falta conocimiento que se aguante.

      Porque tú eres muy listo y tal…

      Pero al igual que hay unas leyes que nos intentan proteger de hacer inadvertidamente algo perjudicial para nosotros mismos o de caer en manos de estafadores de diversos tipos también debería de haberlas para proteger al general de los ciudadanos de este tipo de amenazas.

      Responder
      • Joshua - 31 diciembre 2025 - 18:09

        Si piensas que las empresas de IA son estafadoras, no tienes más que denunciarlas.

        El estado debe regular comportamientos ilegales, no la estupidez humana.

        Del mismo modo que se venden cucharas, aún habiendo personas que en vez de metérselas en la boca hagan otros usos más creativos de la misma, y el estado no las prohíbe, lo mismo con lAs. Si decides vender tus datos, es tu problema. Si eres capaz de probar que tus datos terminan en una organización criminal que busque acabar con el fin del mundo, ya tardas en denunciar.

        Mientras tanto, dejemos a las personas responsabilizarse de sus actos.

        Responder
        • Enrique Dans - 31 diciembre 2025 - 18:39

          No seas hijo de puta. Si una persona mayor ve en internet que por hacer clic le regalan nosequemierda, y nadie le ha explicado jamás que lo que ve en internet no se lo tiene que creer, cuando la mayor parte de su vida lo que veía a través de una pantalla era poco menos que «la verdad», no puedes pedirle que «se responsabilice de sus actos» o «que se joda». Salvo que seas un hijo de puta, claro. Y lo mismo con críos a los que nadie les ha enseñado a usar responsablemente el invento este. La verdad es que cuanto más veo comentarios ultraliberales como el tuyo más me convenzo de la calaña de esa ideología…

          Responder
          • JOSHUA - 31 diciembre 2025 - 19:34

            Lo primero, desearte felices fiestas y próspero año nuevo.

            Lo segundo, no insulta el que quiere, sino el que puede.

            Lo tercero, palabras como ultraliberal no son un insulto, porque de primeras tienen difícil definición.

            Y aquí terminan mis respuestas, no porque no tenga argumentos, sino porque la educación es lo mínimo requerido para establecer una comunicación efectiva, y creo que tu mensaje carece bastante de la misma.

            Desearte de nuevo felices fiestas, y desear que aprendas a aceptar opiniones diferentes, aunque no las compartas.

            Responder
            • Enrique Dans - 31 diciembre 2025 - 19:35

              Te he demostrado simplemente que no proteger a determinados perfiles es de hijos de puta. Y tú me has contestado que patatas. Ya está todo dicho…

  • #021
    Pere - 31 diciembre 2025 - 20:09

    Sobre este tema, recomiendo la lectura de «Quality Land» y «Quality Land 2.0». Una utopía donde la gente ha dejado el govierno en manos de la IA, con una sociedad estratificada donde subes y bajas en función de puntos que te otorga la IA, auncios por doquier que no puedes saltarte, likes… y un largo etc

    Responder

Dejar un Comentario a Enrique Dans

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.