Mi columna en Invertia de esta semana se titula «Horizonte 2026: la brecha entre las promesas de la inteligencia artificial y la realidad» (pdf), y habla de las promesas rotas de la inteligencia artificial y de cómo una serie de empresas, mayoritariamente las mismas que destrozaron la propuesta de valor de las redes sociales, están ahora haciendo lo mismo con la inteligencia artificial: pretendiendo convertirla en una máquina de espionaje masiva.
Llevamos meses escuchando la misma cantinela: que la inteligencia artificial se va a convertir en nuestro copiloto, nuestro asistente, nuestro secretario, nuestro agente. Que nos liberará de tareas tediosas, que anticipará necesidades, que hará el mundo más eficiente. Y, sin embargo, cuanto más se despliega, más evidente resulta una realidad mucho menos romántica: la inteligencia artificial falla con una facilidad exasperante en tareas básicas… pero funciona de maravilla cuando se trata de capturar contexto personal, perfilar conductas y convertir vida privada en materia prima. Esa aparente contradicción no es un error: es un modelo de negocio. Y a la vez, un problema.
La brecha entre promesa y realidad no se ve mejor en ninguna parte que en el llamado «hogar inteligente». Los nuevos asistentes conversacionales son más parlanchines, sí, pero también más impredecibles, más inconsistentes y, en muchos casos, directamente peores que sus predecesores a la hora de ejecutar órdenes simples. La ironía es casi perfecta: hemos cambiado sistemas deterministas por modelos probabilísticos… para encender luces y hacer café. Cuando un dispositivo falla, se nos dice que «la IA está aprendiendo». Lo que en realidad ocurre es que se está normalizando la chapuza como fase permanente del producto, porque lo que menos importa es el usuario, y lo que más, espiar todo lo quehace para poderlo revender al mejor postor.
Pero mientras el usuario se acostumbra a que lo supuestamente «inteligente» sea también «caprichoso», la industria está consiguiendo algo muchísimo más importante: acceso. Acceso a conversaciones, documentos, correos, hábitos, rutinas, preferencias y, sobre todo, contexto. Un asistente mínimamente útil necesita saber cosas, uno «revolucionario» necesita saberlo todo. Y en ese «todo» está el verdadero negocio: no la utilidad, sino la extracción. No la ayuda, sino el perfilado.
La fase actual del capitalismo digital ya no se conforma con registrar clics o historiales de compra. Ahora quiere inferir quién eres: tus inclinaciones, tus vulnerabilidades, tu estado emocional, tus sesgos, tus patrones de decisión. Y los modelos modernos son sorprendentemente buenos en eso. Hay investigación reciente que muestra cómo sistemas basados en lenguaje pueden inferir disposiciones psicológicas a partir de texto generado por usuarios, abriendo la puerta a una psicometría barata y escalable que, en manos equivocadas, es una pesadilla de manual.
Y aquí entra el sempiterno elefante en la habitación: los «agentes» y los navegadores con inteligencia artificial. Se nos venden como una forma de automatizar tareas en la web, rellenar formularios, gestionar cuentas o «hacer cosas por ti». Pero el precio real de esa comodidad es que el navegador, la herramienta que atraviesa bancos, sanidad, impuestos, trabajo y vida personal, se convierte en una tubería de datos hacia servicios en la nube. No es una hipótesis: investigadores han advertido de que muchos asistentes de navegador recopilan y comparten datos altamente sensibles (incluidos registros médicos o identificadores), sin ningún tipo de salvaguardas.
Si a eso le añadimos el factor «autonomía» (que el agente actúe por su cuenta), el riesgo se dispara. Gartner ha alertado explícitamente sobre los peligros de los llamados «agentic browsers» por su potencial para exfiltrar credenciales y datos financieros, y por la facilidad con la que pueden ser manipulados por sitios maliciosos para enviar información sensible a servicios de inteligencia artificial externos. Dicho de forma simple: el futuro prometido de «déjalo en manos del agente» puede convertirse en «el agente acaba de regalar tus datos al primer postor».
A estas alturas conviene decirlo sin rodeos: la inteligencia artificial, tal y como se está desplegando y mayoritariamente con los mismos protagonistas, es la expansión natural del capitalismo de vigilancia. Shoshana Zuboff lo ha formulado con claridad al señalar que la inteligencia artificial no es una ruptura con ese modelo, sino su continuación y ampliación, su edición corregida y mejorada. Lo que antes era extracción masiva de datos conductuales, ahora es extracción de contexto íntimo, inferencia de atributos sensibles y predicción de comportamiento a una escala obscena.
El problema no es solo que te observen: es que te «modelen». Y, en cuanto te modelan, pueden influirte, porque lo saben todo, todo lo que te hace reaccionar y de qué manera. Ahí es donde el sistema deja de ser «publicidad» y se convierte en ingeniería de comportamiento. La inteligencia artificial no necesita convencerte con un anuncio. Le basta con aprender qué tecla emocional funciona contigo y pulsarla cuando convenga. Ese salto del rastreo a la predicción y de la predicción a la manipulación es lo que hace que este ciclo tecnológico sea más peligroso que los anteriores, incluso aunque sus demos sean mediocres.
Cuando alguien intenta refugiarse en la regulación, la respuesta es igual de incómoda: llegamos tarde. El Comité Europeo de Protección de Datos dedicó una opinión específica a los modelos de inteligencia artificial y a cuestiones como la anonimización y el tratamiento de datos personales en su desarrollo y despliegue. Es un texto relevante y técnicamente duro, precisamente porque deja claro lo resbaladizo que es afirmar que un modelo «no contiene datos personales» o que lo extraído está «anonimizado».
Y mientras la ley intenta ponerse al día, la industria sigue aplicando la doctrina de siempre: desplegar primero, pedir perdón después, y sólo si es estrictamente necesario. Con el agravante de que la inteligencia artificial añade opacidad: es cada vez más difícil saber qué se capturó, qué se infirió y qué se compartió. El usuario queda reducido a «aceptar» términos imposibles de entender, en productos que cambian cada pocas semanas, con arquitecturas híbridas entre local y nube, y con incentivos económicos que apuntan en una sola dirección: más datos, más dependencia, más extracción.
La guinda es que todo esto se está normalizando bajo el discurso del progreso inevitable. Como si no hubiera alternativa. Pero sí la hay. UNESCO adoptó una recomendación global sobre ética de la inteligencia artificial que, entre otras cosas, aborda riesgos asociados a vigilancia y derechos fundamentales. Que exista ese marco no resuelve nada por sí solo, pero sirve para recordarnos una verdad básica: esto no es física, es política. Son decisiones de diseño y de negocio.
Si de verdad miramos hacia 2026, el espejo devuelve una imagen bastante clara: una tecnología que se vende como asistente mientras se comporta como extractor, que promete fiabilidad mientras entrena al usuario para tolerar el fallo, que pide acceso total a cambio de beneficios marginales, y que convierte la privacidad en una moneda de cambio ya definitivamente normalizada. La inteligencia artificial no está «aprendiendo» en el sentido romántico. Está afinando el arte de saber quién eres, qué harás y cómo empujarte hacia donde convenga.
Y si no se cambia el incentivo, si no se corta la dependencia estructural de la extracción de datos como motor del negocio, la inteligencia artificial seguirá avanzando exactamente en esa dirección. No hacia el futuro brillante del asistente perfecto, sino hacia un presente más rentable para unos pocos: el de la vigilancia permanente, automatizada y cada vez más descarnadamente íntima.
This article is also available in English on Medium, «Mining our minds: AI and the next frontier of data extraction«


Imagínemos el pack completo: una sociedad gobernada por una oligarquía que son los dueños de esos servidores y algoritmos.
Para ellos, la IA no es una herramienta de progreso, es una aspiradora de datos optimizada exclusivamente para la monetización salvaje.
Y aquí viene lo potencialmente chungo: esa élite pone la IA al servicio del dictador de turno porque es quien les garantiza que nadie les va a tocar sus privilegios ni sus monopolios.
Es el matrimonio perfecto: el dictador pone la fuerza bruta y la represión, y la IA pone la ‘inteligencia’ predictiva.
Con esa capacidad de extracción que mencionas, la IA no necesita ser inteligente; le basta con tener datos suficientes para detectar quién se está quejando en un foro, quién tiene potencial de líder disidente o qué barrios están empezando a organizarse.
Antes de que abras la boca para protestar, el algoritmo ya le ha chivado al sistema que eres una amenaza.
Básicamente, estamos construyendo la jaula perfecta con nuestros propios datos.
Es mas , ni siquiera hace falta una dictadura formal por que la IA sería tan buena manipulándonos (visto el IQ medio) que se puede permitir un sistema democrático aparente.
Independientemente de que, en el mejor de los casos, acabe siendo una utopia nos espera un periodo de adaptacion muy convulso, ademas de que todos los expertos que hablan claro ultimamente dicen que la alineación es practicamente imposible, y que dada la situacion geopolítica nadia va a ir con precaución para que el oponente no se haga con la IA mas fuerte.
Segun dicen lo mejor que podría pasar es un desastre relativamente manejable comparado con la extinción, como un efecto Chernobil, para que los estados lleguen a acuerdos de control de la IA, como en el caso de las armas nucleares..
Todo correto y que te bendiga qracias por todo lo que te pasa en mi vida personal para bien tu y yo señore dime si no me dejan entrar en mi contra por favor y qracias adiós
ChatGPT es mi pastor, nada me falta.
No me gusta decir «ya lo decía yo» _… Però ya lo decia yo…
Feliz año nuevo a todos XDDD
Recomiendo enfáticamente su lectura, porque, a pesar de que este sería el cisne negro más anunciado de la historia del mundo, si alguien llega estornudar y eso provoca la estampida, el 2026 podría ponerse «movidito» de lo lindo…
Los bancos que prestaron 178.500 millones para centros de datos de IA han empezado a cubrirse: ya no se fían de su propia deuda
Supongo que, cuando hablas de la extracción de la intimidad (incluida la fiscal) también incluyes a las app, como Instagram y todo tipo de extractoras sin necesidad de algoritmo no humano, basta con la perniciosa e imperiosa necesidad humana (mediocres etc) de exponerse al público… aunque sea con simplezas analógicas tipo peluquería, o sacerdotes. Ya no digamos los expertos en extracción mental llamados psiquiatras… No hay que ser muy inteligente ni artificial, para sacarle cosas a la IH «normal». A veces un simple título llega, la experiencia analógica del titulado se la pasan por sus partes.
¿O no?
Siempre se piensa en un dictador gobernando el mundo a través de la ia.
Y si la población fuese tan ciega que se exija a un político votado democráticamente que por nuestro bien, nos dirija y nos salve de los enemigos y miedos con todas las herramientas que tenga disponibles para asegurarnos nuestra seguridad, mientras vemos nedddfis .
Guillermo, en general, cuando la inseguridad crece (de manera real o percibida), la gente lamentablemente suele apoyar a líderes con tendencia dictatorial. Solo basta ver el caso de El Salvador, cuyo presidente ya está pensando en quedarse en el poder durante varios años más, algo que seguramente apoyarán decididamente sus más fieles seguidores, que son muchos.
En este mismo blog, tanto Enrique como varios comentaristas han defendido, por ejemplo, la posibilidad de que tu propio automóvil actúe como policía de tráfico, sin analizar las implicaciones conceptuales de este tipo de ideas. Recién hoy comienza Enrique a oponerse a lo que él denomina «la vigilancia permanente, automatizada y cada vez más descarnadamente íntima», es decir empieza a estar finalmente en contra del panoptismo hacia el cual estamos yendo y del que he hablado anteriormente, aunque esto de una otra manera ya haya estado dándose a lo largo de varios años con las herramientas digitales existentes y sin necesidad de IA.
Creo que la tecnología sigue unos dictados al margen del interes del ciudadano, nos meten las bondades de la IA porque favorece el «mainstream» la voz única, la IA es el sueño húmedo en 2025 de lo que fue el Pravda.
Os voy a hacer una pregunta en SERIO y ser honestos
¿Quien sabía que las emisiones de RNE cesaron en Onda Media esta noche? ¿Tanto costaba mantener un servicio público en AM que como se vió con el apagón fue capaz de llegar a decenas de km. mediante el uso de un simple aparato de radio simplón?
Lo mismo que las V16
Lo mismo que prohibir circular si no tienes la letrita de los cojones
etc etc
El problema es que no hay un partido que diga hasta aqui, fue el propio VOX los que propusieron como medida el uso de esa maravilla técnica que era el V16, aunque ahora recule el mentiroso de Abascl y vaya contra ella
https://www.youtube.com/watch?v=_jo64fisA4Q&t=192s
Estamos rodeados de hipócritas que nos mienten a la cara
¿Cómo pueden valer tanto nuestros datos? .- Sinceramente, no lo comprendo
Si que lo sabes, pero en cantidad de dinero valen mas de 5 billones de dolares a nivel mundial cada año. Tela
No lo creo . Hay 7 billones de personas en el mundo,
¿Me vas a decir que pagan por los datos de un rumano de los Cárpatos, casi un dólar, cuando son casi iguales que los del año pasado ?
Gorki, no has entendido lo que son datos personales. Y mientras no lo entiendas, este tema se te seguirá escapando completamente…
He consultado a Gemini lo siguiente «Datos personales que recogen las empresas en Internet» y esta es su respuesta
–
En 2025, las empresas en Internet recopilan una vasta cantidad de información personal para personalizar servicios, mejorar sus algoritmos de IA y monetizar datos. Esta información se clasifica generalmente en cuatro categorías principales:
1. Datos de Identificación Personal (PII)
Son los datos que permiten identificar a una persona directamente o en combinación con otros datos:
Identificadores básicos: Nombre y apellidos, DNI/pasaporte, fecha de nacimiento y género.
Contacto: Dirección física, correo electrónico y número de teléfono.
Identidad digital: Direcciones IP, huellas digitales del navegador (browser fingerprints), cookies y IDs de dispositivos móviles.
2. Datos de Comportamiento y Navegación
Información sobre cómo un usuario interactúa con plataformas y sitios web:
Patrones de navegación: Historial de búsqueda, páginas visitadas y tiempo de permanencia.
Interacciones precisas: Movimientos del ratón, mapas de calor (heat mapping) y grabaciones de sesiones de usuario.
Redes sociales: «Me gusta», comentarios, perfiles seguidos y conexiones sociales.
3. Datos de Transacción y Financieros
Detalles vinculados a la actividad económica del usuario:
Historial de compras: Productos adquiridos, frecuencia de compra y carritos abandonados.
Información de pago: Números de tarjetas (a menudo cifrados), métodos de pago preferidos y facturación.
4. Datos de Ubicación y Actitud
Información que revela el contexto físico y las preferencias del usuario:
Geolocalización: Ubicación exacta mediante GPS o aproximada vía redes Wi-Fi.
Datos actitudinales: Opiniones en encuestas, criterios de compra y percepción de marca.
.
Me resulta difícil creer que estos datos de un campesino de los Cárpatos que en gran medida se tenían de años anteriores valgan cerca de un dólar, cuando además hay cerca de una docena de empresas que los tienen-
Los datos personales son más valiosos en función del poder adquisitivo/social desde el punto de vista del cliente.
Imagínate un colegio del Opus Dei que duda si ficharme a mí de profesor de matemáticas o informática. Si ese colegio está al tanto de que estoy suscrito a algún canal porno de Telegram o a un canal de confesionario católico es una información relevante/valiosa.
Evidentemente esa operación es menos valiosa que la que un banco pueda comprar sobre mis movimientos de cuenta/corriente/tarjeta en otra entidad a la hora de dar un crédito.
Ni te cuento lo que valdría esa información bancaria si yo fuera un político relevante en la UE y anti monopolio tech de USA.
Con datos anonimizados esa información se iguala en valor hacia abajo.
Creo que es muy aventurado decir que extrae en lugar de aprender. Por supuesto que aprende, de eso tratan las redes de neuronas artificiales, de extracción de patrones.
El neoludismo y la negación de la realidad no nos va a llevar a ninguna parte. Y la lucha no es contra la IA: la lucha debe ser por una IA libre instalada localmente y que no reproduzca los sesgos introducidos por las multinacionales ni dependa de unos datasets privatizados en manos de estas mismas multinacionales.
Te recomiendo profundamente el libro «DeepSeek y por qué el futuro de la IA es el software libre», donde se puede encontrar una perspectiva con mentalidad abierta acerca no de cómo negar el futuro, sino de cómo tratar de redirigirlo para ponerlo al servicio de todos.
Lo he leído, pero mira las cosas que ya había escrito antes de leerlo…
– «Deepseek y la supremacía del código abierto»
– «Apertura y poder: DeepSeek ataca la hegemonía de Nvidia con código abierto y chips domésticos»
– «Procesadores, cooperación y código abierto»
Vamos, que estamos de acuerdo.
Hola Enrique Dans,
Permíteme hacer un comentario constructivo sobre el artículo que escribiste sobre DeepSeek.
En el artículo, haces referencia al coste que tuvo entrenar ese modelo.
Aunque técnicamente correcto, la información en su conjunto es incorrecta.
Permíteme por favor elaborar mi comentario:
El importe que citas se refiere al coste de una única ejecución de entrenamiento, pero ese no es el coste de entrenar ese modelo. En ese conste no incluyes los cientos de experimentos necesarios para llegar a identificar las señales necesarias para decidir la composición de los datos (data blending, la arquitectura a utilizar o los hiperparametros de la misma, entre muchas otras cosas no nombradas como el salario de los investigadores (en el paper había, si no recuerdo mal unos 200 investigadores con salarios en muchos casos superiores a un millón de dólares).
Permíteme ponerte un ejemplo para describir el porqué de la falacia (error) de la cifra que citas. Si yo dijese que me saqué la carrera en 100 horas, porque ese fue el tiempo que duraron mis exámenes, me dirías que no es verdad, porque tuve que leer libros, hacer ejercicios, atender a clase y hacer un proyecto final de carrera.
La cifra que tú nombras es tan poco correcta como el ejemplo que te pongo en el párrafo anterior.
Espero que el comentario sea de utilidad.
Hay que ser muy iluso para creerse que hay alguna posiblidad de que la IA no esté en manos de esas multinacionales.
No puedo estar más en desacuerdo. Si decides regalar tus datos, es tú problema. Hay muchísimos servicios que pueden desplegarse localmente, es decir, en tu propio ordenador sin necesidad de enviar datos a nadie. Igualmente, si buscas alguna alternativa alojada en algún servidor remoto, intenta que sea una alternativa que cumpla con tus estándares de calidad y seguridad para tus datos.
Del mismo modo que no regalas tu dinero al primero que te lo pida por la calle, por muy bonito que sea el disfraz que lleve, no regales tus datos.
Lo que vienes a decir que el que haga algo perjudicial para sí mismo porque le falta conocimiento que se aguante.
Porque tú eres muy listo y tal…
Pero al igual que hay unas leyes que nos intentan proteger de hacer inadvertidamente algo perjudicial para nosotros mismos o de caer en manos de estafadores de diversos tipos también debería de haberlas para proteger al general de los ciudadanos de este tipo de amenazas.
Si piensas que las empresas de IA son estafadoras, no tienes más que denunciarlas.
El estado debe regular comportamientos ilegales, no la estupidez humana.
Del mismo modo que se venden cucharas, aún habiendo personas que en vez de metérselas en la boca hagan otros usos más creativos de la misma, y el estado no las prohíbe, lo mismo con lAs. Si decides vender tus datos, es tu problema. Si eres capaz de probar que tus datos terminan en una organización criminal que busque acabar con el fin del mundo, ya tardas en denunciar.
Mientras tanto, dejemos a las personas responsabilizarse de sus actos.
No seas hijo de puta. Si una persona mayor ve en internet que por hacer clic le regalan nosequemierda, y nadie le ha explicado jamás que lo que ve en internet no se lo tiene que creer, cuando la mayor parte de su vida lo que veía a través de una pantalla era poco menos que «la verdad», no puedes pedirle que «se responsabilice de sus actos» o «que se joda». Salvo que seas un hijo de puta, claro. Y lo mismo con críos a los que nadie les ha enseñado a usar responsablemente el invento este. La verdad es que cuanto más veo comentarios ultraliberales como el tuyo más me convenzo de la calaña de esa ideología…
Lo primero, desearte felices fiestas y próspero año nuevo.
Lo segundo, no insulta el que quiere, sino el que puede.
Lo tercero, palabras como ultraliberal no son un insulto, porque de primeras tienen difícil definición.
Y aquí terminan mis respuestas, no porque no tenga argumentos, sino porque la educación es lo mínimo requerido para establecer una comunicación efectiva, y creo que tu mensaje carece bastante de la misma.
Desearte de nuevo felices fiestas, y desear que aprendas a aceptar opiniones diferentes, aunque no las compartas.
Te he demostrado simplemente que no proteger a determinados perfiles es de hijos de puta. Y tú me has contestado que patatas. Ya está todo dicho…
Doy fe de que en algunos temas el Sr. Dans y yo no estamos radicalmente opuestos, a pesar de lo cual nunca me ha insultado; no que yo recuerde. Y viceversa.
Quizás el exabrupto se deba a la estupidez que has soltado, no todo el mundo tiene que tener, por naturaleza, edad o educación, la lucidez suficiente para ser totalmente responsable de sus actos. Y ahí es donde la Ley debe actual para protegerle. No basta con un simple “ahí se apañe”.
En cuanto a usted Sr. Dans, serénese, por el amor de dios, que no todo es producto de la maldad, a veces es sólo estupidez.
No, no me sereno. Hay cosas que me sacan profundamente de mis casillas, y una de ellas es que, después de veintitantos años escribiendo sin ninguna sombra de duda o de agenda oculta de ningún tipo, venga un imbécil maleducado a decirme que escribo porque me pagan los chinos (o quien sea). ¿Podría borrar su comentario y pasar? ¿Para qué? ¿Para que el muy idiota se quede pensando «me borró el comentario porque seguro que es verdad»? No, mira, prefiero desahogarme y decirle la verdad sobre su estúpida existencia, sobre lo mal que lo educaron sus padres y sobre lo pobre de su escaso intelecto. Es lo que hay. Tengo unos límites.
Con frecuencia , los viejos de 60 años se olvidan que los muchos de los ancianos de 80 años nos hemos pasado frente un ordenador la mayor parte de la vida , (el Pc de IBM nació en 1980 y ya antes había ordenadores personales), Además los ancianos de 80 años tenemos smartphones exactamente desde el mismo tiempo que los viejos de 60años. Por tanto, salvo alguno que otro, que ya está gagá, seguimos sabiendo distinguir entre lo que son «ofertas» y lo que son «timos», aunque como todos y de todas las edades, de tarde en tarde nos confundamos.
Sobre este tema, recomiendo la lectura de «Quality Land» y «Quality Land 2.0». Una utopía donde la gente ha dejado el govierno en manos de la IA, con una sociedad estratificada donde subes y bajas en función de puntos que te otorga la IA, auncios por doquier que no puedes saltarte, likes… y un largo etc
Cada vez usamos más la tecnología para todo tipo de trámites, desde ver la tv, hacer deporte, compras, lecturas, visitas, etc etc etc y todo deja su huella digital.
Cada vez el anonimato es más una quimera.
Luego te dicen que el desconocimiento de la ley no te exime de responsabilidad por lo que al final, estas pillado por todos los lados.
Si no usas un móvil no puedes hacer nada y si lo usas, has vendido tu alma..
¿No será que hay una confusión entre la IAs y las compañías que las usan?
Entre la pistola y el tirador.
Entre la energía nuclear y las bombas atómicas?
Desde luego, toda herramienta a la que aportamos datos puede sernos útil, o perversamente maliciosa.
Hasta una hoja de Excel o unos documentos de Google Drive.
La diferencia de ellos con los chats de IA radica probablemente en la facilidad de acceso que proporciona a los vendedores de datos.
Pero no creo que convenga tirar el bebé con el agua sucia del baño.
Estimado ALQVIMISTA,
Si me preguntas si los colectivos desprotegidos deben ser ayudados, mi respuesta es sí, sin lugar a dudas.
Igualmente que en Internet hay estafadores y se les debe perseguir, estoy seguro que habrá estafadores que utilicen la IA, o su reclamo, para estafar.
Afortunadamente, en España y en Europa hay instituciones que velan por el uso que se hace de los datos personales.
Ese debate es muy distinto a mi respuesta original, en la que expongo que hay alternativas, locales y en la nube, que permiten utilizar la IA sin exponer tus datos. Es posible que esas alternativas sean más caras que aquellas que te permiten hacer uso de las mismas capacidades intercambiando tus datos por ese servicio.
Dicho esto, comentarios con los que termina su respuesta a Enrique Dans, deslucen su dialéctica. No hace falta ofender, ni por activa ni por pasiva, para expresar una opinión.
Encantado de elaborar mi opinión si le interesa, pero manteniendo unos mínimos de educación, porque desde que escribí mi primera respuesta, ya me han respondido:
[…] …Porque tú eres muy listo y tal… […]
[…] No seas hijo de puta. […]
[…] …no todo es producto de la maldad, a veces es sólo estupidez. […]
Lo de que año Europa me importan los datos de sus ciudadanos, lo dices con ironía, no?
Hombre, que creas realmente que «afortunadamente, en España y en Europa hay instituciones que velan por el uso que se hace de los datos personales» no es de ser muy inteligente.
Es incuestionable que esas instituciones existen, AEPD y EDPB, entre otras.
Por tanto, entiendo que cuestionas su labor. Si tan seguro estás que no son útiles, te propongo determinadas opciones:
– la vía judicial, dado que utilizan dinero público para hacer una labor que tú cuestionas (y que no dudo que eres capaz de probar de manera irrefutable ante un juez).
– el crear un partido político dirigido por ti, y convencer a Españoles y Europeos para que te voten, y cambiar las cosas a tu gusto.
– organizar protestas y divulgar, con todo tipo de detalles, el por qué esas instituciones no hacen lo que deben hacer.
– …
O también puedes cuestionar la inteligencia de un desconocido simplemente porque no compartes lo que dice. Esto último no es muy constructivo, pero si a ti te sirve, pues por mi bien.
Que esas instituciones existen es incuestionable. Que no sirven para nada, tambien.
Por otro lado, debe ser fantastico vivir en esa Narnia mental tuya en que crees que un ciudadano comun puede pasarse años y años batallando legalmente contra multinacionales billonarias y que si despues gana el juicio, las instituciones magicamente pasaran a hacer su trabajo ejemplarmente e impediran que dichas multinacionales billonarias sigan recolectando y vendiendo los datos de los usuarios.
Y bueno, es o cuestionar tu inteligencia si de verdad te crees lo que dices o cuestionar tu caradurez si aceptamos que es imposible que seas tan tonto de creerte semejante estupidez.
A ver, Matt, que nadie te obliga a pulsar el botoncito y conectarte a ChatGPT (por decir alguno).
Que seas consecuente con tus acciones, y si no te gusta lo que las empresas hacen, utilices los medios legales disponibles.
También tienes el derecho al pataleo, que veo que lo utilizas muy bien, pero nada cambia por mucho que te quejes aquí.
Por cierto, ¿te has dado cuenta que se puede responder, no una vez, sino dos veces, sin faltar a la persona a la que respondes? Te aconsejo que lo pruebes algún día.
Entonces te contradices. Si nadie te obliga como dices a entrar en chatGPT, únicamente avisa de las consecuencias y que el usuario decida.
Es que, que digas, que Europa se preocupa por sus ciudadanos, no se lo cree nadie.
Traslada, esa preocupación a otros ámbitos europeos, a ver si se da.
En relación con lo que se ha comentado, me pregunto lo siguiente ¿Es viable ejecutar localmente un modelo de como ChatGPT en un ordenador de sobremesa?
No tengo claro si con hardware de consumo actual se puede hacer inferencia eficaz de modelos grandes, o si las características de estos modelos hacen prácticamente obligatoria una arquitectura distribuida en la nube para obtener un rendimiento útil.
Para evitar hablar de grandes y pequeños, déjame contestar en términos de billones americanos de parámetros.
De manera general, en un MacBook Pro de los últimos 3 años (o PC equivalente) se puede ejecutar un modelo más pequeño, digamos que hasta unos 25 billones de parámetros (aunque esta cifra puede aumentar/disminuir dependiendo de la arquitectura, mecanismo de atención, precisión numérica de los pesos de la red neuronal, y contexto máximo soportado, entre otras cosas).
Estos modelos son muy buenos para muchas tareas, aunque tareas más complejas suelen requerir de modelos más grandes (de varios cientos de billones de parámetros). Estos modelos suelen requerir un hardware más especializado, porque distribuir (particionar) dichos modelos y conseguir que se ejecuten de manera eficiente no es una tarea trivial. Igualmente, requieren de una cantidad de memoria no habitual en equipos de sobremesa.
Finalmente, no siempre más grande es mejor. Modelos pequeños especializados pueden realizar tareas concretas mejor que modelos grandes. Igualmente, a mayor número de tokens dedicados al “reasoning”, mejor resultados se obtienen (siempre de manera general).
Gracias por la explicación, queda muy claro. Entiendo que para que un modelo funcione en local, ya debe estar entrenado previamente, y que lo que hacemos en el ordenador es simplemente la inferencia.
También me queda claro que la necesidad de una arquitectura en la nube no es estricta desde el punto de vista técnico, sino más bien una cuestión de escala, coste y eficiencia para modelos muy grandes.
Muchas gracias por tomarte el tiempo de explicarlo.
Un articulo digno ejemplo del efecto dunning-kruger.
No puedo estar más de acuerdo.
Entre las distintas respuestas a este blog se han nombrado a DeepSeek, pero estoy seguro que ninguno de los que han comentado se leyeron sus publicaciones científicas, y pueden nombrar datos como que sus grandes contribuciones fueron el uso de “shared experts”, dentro de una arquitectura MoE, su aportación al algoritmo de “reinforcement learning”, o cosas más sutiles como que durante la fase de pre-entrenamiento no utilizaron el enfoque clásico de “learning rate decay”, sino que lo mantuvieron constante hasta casi el final del mismo, y no entienden por qué ese enfoque es importante.
Efectivamente, hay muchas personas que por su falta de conocimiento sobre la materia, hacen comentarios desafortunados. Todos esos comentarios, aunque desafortunados, son legítimos. Lo que no es legítimo es el ataque personal y el insulto.
Si en algún momento quisieras pasar al ámbito científico, no dudes en preguntarme lo que quieras sobre IA. Encantado de resolver cualquier duda.
Noto un sesgo individualista y antropocéntrico quizá excesivo en el artículo. Si al final todo es información, procesamiento de información y en el límite una mera cuestión de combinatoria, y dado cómo funcionan el ML, DL y los sistemas generativos, la limitación voluntaria en el acceso a datos personales puede potencialmente retrasar descubrimientos esenciales e incluso vitales como la cura de enfermedades mortales. Un ejemplo es la conducción autónoma. Los conductores de un Tesla conscientemente hemos estado dando datos personales a la compañía para que esta pueda resolver un problema que mata a más de un millón de personas en el mundo todos los años. No sabemos qué específica combinación de datos puede llevar a los diversos sistemas a generar descubrimientos esenciales.