Mi columna de esta semana en Invertia se titula «¿Cae mal la inteligencia artificial? El problema político frente al problema tecnológico» (pdf), y trata sobre una evidencia cada vez más difícil de negar: la inteligencia artificial empieza a caer mal.
No porque haya dejado de ser útil, ni porque haya perdido capacidad transformadora, sino porque a medida que deja de ser una promesa abstracta y se convierte en una infraestructura de poder muy concreta, su imagen pública se deteriora. The Guardian
lo resumía muy bien al explicar cómo las grandes compañías del sector están tratando de corregir ese problema de imagen financiando think tanks, documentos de política pública e instrumentos de influencia. Cuando una tecnología necesita construir con tanta urgencia su propia legitimidad, es que esa legitimidad ya no viene dada.
Eso explica también que OpenAI haya publicado un texto en el que propone cosas tan interesantes como un fondo público de riqueza para repartir parte de los beneficios del crecimiento impulsado por la inteligencia artificial o incluso pilotos de semana laboral de cuatro días, y que Anthropic haya lanzado
su propio instituto para intervenir en el debate. No son movimientos inocentes: son intentos de presentar a estas compañías como actores responsables justo en el momento en que mucha gente empieza a percibirlas como estructuras privadas con un poder cada vez más desmesurado. Incluso The Guardian contaba hace unos días cómo OpenAI compraba un popular talk show tecnológico, en una operación que encaja perfectamente en esa necesidad de controlar también el relato.
La cuestión es que el deterioro de imagen no nace de una campaña de desinformación ni de una tecnofobia irracional. Tiene raíces bastante comprensibles. Pew Research mostraba una distancia muy clara entre expertos y ciudadanía: mientras los primeros se declaran mayoritariamente más entusiasmados, el público se inclina bastante más por la preocupación. En otro estudio, también de Pew, más de la mitad de los trabajadores se declaraban preocupados por el impacto futuro de la inteligencia artificial en el trabajo, y casi un tercio creía que terminará reduciendo sus oportunidades laborales. En una síntesis más reciente, la institución insiste en la misma idea: la opinión pública se está moviendo hacia posiciones crecientemente incómodas con respecto a la inteligencia artificial.
Tampoco ayuda que la inteligencia artificial ya no pueda entenderse únicamente como software. Es también consumo energético, presión sobre las redes eléctricas, uso intensivo de agua, concentración territorial de centros de datos y captura de recursos estratégicos. La Agencia Internacional de la Energía
viene advirtiendo de que la demanda eléctrica asociada a la inteligencia artificial y a los centros de datos va a crecer con enorme rapidez, mientras que un informe británico sobre agua y centros de datos
subraya que el consumo hídrico de estas infraestructuras es ya significativo y está creciendo con rapidez, con centros hiperescalables capaces de consumir alrededor de 2,500 millones de litros al año, que por mucho que sean devueltos a sus cauces o al ciclo, pueden generar tensiones de suministro. Cuando una tecnología empieza a percibirse como una amenaza para el precio de la electricidad, para el acceso al agua o para el equilibrio territorial, deja de verse como progreso y empieza a verse como invasión.
A todo ello se suma el comportamiento político del sector. No hablamos ya de empresas que innovan y esperan ser reguladas, sino de empresas que intentan diseñar por anticipado el terreno regulatorio en el que van a operar. Wired explica cómo OpenAI apoya una propuesta para limitar la responsabilidad legal de los laboratorios incluso en casos de daños graves. Y TechCrunch documenta el dinero desplegado por empresas del sector para intentar frenar candidaturas más proclives a regular la inteligencia artificial. Todo ello refuerza la sensación de que la inteligencia artificial no está siendo gobernada democráticamente (algo que ya sabemos dadas las connivencias con Donald Trump), sino empujada por una combinación de capital, influencia y urgencia estratégica.
En ese clima enrarecido, no sorprende que aparezcan manifestaciones de rechazo mucho más extremas. Wired da cuenta del ataque con cóctel molotov contra la casa de Sam Altman, y el San Francisco Standard informó poco después de un segundo ataque contra la misma vivienda, mientras la policía de San Francisco detallaba las detenciones relacionadas con el caso. Antes de eso, el mismo medio había seguido la evolución de algunos activistas anti-inteligencia artificial, como Sam Kirchner, en una deriva que resulta inquietante. Evidentemente, nada de eso es justificable, pero sí es revelador. Cuando los líderes de una industria se convierten en objetivos físicos de la ira social, lo que aflora no es solo radicalismo: aflora también una crisis profunda de legitimidad.
Mi argumento en la columna es que esa impopularidad tiene motivos de sobra para crecer, pero que convertirla en una posición anti-inteligencia artificial cerrada y reactiva sería un error de enormes proporciones. Que una tecnología vaya a destruir una gran cantidad de empleos, o incluso a vaciar de sentido muchas tareas que hoy identificamos con la vida laboral, no implica necesariamente que debamos oponernos a ella. Implica, más bien, que debemos repensar de arriba abajo el contrato social. El FMI lleva tiempo planteando exactamente esa cuestión: la inteligencia artificial puede agravar desigualdades y desestabilizar mercados laborales, pero también puede disparar la productividad y generar una prosperidad muy superior si somos capaces de redistribuirla con algo de inteligencia política. El problema, por tanto, no es tecnológico. El problema es quién controla la tecnología, quién captura sus beneficios y quién paga sus costes.
Por eso me interesaba escribir esta columna: porque creo que hemos entrado en una fase del debate sobre inteligencia artificial en la que ya no basta con elegir entre entusiasmo ingenuo y rechazo visceral. La inteligencia artificial puede caer mal, y de hecho empieza a caer mal por razones bastante sólidas. Pero lo importante no es odiarla ni santificarla, sino discutirla políticamente antes de que quede definitivamente encerrada en manos de unos pocos. Ese es, en realidad, el fondo de la cuestión. No si la inteligencia artificial gusta o disgusta, sino si vamos a permitir que una tecnología con capacidad de redefinir el trabajo, la riqueza y el poder se desarrolle como proyecto colectivo o como simple instrumento de concentración.


Como me recuerdan varias partes y movimientos políticos a la (excelentísima y de suprema magnificencia) cuarta temporada de “Person of interest”.
Pues esto no acaba ni de empezar.
Se espera que a partir del proximo año el impacto en la reducción de empleo relacionado con la IA sea ya clamoroso.
En la situación geopolítica actual , con unas previsiones incluso de estanflación aunque acabara la guerra de Irán hoy mismo, esto se va a poner interesante.
Yo tiendo a ser optimista, a medio y largo plazo, por lo siguiente: La IA y la robotización crearán un entorno de abundancia donde la competencia deja de tener sentido.
El problema es que estamos acostumbrados a pensar en un entorno de escasez y nos cuesta siquiera imaginar como puede organizarse un mundo donde los límites serán principalmente ambientales y nada más.
A corto plazo, desde luego, el lío lo tenemos asegurado.
Era una respuesta para ALQVIMISTA en el articulo anterior, pero tambien me vale aqui:
(traduzco)
El tiempo liberado y el vacío que nadie esperaba
El Wall Street Journal publicó un artículo celebratorio sobre personas que usan inteligencia artificial (IA) para automatizar tareas del hogar, como comparar seguros médicos, hacer el pedido del supermercado o coordinar el calendario de pareja. El resultado, según el periódico, es tiempo libre para ir en bicicleta, aprender guitarra o correr más rápido. La narrativa es seductora, pero incompleta. Existe un estudio citado en el mismo artículo, realizado por investigadores de UCLA, Stanford y la Universidad del Sur de California, que analizó los hábitos de navegación de miles de hogares entre 2021 y 2024.
Su conclusión es menos poética: el tiempo liberado por la IA se destina principalmente a gaming, redes sociales y streaming. Por tanto, es más pantalla, no menos. El WSJ toma nota de este dato y lo descarta en el párrafo siguiente, basándose en el testimonio de una sola persona que asegura hacer menos scroll. Este es el nivel de rigor de la celebración. Pero hay una pregunta más profunda que tanto el artículo como el estudio se plantean. ¿Qué es exactamente lo que se delega?
Hasta hace muy poco, el outsourcing cognitivo era instrumental. El GPS calcula la ruta cuando uno decide el destino. La calculadora opera los números después de formular el problema. La herramienta ejecuta; el sujeto juzga. Lo que ocurre ahora es diferente en su naturaleza porque la IA calcula y también delibera. Elige al médico, evalúa el seguro, sugiere la dieta, optimiza el entrenamiento, coordina la agenda. La delegación ya no es de ejecución, sino de juicio.
Y aquí es donde la narrativa del tiempo liberado se vuelve más compleja de lo que parece. Existe un principio, la teoría misálgica, que se formula así: toda conducta humana está orientada, en última instancia, a evitar el sufrimiento. No el pesar dramático y visible, sino el sufrimiento cotidiano, menor y estructural. Por ejemplo, la incomodidad de decidir, la fatiga de comparar opciones, la fricción de coordinar. Este sufrimiento es tedioso.
Y, sin embargo, cumple una función que raramente se examina porque ocupa el tiempo subjetivo, da textura a la jornada, genera la sensación de que uno habita su propia vida. Cuando la IA elimina esta fricción, no libera tiempo en el sentido pleno. Libera a un sujeto que de pronto ya no sabe muy bien qué hacer con una existencia a la que le han quitado buena parte de su contenido operativo. La guitarra y la bicicleta son respuestas posibles, pero no son respuestas universales. Y para la mayoría, según el mismo estudio que el WSJ cita y prefiere ignorar, la respuesta es más pantalla.
Esto no es un argumento contra la IA, sino contra la ingenuidad con que se narra su adopción doméstica. El outsourcing cognitivo total es el experimento no controlado más grande que la humanidad haya emprendido sobre su propia capacidad de tolerar el vacío existencial. Porque lo que queda cuando se eliminan las fricciones es, sin que nadie lo hubiera planeado, una arquitectura del tiempo vivido.
El WSJ celebra que una asesora estratégica de Brooklyn ahora tiene más tiempo para cantar. Es una buena noticia para ella. La pregunta que importa es qué ocurre cuando este modelo escala a cientos de millones de personas que no tienen ni el capital cultural ni el económico para convertir el tiempo liberado en algo que se asemeje a una vida más plena. Esta pregunta no aparece en el artículo y tampoco en casi ningún otro lugar.
Las cosas como son.
———
El temps alliberat i el buit que ningú no esperava
Para quien no tenga suscripción al WSJ, estos son los enlaces:
The Household Impact of Generative AI: Evidence from Internet Browsing Behavior
WSJ