La impopularidad de la inteligencia artificial ya no se puede maquillar

IMAGE: A large, angry crowd protests against artificial intelligence in a burning city, while a giant glowing-eyed robot looms over the scene

Mi columna de esta semana en Invertia se titula «¿Cae mal la inteligencia artificial? El problema político frente al problema tecnológico» (pdf), y trata sobre una evidencia cada vez más difícil de negar: la inteligencia artificial empieza a caer mal.

No porque haya dejado de ser útil, ni porque haya perdido capacidad transformadora, sino porque a medida que deja de ser una promesa abstracta y se convierte en una infraestructura de poder muy concreta, su imagen pública se deteriora. The Guardian
lo resumía muy bien al explicar cómo las grandes compañías del sector están tratando de corregir ese problema de imagen financiando think tanks, documentos de política pública e instrumentos de influencia. Cuando una tecnología necesita construir con tanta urgencia su propia legitimidad, es que esa legitimidad ya no viene dada.

Eso explica también que OpenAI haya publicado un texto en el que propone cosas tan interesantes como un fondo público de riqueza para repartir parte de los beneficios del crecimiento impulsado por la inteligencia artificial o incluso pilotos de semana laboral de cuatro días, y que Anthropic haya lanzado su propio instituto para intervenir en el debate. No son movimientos inocentes: son intentos de presentar a estas compañías como actores responsables justo en el momento en que mucha gente empieza a percibirlas como estructuras privadas con un poder cada vez más desmesurado. Incluso The Guardian contaba hace unos días cómo OpenAI compraba un popular talk show tecnológico, en una operación que encaja perfectamente en esa necesidad de controlar también el relato.

La cuestión es que el deterioro de imagen no nace de una campaña de desinformación ni de una tecnofobia irracional. Tiene raíces bastante comprensibles. Pew Research mostraba una distancia muy clara entre expertos y ciudadanía: mientras los primeros se declaran mayoritariamente más entusiasmados, el público se inclina bastante más por la preocupación. En otro estudio, también de Pew, más de la mitad de los trabajadores se declaraban preocupados por el impacto futuro de la inteligencia artificial en el trabajo, y casi un tercio creía que terminará reduciendo sus oportunidades laborales. En una síntesis más reciente, la institución insiste en la misma idea: la opinión pública se está moviendo hacia posiciones crecientemente incómodas con respecto a la inteligencia artificial.

Tampoco ayuda que la inteligencia artificial ya no pueda entenderse únicamente como software. Es también consumo energético, presión sobre las redes eléctricas, uso intensivo de agua, concentración territorial de centros de datos y captura de recursos estratégicos. La Agencia Internacional de la Energía
viene advirtiendo de que la demanda eléctrica asociada a la inteligencia artificial y a los centros de datos va a crecer con enorme rapidez, mientras que un informe británico sobre agua y centros de datos
subraya que el consumo hídrico de estas infraestructuras es ya significativo y está creciendo con rapidez, con centros hiperescalables capaces de consumir alrededor de 2,500 millones de litros al año, que por mucho que sean devueltos a sus cauces o al ciclo, pueden generar tensiones de suministro. Cuando una tecnología empieza a percibirse como una amenaza para el precio de la electricidad, para el acceso al agua o para el equilibrio territorial, deja de verse como progreso y empieza a verse como invasión.

A todo ello se suma el comportamiento político del sector. No hablamos ya de empresas que innovan y esperan ser reguladas, sino de empresas que intentan diseñar por anticipado el terreno regulatorio en el que van a operar. Wired explica cómo OpenAI apoya una propuesta para limitar la responsabilidad legal de los laboratorios incluso en casos de daños graves. Y TechCrunch documenta el dinero desplegado por empresas del sector para intentar frenar candidaturas más proclives a regular la inteligencia artificial. Todo ello refuerza la sensación de que la inteligencia artificial no está siendo gobernada democráticamente (algo que ya sabemos dadas las connivencias con Donald Trump), sino empujada por una combinación de capital, influencia y urgencia estratégica.

En ese clima enrarecido, no sorprende que aparezcan manifestaciones de rechazo mucho más extremas. Wired da cuenta del ataque con cóctel molotov contra la casa de Sam Altman, y el San Francisco Standard informó poco después de un segundo ataque contra la misma vivienda, mientras la policía de San Francisco detallaba las detenciones relacionadas con el caso. Antes de eso, el mismo medio había seguido la evolución de algunos activistas anti-inteligencia artificial, como Sam Kirchner, en una deriva que resulta inquietante. Evidentemente, nada de eso es justificable, pero sí es revelador. Cuando los líderes de una industria se convierten en objetivos físicos de la ira social, lo que aflora no es solo radicalismo: aflora también una crisis profunda de legitimidad.

Mi argumento en la columna es que esa impopularidad tiene motivos de sobra para crecer, pero que convertirla en una posición anti-inteligencia artificial cerrada y reactiva sería un error de enormes proporciones. Que una tecnología vaya a destruir una gran cantidad de empleos, o incluso a vaciar de sentido muchas tareas que hoy identificamos con la vida laboral, no implica necesariamente que debamos oponernos a ella. Implica, más bien, que debemos repensar de arriba abajo el contrato social. El FMI lleva tiempo planteando exactamente esa cuestión: la inteligencia artificial puede agravar desigualdades y desestabilizar mercados laborales, pero también puede disparar la productividad y generar una prosperidad muy superior si somos capaces de redistribuirla con algo de inteligencia política. El problema, por tanto, no es tecnológico. El problema es quién controla la tecnología, quién captura sus beneficios y quién paga sus costes.

Por eso me interesaba escribir esta columna: porque creo que hemos entrado en una fase del debate sobre inteligencia artificial en la que ya no basta con elegir entre entusiasmo ingenuo y rechazo visceral. La inteligencia artificial puede caer mal, y de hecho empieza a caer mal por razones bastante sólidas. Pero lo importante no es odiarla ni santificarla, sino discutirla políticamente antes de que quede definitivamente encerrada en manos de unos pocos. Ese es, en realidad, el fondo de la cuestión. No si la inteligencia artificial gusta o disgusta, sino si vamos a permitir que una tecnología con capacidad de redefinir el trabajo, la riqueza y el poder se desarrolle como proyecto colectivo o como simple instrumento de concentración.


This article is openly available in English on Medium, «Why are we worried about AI? The political problem versus the technological problem»

38 comentarios

  • #001
    Marcos - 22 abril 2026 - 08:58

    Como me recuerdan varias partes y movimientos políticos a la (excelentísima y de suprema magnificencia) cuarta temporada de “Person of interest”.

    Responder
  • #002
    Juan T. - 22 abril 2026 - 09:02

    Pues esto no acaba ni de empezar.

    Se espera que a partir del proximo año el impacto en la reducción de empleo relacionado con la IA sea ya clamoroso.

    En la situación geopolítica actual , con unas previsiones incluso de estanflación aunque acabara la guerra de Irán hoy mismo, esto se va a poner interesante.

    Responder
  • #003
    Luis Hernández - 22 abril 2026 - 09:26

    Yo tiendo a ser optimista, a medio y largo plazo, por lo siguiente: La IA y la robotización crearán un entorno de abundancia donde la competencia deja de tener sentido.

    El problema es que estamos acostumbrados a pensar en un entorno de escasez y nos cuesta siquiera imaginar como puede organizarse un mundo donde los límites serán principalmente ambientales y nada más.

    A corto plazo, desde luego, el lío lo tenemos asegurado.

    Responder
    • Ge - 22 abril 2026 - 16:22

      La abundancia jamás ha sido equitativamente repartida excepto por la fuerza.

      Responder
      • JM - 22 abril 2026 - 18:46
      • Luis Hernández - 22 abril 2026 - 23:28

        Efectivamente, privar a los demás de algo que a ti te sobra y que ni siquiera necesitas, es la mejor manera de acumular poder.
        Aunque haya de todo para todos siempre habrá quién busque detentar el poder.

        Responder
  • #007
    Lua - 22 abril 2026 - 09:32

    Era una respuesta para ALQVIMISTA en el articulo anterior, pero tambien me vale aqui:

    (traduzco)

    El tiempo liberado y el vacío que nadie esperaba
    El Wall Street Journal publicó un artículo celebratorio sobre personas que usan inteligencia artificial (IA) para automatizar tareas del hogar, como comparar seguros médicos, hacer el pedido del supermercado o coordinar el calendario de pareja. El resultado, según el periódico, es tiempo libre para ir en bicicleta, aprender guitarra o correr más rápido. La narrativa es seductora, pero incompleta. Existe un estudio citado en el mismo artículo, realizado por investigadores de UCLA, Stanford y la Universidad del Sur de California, que analizó los hábitos de navegación de miles de hogares entre 2021 y 2024.

    Su conclusión es menos poética: el tiempo liberado por la IA se destina principalmente a gaming, redes sociales y streaming. Por tanto, es más pantalla, no menos. El WSJ toma nota de este dato y lo descarta en el párrafo siguiente, basándose en el testimonio de una sola persona que asegura hacer menos scroll. Este es el nivel de rigor de la celebración. Pero hay una pregunta más profunda que tanto el artículo como el estudio se plantean. ¿Qué es exactamente lo que se delega?

    Hasta hace muy poco, el outsourcing cognitivo era instrumental. El GPS calcula la ruta cuando uno decide el destino. La calculadora opera los números después de formular el problema. La herramienta ejecuta; el sujeto juzga. Lo que ocurre ahora es diferente en su naturaleza porque la IA calcula y también delibera. Elige al médico, evalúa el seguro, sugiere la dieta, optimiza el entrenamiento, coordina la agenda. La delegación ya no es de ejecución, sino de juicio.

    Y aquí es donde la narrativa del tiempo liberado se vuelve más compleja de lo que parece. Existe un principio, la teoría misálgica, que se formula así: toda conducta humana está orientada, en última instancia, a evitar el sufrimiento. No el pesar dramático y visible, sino el sufrimiento cotidiano, menor y estructural. Por ejemplo, la incomodidad de decidir, la fatiga de comparar opciones, la fricción de coordinar. Este sufrimiento es tedioso.

    Y, sin embargo, cumple una función que raramente se examina porque ocupa el tiempo subjetivo, da textura a la jornada, genera la sensación de que uno habita su propia vida. Cuando la IA elimina esta fricción, no libera tiempo en el sentido pleno. Libera a un sujeto que de pronto ya no sabe muy bien qué hacer con una existencia a la que le han quitado buena parte de su contenido operativo. La guitarra y la bicicleta son respuestas posibles, pero no son respuestas universales. Y para la mayoría, según el mismo estudio que el WSJ cita y prefiere ignorar, la respuesta es más pantalla.

    Esto no es un argumento contra la IA, sino contra la ingenuidad con que se narra su adopción doméstica. El outsourcing cognitivo total es el experimento no controlado más grande que la humanidad haya emprendido sobre su propia capacidad de tolerar el vacío existencial. Porque lo que queda cuando se eliminan las fricciones es, sin que nadie lo hubiera planeado, una arquitectura del tiempo vivido.

    El WSJ celebra que una asesora estratégica de Brooklyn ahora tiene más tiempo para cantar. Es una buena noticia para ella. La pregunta que importa es qué ocurre cuando este modelo escala a cientos de millones de personas que no tienen ni el capital cultural ni el económico para convertir el tiempo liberado en algo que se asemeje a una vida más plena. Esta pregunta no aparece en el artículo y tampoco en casi ningún otro lugar.

    Las cosas como son.
    ———
    El temps alliberat i el buit que ningú no esperava

    Para quien no tenga suscripción al WSJ, estos son los enlaces:

    The Household Impact of Generative AI: Evidence from Internet Browsing Behavior

    WSJ

    Responder
    • D. FALKEN - 22 abril 2026 - 11:48

      Esto no es un argumento contra la IA, sino contra la ingenuidad con que se narra su adopción doméstica.

      Certera contribución que se puede sintetizar en esa frase.

      El problema de fondo una vez más no es la técnología, sino el uso que se hace de ella. La difusion recurrrente de toda una serie de cohartadas estúpidas para sostener la hoja de ruta de los verdaderos intereses corporativos es un síntoma claro.

      Desde los actores clave no hay un debate profundo sobre los retos que plantea y las necesarias medidas que habría que tomar. No se abordan seriamente sus impactos a nivel internacional, nacional o regional. De lo que se habla es de lo bien que te va a venir como individuo que te organicen la agenda, el correo electrónico o las compras. Vamos, toda una revolución!!.

      El tiempo libre, tal y como se plantea, se convierte en una falacia o en todo caso, en un lujo para aquellos que puedan «comprarlo».

      No niego que el escenario que plantea Luis no sea factible. Y lo es, pero sólo otro sistema económico y social diferente a lo que tenemos lo hace posible. Y eso, no nos lo van a traer ni a permitir las grandes corporaciones. Nos quieren vender las consecuencias de la inteligencia artificial como la irremediable caída de un meteorito, y no, señores, es una pedrada tras otra que nos estais tirando a la frente…

      Responder
    • Alqvimista - 22 abril 2026 - 12:05

      Muy interesante, la verdad.
      No sé si es un estudio adecuado a lo que planteamos aquí, pero bueno.
      Hoy por el uso de IA a nivel particular se reduce prácticamente a consultas al GPT de turno y muy poco más. Lo que yo planteo es el futuro próximo en el que todos nuestros dispositivos de uso común -teléfonos, ordenadores- incorporen ya agentes que hagan tareas complejas de forma casi inconsciente para nosotros.

      Aún así, ¿en qué emplearemos el tiempo liberado? Pues supongo que en lo mismo en que ya lo empleamos ahora, no veo por qué iban a cambiar nuestras costumbres. Desde luego yo no voy a aprender a tocar la guitarra y mucho menos a correr XD -todo el mundo sabe que correr es de cobardes-.

      No sé realmente qué espera la gente que pase, no hay más que ver a qué dedican su tiempo los jubiletas…

      Responder
      • Lua - 22 abril 2026 - 12:19

        Como ya le comenté a eDans en el articulo anterior…

        Técnicamente, me siento fascinado por los avances. No dejo de leer (hasta saturar) y de experimentar, probar… y sin embargo, ahora estoy encontrando una faceta mas “interesante” (al menos para mi), que ya no va de lo meramente técnico, si no de las implicaciones que tiene en la población, de cómo va a cambiar, por ejemplo, la socialización o nuestras vidas en general.

        La primera lectura es que nos lo pondrá todo mas fácil. Pero, la lectura profunda, es si de verdad lo necesitamos, lo queremos. Si no será esa, una forma de aborregarnos más. Si no se van a generar sociedades de dos velocidades (los que puedan pagar por ello vs el resto).

        De las implicaciones medioambientales, objeto de este artículo, el propio eDans ya deja pistas. Yo mismo, me he arriesgado a parecer un “anti-IA” con enlaces y/o comentarios. Y como no, la percepción que tengo en la calle, —que siempre es muy diferente a la que se tiene desde un despacho—, y que me dice que al principio, lo de la IA era muy divertido porque un chat te contestaba cosas (acertadas o no) y podías hacer videos de gatitos, pero ahora, empieza a haber hastío, negación y hasta miedo.

        En fin, no tengo un Palantir para ver el futuro (menos mal) XDD

        Responder
  • #011
    Gorki - 22 abril 2026 - 12:07

    Cuando sientes que un avance tecnológico pone en riesgo tu status social, pone en peligro tu trabajo, tus ingresos salariales, remueve la sociedad en la que vives y tengas miedo por desconocer cual es tu lugar en esa nueva sociedad, es lógico que te caiga mal. es avance tecnológico.

    Esto ya es algo que ha ocurrido con anterioridad, Los ludita sentían eso mismo, veían las maquinas hijas del avance tecnológico de la máquina de vapor como un riesgo claro a su status de obreros manuales,

    Una maquina que acabaría con cientos de puestos de trabajo, mandando a un despido incierto a cientos de asalariados, que hasta entonce tenían «seguridad» en trabajos como, tejedores, arrieros, canterios, herradores, talabarteros,… Trabajos eliminados por la máquina de vapor. en manos de un puñado de capitalistas que tenían el suficiente capital, suficiente para hacerse los propietarios de estos nuevos inventos.

    Responder
  • #012
    Xaquín - 22 abril 2026 - 12:45

    Ah, la IA (antes era la CIA o la TIA… ¡cómo evolucionan las cosas!)!!!.

    En la Edad Media, cuando la Iglesia notó que la evolución en el saber del ser humano (versión mediocre del homo sapiens) podía empezar a evolucionar «por libre» se sacó de la manga la Universidad de París y otras. Antes los árabes ya inventaran las madrasas o colegios para aprender a rezar «en serio».

    Y claro, pudo parecer que el problema era la Universidad, por plantear reivindicaciones humanistas, no la forma de controlarla por los adultos poderosos, que necesitaban domesticar el proceso de razonar del humano.

    Es normal que las nuevas Compañías de Jesús Siliconado, salidas del Silicon Valley, trate de hacer lo mismo… controlar la forma de pensar en esta nueva era de oscuridad mental humana. Cuando los circuitos neuronales de nuestro cerebro, hechos con moléculas de cadenas de carbono, se reemplacen por una química imposible de cadenas de silicio.

    ¿Cuántos Rockys necesitaremos para aprender simplemente a dialogar con ellos? Y, lo peor… ¿Cuántos Graces?

    Responder
    • Xaquín - 22 abril 2026 - 12:48

      Lógicamente, lo de «imposible», en la química del silicio, es válido solo para la ciencia terrestre actual.

      Responder
  • #014
    Dedo-en-la-llaga - 22 abril 2026 - 12:58

    “vacío que nadie esperaba», bueno, bueno, bueno, una cosa es que “nadie” -entre comillas-, lo esperase, otra cosa muy distinta es que dicho vacío sea clamoroso desde hace años, ¡¡¡y no ha parado de crecer y crecer!!! Hay miles de millones de ejemplos del día a día, pero para ir a lo básico, un día alguien me decía, un día de hace más de 20 años, “Joder, estaba comprando en el supermercado, y me pasó una cosa rarísima: cuanto más iba llenando el carro, ¡¡¡más vacío me parecía que estaba!!!».

    Aplica eso, sin ir más lejos, a la plaga cancerígena y metastásica del fuck turismo, y tendrás el mismo fenómeno amplificado al infinito y más allá. (El turismo como un colosal pharmakon contra el llamado “vacío existencial»)

    ¿Que hay malestar con la IA? Bueno, a lo mejor me equivoco, pero eso no la va a hacer desparecer, y me da que al final son siempre cuatro gatos, los mismos que salen por el problema de la vivienda y NO se arregla nada de nada, al contrario, todavía va a más, porque la masa crítica de los que NO tienen ese problema directamente, es abrumadora en contra de los 4 pelagatos que salen a protestar.

    Y lo mismo para la IA, cuatro pelagatos que salen a protestar y luego hasta usan la IA contra la que protestan para regresar a su casa, que no es suya sino de un fondo buitre que les está comiendo el hígado.

    Y lo de la teoría misálgica: “toda conducta humana está orientada, en última instancia, a evitar el sufrimiento», eso, si tal, la dejamos para otro día, porque una cosa es lo que dice tal teoría, otra cosa son los hechos crudos y duros, y si no, que se lo pregunten a un adicto. Y no sólo, porque hay otro millón de ejemplos que prueban cada día lo contrario… Porque si la “asesora estratégica de Brooklyn ahora tiene más tiempo para cantar.», verás cómo, en menos de un pis pas, (y en contra de sí misma), oh, qué casualidad, ya lo ha vuelto a dejar de tener…

    Apunte final: el problema en la civilización en la que estamos NO es el vacío es, al contrario, el DEMASIADO LLENO.

    El vacío es la cortada del capitalismo para seguir produciendo de forma más que salvaje con el fin de llenarlo hasta reventar. Un imposible estructural que nos lleva amenazando desde hace décadas de hacer saltar todo por los aires.

    Responder
  • #015
    Asier - 22 abril 2026 - 13:22

    Enrique, el enlace al pdf de tu columna en Invertia no descarga un pdf sino un .pages que no puedo abrir.

    Responder
  • #017
    BUZZWORD - 22 abril 2026 - 13:30

    Creo que la IA es una herramienta y como todas las herramientas se pueden usar bien o mal….

    https://x.com/RedPillMediaX/status/2044970323230298354

    El relato de que la IA va a conseguir una RBU es tan acojonantemente pueril, que lo patrocinen empresas como OpenAI apoyada en un gobierno trumpista neoliberal, que ni comida decente para sus Fuerzas Armadas dan, que hay calles enteras podridas por la droga, que la MO está encerrada en cárceles sin DDHH por ser migrantes, que la gente se muere sin cobertura sanitaria, que el payaso in chief quiere construirse un arco de la victoria, que ha derribado media Casa Blanca, etc… este tipo de Sociedad es la que va a pagar una RBU? Iros a la mierda ya !!!

    Por otro lado la IA cuando es una herramienta bien usada puede ser muy práctica. Tengo un caso de uso que tengo unos notebooks de Jupyter con las celdas markdown en inglés y quiero tener el cuaderno en español, workflow de hace media hora:

    Yo: Haz un script para traducir las celdas markdown de un notebook de Jupyter en automático
    IA: Usa google Translate y me da el script

    Lo pruebo. Perfecto en 5 minutos, tengo esa peqeña tool que me hubiera llevado todo el día hacerla robusta para que analice correctamente el texto a traducir

    En este caso he aprendido «0» de python, pero puedo enfocarme en el cuaderno, del tema avanzado de matemáticas que me interesa ahora…

    Responder
  • #018
    F3r - 22 abril 2026 - 14:15

    Un fondo público de riqueza…un talk show, un instituto….si es que te tienes que reir.

    La realidad: matar a millones de personas (dentro de unos meses, por subida de precios de alimentos), esclavizar a otros miles de millones, etc, siempre en nombre del derecho a defenderse, los intereses legítimos, blabla, en unos sistemas económicos que por definición no pueden albergar jamás algo que se pueda llamar democracia. Y ya que digas sobre que prenderle fuego a esa gente en vida que «nada de eso es justificable», ya es la bomba (imagino que es fake pero te proteges de delitos de odio, etc)

    A ver si lo que cae mal no es la IA sino esa panda de hijos de puta, avaros y psicópatas que poseen la mitad de la riqueza del mundo y son los dictadores de facto de toda la humanidad, que ni pestañean ante el genocidio causado a conciencia para enriquecerse más aún y que se follarían a tu hija de 14 años.

    ¿Lo peor de todo? Que _casi_ cualquier vecino, dada la oportunidad, se converiría en el pedazo de mierda podrida que acabo de describir.

    Responder
    • Lua - 22 abril 2026 - 14:25

      Pues….

      La ideología de Palantir explicada por Varoufakis

      Ale… a aplaudir con las orejas… XDDD

      Responder
    • BUZZWORD - 22 abril 2026 - 14:33

      Hace un poco de tiempo algunos denunciamos que la iniciativa de fotografiarte el iris (Sam Altman) era muy sospechosa, que coño ILEGAL, y en aquel entonces el judio Samuel, nos dijo que para identificar «nos» y que en el futuro era para que este muerto de hambre (cuando debes más de lo que tienes) nos iba a pagar a todos una RBU.

      Si fueran a pagar una RBU las big-techs pq se prohibieron en China, Iran, Brasil, España, Corea Sur,… parece que lo del timo de la estampita de nuestra querida Lina Morgan tuvo más éxito…

      Responder
    • JM - 22 abril 2026 - 18:50

      Hablaras por ti.

      Responder
      • f3r - 23 abril 2026 - 09:48

        No, en realidad me refería a ti.
        ¿Te has sentido identificado? ¿O es que niegas la verdad estadística enunciada?

        Responder
  • #023
    Javier - 22 abril 2026 - 15:21

    Saltar de la sartén para caer en las brasas, versión IA superpoderosa

    Según cuentan en Engadget se habrían aprovechado de una de las empresas colaboradoras para conseguir la herramienta antes de tiempo y ya estaría circulando por ahí.

    Responder
    • Lua - 22 abril 2026 - 16:07

      «¿Qué podría salir mal? Pues parece que lo veremos pronto. Tic, tac, tic, tac…»

      XDDD

      Responder
      • Javier - 22 abril 2026 - 17:10

        «Por la dudas» (…dijo el cura y se compró una cama de dos plazas…) yo ya me lo estoy descargando:

        El USB de supervivencia

        Responder
        • Lua - 22 abril 2026 - 17:17

          Ya lo vi… pero seguimos en las mismas…

          Tendrás también un generador eléctrico o a pedales? Porque si no, el USB te servirá de bien poco… XDD

          Añade un modem + emisor/receptor de VHF/UHF/CB o similar para poder conectar… a quién? XDD

          Responder
          • Lua - 22 abril 2026 - 21:07

            Por si no se entiende mi respuesta a JAVIER…

            Ya en los 80, en España, creo que era RNE-4 tenia un programa los sábados por la mañana, en que se hablaba de la microinformática, y en ocasiones, pausaban y emitían pequeños programas que podías grabar desde tu radiocasete y meterlos en tu Spectrum o Comodore.

            En realidad, en esa época, ya existió una red tipo eMule/Torrent, por eso te mencione la banda ciudadana de radioafición. “Alguien” emitía vía filtrado activo pasa-alto, la lectura de un casete, y el resto copiábamos el… juego… :P

            ps.- No era del todo efectivo, pero funcionaba si estabas cerca del emisor por la potencia de salida. No había corrección de errores, eso si. XDD

            Responder
        • Dedo-en-la-llaga - 22 abril 2026 - 20:38

          Hombre, no me jodas Javier.

          Responder
          • Lua - 22 abril 2026 - 20:40

            De que te quejas….??? si tu con tu Win XP vas a todas partes…. (y super seguro) XDDD

            Responder
            • Dedo-en-la-llaga - 23 abril 2026 - 00:18

              Por eso lo digo…

  • #031
    Benji - 22 abril 2026 - 16:05

    Hasta cierto punto me es indiferente. Los modelos que ya existen, quedarán aquí y ponerles un RAG será cosa sencilla.

    En unos años no harán falta esos centros de datos ingentes de ahora. Me recuerdan a los primeros ordenadores que eran edificios enteros con válvulas. En cuestión de tiempo tendremos la misma potencia en local porque se optimizará el hardware, el software, surgirán modelos especializados, mezclas de expertos, etc.

    Responder
    • Lua - 22 abril 2026 - 16:09

      Espera sentado… que de momento para el público general no hay ni RAM ni VRAM hasta 2028 (al menos) XDDD

      Responder
  • #033
    Matt - 22 abril 2026 - 19:33

    Y esto es solo el princpio. Estamos en los primeros pasos, aun no se han producido grandes perdidas de empleo y los desastres ecologicos y energeticos que pueden causar por la gran cantidad de recuros que necesitan se contempla como algo a futuro … si eso llega, veremos hasta que punto escala su impopularidad.
    Yo ni siquiera voy a condenar los ataques. Las empresas tecnologicas y sus megalomanos dueños son la gran amenaza que enfrenta la humanidad actualmente y el combate es demasiado desigual: ellos tienen todo el dinero y el poder del mundo. En el propio articulo se habla de la cantidad de millones que se estan gastando para imponer sus ideas y atacar a los que intentan poner coto a su poder. Ante eso, a la gente solo le queda la rabia.
    Y lo de que sí, que la ia va a suponer un cataclismo pero no hay que odiarla sino redistribuir los aumentos de riqueza y productividad que traiga suena muy bonito … pero seamos honestos, sabemos perfectamente que eso no va a pasar. De hecho, el mundo va exactamente en la dirección contraria.

    Responder
    • Lua - 22 abril 2026 - 20:08

      +1000….

      Responder
    • Alqvimista - 23 abril 2026 - 07:46

      Es que lo que tú propones es ¡SOCIALISMO!
      Porque hoy en día, al capitalismo social que hemos practicado en Europa desde la Segunda Guerra Mundial es demonizado y calificado de comunismo o socialismo. Y debe ser erradicado, claro :-P

      Hasta lo más obvio como la Sanidad Pública ya empieza a verse como un mal socialista a erradicar. Repartir, dicen. XD.

      Así que lo de repartir riqueza y esas cosas, como que no, no va a pasar, ni de coña.

      Responder
      • Matt - 23 abril 2026 - 18:29

        Exacto

        Responder
  • #037
    El hombre que rie - 23 abril 2026 - 04:47

    más de la mitad de los trabajadores se declaraban preocupados por el impacto futuro de la inteligencia artificial en el trabajo, y casi un tercio creía que terminará reduciendo sus oportunidades laborales

    Hay que tener en cuenta el caso «desplazados por IA» son oficinistas y programadores, los titulares en los medios siempre omiten que parte de las actividades productivas e industriales ya estan automatizados: en agricultura existe maquinaria para recolectar zanahorias, papas, naranjas, manzanas, etc, la industria cárnica, la fabricación de plásticos, petroquímicos, vidrio, ¿Quien fabricó la nave espacial Artemis? Probablemente un brazo robotico, alguien, tal vez el director de la NASA, presionó un botón y de ahí salió la nave.

    Jensen Huang, CEO de NVIDIA, mencionó que el problema es escabilidad. IA como software puede escalar indefinidamente pero no los centro de datos. El problema es la escasez de mano de obra humana para construir esos centros de datos lo cual es un extraño planteamiento, la IA necesita esos centros de datos para existir pero la construcción depende de mano de obra humana.

    Responder
  • #038
    D.M.G. - 23 abril 2026 - 13:07

    No hay un debate sobre IA. Hay tres. Y creo que los estamos confundiendo.

    El problema de fondo no es tecnológico ni ideológico, es taxonómico. Metemos en el mismo saco tecnologías radicalmente distintas, con implicaciones radicalmente distintas, y esa confusión no siempre es inocente.

    Las IA estrechas o especializadas llevan décadas entre nosotros y no paran de mejorar. Su límite es ético-regulatorio, y en buena medida ya existe: la ley humana rige hasta dónde pueden llegar en medicina, farmacología, biotecnología o ingeniería. Es un terreno relativamente controlable porque los resultados pasan por filtros institucionales antes de llegar a la sociedad. Aquí el debate está bastante maduro.

    Las IA de uso general son otro animal. Y aquí está el verdadero meollo, porque su ambivalencia es precisamente su rasgo definitorio, puesto que hay tres problemas concretos (que yo vea):
    Los modelos de lenguaje que simulan ser personas y aconsejan en lo moral, terreno que debería seguir siendo exclusivamente humano en las relaciones entre humanos.
    Los agentes que piden credenciales y actúan por nosotros, haciendo que cedamos no solo ejecución sino juicio, con la comodidad como coartada.
    Y los modelos generativos de audio, imagen o vídeo, impresionantes pero incompletos, porque lo que requiere emoción requiere también la imperfección que nos hace singulares. Trabajar junto a ellos puede dar resultados que emocionen. Delegarles el resultado, raramente.
    Pero delegar el juicio moral, en cambio, no es un problema técnico, es una renuncia con consecuencias políticas que aún no hemos empezado a medir.

    La superinteligencia, por último, en muchos dominios especializados podría decirse que ya existe. La pregunta urgente es si debe existir en el terreno del uso general. Visto lo que ya generan los modelos actuales (que ni siquiera tienen buena memoria), la respuesta razonable sería vetarla hasta que culturalmente podamos adaptarnos. Pero razonable y probable no son lo mismo.

    Porque el verdadero obstáculo no es técnico sino político. En EEUU conviven dos visiones: la del co-estado (Google, Microsoft) que aspira a ser infraestructura imprescindible de la gobernanza, y la del nuevo-estado (Meta, Palantir, el entorno Musk) que se postula directamente como sustituto. China, con el Estado como árbitro indiscutible, universaliza los modelos de uso general como herramienta de influencia geopolítica, mientras mantiene hermetismo sobre sus desarrollos especializados. Europa, que llegó tarde (sic), ha apostado por la regulación como palanca. No es una estrategia brillante, pero es la única que queda cuando no tienes ni el capital ni la masa crítica tecnológica de los otros dos actores.

    El problema es que regular a posteriori siempre va por detrás. Creo que lo que necesitamos es algo más parecido a lo que hacemos con los medicamentos: ningún fármaco se libera sin pasar por fases experimentales controladas, con hipótesis claras, grupos de control y criterios de interrupción si el daño supera el beneficio. ¿Por qué no aplicamos una lógica equivalente a tecnologías de uso general con capacidad de redefinir el trabajo, la toma de decisiones o la producción cultural? El Estado debería crear ya ese tipo de incubadora experimental, no solo para regular sino para experimentar la implementación social antes de que sea irreversible. No como burocracia adicional, sino como cortafuegos democrático.

    Es un proceso lento, y la tecnología no espera. Pero aprender a identificar en qué debate estamos (estrecho, general o superinteligencia) ya ayuda a ser más críticos y a no dejarnos arrastrar por el relato de turno. Naipe por naipe, si hace falta, pero sabiendo cuáles sostienen el castillo y cuáles solo distraen.

    Me gustaría recomendar tres libros que ayudan a pensar esto desde ángulos distintos, por si son de utilidad:
    Empire of AI de Karen Hao (una aproximación al pensamiento de quienes lideran el sector, no siempre cómoda).
    Teoría de la dependencia digital de Cecilia Rikap (el nuevo orden emergente con mucha lucidez).
    Considerations on the AI Endgame del Dr. Roman Yampolskiy (más abstracto, pero amplía perspectiva).

    Nota:
    Yo ni pincho ni corto recomendando libros, es decir, me la trae al pairo, literalmente XD. Si no es adecuado hacerlo en tu casa pido disculpas, pero no gano nada con ello, de verdad.

    Responder

Dejar un Comentario a D.M.G.

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.