La empleabilidad algorítmica

IMAGE: A person stands before an AI figure displaying approval and rejection symbols, suggesting evaluation or judgment.

Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «La nueva obediencia digital: sin inteligencia artificial, quizá dejes de ser empleable» (pdf), y trata sobre una transformación que me parece mucho más profunda de lo que sugiere la conversación habitual sobre productividad, automatización o «nuevas herramientas». Durante un tiempo, la inteligencia artificial en el trabajo fue presentada como una posibilidad, como un recurso adicional para quien quisiera experimentar y ganar eficiencia. Pero esa fase está terminando muy deprisa. En muchas empresas tecnológicas, el uso de la inteligencia artificial está dejando de ser voluntario para convertirse en un requisito explícito o implícito, incorporado a evaluaciones de desempeño, procesos de selección y expectativas cotidianas de rendimiento. Ya no se trata de que puedas usarla: se empieza a asumir que debes hacerlo.

Eso cambia completamente la naturaleza del debate. Cuando una herramienta pasa de opcional a obligatoria, deja de ser sólo tecnología y se convierte en una forma de disciplina laboral. La cuestión ya no es si ChatGPT, Copilot o el agente de turno te ayudan a trabajar mejor, sino qué ocurre cuando la empresa decide que tu valor profesional depende de tu disposición a integrarlos en cada tarea. El artículo del Wall Street Journal lo describe con bastante claridad al documentar cómo grandes tecnológicas y compañías de servicios empiezan a medir el uso de inteligencia artificial, a premiarlo y, en algunos casos, a penalizar su ausencia. No estamos ante una moda corporativa, sino ante la construcción de un nuevo estándar de normalidad laboral.

Naturalmente, esa normalidad se vende con el envoltorio más previsible del mundo: «adaptación», «eficiencia», «futuro del trabajo», «upskilling». Google, por ejemplo, ha lanzado en Europa toda una narrativa sobre cómo la inteligencia artificial puede impulsar crecimiento, formación y competitividad, mientras Salesforce presume de aumentos muy fuertes en el uso diario de inteligencia artificial entre trabajadores del conocimiento y de una expectativa creciente de rediseño de plantillas y funciones en torno a agentes y automatización. Nada sorprendente: las compañías que han invertido miles de millones en inteligencia artificial necesitan demostrar que su adopción interna es real, irreversible y ejemplarizante.

El problema es que, como ocurre siempre, los costes de esa supuesta modernización no se reparten de forma homogénea. La OCDE lleva tiempo advirtiendo de que la gestión algorítmica del trabajo no solo organiza tareas: también monitoriza, clasifica, recomienda, puntúa y condiciona la autonomía profesional. Y la OIT ha señalado que la exposición a la inteligencia artificial generativa se concentra especialmente en tareas administrativas y de oficina, es decir, precisamente en actividades donde la promesa de «asistencia» puede convertirse muy deprisa en una lógica de sustitución parcial, intensificación del control o degradación del margen de decisión. El FMI, además, advierte de que la inteligencia artificial puede aumentar la desigualdad si complementa sobre todo a los trabajadores ya mejor situados en términos de cualificación e ingresos.

Visto desde España, la cuestión adquiere un interés particular, porque aquí la discusión sobre inteligencia artificial suele oscilar entre el entusiasmo vacío y la retórica institucional, pero muy pocas veces aterriza en la estructura real del empleo. La Comisión Europea reconoce que España tiene fortalezas en conectividad y en ciertas competencias digitales de base, pero también sigue señalando debilidades persistentes en la digitalización empresarial, especialmente en las PYMEs. Y como las PYMEs siguen siendo el núcleo de nuestro tejido productivo, eso significa que la transición hacia la inteligencia artificial obligatoria no va a vivirse igual en todas partes. Las grandes empresas podrán formar, comprar licencias, rediseñar procesos y repartir costes. Las pequeñas, muchas veces, simplemente trasladarán la presión al trabajador.

Ahí está, de hecho, la parte más importante del problema. Si la «empleabilidad» empieza a definirse por la familiaridad práctica con herramientas de inteligencia artificial, pero el acceso a esa familiaridad depende del tipo de empresa en la que trabajas, entonces la inteligencia artificial deja de ser solo una innovación y se convierte en un nuevo mecanismo de segmentación laboral. No entre los que saben mucho y los que saben poco, sino entre los que tienen organizaciones capaces de absorber la curva de aprendizaje y los que tienen que improvisarla en soledad, fuera de horario y sin criterios claros. La propia OCDE, en su trabajo sobre inteligencia artificial generativa y pymes, subraya que estas pueden beneficiarse mucho de la tecnología, sí, pero también que encuentran barreras muy concretas en recursos, capacidades y gobernanza.

Y eso ocurre, además, en un mercado laboral español que sigue arrastrando vulnerabilidades estructurales. La OCDE destaca la persistencia de retos en productividad, calidad del empleo y formación continua, mientras Eurostat sigue mostrando el peso desproporcionado de la temporalidad en determinados segmentos del mercado de trabajo europeo, una realidad que en España tiene una relevancia obvia. Aunque el empleo haya mejorado y el desempleo haya caído, eso no elimina la fragilidad de muchos itinerarios laborales ni la facilidad con la que un nuevo requisito tecnológico puede convertirse en filtro social.

Por eso me interesa tanto este tema: porque desmonta la ficción de que la adaptación es un asunto puramente individual. Claro que cada trabajador tendrá que aprender, experimentar y encontrar su sitio en entornos cada vez más mediados por inteligencia artificial, pero cuando una empresa exige uso de inteligencia artificial sin dedicar tiempo, recursos, formación y criterios transparentes a esa transición, no está innovando: está externalizando costes. Está diciendo, básicamente, «actualízate tú, asume tú los riesgos, aprende tú por tu cuenta y acepta que tu evaluación dependa de herramientas cuyo funcionamiento, sesgos y límites no controlas». Y eso, más que futuro del trabajo, se parece bastante a una nueva obediencia digital.

La cuestión, en el fondo, no es tecnológica, es política y laboral. Si aceptamos sin más que la inteligencia artificial pase de ser herramienta opcional a condición tácita de empleabilidad, deberíamos al menos discutir quién define ese estándar, con qué garantías, con qué derechos para los trabajadores y con qué apoyo real para las empresas pequeñas. Porque si no lo hacemos, la inteligencia artificial no va a «democratizar» nada: va a funcionar como otro acelerador de desigualdad, otro instrumento de control y otra forma de clasificar quién merece seguir dentro y quién puede ser tratado como perfectamente prescindible.


This article is openly available in English on Medium, «When AI stops being a tool and becomes a job requirement»

23 comentarios

  • #001
    Benji - 8 abril 2026 - 12:18

    Aun lo veo lejos en esta España hipertrofiada de burocracia sin sentido. Pero ayer nos enviaron de que dos personas que llevan 20 años en la empresa (de Finanzas) se van a la calle porque su trabajo ya no es necesario.

    En este caso es una herramienta de pagos semiautomatizada que sustituye el trabajo manual que hacían revisando tickets y demás. Y creo que les costará encontrar un trabajo similar.

    Ahora mismo es herramientas por personas, algo que lleva pasando un tiempo. Pero ahora herramientas + IA vs Personas puede conducir a tener que re-equilibrar mucho trabajo de cuello blanco.

    Les deseo lo mejor, pero me da pena porque los conozco. También conozco la empresa y si queremos competir, tenemos que estar igualados con nuestros rivales (EY, Accenture…) que son incluso más agresivos que nosotros en este tipo de planteamientos

    Responder
  • #002
    Asier - 8 abril 2026 - 12:39

    Esto me recuerda mucho a la incorporación y uso obligatorio del PC en los 90. Fue bastante traumático para muchos trabajadores, acostumbrados toda su vida laboral a redactar, calcular y gestionar en papel. Para las empresas también suponía una inversión importante en hardware y formación (en ese sentido el cambio de ahora me parece bastante menos traumático, la infraestructura para el acceso a la IA ya está desplegada) pero no había otra opción si querías seguir siendo competitivo o relevante.

    La incorporación del PC también se convirtió en requisito, creó «nuevo estándar de normalidad laboral», los costes no se repartieron de forma homogénea, era una herramienta de control y monitorización, etc. Es lo que tiene la disrupción tecnológica, adaptase o morir.

    De acuerdo en que haya programas de formación, ayudas, se rediseñe la educación, etc. pero habrá vencedores y vencidos como siempre ha habido y esto no tiene marcha atrás, hay que adaptarse a la nueva realidad.

    Responder
    • Gorki - 8 abril 2026 - 14:11

      Absolutamente de acuerdo con tu comentario., Yo viví en primera persona, desde los dos lados de la mesa, aquel periodo y en efecto en muchos casos supuso verdaderos traumas humano, recuerdo que un administrativa contable. que la «mecanizaron» su trabajo con un PC, tuvo tal stress que se la caía el pelo a mechones.

      La incorporación de las herramientas de AI será traumatizante en muchos trabajos sin que ni siquiera llegue a suponer el despido de nadie, Generalmente, las empresas suelen dedicar el personal sobrante a tareas que antes tenían mas o menos descuidadas, por ejemplo, los bancos absorbieron la inmensa cantidad de administrativos que les sobraban, abriendo una cantidad desaforada de sucursales en todos los barrios.

      Responder
  • #004
    Xaquín - 8 abril 2026 - 15:01

    «deja de ser sólo tecnología y se convierte en una forma de disciplina laboral» (EDans).

    Qué forma tan sutil de resumir, en una frase, el problemón del funcionarado en la enseñanza… si, por ejemplo, lo ilustramos con la aparición de las diapositivas como apoyo para «dar clase» (ya no necesito llegar a las presentaciones y el manejo de la internet)… cuántos obstáculos subjetivos!!!

    Es un reflejo de la disciplina profesional, que falta (tanto!) en muchos enseñantes.

    Responder
  • #005
    f3r - 8 abril 2026 - 15:48

    He leído en varios sitios (y Lua colgó un video de lord draugr que habla de esto) que el coste real de usar LLMs está muy por encima de lo que cuesta la suscripción. ¿Es esto real? Y en caso de serlo, ¿cómo cambia todo el panorama en cuanto estas startups dejen de gastar pasta de inversores y necesiten un plan de negocio sostenible? ¿Es una revolución totalmente ficticia?

    Responder
    • Lua - 8 abril 2026 - 17:06

      Buen video…

      Insostenible. La prueba es ver cómo están aumentando los precios de subscripciones o disparando el gasto de tokens (y latencias) en todas las IA’s. Incluso en las chinas , que se preciaban de ser baratas además de suficientemente buenas.

      En Reddit: Quejas sobre Antrophic

      y siguiendo ese mismo hilo, no se trata de casos aislados…

      El hombre, no se si llegara a Marte, pero el pedo de la burbuja se oirá allí.

      Las IA’s acabaran siendo objetos de lujo solo al alcance de quien pueda pagar por ellas.

      Al tiempo.

      Responder
      • Asier - 8 abril 2026 - 17:41

        Sí, sí, hay precedentes, igual que pasó con el coche, el teléfono, el ordenador… XD en fin…

        Responder
        • Lua - 8 abril 2026 - 17:51

          Hace años, la gente quería (o al menos, no les importaba) que se construyeran centros de datos cerca de sus poblaciones. Ahora están completamente en contra porque están viendo como se disparan los consumos de los mismos, y como, de rebote, también se dispara sus facturas de la luz en sus hogares. Tanto es así, que todas, X-AI, Microsoft, OpenAi… sopesan montar pequeñas centrales nucleares cerca de sus centros… será por algo…

          Eso no pasó, ni con el coche, ni con el teléfono…

          Y en general, estamos viendo como cada dos meses, si no antes, las empresas de IA, van cerrando rondas obscenamente multimillonarias, mientras que, con las cuotas, están en perdidas desde el día 0. De eso también tendrá la culpa el coche y el teléfono.

          ps.- Hazme un favor… ya que me vas a contestar, porque lo harás, hazlo con datos y enlaces que digan que miento. Hasta te lo agradeceré.

          En fin…

          Responder
          • Asier - 8 abril 2026 - 18:13

            No se trata de si mientes sino de lo sesgado y circunstancial que es lo que dices, lo anecdótico e irrelevante que será a medio-largo plazo y sobre todo de que no pareces haber entendido las lecciones de difusión y deflación tecnológica que nos ha dado la historia.

            Responder
            • Lua - 8 abril 2026 - 18:17

              Ya veo…

              Mira… la IA…:


              DATOS FINANCIEROS IA - ABRIL 2026
              (Fuentes: Bloomberg, CNBC, Sacra, The Information)
              OPENAI

              Ingresos anualizados: ~$25.000M (feb 2026)
              Crecimiento ingresos: +233% interanual
              Funding total acumulado: ~$178.000M (incluye compromisos de infraestructura)
              Valoración: ~$852.000M (abr 2026)
              Cash burn estimado: ~$9.000M (2025) / ~$17.000M proyectado (2026)
              Margen bruto: ~33% (limitado por costes de inferencia)
              Rentabilidad: NO. Proyección de cash-flow positivo hacia 2030

              ANTHROPIC

              Ingresos anualizados: ~$19.000M (mar 2026)
              Crecimiento: de $1.000M (dic 2024) a $19.000M en 15 meses
              Funding total acumulado: >$50.000M (incluye ronda Series G de $30.000M)
              Valoración: ~$380.000M (feb 2026)
              Previsión ingresos 2026: $18.000M - $30.000M
              Rentabilidad: NO. Cash-flow positivo retrasado a 2028

              xAI (Elon Musk)

              Funding Series E: $20.000M (ene 2026)
              Valoración estimada: ~$230.000M (nov 2025)
              Inversores destacados: Nvidia, Cisco, Fidelity, Qatar Investment Authority, MGX
              Ingresos: No divulgados públicamente (empresa privada, etapa temprana)
              Rentabilidad: Sin datos públicos

              MICROSOFT (división IA / Azure)

              Ingresos totales Q2 FY26: $81.300M (+17% YoY)
              Intelligent Cloud: $32.900M (+29% YoY); Azure +39%
              Ingresos estimados por IA: ~$25.000M objetivo para fin de FY26
              CapEx (inversión en infraestructura): $37.500M último trimestre (+66% YoY)
              Beneficio operativo: $38.300M (+21% YoY)
              Rentabilidad IA: Microsoft es rentable en conjunto, pero la inversión en IA es intensiva en capital y presiona márgenes a corto plazo

              OBSERVACIONES CLAVE

              Ninguna startup pura de IA (OpenAI, Anthropic, xAI) es rentable aún. Todas queman caja para financiar entrenamiento, infraestructura y talento.
              Microsoft es la única con beneficios consolidados, pero su estrategia de IA implica CapEx masivo: se espera que el sector tecnológico gaste >$500.000M en infraestructura de IA durante 2026.
              Las valoraciones están desconectadas de los beneficios actuales: se basan en proyecciones de crecimiento exponencial y dominio del mercado a largo plazo.
              Los "ingresos" reportados son en gran parte "annualized run-rate", no ingresos GAAP auditados. Interpretar con cautela.
              OpenAI y Anthropic tienen estructuras híbridas o de "capped-profit", lo que complica la distribución de beneficios futuros incluso si llegan a ser rentables.

              NOTA: Las startups privadas no están obligadas a auditar sus cifras públicamente. Existen variaciones entre fuentes. Para decisiones de inversión, consultar filings oficiales cuando estén disponibles (especialmente tras posibles IPOs en 2026-2027).

              No entiendo de finanzas, lo he dicho muchas veces…

              pero si me dices 100 y 200, se que doscientos es mas que cien.

            • Asier - 8 abril 2026 - 18:40

              Todo eso es irrelevante, de lo que es capaz la tecnología subyacente es lo relevante. Es como decir en 2000 que Internet será un objeto de lujo porque hubo la burbuja de las .com

            • Lua - 8 abril 2026 - 18:51

              Que si, que si… para ti el pollo… ya me hago una ensalada… XDD

            • Gorki - 8 abril 2026 - 19:10

              No se si la empresas dedicadas a la Ai seran negocio o no, lo mas probable es que solo sobrevivan muy pocas un par mas o menos, Pero si hay un precedente, La informática inició siendo una actividad carísima, para tener un ordenador, tenias que montar todo un edificio mantenido a 18º C y gastar cientos de millones. Sólo hacienda y los grandes bancos se lo podían permitir

              Pero de repente llegó el ordenador personal y se hizo asequible para todos Aparecieron cientos de marcas Compaq, Hewlett-Packard, Amstrad, Commodore, NCR, Spectrum, incluso una española llamada Cedar para la que yo trabajé,… pero solo sobrevivieron dos IBM y Apple, y hoy todos llevamos un ordenador en el bolsillo de unos 200 euros.

            • Lua - 8 abril 2026 - 19:23

              Gorki:

              Los costes del hardware bajan (ley de Moore), pero la inferencia de IA no es hardware: es electricidad + refrigeración + depreciación acelerada de GPUs + ancho de banda. Es un servicio con coste operativo recurrente, no un producto que se fabrica y se vende. La física no se negocia con optimismo histórico.

              No es pesimismo, es contabilidad. Si una empresa ingresa 20 y quema 25, no es ‘visión a largo plazo’: es dependencia de financiación externa. Cuando el capital se encarezca o los inversores pidan ROI, la ecuación se resuelve sola: o suben precios o reducen servicio. Eso no es ser pesimista, es leer un balance.

              El coche una vez fabricado no necesita que le eches gasolina cada vez que lo usas para que el fabricante gane dinero. La IA sí. Cada consulta tuya a un LLM genera un coste marginal para la empresa. Si ese coste supera lo que tú pagas, vender más = perder más. Esa ecuación no existía en las revoluciones anteriores. No es lo mismo.

              En un futuro “futuro”, podrían cambiar las cosas? (IA mas eficientes, con menos gasto, etc). Es posible. Pero tú, Asier y yo mismo, no sabemos si mañana estaremos vivos. Hoy sí. Pues lo mismo.

            • Gorki - 8 abril 2026 - 21:02

              El coche no es un buen ejemplo. basta que v hav gas una visita virtual a Detr4oit, para convencerte-

              Por ejemplo el teléfono exigiòo una inversión impresionante no menor que3 la AI, Hacer zanjas en todas las ciudades, lineas con montones de cables de una ciudad a otra, cables submarinos, satélites de comunicaciones, inversión y gasto en mantenimiento en miles de emisoras que pagan un alquiler del tejado que se instalan para cubrir todo el país, que gastan mucha electricidad, un primo mío trabajaba en una empresa con camiones cisterna oruga, para abastecer a los generadores de los repetidores que hay en las carreteras en lo alto de un monte….. y las llamadas son gratis y las compañías ganan bastante.

            • Lua - 8 abril 2026 - 21:18

              Gorki:

              Sigues confundiendo un bien (teléfono, ordenador, taza del WC) con un servicio… la IA.

              Si vendes un coche, ya esta vendido. Al fabricante, como si lo tiras por un acantilado. El, ya ha cobrado. Si vendes un teléfono, es más de lo mismo, y una taza de WC y un pollo…

              Aquí estamos hablando de un servicio. Lo que me cuentas de tu primo, son costes que van implícitos en esa tarifa que pagas. ¿Y sabes? Sale a ganar. Si fueran perdidas, estarías hablando con Tam Tam con tu primo el oruguero.

              El despliegue de telefonía, nada tiene que ver con el despliegue de la IA. Al principio, solo había cuatro abonados, y con tirar un cable, bastaba. La red fue creciendo, porque creció el número de abonados. Fue de alguna manera, exponencial.

              La red telefónica requirió una inversión brutal y hoy las llamadas son «gratis». Pero hay tres diferencias clave que cambian la ecuación:

              1. Coste marginal: Una vez tendida la fibra, el coste de una llamada adicional es casi cero (bits que viajan por un cable ya existente). En la IA, cada consulta quema GPU, electricidad y refrigeración en tiempo real. No es un coste hundido, es recurrente. Vender más consultas = quemar más caja.

              2. Escala de uso: La red telefónica se diseñó para tráfico de voz (pocos kbps por usuario). Un LLM requiere cientos de veces más computación por interacción. No es lo mismo enrutar una llamada que generar 500 tokens coherentes en tiempo real.

              3. Modelo de negocio: Las operadoras no ganan con «llamadas gratis», ganan con el bundling (móvil + fibra + TV + datos) y la retención. En IA, hoy el core del negocio es la API y la suscripción directa. Si el coste por token supera el precio de venta, el bundling no salva la ecuación: solo la pospone.

              ¿Podrá la IA llegar a tener costes marginales cercanos a cero? Quizá. Pero hoy no es así. Y mientras la física y la contabilidad no cambien, repito: vender más = perder más, si el margen unitario es negativo.

              Aquí, repito, hablamos de unos gastos energéticos que son insostenibles (actualmente), de unos gastos en recursos (GPU’s y VRAM) que esta poniendo en crisis al resto del mundo informático (y también de la telefonía móvil).

              Pero sobre todo, estamos hablando que no es sostenible ninguna empresa que gasta el doble o el triple de lo que ingresa.

              Vas a seguir mareando la perdiz? Si es asi, dame datos y enlaces y no opiniones.

        • Dedo-en-la-llaga - 8 abril 2026 - 20:48

          «Sí, sí, hay precedentes, igual que pasó con el coche, el teléfono, el ordenador… XD en fin…». Otro que es capaz de negar la ley de la gravedad porque choca contra sus creencias sobre que las cosas no deben caer, como ahora niega la segunda ley de la termodinámica, creyendo en el equilibrio cuántico universal. Así que esto de la IA le parece algo así como las gallinas que entran por las que salen… Mi má, qué bochorno.

          Responder
      • Alqvimista - 9 abril 2026 - 07:27

        Esto mismo comenté no hace mucho, de cómo empresas que despidieron trabajadores para reemplazarlos por IA, acabaron pagando más por la IA que lo ahorrado en los trabajadores despedidos.

        https://www.genbeta.com/inteligencia-artificial/esta-empresa-sustituyo-a-700-empleados-ia-su-ceo-se-arrepiente-revelacion-mundo-ia-valioso-seran-humanos

        Responder
      • f3r - 9 abril 2026 - 10:39

        Qué buen sistema económico que hemos montado, leñe…

        Si en un par de años (si es que no revienta la burbuja antes) ocurrre un milagro y a un científico (sí, a un científico) se le ocurre una manera de hacer lo mismo que un LLM gigantesco con x10 menos recursos, todo bien y estas empresas son visionarias, han traído la revolución al mundo, son la leche, etc.
        Si dicho científico no consigue ese factor x10, estalla una burbuja que nos deja en la mierda durante 15 años (como en 2008) a todos, y ellos con los bolsillos rebosando oro y sin cargos penales.

        Si es que no entiendo que estos malditos comunistas se quejen de las bondades del sistema actual.

        Responder
        • Asier - 9 abril 2026 - 13:10

          De milagros nada, está ocurriendo desde los comienzos:

          «the inference cost for a system performing at the level of GPT-3.5 dropped over 280-fold between November 2022 and October 2024. At the hardware level, costs have declined by 30% annually, while energy efficiency has improved by 40% each year. Open-weight models are also closing the gap with closed models, reducing the performance difference from 8% to just 1.7% on some benchmarks in a single year. Together, these trends are rapidly lowering the barriers to advanced AI»

          Cada vez más hardware especializado (NPUs, ASICS para LLMs), modelos gratuitos que corren en el móvil, nuevos modelos que siendo más potentes tienen menor coste:

          «GPT‑5.4 is our most token efficient reasoning model yet, using significantly fewer tokens to solve problems when compared to GPT‑5.2—translating to reduced token usage and faster speeds»

          Cómo es posible que a pesar de la velocidad a la que las cosas están mejorando el miedo que tengáis es que esto es insostenible y «Las IA’s acabaran siendo objetos de lujo» ??

          Una cosa es que ciertas inversiones hayan sido exageradas (está por ver) y otra que la tecnología ha venido para quedarse y su uso acabará siendo tan habitual y barato como el acceso a Internet.

          Responder
          • Lua - 9 abril 2026 - 19:19

            Asier (Ay los alias), gracias por los datos. Son reales y relevantes. Por fin te has decidido. Pero hay cuatro matices que cambian la ecuación:

            El objetivo se mueve: Sí, hacer lo que hacía GPT-3.5 ahora cuesta 280 veces menos. Pero nadie quiere GPT-3.5. La carrera es hacia GPT-5, o1, Claude 3.5… modelos que son 10-100x más grandes y complejos. Es una cinta de correr: corres más rápido, pero la meta se aleja al mismo ritmo. Ahora, los modelos son otros, mas avanzados y mas “gastones”.

            Eficiencia ≠ Rentabilidad: Que el coste por token baje no significa que el negocio cierre. Si la competencia obliga a bajar precios más rápido que los costes, el margen se comprime. Y si los usuarios consumen 10-100x más tokens gracias a frameworks de agentes (como documentan en China con las suscripciones de coding), el ahorro unitario se diluye en volumen.

            Paradoja de Jevons: Cuando un recurso se hace más barato y eficiente, se consume más, no menos. Si inferir es más barato, los desarrolladores lanzan más agentes, más consultas, más automatizaciones. El ahorro por token se compensa con el aumento exponencial de tokens totales.

            Tecnología viable ≠ Modelo de negocio viable: Que la IA «venga para quedarse» no implica que las empresas que la venden hoy vayan a ser rentables. Internet también vino para quedarse (ya que comentaste las .com), y eso no salvó a Pets.com.

            The Token Reckoning
            China’s AI coding plans sell out within minutes. The economics have never closed.

            En China, las suscripciones de coding con IA se agotan en minutos… pero por debajo, los límites de velocidad, los modelos degradados y los muros de cuota sugieren que el producto está bajo una presión de costes extrema.
            Pregunto con sinceridad: si la ecuación coste/ingreso por token ya está resuelta, ¿por qué ninguna startup pura de IA (OpenAI, Anthropic, xAI) ha presentado aún un balance con beneficios netos? ¿Por qué siguen dependiendo de rondas de financiación obscenas?

            No es miedo al progreso. Es contabilidad. Yo no estoy en contra de la IA. Si de que me vendan humo. Y esta ultima frase, parece que nunca la entiendes…

            ¿Por qué Anthropic tuvo que cortar el acceso a herramientas de terceros que usaban sus suscripciones?
            ¿Por qué en China las suscripciones de coding se agotan en minutos, pero con límites estrictos de velocidad y cuota? Si la ecuación coste/ingreso ya funciona…

            ¿Por qué las empresas limitan el uso en vez de vender más? Algo no cuadra.

            ¿Tienes la pieza que falta?

            Responder
            • Asier - 9 abril 2026 - 21:35

              «¿Por qué Anthropic tuvo que cortar el acceso a herramientas de terceros que usaban sus suscripciones?. ¿Por qué las empresas limitan el uso en vez de vender más? Algo no cuadra.»

              Las suscripciones de bajo precio a gran escala funcionan porque dan por hecho que el 90% del tiempo (por decir algo) el usuario medio no está haciendo uso de la suscripción (piensa en Netflix por ejemplo). Si resulta que la gente empieza a utilizar la suscripción para poner a los agentes haciendo tareas 24/7, evidentemente el modelo no se sostiene.
              Te digo sinceramente, las suscripciones son baratas para los ‘superpoderes’ que obtienes. No me quiero extender en esto pero así lo veo.

              «¿Por qué en China las suscripciones de coding se agotan en minutos, pero con límites estrictos de velocidad y cuota? Si la ecuación coste/ingreso ya funciona…»

              No lo sé, ¿tal vez porque son muchos, hay gran demanda (ahora más con agentes autonómos) y no les dejan utilizar modelos extranjeros?

              «¿Tienes la pieza que falta?»

              La IA se va a convertir en una commodity, el acceso a una IA suficientemente buena y útil para el 90% de las necesidades del usuario medio será prácticamente gratuita e instantánea (bien con modelos locales u online).
              Analogía con el PC: en los 90 hubo una explosión en la mejora de especificaciones hardware y no paraba de salir software novedoso que hacía uso de las nuevas características (estamos en esta fase con la IA). Si no tenías al menos un 386 olvídate de un entorno gráfico, si no tenias un Pentium con tarjeta gráfica olvídate de juegos 3D o programas de diseño, etc. Todos queríamos el último modelo, claro, como ahora con la IA. Llegó un punto donde las especificaciones eran lo suficientemente buenas como para que un usuario medio pudiera hacer todo lo que necesita. Hoy puedes hacer casi de todo con un PC de 400€. El trabajador típico de oficina no necesita más. Si quieres lo último de lo último necesitas 4.000€, sí, pero para el 95% de los usuarios es innecesario. Lo mismo con la IA, habrá modelos potentísimos y caros, tremendamente útiles en investigación, ciberseguridad, tareas empresariales complejas, etc. pero el 99% de la gente no va a necesitar eso en su día a día.

              Si las empresas actuales son rentable o no es irrelevante, el mercado se ajustará, lo importante es que el genio ya está fuera de la botella.

  • #023
    D. FALKEN - 8 abril 2026 - 20:05

    Magnifico artículo Enrique.

    Seguimos cometiendo el error de confundir la función de asistente de la IA con la automatización agéntica. La primera hemos dicho que se comporta como una herramienta que aporta un plus de productividad al trabajo (al igual que pc’s, móviles, internet, …) Seguimos hipnotizados con el hype de capacidades, pero desde la perspectiva de usuario individual. Pero el paradigma ha cambiado al irse abriendo rápidamente una brecha: la agéntica. Cuando hablamos de empleabilidad algoritmica, estamos refiriendonos a la descomposición del trabajo en toda una serie de tareas que pueden quieren ser automatizadas y sustituidas. Entonces el valor del trabajo humano es percibido como residual «por la empresa» y se prescinde de él. Y se despide, no se recicla.

    Seguimos cometiendo el error tambien de extrapolar al presente, hechos históricos como la revolución agraria o la revolución industrial por ejemplo, como casos más recurridos, para proyectar consecuencias de la aplicación de la inteligencia artificial generativa. Y el error al que me refiero está en que lo hacemos separando esas «revoluciones» de su propio escenario histórico. Ahora estamos en un giro superior en la espiral histórica, y por tanto, nuestro escenario es muy diferente: estamos intentando apretar una tuerca del n° 6, con una llave del n° 8.

    El análisis es apasionante, y me extendería más si no fuera que lo hago desde el móvil. Pero, quiero insistir en que todas estas consecuencias estan siendo generadas por expectativas sobre procesadores masivos de patrones, basados en estimaciones estadísticas sobre unos datos que son el propio lenguaje e imagen principalmente. No hablamos de inteligencia ni de compresión. Es una revolución algoritmica.

    Y esto lo perdemos de vista continuamente. Y lo peor es que estamos tomando decisiones en base a ello.

    Responder

Dejar un Comentario a Asier

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.