Transparencia o caja negra: el dilema de la Administración algorítmica

IMAGE: A hyper-realistic scene shows two cubes on a desk: one made of clear glass revealing glowing digital circuits inside, symbolizing transparency, and another opaque black cube surrounded by floating lock icons, representing hidden or unaccountable systems, with a blurred official working in the background

Mi columna de esta semana en Invertia se titula «Cuando el Estado subcontrata la inteligencia» (pdf), y trata sobre un fenómeno que avanza mucho más deprisa de lo que solemos admitir: la externalización silenciosa de decisiones públicas a sistemas tecnológicos desarrollados y operados por proveedores privados. No hablamos solo de la digitalización administrativa, sino de algo más profundo: de lo qué ocurre cuando becas, subsidios, inspecciones, evaluaciones de riesgo o asignaciones de recursos dependen de modelos algorítmicos cuya lógica real no es plenamente auditable ni comprensible por quienes, en teoría, deben rendir cuentas ante la ciudadanía.

En mi artículo analizo cómo este desplazamiento de capacidad decisoria tensiona principios básicos del Estado de derecho. El Reglamento General de Protección de Datos (GDPR) ya estableció límites claros a las decisiones basadas únicamente en tratamiento automatizado cuando producen efectos jurídicos significativos, como recoge su artículo 22. Más recientemente, la Unión Europea ha aprobado el Reglamento 2024/1689, conocido como Artificial Intelligence Act, que clasifica como «sistemas de alto riesgo» aquellos utilizados para evaluar la elegibilidad o el acceso a servicios esenciales y beneficios públicos. Es decir, el legislador europeo es plenamente consciente de que automatizar decisiones en estos ámbitos no es una cuestión técnica menor, sino un asunto de garantías democráticas.

La literatura internacional lleva tiempo alertando sobre los riesgos de esta deriva. La OCDE ha publicado análisis específicos sobre gobernanza y transparencia en la toma de decisiones automatizada en el sector público, como «Governing with Artificial Intelligence« o su informe sobre transparencia algorítmica en la administración, así como reflexiones sobre responsabilidad y rendición de cuentas en decisiones automatizadas. En la misma línea, el Consejo de Europa ha adoptado un marco convencional sobre inteligencia artificial que refuerza la idea de que los sistemas automatizados no pueden quedar fuera del escrutinio jurídico y democrático.

Los ejemplos concretos muestran que el problema no es teórico. El escándalo neerlandés de las ayudas al cuidado infantil, documentado por la propia Comisión Europea, evidenció cómo un sistema de detección de fraude puede generar daños masivos cuando combina automatización, sospecha estructural y ausencia de controles efectivos. Algo similar ocurrió con el sistema SyRI en Países Bajos, un algoritmo de puntuación de riesgo para fraude social cuya historia está recogida por organizaciones como Digital Freedom Fund. En Estados Unidos, el sistema MiDAS en Michigan acusó erróneamente a decenas de miles de personas de fraude en prestaciones por desempleo, un caso ampliamente analizado por IEEE Spectrum y explicado en detalle por la Universidad de Michigan. Incluso decisiones en sanidad pública, como en el caso del programa Medicaid de Idaho, han terminado en los tribunales, tal y como explica la ACLU.

Tampoco Europa ha estado libre de episodios similares en otros ámbitos, como el controvertido algoritmo de calificaciones utilizado por Ofqual en el Reino Unido durante la pandemia, cuyo análisis técnico puede consultarse en el informe de la British Computer Society. La preocupación académica sobre la forma en que los sistemas automatizados pueden generar decisiones opacas y difíciles de impugnar está presente en trabajos como el publicado en PLOS ONE bajo el explícito título «The algorithm will screw you«.

En España el debate es mucho más discreto, pero no inexistente. El informe de Digital Future Society sobre cuatro estudios de caso de sistemas automatizados en el sector público español y las muy meritorias iniciativas de Civio en torno a la transparencia de decisiones automatizadas muestran que también aquí existen algoritmos que influyen en derechos y oportunidades. Lo que falta es que esa discusión salga del ámbito técnico y se convierta en una cuestión política de primer orden.

Además, la externalización no se limita al Estado. En el ámbito de los seguros, por ejemplo, la utilización intensiva de modelos predictivos y segmentación de riesgos está transformando quién es asegurable y a qué precio. El debate regulatorio británico sobre prácticas de fijación de precios en seguros generales, documentado por la Financial Conduct Authority, y los análisis del Financial Times sobre el riesgo de que la inteligencia artificial convierta a algunas personas en «inasegurables» apuntan a un fenómeno más amplio: cuando las decisiones que estructuran el acceso a servicios esenciales se automatizan y se optimizan bajo lógicas comerciales, el impacto social puede ser profundo.

De eso va mi columna de esta semana: de asumir que no estamos simplemente modernizando procedimientos, sino redefiniendo dónde reside la inteligencia institucional y quién controla sus reglas. Si el Estado subcontrata la inteligencia, debe asegurarse de no subcontratar también la rendición de cuentas. Porque cuando los algoritmos deciden cada vez más cuestiones que nos afectan, la cuestión ya no es tecnológica, sino democrática.

6 comentarios

  • #001
    Manuel - 18 febrero 2026 - 09:51

    Casi todas tus columnas (suelen ser muy interesantes) son consecuencia directa o indirecta del funcionamiento natural de la manada.
    Es exactamente eso. Toda la historia es una masacre dentro de un cortijo.
    Ahora, con scroll infinito, algoritmos opacos a la vista de todos, etc, etc queda patente que el planeta es un gigantesco cortijo-manicomio o manicomio-cortijo, lo que prefieras.
    Shakespeare jamas pasara de moda.
    Cada vez amos mas amos y mas sueltos.
    Lo de los brioches, hoy en dia, parece de locos.

    Responder
    • Benji - 18 febrero 2026 - 10:28

      Solo hay que mirar los «Therians» inundando las redes sociales para ver que estamos a un solo paso del final.

      Y pensar que esta gente vota… hahahaha. Argentina está fatal. Es donde más parece haber, pero veo que invaden las calles de medio mundo

      Responder
      • Manuel - 18 febrero 2026 - 10:43

        Lo gracioso es que en la modernidad con algoritmos y a lo loco les suben la jornada laboral de 8 a 12h diarias y los esclavos aplauden.
        De 80 emperadores romanos 70 murieron «accidentalmente» pero casi todos ellos fueron masacrados por los otros amos.
        La carne de cañon es mayoritaria y los Espartacos siempre a contracorriente.

        Responder
  • #004
    Benji - 18 febrero 2026 - 10:26

    Deus ex machina hasta el extremo donde una IA puede echarte del sistema o integrarte en él.

    Hace poco viví esto con los bancos. Los departamentos de riesgo para hipotecas están ya totalmente automatizados. Me pidieron decenas de documentos (todos en PDF) para analizar si era capaz de pagar una hipoteca.

    La directora del banco me dijo que la habría aprobado con los ojos cerrados (100k de ahorro, hipoteca por debajo del 25% del salario, estabilidad en el historial laboral [17 años cotizados con 40 años], etc… ) pero no, la decisión dependía ahora de una caja negra en Madrid que maneja el departamento de riesgo.

    Yo veo el valor que esto puede aportar de cara a detectar el fraude. Por ejemplo, para evitar que haya personas percibiendo 5 ayudas simultáneas. Pero para ello hace falta que la máquina reciba los datos correctos del estado, comunidad autónoma, servicios sociales y ayuntamiento. Si esto no es posible de hacer, entonces estamos perdiendo el tiempo.

    Hacienda también usa la IA para detectar fraudes por desviaciones muy fuertes de la «media» entre otras cosas.

    Hay ámbitos (ojalá un tren auscultador, por ejemplo) donde la IA o ML bien aplicada puede suponer más seguridad, ahorro de contribuyentes y justicia sin sesgos raciales.

    Pero en USA o en los ejemplos que has citado se puede leer que un sistema solo es tan bueno como los datos de los que se alimenta y que puede malentender todo y acabar generando más problemas de los que soluciona.

    Por otra parte, si abres la «caja» para mostrar el código, en seguida habrá quienes puedan hacer ingeniería inversa para enviar documentos que «prueben» lo que la máquina quiere ver para que obtengamos el resultado que queremos.

    Es más, se podría enviar un documento PDF con texto en blanco sobre fondo blanco y solo la máquina lo verá. Podría meter instrucciones para que me toque lo que no me toca sin mucho hackeo.

    Al final somos todos unos mediocres (como el Lazarillo de Tormes) y si podemos aprovecharnos y trampear el sistema, habrá suficientes que se animarán a hacerlo

    Responder
    • BUZZWORD - 18 febrero 2026 - 12:57

      El caso que citas es un caso de mala praxis de una empresa usando, asumo que IA, el personal a cargo del departamento de riesgos son unos zopencos que simplemente «viven» en un edificio centralizado de un banco ajenos al día a día de los clientes.

      Evidentemente el riesgo cero no existe, salvo en el caso que deniegues créditos como parece el caso que presentas. Lo que se suele usar en el caso de gestión de clientes no es una IA, es un algoritmo bien conocido:

      «El Random Forest (Bosque Aleatorio) es un algoritmo de aprendizaje supervisado de Machine Learning utilizado para clasificación y regresión. Funciona creando múltiples árboles de decisión durante el entrenamiento y combinando sus resultados (voto mayoritario para clasificación o promedio para regresión) para mejorar la precisión y evitar el sobreajuste (overfitting) de un solo árbol.»

      Se debe poder generar un informe explicativo por cada solicitud evaluada, especialmente en crédito, por razones regulatorias, de auditoría y de experiencia del cliente.

      En un Random Forest, aunque el modelo sea complejo, puedes producir un informe individual de decisión (reason code report) usando técnicas de interpretabilidad.

      ¿Qué debe contener el informe? Para un caso individual:

      1. Probabilidad estimada de default (PD)
      2. Decisión (aprobado / rechazado / revisión)
      3. Variables que más influyeron en la decisión
      4. Qué criterios superaron el umbral de riesgo
      5. Recomendaciones (si aplica)

      En adjudicación real, se generan códigos como:

      RC01 – Ratio deuda/ingreso superior al 50%
      RC02 – Ingresos insuficientes para monto solicitado
      RC03 – Historial de mora reciente
      RC04 – Alta exposición crediticia

      Estos se derivan automáticamente del análisis de las reglas del modelo.

      La concesión de prestamos en España, está regulada y por ejemplo puedes exigir para préstamos hipotecarios:

      a) Evaluación rigurosa de solvencia.
      b) Documentación clara del análisis.
      c) Prohibición de concesión irresponsable.

      (Ley 5/2019): Mi recomendación es que te informes y le pidas una reunión a esa directora para que sean ellos los que ahoran aporten PDFs…

      También sería bueno que citaras el nombre del Banco para que sepamos como tratan a sus clientes…

      Responder
    • Benji - 18 febrero 2026 - 13:30

      Al final me lo dieron (Unicaja) a un buen tipo fijo (2,05% con seguros y blablabla o 3,05% sin vinculaciones).

      Lo peor es que ni estoy en ASNEF ni RAI y tengo el coche en propiedad, no tengo deudas de ningún tipo. La verdad es que me sorprendió la reticencia.

      Si mi salario fuese bajo también lo entendería, pero no es el caso. En fin, los misterios de las «cajas negras»…

      Solo era por poner un ejemplo de que igual yo pasé por los pelos pese a un perfil que a ojos vista es bueno y que otros menos cualificados pero que saben que «teclas» tocar, pasan sin probelmas.

      Gracias por aclarar algunos de los otros puntos que desconocía.

      Responder

Dejar un Comentario a Benji

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.