Durante años, las grandes compañías tecnológicas han cultivado una narrativa cuidadosamente diseñada: la inteligencia artificial como progreso inevitable, como motor de productividad, como solución casi mágica a problemas estructurales. Sin embargo, algo está empezando a resquebrajarse. Y no es su tecnología, que también, sino sobre todo su percepción social.
Un interesante artículo reciente de The Guardian, «AI companies know they have an image problem. Will funding policy papers and thinktanks dig them out?», advertía de un fenómeno inquietante: think tanks, recomendaciones de políticas públicas, compra de medios e incluso informes aparentemente técnicos están siendo cada vez más contaminados por imágenes generadas por inteligencia artificial que distorsionan la realidad o refuerzan narrativas interesadas. No se trata de un problema técnico, sino cultural. La inteligencia artificial no solo produce contenido: produce imaginarios. Y esos imaginarios, cuando son manipulados, erosionan la confianza en el conocimiento experto.
La reacción de las grandes compañías ante este deterioro de su imagen pública está lejos de ser pasiva. Más bien al contrario: estamos asistiendo a una ofensiva coordinada, sofisticada y, en muchos casos, profundamente política.
El ejemplo más evidente es el surgimiento de estructuras de influencia directa sobre el proceso democrático. Un Super PAC respaldado por actores clave del sector como OpenAI, Andreessen Horowitz, Palantir y otros, que ha recaudado al menos 125 millones de dólares para influir en las elecciones norteamericanas, con el objetivo explícito de favorecer a candidatos alineados con una regulación favorable a la industria. No se trata de lobbying tradicional: es una estrategia de presión política a gran escala, con capacidad para premiar o castigar a legisladores.
El caso del candidato neoyorquino Alex Bores ilustra hasta qué punto esta estrategia ha escalado. Su «delito» fue impulsar una ley estatal para introducir salvaguardas en el desarrollo de la inteligencia artificial. La respuesta fue inmediata: campañas negativas millonarias, ataques personales y una narrativa diseñada para disuadir no solo a él, sino a cualquier otro político con aspiraciones regulatorias. El objetivo no era solo derrotarle, sino enviar un mensaje claro: regular la inteligencia artificial tiene un coste político elevado.
Este patrón recuerda poderosamente a episodios anteriores en la historia tecnológica. La industria del tabaco, durante décadas, negó la evidencia científica mientras financiaba campañas de desinformación. Las grandes petroleras han seguido estrategias similares respecto al cambio climático. La diferencia ahora es la velocidad y la escala: la inteligencia artificial permite producir narrativas, imágenes y argumentos con una eficiencia sin precedentes.
Pero la presión no se limita al ámbito político. También se despliega en el terreno jurídico. Según Wired, OpenAI ha respaldado legislación destinada a limitar la responsabilidad legal de las empresas de inteligencia artificial por los daños causados por sus modelos. Es decir, no solo se busca influir en quién legisla, sino en qué se legisla y en qué términos.
Al mismo tiempo, las compañías intentan reconstruir su legitimidad desde dentro, con iniciativas como el lanzamiento del Anthropic Institute, presentado como un espacio para el estudio responsable del impacto de la inteligencia artificial. O con documentos como el reciente «Industrial Policy for the Intelligence Age« de OpenAI, que intenta enmarcar el desarrollo de la inteligencia artificial como una cuestión estratégica nacional, prácticamente geopolítica. El texto insiste en la necesidad de una política industrial activa, con inversión pública masiva, acceso preferente a energía y capacidad de computación, y una estrecha colaboración entre gobierno y empresas para asegurar el liderazgo frente a China. Pero más allá de sus propuestas concretas, lo verdaderamente relevante es el encuadre: la regulación deja de ser un mecanismo de control democrático para convertirse en un posible obstáculo estratégico. Es, en esencia, un intento de redefinir el debate, desplazándolo desde los riesgos sociales de la inteligencia artificial hacia una narrativa de competencia geopolítica en la que cualquier freno puede interpretarse como una amenaza al interés nacional. El mensaje es claro: regular demasiado puede significar perder frente a China. La narrativa del miedo cambia de objeto, pero no de lógica.
Sin embargo, estas iniciativas conviven con una realidad mucho más incómoda. La percepción social de la inteligencia artificial no solo está deteriorándose: está polarizándose. Los artículos de The Guardian y otros medios reflejan una creciente preocupación pública por los efectos de la inteligencia artificial en el empleo, la desinformación o la privacidad. Y esa preocupación, cuando no encuentra canales institucionales creíbles, puede derivar en formas más extremas de rechazo. Leeros la novela «La resistencia ludita«, de Roberto Augusto, y entenderéis de lo que estamos hablando.
Los episodios recientes en San Francisco son un síntoma claro. Protestas que interrumpen eventos de OpenAI, ataques contra propiedades vinculadas a figuras del sector, e incluso incidentes violentos que han requerido intervención policial. No se trata de fenómenos aislados, sino de señales de una tensión creciente entre una industria que avanza a gran velocidad y una sociedad que no siempre entiende ni acepta hacia dónde se dirige.
Lo que estamos viendo, en realidad, es una crisis de legitimidad. Y como todas las crisis de legitimidad, no puede resolverse únicamente con mejores productos o más inversión. Requiere confianza, transparencia y, sobre todo, una disposición real a aceptar límites.
Pero ahí reside el problema fundamental. Las compañías de inteligencia artificial no parecen dispuestas a aceptar esos límites. En su lugar, están desplegando todo su arsenal financiero, político y narrativo para moldear el entorno en el que operan. No es una reacción defensiva: es una estrategia ofensiva.
Y eso plantea una pregunta incómoda, pero inevitable: ¿qué ocurre cuando una tecnología que ya tiene la capacidad de moldear la realidad informativa se combina con actores dispuestos a moldear también la realidad política? La respuesta, probablemente, no la encontraremos en ningún modelo de lenguaje. Pero sí en cómo decidamos, como sociedad, enfrentarnos a esa convergencia. Porque la batalla por la inteligencia artificial ya no es tecnológica. Es, ante todo, una batalla por el control del relato.


La tendencia lógica es que siempre podemos acabar de simplificar el debate con la misma pregunta: ¿la tecnología al servicio de la sociedad o la sociedad al servicio de la tecnología? Y como la tecnología no es un ente con personalidad propia, sabemos que estamos hablando de los intereses egoístas de quienes la controlan. No es una mera cuestion de imposición de narrativas: estamos hablando del monopolio del Poder.
Quien sabe, si otras iniciativas similares a la de PrismML, abrirían el camino a una democratización de los modelos llm. Esto sería un importante contrapeso a la industria a la par que una redefinición de las infraestructuras necesarias. PrismML, una startup surgida de Caltech, nos presenta esperanzas en la técnica de cuantización de 1 bit, que promete revolucionar el despliegue de modelos de lenguaje grandes al reducir drásticamente su tamaño sin sacrificar rendimiento.
Esto, teóricamente, supone multiplicar la inferencia hasta 8 veces más rápido y además en hardware edge. Y además estiman 5 veces menos de consumo energético. Como consecuencia, ampliaría dramáticamente los dispositivos capaces de ejecutarlos y abriría la puerta a nuevas y más baratas arquitecturas de hardware para IA.
Como siempre, la dirección correcta esta en manos de los usuarios finales y en los actores institucionales que les representen de verdad.
Creo que, en el punto en que nos encontramos, es de vital importancia reconstruir mecanismos de confianza que no dependan ni de las big tech ni de la capacidad de generar contenido.
Y eso, la verdad, es bastante más difícil que regular modelos.
Quizá terminemos certificando de algún modo la realidad, utilizando algo parecido a certificados digitales para cámaras y micrófonos.
Aquí el trabajo lo tendrán (y se pueden llevar el gato al agua) unas agencias de verificación que puedan ser privadas (no me fío de las públicas) y extranjeras. Por ejemplo, una agencia de verificación de información en España debería estar en la India. El de Australia en Marruecos y la de Estados Unidos en Andorra.
La idea sería que alguien/algo que no es influible ni sobornable ni comprable ni adjudicable sea quien pueda actuar de verificador independiente.
O creamos un ente nuevo que dependa de la ONU para ello, aunque sería más imperfecto
No es novedoso que la regulación se venda como un obstaculo en vez de un mecanismo de control democratico. En eso consiste el liberalismo: la ley de la selva en la que los poderosos estan por encima de las leyes.
Cada vez es más necesario Ned Ludd. Y madame guillotine tambien.