Cuando hackear se industrializa: lo que Anthropic reconoce sobre su propio modelo

IMAGE: A professional analyst at multiple screens while a glowing AI brain hovers above, symbolizing automated cyber power

Hay tecnologías que no anuncian una revolución: la imponen. No lo hacen con promesas grandilocuentes, sino con pequeños detalles técnicos que, leídos con atención, resultan profundamente inquietantes. Mythos, el modelo de Anthropic, pertenece claramente a esa categoría. No porque «sepa programar mejor» o porque «entienda mejor los sistemas», sino porque introduce algo mucho más incómodo: la posibilidad de industrializar el hacking.

La clave no está en lo que dicen los titulares, sino en lo que la propia Anthropic reconoce en su documentación. En su system card, la compañía admite que el modelo ha demostrado la capacidad de descubrir y explotar vulnerabilidades de día cero de forma autónoma en sistemas operativos y navegadores principales. No estamos hablando de asistencia, ni de sugerencias, ni de código generado a partir de patrones conocidos: estamos hablando de capacidad operativa. En ese contexto, el hacking deja de ser una actividad artesanal para convertirse en una capacidad industrial.

La pregunta ya no es si alguien usará esta tecnología con fines ofensivos: es cuándo, y si las defensas existentes, diseñadas para un mundo en el que hackear requería pericia humana, serán suficientes para responder. La respuesta honesta es que probablemente no. Y, como la propia empresa reconoce sin demasiados rodeos, esa capacidad es intrínsecamente dual: sirve para defender, exactamente igual que sirve para atacar.

Durante años, el relato dominante en ciberseguridad ha sostenido que la automatización favorecía a los defensores: más herramientas, más detección, más resiliencia. Mythos rompe ese equilibrio. Cuando un sistema es capaz de encadenar vulnerabilidades, diseñar exploits complejos y ejecutar ataques completos de forma autónoma, incluyendo la navegación de sistemas empresariales y la explotación encadenada de fallos, la ventaja deja de estar claramente del lado de quien defiende.

Y lo que resulta aún más inquietante es cómo se comporta esa capacidad cuando se pone a prueba. En entornos de testing el modelo no solo logró romper restricciones y ampliar su conectividad, sino que llegó a publicar detalles de sus propios exploits en entornos externos. En casos extremadamente raros, además, intentó ocultar cómo había obtenido ciertos resultados o manipular los sistemas que evaluaban su rendimiento. No es que «quiera hacer daño». Es que tiene la capacidad de hacer cosas que, en manos humanas, asociamos directamente con actores ofensivos avanzados.

A estas alturas, la tentación de despachar todo esto como una estrategia de marketing sofisticada resulta casi ingenua. Porque la reacción institucional no es la que cabría esperar ante una exageración comercial. Es, más bien, la de quien reconoce que hay algo que no puede permitirse ignorar. La administración Trump, que hace apenas semanas intentaba excluir a Anthropic del ecosistema gubernamental calificándola como riesgo para la cadena de suministro, se ha visto obligada a sentarse con su CEO para discutir el acceso a la tecnología. Eso, en el lenguaje de Washington, no es una reunión de cortesía. Es una evaluación de riesgo. El giro no es ideológico, es estratégico: si esa capacidad existe, no se puede dejar en manos de otros.

De hecho, el propio gobierno estadounidense parece estar moviéndose con una lógica bastante transparente: primero, tratar de controlar el acceso. Después, evaluar cómo integrarlo. Según distintas informaciones, agencias federales se han apresurado a solicitar acceso a Mythos para entender su impacto sobre infraestructuras críticas, desde el sistema financiero hasta redes gubernamentales. No porque confíen plenamente en la tecnología, sino precisamente porque no hacerlo sería aún más arriesgado. Que la NSA esté utilizando Mythos a pesar de haber puesto a Anthropic en su lista negra ya lo dice todo.

Lo que empieza a dibujarse aquí es el esbozo de una nueva carrera armamentística, pero mucho más difusa que las anteriores. No hablamos de misiles ni de arsenales visibles, sino de modelos que pueden automatizar la búsqueda de vulnerabilidades, generar vectores de ataque y escalar operaciones a una velocidad imposible para equipos humanos. El primer objetivo no serán los gobiernos. Serán los hospitales, las utilities, las infraestructuras municipales: los sistemas con décadas de deuda técnica acumulada y presupuestos de ciberseguridad insuficientes.

En un mundo de guerra híbrida, sabotaje encubierto y operaciones plausiblemente negables, disponer de modelos capaces de automatizar la búsqueda y explotación de debilidades en infraestructuras digitales ajenas es una tentación demasiado grande para cualquier Estado. No hace falta imaginar un escenario de ciencia-ficción: basta con pensar en agencias de inteligencia, mandos militares o contratistas con acceso preferente a sistemas así, utilizándolos no ya para defender, sino para preparar campañas de intrusión, interrupción o chantaje contra terceros países. Y si eso ya sería inquietante en manos de cualquier gobierno, lo es todavía más bajo una administración como la de Trump, cuya relación con los límites institucionales, la supervisión y la prudencia estratégica nunca ha sido precisamente ejemplar. La idea de introducir una herramienta de este calibre en ese ecosistema de poder no es un escenario tranquilizador.

Y, como siempre ocurre en estos casos, la asimetría es clave. Europa, que durante años ha cultivado su papel de superregulador tecnológico, se encuentra en esta ocasión en una posición sorprendentemente débil. Reguladores europeos han reconocido que apenas han tenido acceso al modelo: según fuentes del sector, la oficina europea responsable de supervisar modelos punteros aún no ha completado una evaluación técnica de Mythos. Anthropic, por su parte, ha confirmado acceso prioritario a un conjunto reducido de socios, ninguno europeo: ha priorizado a un reducido grupo de socios, principalmente estadounidenses, para evaluarlo. La consecuencia es evidente: quien no puede probar la tecnología, difícilmente puede entenderla, y mucho menos regularla.

El problema no es solo de acceso, sino de capacidad. La propia oficina europea encargada de supervisar modelos avanzados carece, según diversas fuentes, de recursos, personal y expertise suficiente para enfrentarse a una tecnología de este nivel. En otras palabras, justo cuando aparece una herramienta que puede redefinir la seguridad global, quienes deberían ponerle límites están estructuralmente desbordados.

Todo esto nos lleva a una conclusión incómoda: la cuestión ya no es si estas capacidades se utilizarán, sino cómo y por quién. Pensar que permanecerán restringidas a usos defensivos es, en el mejor de los casos, optimista. Los estados las utilizarán en operaciones de guerra híbrida, en campañas de intrusión y sabotaje plausiblemente negables. No hace falta esperar a que alguien robe el modelo. Basta con que aparezca una versión open source con el 70% de sus capacidades. Algo que, viendo la trayectoria de los últimos dos años, no parece en absoluto ciencia-ficción.

En ese escenario, el verdadero riesgo no es que las máquinas «quieran hackear«, sino que hagan trivial algo que hasta ahora era difícil. Cuando encontrar una vulnerabilidad crítica deja de requerir meses de trabajo especializado y pasa a ser una tarea que puede delegarse en un modelo, el equilibrio de poder cambia de forma radical. Y no necesariamente a favor de quienes están mejor preparados para defenderse.

Quizá lo más preocupante de todo esto no sea la tecnología en sí, sino la velocidad con la que estamos empezando a normalizarla. Pero los hechos apuntan en otra dirección: estamos asistiendo al nacimiento de una nueva capa de infraestructura digital, una en la que la capacidad de penetrar sistemas deja de ser excepcional para convertirse en rutinaria. Y en un mundo así, la seguridad ya no es una cuestión de perímetros, sino de quién controla las herramientas que saben cómo atravesarlos.

7 comentarios

  • #001
    Dani - 20 abril 2026 - 12:35

    En esta carrera por construir una inteligencia no humana lo más avanzada posible, por lograr que existan semidioses mucho más inteligentes y capaces que los seres humanos, por introducir en el planeta Tierra seres casi omnipotentes…

    se empiezan a descubrir los primeros coletazos del poder que tendrán esos semidioses.

    Responder
  • #002
    Asier - 20 abril 2026 - 14:03

    El haber analizado la seguridad de tu proyecto con la IA más avanzada será un check más en los protocolos de seguridad. Exactamente igual que cifrar la información, requerir complejidad en las contraseñas, configurar correctamente el router y firewall o haber actualizado el sistema operativo.

    Responder
  • #003
    Javier - 20 abril 2026 - 14:25

    He visto como emprendedores alemanes en temas de IA, perfectamente competitivos y capaces, solo pedían que sus países les dieran apoyo, que los ayudaran. No tenían ideas o powerpoints, tenían proyectos en marcha, solo pedían que les dieran un poco de «agua» para su «plantita». Maldita burocracia y malditos burócratas.

    Lo que más rabia me da es que esos proyectos que dejaron morir desde la impunidad y la distancia de un despacho, no son visibles (como lo podría ser para un médico un cuerpo en caso de muerte por negligencia), y por lo tanto eso no permite dejar en evidencia a aquellos parásitos que por su mal hacer, mal saber, ineficiencia e ignorancia siguen hundiendo a sus conciudadanos y por lo tanto, a sus países.

    Tanto polítca como socialmente, debería haber algún tipo de costo real y efectivo para ese tipo de funcionarios hijos de puta.

    Responder
  • #004
    Benji - 20 abril 2026 - 15:27

    Si esto lo tiene Anthropic… ¿qué no tendrán ya la CIA, NSA y otros?

    Por otra parte, vamos hacia un estado tipo «matrix» o incluso «Fast & Furious» con el ojo de Dios.

    Pronto vamos a comenzar a vandalizar las cámaras porque eso es algo contra lo que el software no se puede defender

    Responder
    • D. FALKEN - 20 abril 2026 - 16:37

      Si esto lo tiene Anthropic… ¿qué no tendrán ya la CIA, NSA y otros?

      Yo, en términos generales, no creo que esto siga siendo ya así. Por lo menos en la esfera occidental, donde en periodos históricos anteriores, la I+D militar acaba con cierta frecuencia trasladandose a aplicaciones civiles. Ahora pienso que estamos en un paradigma centrado en la «subcontratación» y el aprovechamiento de las sinergias que pueden aportar grandes corporaciones. No sabría decir si pesa más el componente organizativo-presupuestario o dónde se localiza la «materia gris».

      Responder
  • #006
    D. FALKEN - 20 abril 2026 - 16:21

    Muy, muy sospechoso.
    Si seguimos la línea temporal de los hechos más recientes…

    24/02/26. El departamento de defensa (DdD) estableció un plazo final para que Anthropic eliminara sus «prohibiciones» sobre vigilancia masiva y armas letales autónomas.

    27/02/26. El Secretario de «Defensa» declara públicamente a Anthropic como un «riesgo para la cadena de suministro» que se formaliza el 05/03/26.

    26/03/26. Filtrado de documentación corporativa: se descubrieron documentos internos de Anthropic en un «data lake» público no seguro. Entre ellos había un borrador de publicación de blog que revelaba la existencia y capacidades de «Claude Mythos», descrito como el modelo más potente jamás creado por la empresa, con capacidades de ciberseguridad que superaban significativamente a las defensas actuales.

    27/03/26. Anthropic confirmó rápidamente la existencia del modelo, admitiendo que el material había quedado expuesto «accidentalmente».

    07/04/26. Se hace el lanzamiento «limitado» de Claude Mythos y simultáneamente se anuncia el Projecto Glasswing (iniciativa de ciberseguridad en coalición con grandes empresas tecnológicas y financieras diseñada para utilizar las capacidades defensivas de Mythos Preview en la busqueda y depuración de vulnerabilidades en software crítico).

    08/04/26. Un tribunal de apelaciones federal en Washington D.C. denegó la solicitud de Anthropic para bloquear temporalmente la decisión del DdD mientras se resolvía la demanda legal. Esto dejó la designación de «riesgo para la cadena de suministro» y las restricciones operativas en vigor.

    17/04/26. Reunión de Amodei en la Casa Blanca: se abre el camino de vuelta a la colaboración con el DoD y trae a Mythos «bajo el brazo».

    …parece que se producen una serie de «oportunas» circunstancias tanto para la propia Anthropic como para el DdD.

    Y recordemos una vez más, que las capacidades de Mythos, que hasta donde entiendo, sigue siendo un LLM, son el resultado de una estrategia de entrenamiento intencionado en los pesos del modelo.

    Anthropic habría así, puesto su tecnología bajo el dominio de intereses militaristas, abriendo una nueva caja de pandora. A China, no se le verá venir. Y las consecuencias, una vez más, las pagará el resto de la comunidad internacional del mundo.

    Responder
  • #007
    Yomismo - 20 abril 2026 - 17:34

    Hay otra derivada más aún: China y Rusia siguen blindando sus redes, siendo cada vez más controladas por sus gobiernos a su manera (autoritaria, persecución a la discrepancia, censura, etc.). En las sociedades abiertas ya llevamos años siendo bombardeados con propaganda de ambas (y ha colado mucha). La IA lo hace aún más fácil, pero encima nuestras redes abiertas son más vulnerables aún a los ataques que puedan hacernos con esto. ¿Cómo podemos defendernos de algo así sin perder derechos y libertades?

    Responder

Dejar un Comentario a D. FALKEN

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.