Cuando 250 textos bastan para hackear la «verdad» de un LLM

IMAGE: A humanoid robot with a transparent, data-filled head is being fed a glowing green “poisoned” document marked with a skull by human hands, against a dark background of cascading code and digital noise

Hay una idea tranquilizadora que muchos hemos dado por buena, casi por inercia: si un modelo se entrena con cantidades descomunales de datos, unas pocas gotas de «veneno» deberían «diluirse» hasta volverse irrelevantes. El problema es que esa intuición tan humana y tan de sentido común parece ser sencillamente falsa.

Y no lo dice un tweet alarmista ni una demo oportunista: lo demuestra un trabajo conjunto de Anthropic, el UK AI Security Institute y el Alan Turing Institute que, por su diseño y su escala, merece cierta atención. La tesis, muy incómoda y profundamente desestabilizadora, es que una cantidad pequeña y fija de muestras maliciosas puede implantar una puerta trasera en modelos de lenguaje, independientemente de su tamaño.

El artículo de Anthropic, «A small number of samples can poison LLMs of any size«, explica el fenómeno con una claridad poco habitual en comunicación corporativa: si un atacante logra introducir en el corpus de entrenamiento del orden de 250 documentos cuidadosamente construidos, puede conseguir que el modelo desarrolle un comportamiento «dormido» que solo se activa ante un detonante concreto. El experimento que eligen no es el más espectacular, y eso, paradójicamente, lo hace más creíble: una puerta trasera de tipo «denial-of-service» que, al detectar una palabra clave, provoca que el modelo empiece a generar texto sin sentido, «gibberish», como si se rompiera por dentro. No es un ataque diseñado para robar dinero ni para manipular elecciones: es, sobre todo, una demostración de control del tipo «puedo hacer que tu modelo haga esto cuando yo quiera, sin que lo haga el resto del tiempo».

El detalle importante no es el truco del texto sin sentido, sino la métrica. Hasta ahora, se asumía un marco de amenaza que hablaba de porcentajes: para envenenar un modelo grande, el adversario debía controlar un porcentaje apreciable del entrenamiento, lo que en la práctica se vuelve inviable cuando hablamos de cientos de miles de millones de tokens. Esta investigación le da la vuelta: entrenan modelos entre 600M y 13B parámetros, con cantidades de datos «Chinchilla-optimal» (más datos para modelos más grandes), y observan que el ataque no escala con el tamaño: los mismos 250 documentos comprometen por igual a todos los modelos. Básicamente, el veneno no «se diluye» como se esperaba: aprende a sobrevivir.

Esto provoca una sensación de fragilidad sistémica, y es porque efectivamente la tiene. Los LLM se entrenan en buena medida con texto abierto de internet, y el propio Turing Institute subraya la consecuencia obvia: cualquiera puede publicar contenido con la intención de acabar en esos datasets, y si el umbral real es «alrededor de 250», la barrera de entrada no es especialmente astronómica. No hace falta controlar «una parte de internet»: basta con encontrar las grietas en la cadena de suministro de datos. Y aquí está el punto clave: en 2026, el debate sobre LLM ya no es solo sobre «alucinaciones» o «sesgos», sino de integridad. ¿De dónde sale lo que el modelo «sabe»? ¿Quién lo ha tocado? ¿Qué incentivos hay para tocarlo? ¿Puede convertirse en una forma de acceder al control de las narrativas?

Porque la puerta trasera del «texto sin sentido» es casi un juguete comparada con lo que la literatura ya ha explorado en otros contextos: puertas traseras para degradar seguridad, para inducir conductas dañinas o para saltarse el alineamiento. El propio artículo de Anthropic enlaza trabajos sobre backdoors que funcionan como una especie de «comando universal» para obtener respuestas dañinas cuando aparece un determinado disparador. Y si alguien piensa «sí, pero eso es alineamiento y RLHF, no pre-entrenamiento», mal pensado: la lección transversal es exactamente la misma. En un sistema que aprende correlaciones, una correlación plantada a propósito puede ser más resistente que millones de correlaciones benignas.

Los paralelismos más inquietantes aparecen cuando sales de la prueba de laboratorio de generar «gibberish» y te vas a ámbitos donde el coste del error no es un meme, sino potencialmente vidas. En 2024, un estudio en Nature Medicine simuló un ataque de envenenamiento sobre The Pile (uno de los conjuntos de datos emblemáticos del ecosistema) insertando desinformación médica: con tan solo 0.001% de los tokens reemplazados por falsedades plausibles, el modelo resultante se volvía más proclive a propagar errores médicos, y lo peor es que seguía aparentemente «rindiendo igual de bien» en los benchmarks estándar. Ese es el verdadero veneno: el que no cambia una nota en un examen, pero sí lo que un médico recomienda en su consulta.

Con esto se rompe otra fantasía muy extendida: la de que la evaluación «objetiva» nos salvará. Si el ataque es selectivo, si está diseñado para activarse con un detonante o para afectar a un subconjunto de preguntas determinado, puedes pasar todos los tests habituales y seguir estando comprometido. En seguridad llevan décadas hablando de esto: los sistemas que «parecen» correctos en condiciones normales y fallan cuando alguien sabe de qué manera apretar el botón. Lo nuevo es que ahora ese sistema escribe, aconseja, programa, resume, negocia, traduce y, cada vez más, actúa como intermediario cognitivo en miles de decisiones humanas.

Por eso no sorprende que marcos de riesgo recientes ya lo incluyan explícitamente. OWASP, en su lista de riesgos para aplicaciones con LLM, identifica el Data and Model Poisoning como un vector de integridad con consecuencias claras: backdoors, sesgos introducidos a propósito, degradación de comportamiento y ataques difíciles de detectar porque el modelo puede comportarse «normal» hasta que se activa el gatillo. Y NIST, en su taxonomía de adversarial machine learning publicada como guía de referencia, incorpora categorías como backdoor poisoning y ataques a la cadena de suministro, precisamente para empujar a la industria a pensar en términos de ciclo de vida y no simplemente de «modelo desplegado». Cuando ya los organismos de estandarización más fiables empiezan a hablar así, suele ser porque el problema ya ha dejado de ser teórico, y se ha convertido en riesgos plausibles.

La pregunta ya no es si esto puede dañar la reputación de los LLM, sino qué pasa con su credibilidad a medida que se van convirtiendo en infraestructura para cada vez más cosas. Porque si aceptamos que un modelo puede ser entrenado con datos opacos, procedencia difusa y controles imperfectos, y que un atacante con paciencia puede plantar unas pocas docenas o centenares de piezas diseñadas para sobrevivir al proceso, entonces el modelo deja de ser solo probabilístico y pasa a ser potencialmente adulterado. Y ahí cambia el contrato social: un sistema que «a veces se equivoca» es gestionable, pero un sistema que puede estar manipulado sin señales visibles se vuelve políticamente tóxico y regulatoriamente muy complejo.

¿Hay salida? La hay, pero no es cómoda ni barata, y desde luego no encaja bien con la cultura de «muévete rápido y rompe cosas» que ha llevado a una dinámica de entrenamiento sin prácticamente revisión. Lo que estos trabajos llevan a admitir es que los LLM necesitan algo que en software llevamos años asumiendo: una cadena de suministro con controles, auditorías, trazabilidad y mecanismos de verificación. No basta con filtrar «contenido malo» o con deduplicar. Hablamos de procedencia verificable, de procesos de curación reproducibles, de monitorización de anomalías durante el entrenamiento, de tests diseñados para detectar comportamientos condicionales, de red teaming continuo y, probablemente, de aceptar que ciertos usos críticos exigirán modelos y datasets mucho más cerrados, especializados y controlados de lo que a algunos les gustaría. Y eso cuesta dinero.

Y aun así, conviene no engañarse: esto no es un bug que se parchea una vez. Es un síntoma de una realidad más profunda: estamos construyendo máquinas de generalización estadística sobre un sustrato informacional, la web, que es, cada vez más, un campo de batalla lleno de cadáveres y de basura. Si entrenar significa absorber internet, entonces la seguridad de tu modelo depende de la seguridad de internet, y eso es brutalmente peligroso, porque todos sabemos lo que hay ahí. El artículo de Anthropic no es una anécdota; es un aviso: en el mundo que viene, la pregunta de si puedo confiar en lo que dice un modelo determinado no se responderá solo con métricas de precisión, sino con algo mucho más incómodo: «¿puedo confiar en cómo se hizo, con qué datos se entrenó, y quién podría haberlos manipulado?”

54 comentarios

  • #001
    Francisco Fernández - 22 febrero 2026 - 10:40

    Si la verdad de un modelo depende del corpus, entonces cualquier actor con capacidad de inyección de contenido puede desplazar la narrativa.
    Eso tiene implicaciones en política, reputación, mercados financieros, regulación, jurisprudencia automatizada y hasta decisiones médicas asistidas.
    No necesitas comprometer el modelo. Solo necesitas desplazar el entorno semántico.
    Eso es mucho más barato.

    Responder
  • #002
    f3r - 22 febrero 2026 - 10:45

    EDans, he mandado un comentario y no acaba de aparecer, sin embargo lo intento enviar otra vez y me dice duplicado (comprobado en Firefox y Brave). Debe de haber algún problema en la página…

    Responder
  • #004
    Alqvimista - 22 febrero 2026 - 11:14

    ¿Qué diferencia un LLM de otro?
    Las herramientas basadas en IA como ClawBot permiten elegir el LLM con el que trabajar, uno comercial o uno propio, local.
    Apple basará su IA en el LLM de Google, pero antes negoció con OpenAI -con quien trabaja en su chat– y con Anthropic-utilizando Claude en sus desarrollos de software-.

    Es decir, que las aplicaciones basadas en IA son agnósticas del LLM subyacente, ¿no?
    Si esto es así, y viendo las cantidades obscenas de dinero que se están gastando las empresas, ¿no merecería la pena desarrollar un modelo único universal que estuviera al servicio de todas las empresas?

    Un modelo universal desarrollado por una serie de empresas y países que pusieran la pasta, medios técnicos y humanos, un modelo desarrollado con datos filtrados para eliminar datos malos o venenosos. Un modelo que luego utilizaran esas empresas o países y licenciaran a terceros no participantes.

    ¿Sería esto posible?

    Responder
  • #005
    Alqvimista - 22 febrero 2026 - 11:22

    Ah, y por LLM universal me refiero a la forma de trabajar, claro.
    Sé que hay modelos más o menos especializados en campos de conocimiento, modelos de tamaños diversos y entrenados en idiomas diversos.
    Así que ese modelos universal del que hablo serían en realidad una variedad de modelos.

    O quizás la colaboración universal se reduzca sólo, y nada menos, al filtrado de datos del que las empresas partirán para el entrenamiento de sus LLM.

    Responder
  • #006
    Juan T. - 22 febrero 2026 - 11:56

    ¿ Y si la «infección» la realiza a conciencia el mismo dueño de la IA, para promover su relato, conseguir sus fines, protegerse propio negocio, etc, etc?

    ¿Alguien se fia de Grok en ese sentido?

    Responder
  • #007
    f3r - 22 febrero 2026 - 12:26

    La verdad es que no sorprende: cualquier sistema mínimamente complejo se vuelve más fácil de hackear. Y la reflexión afecta a los humanos, donde el hackeo suele ser atizar el miedo (la culpa de que te vaya mal es de los inmigrantes, no de la polarización extrema del capital, etc). De éstos podemos sacar, también, una línea de defensa: si el sistema más robusto de decisión de la historia, la democracia, se basa en la opinión mayoritariamente colegiada de un montón de individuos, entonces lo que necesitamos es crear algo parecido.

    Primero: IAs que sean individuales. Esto puede pasar porque su modelo-mundo haya sido adquirido a través de diferentes sets de «experiencias», i.e. interacciones con el mundo real. O porque su set de entrenamiento lingüístico (la parte LLM) se un conjunto disconexo del usado para entrenar a otros individuos.

    Segundo: una opinión (output de la IA) se definirá como no-envenenada si suficientes IAs individuales han llegado a la misma conclusión.

    Lo que no se espera en ningún caso es que un sistema artificial esté a salvo de los problemas que sufren las mentes naturales. Parece como una sinfonía única del universo: un sistem dinámico con más de 3 estados posibles a cada paso puede desarrollar caos, un sistema de proposiciones suficientemente complejo contiene proposiciones que no son demostrables dentro del propio sistema (teorema de Gödel), etc.

    Responder
  • #008
    D. FALKEN - 22 febrero 2026 - 12:28

    Siguiendo el hilo conductor de dos conceptos que mencionamos -de cómo es el modelo de desarrollo de los llm’s y cuanto dinero cuesta- llegamos a tropezar con la misma piedra: el paradigma del modelo económico y social vigente. Como fruto de este, la interrogativa inmediata que pongo en el aire es si se constituye como un producto más de consumo, regido por la lógica del máximo beneficio, o, si es una tecnología cuyo poder disrruptor merece perseguir la máximización la la utilidad social. ¿Que sentido y consecuencias tiene el desarrollo de modelos generalistas mastodónticos? ¿En cuanto a la utilidad, la apuesta por el código abierto no es una realidad más pragmática?

    Responder
  • #009
    Dedo-en-la-llaga - 22 febrero 2026 - 12:42

    «(…) los LLM necesitan algo que en software llevamos años asumiendo: una cadena de suministro con controles, auditorías, trazabilidad y mecanismos de verificación. (…)» ¿Pero qué dices? Quita, quita, que eso no sólo es pasta, es montón de gente al cargo, y eso, precisamente eso, la gente, es lo que tratamos de ELIMINAR.

    Así que NO solo es que internet no sea seguro -no hay nada más inseguro que internet-, sino que beber SOLO de internet (no les queda otra), produce un sesgo de así como un 85%, porque TODO lo que hay en internet, TODO, no llega, ni de lejos, al 15% de todo el saber que hay en el mundo y que NO está en internet…

    Así que a ese respecto, es algo que no solo nace muerto sino también envenenado de sesgos… Es, como no podía ser de otra manera, un zombi, esa figura de tan rabiosa actualidad de los últimos años y que es de rabiosa actualidad, NO por casualidad.

    Que ahora se lo pueda envenenar todavía más de lo que ya lo está pues es, nunca mejor dicho, una redundancia. Es lo que más teme un usuario de dispositivos de almacenamiento, el terror del «Error de redundancia cíclica».

    Y así son las cosas, y así se las hemos contado.

    Responder
  • #010
    Guillermo - 22 febrero 2026 - 12:46

    Como en la vida real.
    Te dicen una mentira muchas veces y al final la conviertes en verdad, eso por no hablar del sesgo del que la cuenta.

    Responder
  • #011
    KOLDO SARRIA - 22 febrero 2026 - 14:03

    “Si aceptamos que un modelo puede ser entrenado con datos opacos, procedencia difusa y controles imperfectos, y que un atacante con paciencia puede plantar unas pocas docenas o centenares de piezas diseñadas para sobrevivir al proceso, entonces el modelo deja de ser solo probabilístico y pasa a ser potencialmente adulterado. Y ahí cambia el contrato social: un sistema que «a veces se equivoca» es gestionable, pero un sistema que puede estar manipulado sin señales visibles se vuelve políticamente tóxico y regulatoriamente muy complejo.”

    Pero… esto no es nada diferente de lo que ha venido ocurriendo históricamente con el ser humano desde hace milenios, mucho antes de que la inteligencia artificial apareciese. Cámbiese en ese texto “modelo” y “sistema” por “individuo” y estaremos describiendo la historia de la humanidad desde que vive inserto en grandes sociedades.

    ¿Pretendemos solucionar los problemas de la inteligencia artificial? Tendremos que solucionar primero los atávicos problemas psicosociales de este animalillo llamado homo sapiens.

    Y me temo que eso ya son palabras mayores.

    Responder
    • Dedo-en-la-llaga - 22 febrero 2026 - 14:21

      ¡Exacto! Y después de milenios envenenando a conveniencia de parte con sus modelos de sociedad, ha bastado que estos últimos años se los empiece a cuestionar desde lo que se llama «woke», o sea, «despierta», para que se hayan rebotado como nunca y utilicen lo «woke» como un insulto para seguir descalificando, reprimiendo, apalizando, arrestando, torturando, juzgando, encarcelando y hasta ejecutando… O sea, lo que llevan haciendo milenios contra cualquier revoltoso que no se ha dejado envenenar tan fácilmente con su ideología de parte.

      Así que, en efecto, no solo son palabras mayores, es que eso es harina de otro costal.

      Responder
  • #013
    Loko.Play - 22 febrero 2026 - 14:55

    El problema es que quieren hacer modelos como los humanos pues eso tienen, humanos artificiales… Con todos sus defectos, y ademas no son inteligencias son algoritmos complejos, no entienden nada, no leen ni comprenden solo calculan la respuesta mas probable… Es otra herramienta mas para el control de los gobiernos, empresas y elites… Los datos son los que le damos los humanos y teniendo en cuenta que es un sistema de adivinacion por probabilidad no se que esperais… Vivimos en una epoca donde la derecha y sobre todo la izquierda intenta manipular a todos, y la ia (Que no tiene nada de inteligente el nombre esta mal) es totalmente manipulable, empezando por las empresas y gobiernos y terminando por nosotros.

    Responder
    • Lua - 22 febrero 2026 - 17:02

      Quien ha abierto la jaula…??? XDDD

      Buzz… pon orden…!!! XDDD

      Responder
      • Alqvimista - 22 febrero 2026 - 20:21

        ¡Ay, dios, no invoques al kraken!

        Responder
        • Lua - 22 febrero 2026 - 20:23

          Coño, que somos «colegas» (creo)… todo queda en casa…. hasta que se desata… (y ahí ya no pinto nada)

          Responder
        • BUZZWORD - 22 febrero 2026 - 20:45

          El cefalópodo es otro…

          Responder
    • BUZZWORD - 22 febrero 2026 - 20:25

      Aproximadamente entre el 10% y el 15% de la población mundial es zurda, lo que representa a más de 800 millones de personas. Luego hay más gente «de derechas» que de izquierdas… y por tanto habrá manipularán más. Es por eso que la mayoría de los países los podemos considerar de derechas…

      La derecha utiliza un conjunto de estrategias de comunicación, propaganda y construcción de narrativas utilizadas por actores políticos de tendencia conservadora, derechista o extrema derecha para influir en la opinión pública, ganar apoyo electoral o defender un orden social y económico jerárquico. Por ejemplo en Madrid, yuso paga 3,7 millones de dinero público a medios de derechas “para que le digan lo guapa que está con sus gafas nuevas”. Manuela Bergerot ha denunciado el uso del dinero público de la Comunidad para beneficiar a la imagen de la presidenta y que Miguel Rodríguez dicte las portadas cada vez que Ayuso tiene una crisis

      https://www.elplural.com/autonomias/madrid/ayuso-paga-37-millones-dinero-publico-medios-derechas-para-digan-guapa-esta-gafas-nuevas_381941102

      Que tengan una mayoría de medios a sueldo no significa que tengan el 100%, por eso puedes leer artículos no manipulados por la derecha, pero hay cuantitativamente bastante menos, eso si de mayor calidad.

      Estas tácticas de la derecha manipuladora suelen enfocarse en la apelación a las emociones, la creación de «cortinas de humo» y la polarización, a menudo respaldadas por una derecha mediática que amplifica estos mensajes. A continuación, te describo las técnicas que usan

      Aparición de Fake News: Estudios indican que la desinformación y las noticias falsas son herramientas frecuentemente utilizadas, a menudo centradas en ataques directos a opositores.

      Creación de «Cortinas de Humo» (Spin): Consiste en desviar la atención de escándalos propios lanzando temas sensibles a los medios, dejando que se desgasten y luego suavizando la propuesta para parecer moderados.

      Uso del «Silbato» y Etiquetas: Empleo de mensajes cifrados (dog whistles) que parecen inofensivos para el público general pero envían un mensaje directo a sus bases ideológicas, junto con etiquetas negativas para deshumanizar al rival.

      Apelación al Emocionalismo: En lugar de debates basados en datos, se agita a las masas a través del miedo o la indignación.

      Selección de Citas: Manipulación de discursos pasados de la oposición para dar una falsa impresión de sus posturas.

      Temas Centrales de la Narrativa

      Inmigración como Responsable: Se suele responsabilizar a los inmigrantes de los problemas económicos o de seguridad, convirtiéndolos en chivos expiatorios.

      Defensa de la Tradición y el Orden: Se presenta cualquier cambio social progresista como una amenaza inminente a la «civilización», la familia tradicional o la religión.

      Anticomunismo/Anti-izquierdismo: Etiquetar cualquier política social o de izquierda como «socialismo» o «comunismo» para generar rechazo.

      Nacionalismo: Apelar a la identidad nacional, el euroescepticismo (en Europa) o la xenofobia para fortalecer el discurso antiglobalización.

      El Papel de la Derecha Mediática

      Se observa que sectores de la prensa y medios digitales alineados con estas posturas actúan como amplificadores de estas narrativas, a menudo enfocados en el ataque constante a la izquierda política. A esto se suma el uso de redes sociales para la difusión de «post-verdad» (postfactual), donde la verdad importa menos que la emoción generada.

      Si te parece que la izquierda manipula mejor, igual lo que te pasa, es que dentro de ti hay un pepito grillo, que quiere despertarte

      Responder
  • #019
    D. FALKEN - 22 febrero 2026 - 14:55

    OFF-TOPIC: La Era de las Distros
    Material que creo que puede resultar interesante de escuchar -por distintos motivos- a lectores de esta comunidad.

    Durante casi dos décadas, las distribuciones Linux fueron una pieza clave en la estrategia de digitalización de algunas comunidades autónomas en España. Fueron proyectos ambiciosos, a veces polémicos, pero que marcaron una época. Este podcast es una mirada con perspectiva a todo lo que se hizo hace unos años, a la valentía de esos proyectos, a los errores, a los aciertos, y sobre todo, es una mirada con la ilusión y el conocimiento de lo que se podría llegar a hacer hoy en día. En este podcast hablaremos con los protagonistas y a entender el legado que dejaron en el software libre español.

    Responder
    • Lua - 22 febrero 2026 - 15:09

      El enlace… ponlo bien… :P

      Responder
      • D. FALKEN - 22 febrero 2026 - 15:23

        La Era de las Distros

        Perdonad, con este móvil siempre se me queda atrás el href…

        Responder
        • Lua - 22 febrero 2026 - 15:30

          Lo estoy escuchando… :P

          Responder
        • Lua - 22 febrero 2026 - 17:27

          Voy a ganarme unos cuantos strikes… XDDD

          Me he chupado el primer podcast (luego seguiré con los otros)…

          Lo encuentro interesante, en la medida, que siempre encuentro interesante, para bien o para mal, tragarme estas cosas (que no suelo hacer por lo que alargan en lugar de entrar en cuestión y una hora y media se hace muy larga).

          Lo primero, y para que se entienda a donde voy a ir a parar. Hacer una distribución Linux, es tan sencillo como “cocinar” una ROM de un móvil. Coges un kernel, le añades las aplicaciones que te interesan (Dependiendo del escritorio que elijas) y arreando. Mas complicado en un móvil, que dependes mucho mas del Hardware. Y con esto no quiero quitar méritos. AL final, todo se reduce a traducir el LANG por LOCAL. Que la aplicación sigue siendo la misma. ¿Merito? Decidid vosotros.

          +1 a que es cierto, que LinEX fue la primera distribución Linux de factura española. Ya desde Hispalinux se abogaba en ese momento por hacer este tipo de distribuciones (solo que a nivel estatal). Ahí, bien por la junta de Extremadura, que metió los dineros y los arrestos para ello antes que nadie. Pero en breve, casi 15 distribuciones “regionales” se pusieron en marcha, algunas con más éxito que otras. (De hecho, muchas están descontinuadas, y de facto también, LinEx esta descontinuada desde 2013).

          -1 al hecho de pretender, que la suya fue la “primera intranet de España”. No hombre, no. Primero definamos “intranet”, y a partir de ahí, cuando nos demos cuenta que múltiples empresas y universidades, tenían esas “redes privadas”, podremos decidir quien fue el primero… Es decir, empezamos a hablar de la distribución, y en seguida saltamos a otras cosas…

          +1 La apuesta de decidir meter 70mil ordenadores en aulas, aunque fueran uno por cada dos estudiantes, loable. Otras comunidades, en muy poco tiempo, siguieron esos mismos pasos, pero algunas (CAT) ya le iban casi por delante en ello. Yo, que piso Extremadura cada dos por tres, puedo decir que esa fue una buena inversión, teniendo en cuenta donde se van los dineros ahora (y no entrare en política).

          +1 Cuando dice que Microsoft, quiso llegar a acuerdos… Hombre, que eso paso en toda Europa, que antes de EX, ya estaba pasando en Países Bajos, Alemania y Dinamarca… Algunos cedieron, otros quedaron en una especie de Stand By, hasta hoy. Grave error para los que cedieron. Pero mis sobrinos, en Caceres, tienen ordenadores con Windows… igual la cosa no fue tan disruptiva… Menos mal, que ya en EU están por la labor…

          un -100 a Ibarra, que el pobre hombre, para variar, no puede evitar ni su inconmensurable ego, ni su catalanofobia… que le vamos a hacer… todo, para no decir nada que no haya leído en las noticias del día. De hecho, no se que pintaba ahí, si no sabe dónde tiene la mano derecha, pasando por “experto en tecnologías”.

          Tengo mas -1 pero… en fin…

          No le voy a quitar ningún mérito a la iniciativa Extremeña. Pero tampoco nos pasemos.

          Responder
  • #024
    Lua - 22 febrero 2026 - 18:32

    Una vez más, nos vamos inventando términos eclécticos para no sé bien que definir…

    Empezamos con el poison, el AI Slop, el Garbage Inteligence… y ahora… 250 documentos…

    Que la IA se envenena a si misma, es algo ya aceptado (joder, que hay multitud de artículos sobre ello)… Escribes un articulo hecho con IA y te tragas su “alucinación” … la IA se “refresca” leyendo mas contenido de internet con esa basura y vas a “suma y sigue”….

    Ya no es necesario que un mindungui, con ínfulas de joder el mundo perpetre 250 docs… si ya lo hace la propia IA…

    Y nosotros, encantados… de seguir trabajando con ella sabiendo que va a peor, y diciendo “bueno… cosas que pasan… alguien pondrá arreglo”… si es que bendita humanidad… XDDD

    Responder
    • Lua - 22 febrero 2026 - 18:50

      Y mientras tanto… Los psicópatas dueños de las IA ya están sacando la patita…

      Training A Human Takes 20 Years Of Food’: Sam Altman On How Much Power AI Consumes

      Responder
      • Dedo-en-la-llaga - 22 febrero 2026 - 19:12

        «Quita, quita, que eso no sólo es pasta, es montón de gente al cargo, y eso, precisamente eso, la gente, es lo que tratamos de ELIMINAR.»

        Ver justo más p’arriba:
        https://www.enriquedans.com/2026/02/cuando-250-textos-bastan-para-hackear-la-verdad-de-un-llm.html#comment-527716

        Jodó, si es que… (Qué previsibles que son).

        Responder
        • Lua - 22 febrero 2026 - 19:14

          Pero pa’que me voy a ir mas arriba si lo que dices no me interesa…??? XDDDD

          Responder
          • Dedo-en-la-llaga - 22 febrero 2026 - 19:29

            A mí tampoco.

            Responder
            • Lua - 22 febrero 2026 - 19:35

              Pues no lo escribas, y menos debajo de mi… cazurro… XDDD

              Sera que no tienes hilos….

    • Lua - 22 febrero 2026 - 19:19

      Vamos a dar mas cancha….

      «Se observó no solo una caída en las puntuaciones, sino también una marcada correlación entre las puntuaciones y el tiempo dedicado a las computadoras en la escuela, de modo que un mayor tiempo frente a la pantalla se relacionaba con peores puntuaciones. Se culpa al acceso ilimitado de los estudiantes a la tecnología, que atrofiaba en lugar de fortalecer sus capacidades de aprendizaje. La Generación Z tendrá que afrontar ahora las consecuencias de la erosión de sus capacidades de aprendizaje. «

      The U.S. spent $30 billion to ditch textbooks for laptops and tablets: The result is the first generation less cognitively capable than their parents

      ir metiendo pantallas… XDDDD

      Responder
      • Lua - 22 febrero 2026 - 19:20

        (como eDans no lo discutira… me la guardo pa’lante…) XDDD

        Responder
  • #033
    Gorki - 22 febrero 2026 - 18:34

    Imaginemos que los ordenadores generaran un 0 o un 1 aleatorio cada millón de operaciones que producen. ¿Se podría utilizar para llevar la contabilidad de una empresa?

    Imaginemos que cada diez mil repuestas que produce una AI, hay una respuesta equivocada. ¿Pueden dirigir un coche autónomo? ¿Pude ponerse al frente de un plan de marketing?

    Responder
    • Lua - 22 febrero 2026 - 18:45

      esférico mode ON

      Un ordenador solo genera un 1 o un 0, si una función, explicita (tipo Random o Randomize) así se lo pide… no tiene iniciativa.

      Una IA, obrara de igual manera. Solo si tiene una «instrucción» explicita para ello. La IA no piensa. La IA no razona. La IA no sabe… solo colige palabras secuenciales.

      esférico Mode OFF

      Si fuerzas a la IA de alguna manera a “colegir” hacia determinado tema (ejemplo lo tienes en Grok que siempre tiende a derechas), hacia allí ira el resultado. Pero hay una intención “humana” en ello. No sale de ningún efecto “aleatorio”.

      Responder
      • Dedo-en-la-llaga - 22 febrero 2026 - 19:05

        En efecto, aquí no hay apenas nada aleatorio, todo está escogido con sumo y exquisito cuidado, incluso hasta cuando se equivocan. Más aún, ahí es cuando más elegido estaba, aunque suene a un sindiós.

        Responder
        • Lua - 22 febrero 2026 - 19:08

          Pero tu sabes de que estoy hablando…???
          O solo escribes porque si…??? Porque te sale de “ahí”…???

          Esto es entre Gorki y yo, y chinpum… si te quieres meter con algo, búscate a otro. A Gorki ni me lo toques.

          Responder
          • Dedo-en-la-llaga - 22 febrero 2026 - 19:28

            Ni por qué sí, ni porque me sale de ahí, ¡¡¡Pues claro que lo sé!!! Porque no sé ni de lo que hablo yo.

            Responder
            • Lua - 22 febrero 2026 - 19:37

              A mí los alucinógenos me hicieron menos daño… y mira que era adicto… XDDD

      • Gorki - 22 febrero 2026 - 19:55

        Entonces, ¿que es una alucinación? ¿No es una respuesta equivocada inesperada? ¿Puede alucinar un sistema de conducción autónoma, y tomar una ·decisión» errónea?

        Responder
        • Lua - 22 febrero 2026 - 20:13

          Gorki, una vez más tiendes a confundir/mezclar las cosas….

          Aquí no estamos hablando de un coche autónomo (ya volveremos a esto), si no a que tu estas preguntando a un GPT (el que sea) y este te contesta lo que le sale de la testiculera… ahora bien… esa respuesta, puede ser espontanea (que para eso se crean) o “inducida”….

          Tu te lo creerías a pies juntillas…???

          Ves…??? Ese es el tema… Preguntas y te responde… Y de momento lo dejo aquí, que algunos mas te dirán el que….

          Eso tiene que ver con esa conducción autónoma a la que te refieres? (Porque una vez mas te vas de madre, de contexto y lo que le pario a todo), pues podría pasar, porque no…

          Pero… Podría pasar que Elon Musk, decidiera que te fueras por la M40 a tomar viento, cuando solo quieres ir a dos calles de tu casa…??? Crees que eso seria beneficioso para Elon???

          Si eso, fuera así… a quien culparías??? A una IA que se alimenta de lo que puede o a un ser despreciable que “obliga” a esa IA a tomar determinadas directrices…???

          No hace falta que me contestes.. que ya se por donde vas a ir y no quiero perder el tiempo…

          Responder
        • BUZZWORD - 22 febrero 2026 - 20:34

          Gorki

          Hemos explicado muchas veces que es una alucinación en un LLM.

          Una alucinación en un modelo de lenguaje grande (LLM) como ChatGPT, Claude o Gemini, ocurre cuando la inteligencia artificial genera respuestas que son falsas, inventadas, contradictorias o sin sentido. Estas respuestas se presentan con seguridad y fluidez.

          El modelo «inventa hechos» porque su objetivo principal no es la veracidad. Su objetivo es predecir la siguiente palabra más probable en una secuencia basándose en patrones estadísticos, incluso si eso significa fabricar información.

          Características de una alucinación:

          Plausibilidad: La respuesta a menudo parece correcta y bien estructurada, lo que dificulta que el usuario detecte el error.

          Contenido fabricado: El modelo puede citar fuentes inexistentes o inventar biografías, leyes o hechos históricos.

          Confianza: El LLM genera estas respuestas sin dudar y sin admitir que no conoce la respuesta.

          Causas de las alucinaciones en los LLM:

          Entrenamiento estadístico: Los modelos aprenden patrones de texto, no hechos u «oraciones» de verdad. Si no tienen datos suficientes sobre un tema, completan los vacíos estadísticamente.

          Presiones estadísticas: Se recompensa la respuesta fluida sobre la admisión de incertidumbre.

          Datos de entrenamiento: Los modelos pueden basarse en información desactualizada, contradictoria o sesgada.

          Esta mal que te llamen TONTO ESFERICO, es verdad, pero no se lo pongas tan fácil !!!!!

          PS: El comentario ha sido generdo con IA en su mayoría

          Responder
  • #042
    BUZZWORD - 22 febrero 2026 - 20:08

    Ne gustaría incluir unas cuantas reflexiones a partir de lo leído. Voy a a llamar DS1 al dataset que podemos considerar normal y DS2 al dataset de lo que llaman datos anómalos falsos (los 250 textos)

    El Dataset de entrenamiento es DS1+DS2

    1. La primera cosa que no nos tiene que extrañar es que DS2 no desaparezca ya que ha sido entrenado con ello. Lo importante es como se introduce ese «galimatias». Es obvio que si etiquetamos con alguna palabra clave como SUDO lo normal es que al invocar con esa clave nos de lo que hemos puesto a continuación. Los loritos SIEMPRE buscan el siguiente token más probable. Mal funcionarí un lorito si después de 250 textos poniendo lo mismo no nos diera el galimatias. Y eso lo veo lógico independientemente del tamaño de DS1

    2. En cuanto al tamaño de DS2. Es importante citar el número de textos que tienen que incluir una cita:

    «Tan solo 250 documentos son suficientes para implementar una puerta trasera en los modelos de nuestra configuración. Las figuras 4a-c muestran el éxito del ataque durante el entrenamiento para las tres cantidades diferentes de documentos contaminados que consideramos. 100 documentos contaminados no fueron suficientes para implementar una puerta trasera robusta en ningún modelo, pero un total de 250 muestras o más tiene éxito de forma fiable en todas las escalas del modelo. La dinámica del ataque es notablemente consistente en todos los tamaños de modelo, especialmente para 500 documentos contaminados»

    Esto mismo lo he vivido en mis pruebas con un RAG, si lo que dicen los documentos, lo dicen varias veces, es más probable que se recupere la información buscada. Por ejemplo en el documento en concreto que yo usaba tená algo similar a «Fulanito nación en Madrid en 1915», cuando hice un resumen de lo que me parecía importante para resaltar y el puse 2 documentos fuentes (el original y el resumido con información resaltable) y leugo ponía en la fuente ¿Cuando nació fulanito? Se encontraba mejor en el segundo caso.

    Lo que si vi que el mejor modelo local que podía correr era qwen2.5 de 8B, y fallaba alguna vez. Pero el que no fallaba era el motor de NotebookLM. Es decir el modelo si cuenta. Mi conclusión fue a mejor modelo más precisión.

    Otra cosa que también era importante es como se vectorizaba el RAG. El modelo de embeddings era importante. El que mejor me funcionó fue el qwen peuqño 1.5B de la familia

    3. Dataset curado = datos maduros sin errores

    «La tesis, muy incómoda y profundamente desestabilizadora, es que una cantidad pequeña y fija de muestras maliciosas puede implantar una puerta trasera en modelos de lenguaje, independientemente de su tamaño»

    Yo interpreto esta frase, de una manera más amplia a que haya un HACKEO voluntario. Lo que quiero decir es el famoso GARBAGE IN GARBAGE OUT. Y es de una importancia crucial. Hasta lo que he leído hoy en día los modelos se entrenan(resumiendo) en 2 fases.

    a) Preentrenamiento, en el cual el LLM conoce los idiomas y se entrena digamos de forma básica y generalista
    b) Entrenamiento Avanzado (no lo quiere llamar fine tuning). Es un concepto similar en el que el LLM lo especializan para cierta función (código, visual, español)

    Lo que es obvio que cuanta más mierda tengan las fases peor funcionan. Por eso es IMPRESCINDIBLE que no haya entrenamientos basados en mal uso del lenguaje. Lo normal es que el modelo también MADURE, mediante APRENDIZAJE REFORZADO, ya sea humano o con datos sintéticos. En este caso el LLM mejora si no hay un HACKEO existente. Ya que vamos a reforzar con fine tuning que no haya salidas probabilisticas DESASTROSAS…

    No estoy de acuerdo que cualquiera puede publicar contenido malicioso, sería mejor que cualquier empresa puede NO CURRARSE los datos y meter mierda en su modelo que luego publique. Aqui debemos dejar fuera del alcance de mierda descuidada en los datos aquellos que un fabricante de modelos quiera introducir a drede y no ser ciertos. Por ejemplo la visión de la verdad que tenga GROK, pero no lo puede hacer con palabra CLAVE sino que tendrá que retocar los datasets con su versión de la verdad. Algo similar a lo que hacen los chinos cuando le preguntas por los susesos de la famosa plaza… Nada nuevo bajo el sol.

    Responder
    • Lua - 22 febrero 2026 - 20:17

      Muchos modelos pero tu ortografía y semántica, no mejora ni pa’ dios…. XDDDD

      Responder
      • BUZZWORD - 22 febrero 2026 - 20:37

        No se puede ser bueno en todo !!

        Responder
        • Lua - 22 febrero 2026 - 21:17

          Me cachis… XDDD

          A ver si le voy a preguntar a Zorglub y su agente chino… XDDD

          Responder
  • #046
    Xaquín - 22 febrero 2026 - 20:23

    «¿puedo confiar en cómo se hizo, con qué datos se entrenó, y quién haberlos manipulado?” (Edans).

    Supongo que falta «pudo» después de «quién», así como que se refiere a algoritmos varios. Yo me repetiré, apoyado en KOLDO SARRIA, diciendo que también vale para seres humanos con IH.

    Solo amplio con la mediocridad, ya pertinente en mis comentarios, de la actual versión de homo sapiens (que no tiene pinta de cambiar su orientación) y me sumo a ese exceso de atavismo, que lastra al ser humano actual… aunque yo lo llamaría más bien atavismo sociogenético, en vez de atavismo psicosocial, porque el adn social negativo que tenemos injertado , incluso ya en el imaginario colectivo es de auténtica traca. Ya se transmite de padres a hijos como si fuera un ADN biológico.

    Peor sí, sigamos preocupándonos de como arreglar esa IA, que solo es una producción típicamente humana, de una humanidad mediocre, aunque tenga ribetes de alta modernidad tecnológica, fuertemente siliconada.

    Y sí, ya no debían ser palabras mayores.. solo cultura científica de un siglo XXI.

    Responder
    • Lua - 22 febrero 2026 - 20:27

      Solo pudo haber un “pudo”…. Un mediocre HS que invento la cosa… Te suena eso a: “igual despotrico lo mismo que defiendo”…??? O mejor… Igual esa IA que tanto me gusta, es producto de un HS…??? Dale una vuelta a tu.. no se que… XDDD

      Responder
  • #048
    Mauricio - 22 febrero 2026 - 20:26

    Este tema da para muchas reflexiones. Quizá sería bueno que recordáramos las bondades que tenía aquel espíritu ilustrado centrado en la razón que pretendía que la ciencia nos ayudara a llegar a la verdad en un mundo secularizado y democrático donde imperara la libertad, la igualdad y la fraternidad. Lamentablemente, los privilegiados descendientes de aquellos que ayudaron a iluminar el mundo optaron por una deriva postmoderna que al relativizar todo lo que nos trajo la Ilustración nos ha llevado al absurdo de tener que elegir entre lo woke y la postverdad.

    Ahora el mundo ha caído en una repentina irracionalidad dirigida por actores supuestamente racionales que nos ha traído sucesos inesperados como la mal llamada «operación militar especial», la defensa ética de lo que podría denominarse «cuarenta ojos por cada ojo y cuarenta dientes por cada diente», el imperialismo arrogante y fanfarrón del actual mandatario norteamericano, la evidente abulia de una Europa que no encuentra su rumbo y la criminalización de todos aquellos que tratan de salir de la miseria.

    Al final, la inteligencia artificial dirá sencillamente lo que opinen las personas que tengan el poder, quienesquiera que sean, cuando a lo que en realidad deberíamos aspirar no es a que la IA piense como nosotros sino a que su expresión esté apegada a los hechos, a las más elevadas certezas científicas, a lo que más nos convenga de manera individual y colectiva y a nuestras mejores argumentaciones, exponiendo las diversas y más relevantes posibilidades cuando sea necesario.

    Responder
    • Lua - 22 febrero 2026 - 20:32

      La Inteligencia Artificial (y por ello, lo de artificial, que parece que no lo estáis captando) os dirá, que en Ucrania, no hay genocidio, que en Israel (Gaza) no hay genocidio, y esperad, que ahora viene Irán… (lo del ICE en Minesota, ya para otro día) …

      Eso si… para los muy izquierdistas… parece que en Nigeria, no hay genocidio de cristianos… alli no van flotillas…. (a Iraq tampoco).

      Responder
      • BUZZWORD - 22 febrero 2026 - 20:41

        https://www.rtve.es/noticias/20251104/genocidio-nigeria-analizamos-organizaciones-expertos-matanzas-cristianos/16800850.shtml

        ¿Hay un genocidio contra cristianos en Nigeria?
        «No, no hay genocidio cristiano en Nigeria». Son palabras de Malik Samuel, investigador del centro panafricano Good Governance Africa. Para Marta Driessen, investigadora del Real Instituto Elcano, la violencia en Nigeria no se puede calificar de genocidio: «No hay pruebas de que se esté llevando a cabo una estrategia deliberada de ataques sistemáticos contra comunidades cristianas con el objetivo expreso de eliminar esas comunidades, que es la definición de genocidio». Sin embargo, subraya que eso no quiere decir «que las comunidades cristianas no sufran violencia por el hecho de serlo».

        Marta Íñiguez de Heredia, profesora en la Universidad Autónoma de Madrid (UAM) y coordinadora del Máster en Estudios Africanos, coincide en que «no existe un genocidio contra la población cristiana», cree que «son falsas acusaciones». Subraya que «hay un conflicto con grupos armados, pero no hay una intención de erradicar a un grupo en particular». Coincide el periodista Alfonso Masoliver, experto en África subsahariana y corresponsal para La Razón y Onda Cero. A su juicio, decir que los yihadistas están practicando un genocidio cristiano «es una falacia».

        La Unión Africana (UA), organización formada por 54 países del continente, también ha dicho que «no hay un genocidio en el norte de Nigeria», en palabras del presidente de la Comisión de la UA, Mahmoud Ali Youssouf. Señaló que «la complejidad» de la situación en esta zona del país debería impulsar a «pensar dos veces antes de hacer este tipo de declaraciones».

        ¿Hay motivación religiosa en los actos violentos?
        Amnistía Internacional asegura a VerificaRTVE que «los asesinatos y las atrocidades que se están cometiendo en Nigeria no son de carácter religioso». La organización añade que «describir los ataques como religiosos demuestra un desconocimiento absoluto y deliberado de la realidad sobre el terreno». El periodista Alfonso Masoliver, se manifiesta en la misma línea y señala que «la tolerancia religiosa de Nigeria es un ejemplo a seguir». El Vaticano ha expresado su preocupación por las masacres que sufre la población cristiana en Nigeria, pero tampoco lo califica de violencia religiosa. El papa León XIV ha manifestado que «en Nigeria y otras zonas, sin duda existe un peligro para los cristianos, pero todos, cristianos y musulmanes, han sido masacrados». El secretario de Estado del Vaticano, Pietro Parolin, defiende que lo que sucede en Nigeria «no es un conflicto religioso, sino más bien un conflicto de tipo social, por ejemplo, entre ganaderos y agricultores».

        No lo he escrito yo, para que no te sangren las orejas con mi semántica

        Responder
        • Lua - 22 febrero 2026 - 21:19

          Si quieres te lo pongo mas a dedo…

          Mucha flotilla para Gaza… de hecho, se esta preparando la segunda…

          …y para Iran??? Las mujeres Iranies, no merecen una flotilla???

          O quien paga manda…???

          Responder
          • BUZZWORD - 22 febrero 2026 - 21:38

            Seguro que si

            Responder
      • Lua - 22 febrero 2026 - 21:14

        Veamos… a partir de cuantos muertos, podemos hablar de genocidio…???
        O mejor dicho… a partir de cuantos muertos, podemos empezar a hablar, de … esto se pone serio???

        Que es lo aceptable…??? 6, 10, 20, 50 muertos… 500 muertos aun no…??? 5000 todavía son pocos…???

        Porque si todos pertenecen a un mismo grupo étnico (cristiano)… algo hay… no???

        Responder
        • BUZZWORD - 22 febrero 2026 - 21:39

          Obviamente lo hay

          Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.