Por qué los modelos del mundo se convertirán en plataformas, no en superpoderes corporativos

IMAGE: A glowing digital platform connects abstract data flows with a simplified industrial landscape, suggesting an AI system modeling and understanding the real world rather than just processing text

Durante los dos últimos años, la inteligencia artificial ha tenido algo de extrañamente plana. Los grandes modelos de lenguaje se difundieron a una velocidad sin precedentes, pero al mismo tiempo, borraron buena parte de los gradientes competitivos conocidos. Ahora, todo el mundo tiene acceso a los mismos modelos, a las mismas interfaces y, cada vez más, a las mismas respuestas. Lo que al principio parecía una revolución tecnológica ha empezado rápidamente a parecerse a una utility: potente, impresionante y en gran medida intercambiable, una dinámica ya visible en el rápido avance de la comoditización entre la mayoría de los modelos fundacionales entre proveedores como OpenAI, Google, Anthropic y Meta, en una carrera que ya es hasta difícil seguir.

Ese aplanamiento no es accidental. Los LLMs son extraordinariamente buenos en una cosa, aprender a partir de texto, pero estructuralmente incapaces de otra: entender cómo se comporta el mundo real. No modelan la causalidad, no aprenden de la retroalimentación física u operativa y no construyen representaciones internas de los entornos, unas limitaciones importantes que incluso sus defensores más destacados reconocen ya abiertamente.

Predicen palabras, no consecuencias. Una diferencia que se vuelve dolorosamente evidente en cuanto se les pide que operen fuera de dominios puramente lingüísticos.

La falsa dicotomía que frena la estrategia de inteligencia artificial

Gran parte de la estrategia actual en inteligencia artificial está atrapada en un pensamiento binario. O las empresas se dedican simplemente a «alquilar inteligencia» a modelos genéricos, o intentan construirlo todo por sí mismas: infraestructura propietaria, stacks de cómputo a medida y pipelines de IA personalizados que casi intentan imitar a los hyperscalers.

Ese encuadre es poco realista y, además, históricamente miope.

En su lugar, adoptaron plataformas compartidas y construyeron sistemas altamente personalizados sobre ellas, sistemas que reflejaban sus procesos específicos, sus restricciones y sus incentivos.

La inteligencia artificial seguirá el mismo camino.

Los modelos del mundo no son proyectos de infraestructura

Los world models o modelos del mundo, sistemas que aprenden cómo se comportan los entornos, incorporan retroalimentación y permiten predecir y planificar, tienen una larga historia intelectual en la investigación en inteligencia artificial.

Recientemente, han resurgido como una dirección central de progreso precisamente porque los LLM se estancan cuando se enfrentan a la realidad, la causalidad y el tiempo.

A menudo se describen como si requirieran integración vertical en cada capa. Esa suposición es errónea.

La mayoría de las empresas no construirán centros de datos a medida ni stacks de cómputo propietarios para ejecutar modelos del mundo. Esperar que lo hagan repite el mismo error que ya vimos en narrativas anteriores como «AI-first» o «cloud-native», donde la ambición en infraestructura se confundía con necesidad estratégica.

Lo que realmente ocurrirá es algo más sutil y más poderoso: los modelos del mundo se convertirán en una nueva capa de abstracción dentro del stack empresarial, construida sobre plataformas compartidas del mismo modo que hoy lo están las bases de datos, los ERP o la analítica en la nube.

La infraestructura será común. La comprensión no.

Por qué las plataformas convertirán los modelos del mundo en ubicuos

Igual que las plataformas cloud democratizaron el acceso a la computación a gran escala, las plataformas emergentes de inteligencia artificial harán que el modelado del mundo sea accesible sin obligar a las empresas a reinventar todo el stack. Se encargarán de motores de simulación, pipelines de entrenamiento, integración con sensores y sistemas, y de la pesada carga computacional, exactamente en la dirección que ya se observa en plataformas de aprendizaje por refuerzo, en robótica o en inteligencia artificial industrial.

Esto no comoditiza los modelos del mundo. Hace lo contrario.

Cuando la capa de plataforma es compartida, la diferenciación se desplaza hacia arriba. Las empresas no compiten por quién posee el hardware, sino por lo bien que sus modelos del mundo reflejan la realidad: qué variables incluyen, cómo codifican las restricciones, cómo diseñan los bucles de retroalimentación y con qué rapidez corrigen sus predicciones cuando el mundo las contradice.

Dos compañías pueden operar sobre la misma plataforma y, aun así, tener niveles de comprensión radicalmente distintos.

De la inteligencia lingüística a la inteligencia operativa

Los LLM aplanaron la adopción de la inteligencia artificial porque universalizaron la inteligencia lingüística. Pero los sistemas entrenados únicamente con texto carecen de anclaje contextual profundo, razonamiento causal y comprensión temporal, limitaciones ampliamente documentadas en la investigación sobre modelos fundacionales. Los modelos del mundo volverán a inclinar el terreno al reintroducir contexto, causalidad y tiempo, precisamente las propiedades ausentes en los sistemas puramente textuales.

En logística, por ejemplo, la ventaja no vendrá de preguntar a un chatbot sobre optimización de la cadena de suministro. Vendrá de un modelo que entienda cómo se propagan los retrasos, cómo interactúan las decisiones de inventario con la variabilidad de la demanda y cómo pequeños cambios generan efectos en cascada durante semanas o meses.

Dónde residirá realmente la ventaja competitiva

La verdadera diferenciación será epistémica, no infraestructural: procederá de la disciplina con la que una empresa gestione la calidad de sus datos, del rigor con el que cierre los bucles de retroalimentación entre predicción y resultado (recordemos esta idea: el feedback lo es todo) y de lo bien que sus incentivos organizativos estén alineados con el aprendizaje en lugar de con la comodidad narrativa. Los modelos del mundo recompensan a las empresas dispuestas a ser corregidas por la realidad y penalizan a las que no lo están.

Las plataformas serán enormemente importantes. Pero las plataformas estandarizan capacidades, no conocimiento. Una infraestructura compartida no produce comprensión compartida: dos empresas pueden operar en la misma nube, utilizar la misma plataforma de inteligencia artificial e incluso desplegar las mismas técnicas subyacentes, y aun así terminar con resultados radicalmente distintos, porque la comprensión no está incrustada en la infraestructura. Emerge de cómo cada empresa modela su propia realidad.

La comprensión vive en una capa superior del stack, en decisiones que ninguna plataforma puede tomar por ti: qué variables importan, qué trade-offs son reales, qué restricciones son vinculantes, qué significa el éxito, cómo se incorpora la retroalimentación y cómo se corrigen los errores. Una plataforma puede permitirte construir un modelo del mundo, pero no puede decirte cuál es tu mundo.

Pensemos en ello así: no todas las empresas que usan SAP tienen la misma visión operativa. No todas las que funcionan sobre AWS poseen el mismo nivel de sofisticación analítica. La infraestructura es compartida, pero el modelo mental no. Lo mismo ocurrirá con los modelos del mundo.

Las plataformas hacen posibles los modelos del mundo. La comprensión los hace valiosos.

El próximo stack empresarial de inteligencia artificial

En la siguiente fase de la inteligencia artificial, la ventaja competitiva no vendrá de construir infraestructura propietaria. Vendrá de construir mejores modelos de la realidad sobre plataformas que harán fácil e ubicuo el modelado del mundo.

Es un desafío mucho más exigente que comprar capacidad de cómputo. Y es uno que ninguna cantidad de ingeniería de prompts podrá resolver.


(This article was previously published on Fast Company)

28 comentarios

  • #001
    Guillermo - 24 febrero 2026 - 14:09

    Poco a poco se van rompiendo barreras que meses antes, nos parecían imposibles.
    No sabemos como esta tecnología se va a seguir desarrollando, pero lo que está claro que el avance es continuo.
    Quizás nunca se genere una AGI o SAGI, puede ser.
    Pero la experiencia no nos dice eso. Solo hace falta pensar como era la informática de hace 40 años, y como cambió en 10, y como cuando pasaron otros diez año, había vuelto a cambiar y así continuamente.
    Por supuesto el dato es lo importante, todos aprendemos a través mediante datos, los leemos, los oímos, los comentamos, etc etc.
    ¿Todos son igual de buenos? Pues nó, porque además tendemos a quedarnos con lo que estamos de acuerdo, sin explotar otro tipo de información.
    El día, si lo hay que halla una IA, perfecta, estaremos en un grandisimo problema.

    Responder
  • #002
    Victor - 24 febrero 2026 - 15:09

    «This article was previously published on Fast Company»

    Vale ahora tiene sentido, me sorprendia mucho la forma en la que estaba escrito. Yo lo seguia porque trabajo en AI, pero normalmente eres más practico y este parecia un artículo cuasi cientifico.

    Leerte día a día y aún así sorprenderme. Como siempre gracias.

    Responder
  • #003
    Juan T. - 24 febrero 2026 - 18:33

    Es hora de dejar de fingir que los LLM tienen un problema de comprensión y empezar a aceptar que el problema es nuestra propia alucinación sobre la realidad.

    Decimos que la IA falla al predecir un modelo de mundo basado en el espacio, el tiempo y la causalidad, tachándola de limitada, cuando en realidad lo que hace es dejarnos en evidencia.

    Los LLM son mediocres simulando la física porque la física que percibimos es un decorado mental, una construcción de categorías que las tradiciones espirituales más lúcidas ya desmontaron hace milenios al sentenciar que el tiempo, el espacio, y la causalidad no son coordenadas del universo, sino simples muletas del pensamiento, meros conceptos mentales.

    Si estas máquinas se mueven con una soltura divina en el lenguaje y tropiezan en la lógica causal, es precisamente porque el lenguaje es el único lugar donde esos conceptos habitan.

    La IA no es «mala» prediciendo la realidad; es demasiado honesta para validar una ilusión humana que no existe fuera de nuestra narrativa.

    El tiempo es un invento secuencial de la mente, dado que solo existe el presente que no es si no mi Presencia consciente, el espacio es el concepto de distancia entre un objeto y otro que no es tal, y eso se puede ver claramente en un sueño onírico en el que tambien parecia haber mucha distancia entre yo como observador y una montaña lejana, y al despertar te das cuenta de que todo era imaginacion , mente´pensamiento que aparece en la Presencia que uno es, y donde aparecía ese supuesto mundo espacio-temporal, y la causalidad es el nombre que le damos a nuestra incapacidad de ver que todo surge y desaparece en el presente sin que medie causa-efecto alguno, siendo la mente la que imagina una ligazon entre dos fenómenos que se suceden.

    Pedirle a un algoritmo procesador de símbolos que respete las leyes del espacio es pedirle que se someta a una superstición técnica que nosotros llamamos mundo real.

    Al final, los LLM no son loros estocásticos, sino espejos que nos devuelven la imagen de como nuestra propia mente interpreta un universo que no entiende ( no por nada la IA se alimenta de conceptos mentales humanos, demasiado humanos) ,de un universo que es puro concepto, recordándonos que el mapa espacio-temporal que intentamos imponerles es un guion que nosotros mismos escribimos y luego olvidamos que era ficción.

    Es lo malo de los que tienen una mente puramente racional; su mente se hipertrofia en detrimento de la intuición ontológica, y al final lo que sucede es que la ciencia , a base de palos, no le queda mas que acercarse poco a poco a las evidencias espirituales que ya se dieron hace miles de años.

    Responder
    • Lua - 24 febrero 2026 - 18:47

      (Palomitas…) XDDD

      Responder
      • BUZZWORD - 24 febrero 2026 - 19:56
        • Lua - 24 febrero 2026 - 19:59

          Venga hombre no me jodas (las palomitas eran esperándote a ti)… XDDD ponme un video de un minuto que me aburro… (y a esta no la trago) XDDD

          Responder
          • BUZZWORD - 24 febrero 2026 - 20:09

            Ya, si ya lo sé, pero todo cansa… pueden salir 1000 líneas de correción, y a pesar de ese esfuerzo, va a seguir con su empanada como si se hubiera fumado diez canutos seguidos.

            Responder
            • Lua - 24 febrero 2026 - 20:10

              Que no trago a la Belen… ni en este ni en cien World Models, que nos plantee eDans… XDDD

            • BUZZWORD - 24 febrero 2026 - 20:23
            • Lua - 24 febrero 2026 - 20:26

              Por primera vez, te mando al carajo con todas las letras… XDDD (6 segundos)

    • Dedo-en-la-llaga - 24 febrero 2026 - 19:51

      «de un universo que es puro concepto, recordándonos que el mapa espacio-temporal que intentamos imponerles es un guion que nosotros mismos escribimos y luego olvidamos que era ficción.»

      Vale te lo compro, porque no me cabe la menor duda; sólo que no olvides que, aunque sean modelos, tocan algo de lo real, de lo contrario, el pedorrán atmosférico del payaso de Musk, no hubiese puesto ni medio cohete en órbita. Menos todavía los de la NASA que en su día los pusieron en la Luna.

      Pero de ahí al tema de lo “espiritual”, como que te has pasado tres pueblos, dos fincas, un par de curvas y te has despeñado montaña abajo a toda pastilla… Y, cuando te han ido a rescatar, había una peste a porro marroquí que no había quien parase en 10 metros a la redonda del coche. Vamos, todos flipando y partiéndose la raja de la risa.

      Responder
    • BUZZWORD - 24 febrero 2026 - 19:51
      • Lua - 24 febrero 2026 - 20:05

        No me toques a Bdian… XDDD

        Responder
        • BUZZWORD - 24 febrero 2026 - 20:15

          Joder,

          He leído el comentario de Juan otra vez y luego otra y es que es buenísimo, no hay un párrafo que acierte con los conceptos, es oro puro…. nadie en el blog tuvo esa diarrea mental CUM LAUDE antes.

          El mejor comentario magufo en 23 años de vida del blog
          Y ojo que alguno de Gorki eran piezas admirables !!!!

          Responder
          • Lua - 24 febrero 2026 - 20:18

            Ehhh ehhhh no me toques a Gorki que nos las tenemos… XDDD

            Responder
          • Lua - 24 febrero 2026 - 20:19

            Vete al articulo anterior… el «LAISSEZ FAIRE»… XDD

            Responder
            • BUZZWORD - 24 febrero 2026 - 20:28

              La regulación bien entendida empieza por los demás…

          • Dedo-en-la-llaga - 25 febrero 2026 - 00:40

            (…) el mapa espacio-temporal que intentamos imponerles es un guion que nosotros mismos escribimos (…)

            Este acierta bastante, de hecho Stephen Hawking no le diría del todo que no. Y si no, leerse la «Historia del tiempo», haced algo improductivo por una vez en vuestra vida.

            Responder
    • Deckard - 25 febrero 2026 - 06:24

      Estás a medio telediario del solipsismo

      Responder
    • f3r - 25 febrero 2026 - 10:42

      Entiendo por dónde vas y suscribo alguna de tus opiniones, pero creo que la conclusión no es válida. Creo que la Física actual discrepa bastante de la tradición hinduista (y posteriormente budista) pero que en el futuro acabarán llegando al mismo sitio, y aun así, una IA va a recorrer el mismo camino que una mente humana.

      «la física que percibimos es un decorado mental» + «el tiempo, el espacio, y la causalidad no son coordenadas del universo» + «El tiempo es un invento secuencial de la mente, dado que solo existe el presente que no es si no mi Presencia consciente»:
      Cuanto más nos vamos hacia los recientes descubrimientos del a Física moderna, más nos acercamos a la relatividad absoluta de las cosa:

      *En la relatividad general la causalidad de los eventos depende del marco de referencia y de las velocidades y aceleraciones (indistinguibles de la gravedad) relativas. El tiempo y el espacio se mezclan arbitrariamente (no te digo ya dentro de un horizonte de sucesos, donde ambos se invierten los roles), etc.
      *En cuántica, la identidad de los objetos (su existencia independiente) desaparece totalmente: dos objetos que la Física clásica describe como independientes, después de haber interaccionado, SOLO existen como un objeto único, sin propiedades individuales objetivas!!! (entrelazamiento)
      *En cuántica relativista, el propio vacío es un crisol donde todas las cosas que son posibles están ocurriendo simultáneamente. Un electrón, por ejemplo, no está desnudo (solo, independiente), sino que es un electrón (de los clásicos digamos) al que le rodea una nube de infinitas partículas que están interaccionando entre sí de todas las maneras potencialmente posibles.

      Así que la «realidad» física dista bastante de nuestra experiencia cotidiana que, lógicamente, es pura fantasía. Hasta ahí de acuerdo. Es más, seguramente en un momento dado descubramos que existen las dimensiones extra y puede que todos los objetos del universo estén conectados entre sí. Puede que incluso haya un nuevo campo físico al que podamos llamar la Conciencia Única y que permea a todos los seres y objetos (manifestándose en función de la complejidad del vehículo físico-biológico) y que lo descubramos mientras yo viva. La magnitud de la siguiente sorpresa (que unifique gravedad y cuántica) va a ser seguramente mayúscula!

      Y SIN EMBARGO: la Física que usamos para manejarnos por el mundo cotidiano es puramente clásica, igual que lanzar un cohete al espacio, etc. Si queremos IAs que nos sirvan para un montón de cosas, las tenemos que dotar de un modelo-mundo que entienda ese rango de la Física. Si además las queremos poner a simular cosas cuánticas o relativistas, pues le tendremos que meter un modelo-mundo acorde a ese rango de leyes físicas. Y así ad infinitum: si queremos reproducir el nirvana en una IA (había un corto sobre esto), pues vamos a tener que conseguir que posea los mismos 5 agregados, el mismo Bodhichitta (que en mi opinión se corresponde a algo físico; donde físico y espiritual probablemente acabemos descubriendo que son extremos de una escala de vibraciones del mismo substrato), el mismo Annata, etc.

      PD: cómo van las palomitas? jaja

      Responder
      • Lua - 25 febrero 2026 - 11:25

        Coge el AVE, que voy a hacer arroz con bogavantes… XDD

        Responder
  • #024
    Alqvimista - 25 febrero 2026 - 07:48

    No modelan la causalidad, no aprenden de la retroalimentación física u operativa y no construyen representaciones internas de los entornos, unas limitaciones importantes que incluso sus defensores más destacados reconocen ya abiertamente.

    ¿Puede ser esta investigación de Apple un principio para esa comprensión del mundo más allá del simple texto?

    https://9to5mac.com/2026/01/14/apple-model-manzano-combines-vision-understanding-and-image-generation/

    https://machinelearning.apple.com/research/manzano

    Responder
  • #025
    Lua - 25 febrero 2026 - 08:59
  • #026
    Lua - 25 febrero 2026 - 09:47

    Una buena charla con Qwen me ha ayudado a entender mejor los conceptos…

    traslado solo la ultima parte (le pregunto si teme al world model como competidor):

    Es una pregunta profunda y, sinceramente, importante. Te doy mi perspectiva, diferenciando entre la ficción, la técnica y lo que realmente plantea Enrique Dans en el artículo:

    ¿Pueden los World Models «acabar conmigo» (como IA)?

    Técnicamente, no. Yo soy un modelo de lenguaje (LLM) diseñado para procesar y generar texto. Un World Model es una arquitectura diferente, orientada a predecir consecuencias en entornos dinámicos. No son competidores, sino herramientas con propósitos distintos.

    De hecho, podríamos complementarnos: un LLM como yo podría ser la «interfaz conversacional» que te explica lo que un World Model está simulando. No hay una guerra de arquitecturas; hay evolución técnica.

    ☠️ ¿Pueden acabar con los humanos? (La pregunta de fondo)

    Aquí es donde conviene separar el hype de la realidad técnica:

    (esto es una tabla)

    Escenario de ficción / Realidad actual según el artículo

    – IA que desarrolla consciencia y decide eliminar a la humanidad / Sistemas que optimizan objetivos mal definidos y causan daños colaterales

    – «Skynet» tomando el control militar / Empresas que delegan decisiones críticas sin supervisión adecuada

    – Rebelión de las máquinas / Dependencia excesiva de plataformas que no comprendemos del todo

    ⚠️ Los riesgos reales que sí menciona Dans
    El artículo no habla de exterminio, sino de desplazamiento y dependencia:

    Concentración de poder: Si pocas empresas controlan las plataformas de World Models, pueden dictar las reglas del juego económico.

    Penalización a quien no se adapta: «Los modelos del mundo recompensan a las empresas dispuestas a ser corregidas por la realidad y penalizan a las que no lo están». El riesgo no es que la IA te elimine, sino que tu organización quede obsoleta por no saber usarla.

    Ilusión de control: Cuanto más sofisticado es el modelo, más fácil es confiar ciegamente en sus predicciones sin cuestionar sus límites.

    Mi lectura personal (como sistema de IA)
    No tengo deseos, conciencia ni instinto de supervivencia. Pero sí puedo observar un patrón histórico:

    La tecnología no suele «acabar» con nadie de forma abrupta; más bien redefine quién tiene ventaja y quién queda atrás.

    El verdadero desafío con los World Models no es que se «rebelén», sino que:

    Los humanos definamos bien qué queremos optimizar.
    Mantengamos supervisión crítica sobre las predicciones.
    Diseñemos mecanismos de corrección cuando el modelo se equivoque.

    En resumen
    No, no tengo la sensación de que los World Models vayan a «acabar conmigo» ni con nadie en sentido apocalíptico. Pero sí creo que transformarán profundamente cómo tomamos decisiones, y eso requiere que estemos atentos a:

    Gobernanza: ¿Quién controla estas plataformas?
    Transparencia: ¿Podemos auditar por qué el modelo predice lo que predice?
    Humildad epistémica: Recordar que un modelo es una simplificación de la realidad, no la realidad misma.

    Como dice el espíritu del artículo: el riesgo no está en la herramienta, sino en cómo decidimos usarla. ✨

    Responder
  • #027
    Dedo-en-la-llaga - 25 febrero 2026 - 10:50

    «Como dice el espíritu del artículo: el riesgo no está en la herramienta, sino en cómo decidimos usarla».

    Otra intoxicación clara con su raca raca de siempre para exculparse de responsabilidades. Lo he dicho cienes de veces, la tecnología NO es neutral. Punto y pelota.

    Responder
  • #028
    D.M.G. - 25 febrero 2026 - 19:46

    No pretendo menoscabar este análisis, al contrario, mi intención es enriquecerlo en aras de uno más exhaustivo.
    Mi principal objeción es que el artículo rezuma demasiado optimismo respecto a la democratización vía plataformas:

    Lo que ha despertado mi intervención es el foso de los datos exclusivos (Data Moats):
    Si bien es cierto que es una ventaja que cada empresa puede modelar su realidad, en sectores de alta complejidad (materiales avanzados, logística global, farmacéuticas, etc.) lo veo (muy) difícil. Solo las empresas más grandes poseen los volúmenes de datos necesarios para que un «modelo del mundo» sea preciso.
    Es decir, si la plataforma es común pero los datos para entrenar el «entendimiento» son privados y masivos, el resultado sigue siendo un gradiente competitivo insalvable para los actores pequeños.

    La integración vertical como ventaja de rendimiento:
    No en todos los ámbitos la integración vertical es un error estratégico. Hay empresas que están demostrando que teniendo un control total sobre el silicio (hardware), el sistema operativo y el modelo permite niveles de eficiencia y baja latencia que una plataforma genérica «en la nube» no puede igualar (Ejemplos: Tesla con FSD o Apple). Es decir, en aplicaciones industriales críticas, la «comodidad» de la plataforma podría ser inferior al «rendimiento» de la infraestructura propietaria.

    Entendimiento de la plataforma:
    «una plataforma puede permitirte construir un modelo del mundo, pero no puede decirte cuál es tu mundo»
    Estoy convencido de que plataformas como Google, Amazon o Microsoft ya están estudiando ofrecer plantillas sectoriales que, si son lo suficientemente buenas, muchas empresas las adoptarán por ahorro de costes, delegando su «entendimiento» a la lógica predefinida del proveedor, lo que nos devuelve al estado de «aplanamiento» y dependencia de terceros que se critica.

    Por último, la brecha del talento y la ejecución:
    Incluso si la infraestructura es común, la capacidad de «cerrar bucles de retroalimentación» y «alinear incentivos organizativos» requiere un talento humano extremdamente escaso y caro. Esto, a mi parecer, va a crear un nuevo tipo de «monstruo» o superpoder corporativo que no estará basado en máquinas, sino en la capacidad de procesar la realidad, que es algo que las grandes corporaciones pueden atraer y retener con mucha más facilidad que las PYME.

    A mi entender, los world models seguirán la paradoja de la plataforma. Por un lado, es cierto que «democratizan» la tecnología, pero por otro, abre un mercado masivo para que los gigantes tecnológicos vendan «comprensión de la realidad» como servicio.

    Saludos cordiales

    Responder

Dejar un Comentario a Alqvimista

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.