Evaluar con inteligencia (y no con detectores)

IMAGE: A screen capture of the ¡Hola! article

Me han publicado una entrevista en ¡Hola! titulada «Enrique Dans, experto en innovación educativa: ‘Usar detectores de IA para sancionar a un alumno es irresponsable, casi criminal’» (pdf). Hasta ahora había escrito en sitios como Forbes, Fast Company, The Wall Street Journal y muchos más, pero en este país hay dos tipos de personas, los que han sido entrevistados en el ¡Hola! y los que no, así que a partir de ahora, tratadme de usted ;-)

En la entrevista defiendo algo muy simple: si la escuela quiere preparar a los alumnos para un mundo en el que la inteligencia artificial es ubicua, no puede seguir evaluando como si no existiese. Y, sobre todo, no puede delegar la toma de decisiones disciplinarias en herramientas que la propia industria reconoce como poco fiables.

El punto de partida es incontestable: los «detectores de texto escrito por inteligencia artificial» no son una base válida para castigar a ningún estudiante. La evidencia lo deja claro: la propia OpenAI retiró su «AI Text Classifier« por su bajo índice de acierto, una admisión explícita de que el enfoque no funcionaba como prometía. La razón de fondo es clara: abundantes falsos positivos y gran facilidad para «engañar» a los detectores.

El problema no es solo técnico; es ético y pedagógico. Confiar en un detector con un margen significativo de error para acusar de trampa a un alumno vulnera principios básicos de debido proceso y genera daños difíciles de reparar, especialmente cuando los sesgos del propio detector golpean más a quienes escriben en una segunda lengua. Investigadores de Stanford Human-Centered Artificial Intelligence AI mostraron que muchos clasificadores penalizan injustamente a estudiantes no nativos por la forma en que miden la métrica de perplejidad del texto, entendida como la medida en la que una distribución o modelo de probabilidad es capaz de predecir una muestra. Incluso algunos proveedores comerciales, como el ubicuo Turnitin han tenido que publicar guías internas sobre la existencia de falsos positivos y cómo gestionarlos, una admisión implícita de que estos sistemas no sirven en absoluto como prueba concluyente de nada.

Mientras algunos titulares aseguran que millones de trabajos muestran «rastros» de inteligencia artificial, las propias cifras de esos estudios vienen llenas de asteriscos metodológicos: distinguir de forma fiable qué parte es generada por máquina y cuál es humana sigue siendo extremadamente difícil, y varias instituciones han decidido pausar el uso punitivo de estos detectores por riesgo de sesgo y error. En paralelo, los campus constatan lo obvio: la mayoría del alumnado ya usa inteligencia artificial de algún modo y, por tanto, el foco no puede ser «cazar» sino «enseñar a usar bien y evaluar mejor». De hecho, muchos de esos casos detectados son simplemente estudiantes que han utilizado la herramienta para corregir su escritura, para traducirla o para tareas como poner a prueba la solidez de sus argumentos. Un informe reciente en el Reino Unido alertó a las universidades para que sometan a pruebas de estrés sus evaluaciones ante el dato evidente de que más del 90% de los estudiantes ya emplea habitualmente inteligencia artificial generativa.

Que las escuelas integren inteligencia artificial no significa necesariamente renunciar a los valores. De hecho, organismos que marcan agenda internacional piden justo lo contrario: unir ética y práctica. La UNESCO pide políticas centradas en el ser humano y desarrollo de capacidades docentes y estudiantiles para un uso responsable, con recomendaciones concretas para rediseñar enseñanza y evaluación. En la misma línea, el Departmento de Educación norteamericano (Office of Educational Technology) propone pasar del miedo a la competencia: formar a docentes, rediseñar tareas y crear evaluaciones auténticas donde la inteligencia artificial se use con propósito pedagógico y transparencia. Y el sistema británico viene recopilando buenas prácticas para «evitar, adelantar o abrazar» la inteligencia artificial en evaluación, con pilotos sectoriales y herramientas para rediseñar tareas en un contexto con inteligencia artificial.

El giro práctico ya está en marcha también fuera de las aulas universitarias: grandes actores del sector están financiando formación de docentes específicamente orientada a integrar inteligencia artificial con criterios de seguridad, privacidad y ética, lo que confirma que la cuestión no es prohibir, sino enseñar y acompañar. La ciencia, por su parte, sigue señalando límites y riesgos de fiarse de “detectores mágicos” en ámbitos académicos: revisiones y estudios recientes subrayan la falta de fiabilidad en la discriminación entre texto humano y sintético y alertan sobre consecuencias éticas si se usan con fines sancionadores.

¿Qué implica todo esto para escuelas y universidades? Primero, abandonar la ilusión tecnológica de «detectar» automáticamente el plagio de la era generativa. Simplemente, no es posible ni posiblemente lo será. En su lugar, hay que rediseñar tareas para que el uso de inteligencia artificial esté permitido, declarado y guiado, y la evidencia de proceso (borradores, prompts, iteraciones, referencias) forme parte de la evaluación. Segundo, desplazar el peso de la nota desde el producto final hacia el razonamiento, la oralidad, la resolución situada de problemas, el trabajo con fuentes y la reflexión metacognitiva. Tercero, dotar a los docentes de competencias y tiempo: sin formación y apoyo institucional, la supuesta «integración responsable» de la inteligencia artificial se convierte en un eslogan vacío. La literatura especializada y las guías públicas lo vienen diciendo desde 2023: la inteligencia artificial llegó para quedarse en educación: lo responsable no es prohibirla, sino aprender a usarla bien.

Por eso sostengo vehementemente que sancionar alumnos utilizando esos «detectores» es irresponsable. No porque la honestidad académica no importe, sino porque la mejor garantía de integridad hoy pasa por diseño pedagógico, transparencia y cultura de aprendizaje, no por semáforos algorítmicos que confunden mucho más de lo que aclaran. La evaluación hoy en día requiere docentes formados, rúbricas claras y tareas que sitúen a la inteligencia artificial como un instrumento sujeto a unas reglas didácticas, no como un supuesto enemigo invisible. Lo contrario, criminalizar el uso y «externalizar» el juicio a una caja negra que falla más que una escopeta de feria, no protege el aprendizaje: lo erosiona.

A continuación, el listado de preguntas y respuestas que intercambié con Ana Merodio, redactora de la revista:

  1. ¿Qué herramientas o métodos utilizan hoy los profesores para detectar un plagio en cuestión de segundos?
    Las herramientas tradicionales de detección de plagio, como Turnitin o similares, comparan textos con grandes bases de datos para encontrar coincidencias. Son útiles cuando alguien copia y pega, pero no sirven cuando hablamos de inteligencia artificial, ya que el texto se genera desde cero. Aplicar los métodos de detección de plagio a algo que no es plagio es un error conceptual grave. Es como tratar de encontrar ADN en un holograma. El problema no es técnico, sino mental; seguimos utilizando métodos de otro tiempo para abordar un fenómeno completamente nuevo.
  2. ¿Hasta qué punto la inteligencia artificial está cambiando la forma de “hacer trampa” en trabajos o exámenes?
    Hablar de “hacer trampa” ya no tiene mucho sentido. Usar una herramienta de inteligencia artificial, como Tau, no es hacer trampa, sino aprovechar el conocimiento disponible, de la misma forma en que antes usábamos Google o una calculadora científica. Lo que está cambiando no es la forma de copiar, sino lo que entendemos por aprender. El alumno que usa la IA no necesariamente engaña; de hecho, puede estar aprendiendo de una forma más rápida, estructurada y profunda. El verdadero problema está en los sistemas educativos que se niegan a aceptar la existencia de la IA y quieren seguir con prácticas obsoletas. En TuringDream, creemos que la IA debe ser vista como una aliada en el proceso educativo. Con plataformas como Tau, que utilizan IA avanzada para ofrecer educación personalizada, estamos facilitando el aprendizaje de los estudiantes de una forma más adaptada a sus necesidades y estilo de aprendizaje.
  3. ¿Qué señales levantan sospechas en un texto que ha podido ser generado con IA?
    No existen señales fiables que permitan identificar si un texto fue generado por IA. Algunos profesores piensan que los textos «demasiado perfectos» o «demasiado impersonales» son sospechosos, pero eso es un error. Hay estudiantes que escriben de manera impecable, y la IA puede adoptar cualquier tono. Las señales que se suelen buscar son intuiciones sin base científica. Lo único que logran es generar desconfianza y confusión. Al final, lo relevante no es saber quién escribió un texto, sino qué aprendió el alumno al producirlo.
  4. ¿Existen programas o software capaces de identificar automáticamente contenido creado con ChatGPT u otras IA? ¿Son realmente fiables?
    Sí, existen, pero todos fallan estrepitosamente. Ningún detector de IA es mínimamente fiable. Estos programas generan falsos positivos constantes, lo que ya ha llevado a acusaciones erróneas contra estudiantes inocentes. Usarlos para sancionar a un alumno es irresponsable, casi criminal. Estas herramientas no miden lo que dicen medir. Es como decidir si alguien mintió basándose en el horóscopo. Lo más preocupante es que algunos docentes lo confunden con “rigor académico”, cuando en realidad es un claro ejemplo de pseudociencia.
  5. ¿Qué riesgos corren los estudiantes que recurren a la IA para entregar trabajos como propios?
    El riesgo no está en usar la IA, sino en no saber cómo utilizarla. Quien copia sin pensar está desaprovechando una oportunidad increíble para aprender con el mejor profesor que jamás haya existido: una IA que se adapta a tu ritmo, nivel y curiosidad, y que te responde de forma personalizada, paciente y constante. En el futuro, la IA será ese “profesor perfecto” que conoce a cada estudiante mejor que cualquier ser humano. Los estudiantes que aprendan a usarla bien dominarán el aprendizaje personalizado, mientras que los que la rechacen se quedarán atrás en un mundo que ya está aquí. Tau, la plataforma educativa de TuringDream, es un claro ejemplo de cómo la IA puede ser un aliado para mejorar el aprendizaje, no solo facilitando la comprensión, sino también ajustando el proceso educativo al ritmo y estilo único de cada alumno.
  6. ¿Cómo deberían los centros educativos adaptarse a esta nueva realidad: prohibir el uso de la IA o integrarla en el aprendizaje?
    Prohibir la IA es una aberración intelectual. El futuro de la educación no estará basado en memorizar datos, sino en saber cómo hacer preguntas, analizar y contextualizar respuestas. La IA debe ser una herramienta de aprendizaje omnipresente, y los centros educativos deben adaptarse para enseñar a los estudiantes a usarla con criterio. Los profesores no desaparecerán, pero su papel cambiará, y se convertirán en guías que enseñan valores, pensamiento crítico, empatía y adaptación social. La IA enseña los contenidos; los humanos enseñan a ser personas. Quien no entienda eso, está condenando a sus alumnos a la irrelevancia.
  7. ¿Qué estrategias recomiendas a los docentes para enseñar a diferenciar entre usar la IA como apoyo y caer en el plagio?
    La línea no está en el uso, sino en la comprensión. Si un alumno utiliza la IA para entender mejor, explorar ideas o corregir errores, está aprendiendo. Si la usa para entregar un trabajo que no comprende ni podría defender, se está engañando a sí mismo. Los profesores deben pedir a los alumnos que expliquen cómo usaron la IA, qué aprendieron del proceso y qué criterio aplicaron. En lugar de cazar “tramposos”, deberían evaluar la calidad del pensamiento. Enseñar con IA no es renunciar al rigor, sino llevarlo al siguiente nivel. Lo que debemos hacer es enseñar a los estudiantes a usar la IA como una herramienta que complementa su aprendizaje, tal como lo hace Tau, que guía y personaliza el estudio de manera efectiva y sin juicios.
  8. ¿Qué mensaje daría a los alumnos sobre su futuro académico y profesional si basan sus estudios en trabajos generados por inteligencia artificial?
    El futuro será de quienes sepan trabajar con la inteligencia artificial, no de quienes intenten ignorarla. La IA no sustituye la inteligencia humana, la amplifica. Es una extensión de nuestra capacidad de aprender, de razonar y de crear. Quien hoy aprenda a usarla como herramienta de aprendizaje, tendrá mañana una ventaja inmensa en cualquier profesión. Y cuando llegue el momento en que una IA pueda adaptarse a cada estudiante, enseñarle justo lo que necesita y reforzar justo donde falla, habremos alcanzado algo que ningún sistema educativo humano logró nunca: la personalización total del conocimiento. Los profesores humanos seguirán siendo imprescindibles, pero para enseñar lo más importante: a ser humanos, a convivir, a pensar éticamente y a entendernos como sociedad. Todo lo demás, la IA lo hará mejor.

You can read this article in English on my Medium page, «From detection to design: building AI-literate classrooms«

16 comentarios

  • #001
    Alqvimista - 18 octubre 2025 - 11:13

    Interesantes reflexiones y felicidades por la publicidad que hace de TAU ;-D

    El alumno que usa la IA no necesariamente engaña; de hecho, puede estar aprendiendo de una forma más rápida, estructurada y profunda.
    ¿Se atrevería a hacer una encuesta en institutos y universidades a ver qué porcentaje de alumnos aprenden más y mejor usando la IA vs qué alumnos se han ahorrado un curso gordo?
    Porque me atrevería a adelantar un 5% vs 95%.

    Esto no es China. Se me llevan los demonios cuando veo a chavales de instituto incapaces de recitar cuatro ciudades gallegas, por ejemplo. Hasta el más tonto de EGB superaría en conocimientos generales a cualquier universitario. Y a muchos profesores de colegio.

    Además, ¿a quién le importa? Este Sistema Educativo te aprueba y pasa de curso para no provocar frustración en el alumno…

  • #002
    Buzzword - 18 octubre 2025 - 11:41

    ¿Es un problema usar IA? Pues claramente para el 97% de esos que la usan, un rotundo SI, un aplastante SI !!!!

    Pero existe un 3% de los que usan la IA que son unos estudiantes maravillosos, que la usaran para hacer cosas brillantes, lograran potenciar sus habilidades con esas herramientas… Pero no nos engañemos a las personas les cuesta pensar. Pensar es agotador, y por evolución, y rapidez, vamos con el piloto automático… ¿Hay que penalizar el uso de la IA? Pues si ese uso es para no razonar, para no pensar, para que la IA haga la tarea que me han encomendado… creo que la respuesta es clara, los holgazanes no serán creativos, no tendrán buenas ideas,… el problema es cuando el juez que dicta si el resultado de un estudiante es bueno o malo, independiente del uso de la IA, es aún más mediocre que el mediocre estudiantes

    ¿Piensa la mayoría que utilizar la IA sin más es bueno para el estudiante, o es malo para el estudiante? La respuesta es que la mayoría en cuestiones de alto rendimiento FALLARÁ

  • #003
    Javier - 18 octubre 2025 - 13:11

    Enhorabuena por el hito, señor :) (cero sarcasmo!)

  • #004
    Guillermo - 18 octubre 2025 - 15:04

    Usar la IA para que nos haga el trabajo esta mal, usar la IA para potenciar nuestro trabajo es la formula correcta.
    En cualquier caso este debate durará cinco años, como mucho 8.
    Estamos en un periodo de transición a lo ‘sintético’, pero en menos de una década, habremos integrado una IA, mucho más capaz que la actual, en multitud de situaciones, algunas obvias ahora mismo, otras serán inimaginables ahora mismo.

  • #005
    Xaquín - 18 octubre 2025 - 19:44

    Lo del HOLA! prefiero ni comentarlo (esos sí, cada uno que aguante su vela… que a fin de cuentas hay gente para todo, y hasta para ganar un Planeta… y todos son respetables… o casi todos !!!). Por algo se hizo famoso el Play Boy, gracias a su artículo sesudo que nadie miraba…

    Pero si el llamado medidor del CI, así como el medidor de «decir verdades», por poner dos ejemplos famosos, fallan más que Picio (en ser guapos), no veo como se puede uno fiar de un puto algoritmo, que ya nos debe tener cogido por los huevos y ovarios (intelectuales), más de lo que quisiéramos…

    • Xaquín - 18 octubre 2025 - 19:50

      Una vez vistos los resaltados que te hicieron los becarios del HOLA! , debo decir que este HOLA! no se parece demasiado al HOLA! que sufrimos durante el franquismo… (aparte de ser .com)

  • #007
    Gorki - 18 octubre 2025 - 21:41

    Pese a toda su inteligencia, Sócrates no escribió nada porque creía que la escritura perjudicaba la memoria, el pensamiento crítico y el conocimiento profundo. La historia ha demostrado que en ese punto Sócrates se confundió.
    Quienes hoy se oponen a la AI pensando que tal herramienta perjudica la memoria, el pensamiento crítico y el conocimiento profundo, creo que se colocan en el lado equivocado de la historia, la IA ayudara al intelecto humano en el futuro como el texto le ha ayudado en el pasado.

    • Gorki - 18 octubre 2025 - 23:07

      Copio de la respuesta a este tema de la AI
      Sócrates temía que la escritura creara la «apariencia de sabiduría sin la sustancia». Argumentaba que la gente confiaría en los textos escritos para recordar y no se esforzaría por alcanzar una comprensión profunda y memorizada del conocimiento.

      Muchos sostienen hoy que las herramientas de IA generativa pueden producir textos, imágenes o códigos que dan una impresión de conocimiento sin que el usuario haya hecho el esfuerzo cognitivo de aprender y entender el tema a fondo. Se teme que esto fomente la «deuda cognitiva» y el pensamiento superficial.

      Debilitamiento de la memoria

      Sócrates sostenía que la escritura haría que la gente «dejara de ejercitar su memoria» al apoyarse en un medio externo para el recuerdo. De forma similar, se ha señalado que el uso excesivo de la IA puede debilitar la memoria humana y otras capacidades cognitivas, ya que delegamos tareas de recuperación de información y procesamiento de datos en una herramienta externa.

      Para Sócrates, un texto escrito es estático y no puede defenderse, explicar un punto ni adaptarse al interlocutor, a diferencia del diálogo vivo. Aunque la IA generativa puede participar en un intercambio que se asemeja a un diálogo, su naturaleza es fundamentalmente diferente. Funciona mediante correlaciones estadísticas de datos, no con una comprensión del mundo real o una experiencia humana. El conocimiento que produce carece de la profundidad y el contexto que provienen de la interacción genuina y la experiencia personal.

      Irónicamente, las críticas de Sócrates a la escritura solo se conocen gracias a que su discípulo Platón las puso por escrito. La escritura, que Sócrates consideraba una amenaza, se convirtió en el medio para preservar y difundir su filosofía.De manera similar, algunos señalan la ironía de usar la IA para debatir sus propias limitaciones, o de intelectuales que usan herramientas digitales y de escritura (que Sócrates criticaba) para lamentar el avance de la IA. La IA, al igual que la escritura, podría ser una herramienta que cambie la forma en que pensamos, en lugar de destruirla.

      Aunque el paralelismo es interesante, hay diferencias importantes, la escritura es una herramienta pasiva, mientras que la IA es una herramienta activa que puede generar contenido de forma autónoma. La IA procesa, genera y difunde información a una escala y velocidad que la escritura nunca podría alcanzar, magnificando los riesgos y beneficios potenciales.

      La IA, por su naturaleza, se ha presentado como un simulacro de inteligencia, lo que genera una confusión sobre el verdadero significado de comprender y pensar.
      En conclusión, la historia muestra que el surgimiento de nuevas tecnologías que externalizan las capacidades humanas —ya sea la memoria en la escritura o el procesamiento cognitivo en la IA— genera temores similares. Estos debates a menudo oscilan entre la valoración de lo tradicional y la aceptación de lo nuevo, forzándonos a redefinir qué significa ser inteligente, creativo y humano.

      • Buzzword - 19 octubre 2025 - 10:09
        • Alqvimista - 19 octubre 2025 - 12:15

          Esto es un buen ejemplo de lo que digo. ¿Para qué preguntar a la IA algo para aprender algún dato que desconocemos y luego escribir un comentario cuando es mejor copiar y pegar lo que la IA me ha dicho?

  • #011
    PPPerez - 19 octubre 2025 - 00:00

    Si lees solo las negritas (las preguntas) de la entrevista (sin leer las respuestas de E. Dans) la impresión que a mí me da es que Ana Merodio le pidió a una IA que le generara las preguntas para la entrevista… porque se les ve un sesgo rancio-rancio-rancio de cojones!!!

    • Buzzword - 19 octubre 2025 - 10:39

      Es un reportaje de una revista que tiene unas fotos de mansiones cojonudas. Esas casas que salen cuando sus dueños las quieren vender.

      Según la IA de google:

      «¡HOLA! vuelve a liderar el ranking de medios Brand Media con una audiencia mensual de casi 13 millones
      HOLA.com continúa encabezando los medios digitales femeninos con 9.775.000 usuarios únicos en Comscore España y más de 20 millones de audiencia mundial, según Google Analytics »

      La empresa de la que trata el artículo, trata de vender un producto cuyo target son estudiantes de secundaria( de España Y Latam) que pueden beneficiarse de una asistencia con IA, que seguramente salga al mercado con un tarifa tipo Netflix. Pero quien realmente va a pagar esa módica tarifa es la familia de esa criatura.

      Seguimos con la IA de Google:

      «El precio medio de los colegios de secundaria privados en España puede oscilar entre 400 y 1.200 euros al mes, con variaciones significativas según el tipo de centro, la oferta educativa, las instalaciones y la ubicación»

      Cuando el alumno «Pepote» llega a su hogar con las notas, esa madre cuya lectura es el «Hola», ¿le parecerá caro el aportar unos 20€ mensuales adicionales a la formación de su vástgo? Mi opinión es que no, se lo dice su revista de confianza, y además hay un reportaje de un experto en innovación educativa, la revista Hola no les iba a colar un pluf, que además es una entrevista y no es un publireportaje. En nada se parece al artículo de los «8 días de Oro» que ese si tiene referencias directas a compras («Estos productos han sido seleccionados en base a los análisis y pruebas de nuestros expertos. Cuando compras a través de nuestros enlaces, ¡HOLA! puede recibir una comisión.»)

      Mi opinión:

      Lo que me parece mal es que no hayan puesto un enlace a la herramienta de la que habla Enrique, esa madre que lee el Hola, tendrá serios problemas en encontrarlo. Incluso aquí con comentaristas expertos, lo de buscar en google a veces se les atraganta… una pobre madre solo muy acostumbrada con sus lecturas de famosos… ya te digo…

      Y me parece un acierto atacar el problema de «Pepote» donde más le duele llegando a su madre, para que le obligue a estudiar. Ya no valdrá el típico «El profe me tiene manía», anda que Tau no tiene paciencia. O «el perro me ha comido los deberes»… Un 10 al equipo de marketing. Pero deberiáis haber hablado con la posición en la web que es muy poco visible (dar un incentivo a Hola? para aparecer más arriba, como en idealista… que el que más paga sale el primero…) Es una pena no ser un anuncio pagado. Para una herramienta tan buena y priman los calendarios de adviento.

      • Gorki - 19 octubre 2025 - 11:12

        Si hemos conseguido que 9.775.000 mujeres según Comscore España les parezca barato aportar unos 20€ mensuales adicionales a la formación de su vástago, hemos alcanzado una población de una riqueza inesperada.

        • Buzzword - 19 octubre 2025 - 13:55

          ¿Tu no habias sido comercial? Una cosa es que te dirijas a ese segmento y otro el porcentaje de ventas que consigas…

          Mira te lo explica una IAAA!

          «Un funnel (o embudo) de ventas es el proceso que sigue un cliente potencial desde que conoce una marca hasta que realiza una compra, y las ventas conseguidas son el resultado final de este proceso, es decir, los clientes que han pasado por todas las etapas hasta convertirse en compradores. El funnel ayuda a visualizar y optimizar las etapas de atracción de leads, calificación del contacto y cierre de la venta, permitiendo identificar fallos y mejorar las conversiones para conseguir más ventas. »

          Lo que se hace con este tipo de estrategias.. (publi) es calentar la puerta fria…

          PS: Cada vez que comentas demuestras algo que no sabriamos sino opinaras…

          • Gorki - 19 octubre 2025 - 21:53

            Si porque una mujer lea el HOLA, piensas que es de clase alta, no tienes ni idea de lo que les interesa a las mujeres económicamente humildes. Cuando era de papel, el HOLA estaba en todas las peluquerias, desde las que habia de lujo hasta las que habia en las barriadas mas populares.

  • #016
    Asamoraga - 22 octubre 2025 - 12:34

    Cuando en este país se decidió que los colegios públicos fueran bilingües, en mi opinión, nos encontramos con que parte del profesorado no estaba lo suficientemente preparado para transmitir un aprendizaje con un mínimo de calidad. Ahora puede que pase algo parecido. Lo primero sería formar al profesorado en IA, y una vez hecho esto, implantarla en las aulas de forma progresiva. Incluso crear la asignatura de ‘Inteligencia Artificial’ no puntuable, aunque sea una hora por semana. En fin, nuevos tiempos, nuevos retos.

Dejar un Comentario a Guillermo

Los comentarios están cerrados

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.