Cuando copiar es racional: lo que la inteligencia artificial deja al descubierto en la educación

IMAGE: A teenage student sits at a desk in a dimly lit classroom, writing in a notebook while looking at a smartphone, as a glowing humanoid robot stands beside him and digital screens display data and the word “cheating” under a magnifying glass, symbolizing the tension between artificial intelligence, learning, and academic integrity

En los últimos días se ha vuelto a encender la alarma: adolescentes que perciben que el uso de chatbots para copiar en trabajos y ejercicios es lo habitual en su instituto. El dato, tomado como titular, suena a una especie de apocalipsis moral y tecnológico de esos a los que estamos tan acostumbrados y que gustan tanto a algunos.

Pero si uno se toma la molestia de leer el estudio en su fuente original, lo que aparece no es tanto un retrato inquietante de la inteligencia artificial o de «los jóvenes de hoy», sino un espejo bastante incómodo del sistema educativo: uno en el que demasiadas tareas se han diseñado para ser completadas como quien rellena un formulario burocrático, no para ser comprendidas o para enseñar nada, y en el que la evaluación sigue premiando el resultado visible y el haber «completado la lista de puntos» mucho antes que el aprendizaje real.

El informe de Pew Research Center es claro en una cosa: los chatbots están ya completamente integrados en el día a día escolar. Un 64% de los adolescentes dice haber usado chatbots, y el uso para «ayuda con el trabajo escolar» aparece en la parte alta de la lista (54%). También es relevante que la percepción de «hacer trampas» sea más alta entre quienes ya han usado chatbots para tareas escolares: cuando se normaliza la herramienta, se normaliza también la conversación y el cinismo sobre sus usos. El problema es confundir «hay herramienta» con «hay decadencia»: la herramienta solo hace más visible una tensión muy, muy antigua. Un desajuste en el objetivo del aprendizaje que viene desde el A.G. (el Antes de Google), o posiblemente de mucho antes.

Porque la trampa, conviene recordarlo, no la inventó nadie en Silicon Valley. Hay evidencia de que las cifras globales de conductas de copia y plagio pueden no haberse disparado especialmente con la llegada de ChatGPT: lo que cambia es el método, la facilidad y, sobre todo, la detectabilidad. Ese matiz es fundamental: cuando una práctica era ya estructural, la innovación no crea el fenómeno, solo lo abarata y lo democratiza. Un artículo lo resume bien: la inteligencia artificial está alterando la forma, no necesariamente la cantidad, y la «angustia generacional» nos está llevando a buscar culpables simples.

El relato moralista suele fallar: poner el foco en «los adolescentes tramposos» es cómodo, porque evita la pregunta difícil. ¿Qué tipo de tareas estamos asignando cuando una parte significativa del alumnado percibe que «usar un chatbot» es una vía razonable para sobrevivir académicamente? ¿Cuánto de ese trabajo es realmente pensamiento, y cuánto es burocracia escolar, relleno, repetición, o simple demostración de que has «hecho algo»? Cuando el sistema mide con obsesión la entrega, el alumno optimiza la entrega. Es lo racional, literalmente.

Además, la frontera entre «ayuda» y «trampa» es cada vez más borrosa, y no por culpa de los estudiantes. Si un chatbot te ayuda a entender bien un concepto porque te lo explica de maneras diferentes o más adaptadas a tu aprendizaje, a practicar ejercicios cuando quieras, a comprobar y entender un resultado de un examen o a mejorar la claridad de un texto, ¿estamos ante un aprendizaje asistido o ante una sustitución del esfuerzo? ¿Por qué tiene que ser necesariamente malo? Incluso entre docentes no hay consenso, y esa inconsistencia genera el caldo de cultivo perfecto: reglas confusas, sanciones arbitrarias, y una desconfianza que se come la relación educativa. La discusión sobre definiciones y la necesidad de consistencia aparece con fuerza en trabajos recientes centrados en integridad académica en la era de la inteligencia artificial.

La reacción típica de muchas instituciones ha sido correr hacia la vigilancia: detectores de inteligencia artificial, políticas punitivas, «caza de brujas» algorítmica. Y eso abre otra grieta: la equidad. Si los detectores se equivocan, ¿a quién castigan primero? Hay investigación que alerta de errores enormemente habituales y de sesgos contra escritores no nativos en inglés en herramientas de detección, un riesgo que, traducido a aulas diversas, se convierte en un problema serio de justicia educativa. Si paso una de esas herramientas a mis artículos, me dice que algunos de ellos están escritos por un chatbot… ¿a quién protesto cuando sé positivamente que no es así y que han salido de mi cerebro, de mis manos y de mi teclado? Como para fiarse…

Mientras tanto, los grandes organismos que miran el sistema con perspectiva dicen algo bastante sensato: no se trata de prohibir por defecto o por reflejo, sino de rediseñar. UNESCO, en su guía sobre inteligencia artificial generativa en educación e investigación, insiste en que hay un vacío regulatorio y una falta de preparación institucional, y que la respuesta debe ser humana, pedagógica y de capacidad: políticas, competencias, y marcos de uso responsables. La OCDE, en su Digital Education Outlook 2026, va en una línea parecida: la inteligencia artificial generativa se está usando «fuera del control institucional» por su accesibilidad y versatilidad, y el reto es crear principios docentes claros para que el efecto sea apoyo al aprendizaje y no atajo permanente.

Y aquí llegamos al centro del tema: si un chatbot puede completar con solvencia una tarea, quizá la pregunta no sea «¿cómo lo impido?», sino «¿qué estoy evaluando exactamente? Si evalúo memoria a corto plazo, la inteligencia artificial la pulveriza. Si evalúo síntesis superficial, también. Si evalúo producción textual estándar, igual. La inteligencia artificial está forzando, por fin, una conversación que llevamos décadas evitando: la necesidad de movernos hacia evaluaciones auténticas, procesos, trabajos, defensa oral, proyectos iterativos, trabajo con fuentes, reflexión sobre decisiones, y contextos donde el alumno tenga que mostrar criterio, no sólo un simple output. El problema no es que el alumno «use» una herramienta, sino que el sistema siga fingiendo que aprender es entregar un producto final sin ninguna trazabilidad.

Los datos también apuntan a otra realidad incómoda: la política y la formación van por detrás del uso. RAND, en un informe reciente, describe precisamente ese desfase: adopción creciente entre estudiantes y educadores, mientras las guías, el entrenamiento y las políticas se van quedando atrás. Cuando una tecnología entra masivamente y la institución responde tarde y mal, no es sorprendente que el uso derive en zonas grises, oportunismo o directamente trampa.

La tentación de culpar a la inteligencia artificial es grande porque parece un enemigo externo. Pero el enemigo, si queremos llamarlo así, es la inercia de un modelo educativo que confunde obediencia con aprendizaje, y que convierte el tiempo del alumno en un recurso a consumir, no en una experiencia a construir. Cero personalización, educación en cadena, en serie, con desprecio absoluto a la individualidad (es más, se tiende a tratar de machacarla, a «normalizar»). La inteligencia artificial, como antes la calculadora o internet, nos obliga a decidir qué habilidades tienen valor humano: formular buenas preguntas, verificar, argumentar, conectar ideas, saber preguntar, crear, colaborar, y entender límites y sesgos de las herramientas. Si seguimos evaluando como si el mundo fuese analógico, el alumnado seguirá comportándose como si el sistema fuese un juego al que hay que ganar. Si las notas son la única métrica, deberíamos saber que cuando una métrica se convierte en objetivo, deja de ser una buena métrica.

Y sí, por supuesto, habrá quien use chatbots para «hacerlo todo». Pero incluso eso, más que un defecto moral de una generación, es un síntoma: presión, sobrecarga, falta de sentido, tareas irrelevantes, y una cultura de calificaciones que premia la apariencia. El estudio de Pew ofrece números, pero nuestra obligación es leerlos como diagnóstico del sistema. Quizá el verdadero escándalo no sea que los adolescentes usen inteligencia artificial para hacer sus tareas, sino que el sistema educativo siga empeñado en evaluar como si la inteligencia, natural o artificial, no hubiese cambiado para siempre.

6 comentarios

  • #001
    Sergio Espósito - 1 marzo 2026 - 13:05

    Antes de la irrupción de la inteligencia artificial existía El Rincón del Vago, así que el problema no es nuevo. Y prácticamente no se ha hecho nada efectivo para combatirlo.

    Hace falta mucha más evaluación oral

    Responder
  • #002
    JM - 1 marzo 2026 - 16:42

    Ahora que mis hijos son un poco más mayores estoy viendo que se les requiere aprender temas de memoria sin que importe realmente que los entiendan igual que cuando yo era un niño.

    Por mi parte yo los repaso con ellos y se los explico de forma que realmente los entiendan. Ellos no tendrían problema en memorizar temas porque tienen buena memoria, pero me parece una perdida de tiempo. Prefiero que no saquen un sobresaliente pero que se enteren de lo que estudian.

    Por otra parte: ¿alguien conoce algún texto, video o lo que sea para poder enseñar a mis hijos a usar LLM para estudiar?

    Responder
    • Alqvimista - 1 marzo 2026 - 17:41

      ¿Te refieres a algo como esto?

      https://www.enriquedans.com/2025/09/turingdream-y-la-oportunidad-de-transformar-la-educacion.html

      Responder
      • Enrique Dans - 1 marzo 2026 - 17:53

        Es una primera aproximación, un MVP. Ya verás lo que viene…

        Responder
        • Alqvimista - 1 marzo 2026 - 18:26

          ¡Ay Jesús! :-O
          Vosotros hacerlo extensivo para estudiar oposiciones y arrasáis. XD

          Responder
  • #006
    Benji - 1 marzo 2026 - 19:51

    Lo gracioso es ver a varios padres de Gen Z que a sus hijos (alpha) no les dejan tener móvil ni mucho menos acceso a internet, con lo cual la LLM les suena a chino.

    Será interesante observar la dicotomía entre los padres que quieren volver a la educación «a la antigua» (sea lo que sea eso, cambia según los padres) y los que le dan un móvil desde los 4 años para que los entretenga y les «resuelva la vida» («preguntale a Gemini, no me molestes»)

    Parece como que falta algo en medio, ¿no?

    Responder

Dejar un Comentario a Sergio Espósito

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.