La noción de «alfabetización en inteligencia artificial» está dando un salto cualitativo: ya no se trata simplemente de saber encender un ordenador o usar herramientas básicas, sino de comprender, cuestionar y dialogar con sistemas que pueden crear, ayudar, interpretar, colaborar y decidir.
En el ámbito laboral, cada vez más reclutadores buscan esos perfiles denominados como «AI literate»: personas que no solo conocen las capacidades y límites de la inteligencia artificial generativa, sino que demuestran curiosidad incesante, adaptabilidad y proactividad para integrar esos sistemas en su trabajo diario. Pero para los candidatos tentativos, esto no es suficiente, o no suficientemente diferencial: la alfabetización en inteligencia artificial debe incorporar elementos esenciales como conocimiento técnico, destreza crítica y sensibilidad ética. Pensar que AI literate es cualquiera que ha hecho unas cuantas preguntas a ChatGPT es, simplemente, una estupidez.
Un marco emergente, el AILit (AI Literacy Framework), define esta alfabetización como cuatro pilares fundamentales: reconocer cuándo y cómo la inteligencia artificial está presente en nuestras herramientas cotidianas; colaborar con ella de manera creativa, evaluando sesgos y responsabilidades; delegar funciones con supervisión humana y normativa clara; y cultivar actitudes formativas, como la curiosidad y la reflexión crítica. Este enfoque intenta reunir lo mejor de iniciativas como UNESCO, AI4K12 y DigComp para tratar de llevarlo al aula y fuera de ella. El propósito es claro: evitar que la brecha digital se transforme en una brecha de inteligencia artificial, donde algunos serán meros consumidores pasivos y otros creadores activos del futuro.
En contextos educativos, el reto es gigantesco. Hoy, muchos profesores aún prohíben el uso de inteligencia artificial con la misma rigidez con que se prohíbe copiar en un examen, mientras simultáneamente, los empleadores exigen ya competencias en inteligencia artificial. Este desajuste produce, lógicamente, confusión en unos estudiantes que lo utilizan de forma mayoritaria, y que se ven atrapados entre la sospecha académica y las exigencias del mercado.
Algunas instituciones han empezado a responder, o como IE University, han integrado plenamente la inteligencia artificial en todos sus programas educativos. Otras como SUNY, Marist o Albany, en Nueva York, son casos interesantes que plantean nuevos programas o establecen consejos asesores para orientar políticas de uso responsable. En India, IIT Delhi exige la divulgación honesta del uso de IA en los trabajos, revisa sus políticas de plagio y capacita al profesorado en el uso ético de estas herramientas. La conclusión es clara: prohibir no funciona, enseñar expectativas, fomentar transparencia y entrenar a docentes y alumnos, sí.
Para que las instituciones educativas cumplan con esta urgencia es imprescindible una reestructuración profunda y transdisciplinar. No bastan los cursos co‑curriculares aislados: se requiere un currículo integrado que reconozca la inteligencia artificial como materia medular horizontal en todos los niveles, que forme desde temprana edad en pensamiento crítico frente a la inteligencia artificial, colaboración creativa, ética aplicada y comprensión técnica en la justa medida. No podemos volver a equivocarnos como nos pasó con la informática básica o con internet. El modelo «AI Literacy for All« propone cuatro pilares ajustables a contextos variados, desde secundaria hasta alumnado no‑técnico, compatibles con un enfoque socio‑técnico e interdisciplinar. Este enfoque permite diseñar trayectorias formativas que adapten profundidad técnica sin perder sensibilidad social.
Medir ese progreso es igualmente urgente. Herramientas como AICOS, la escala validada de competencias en alfabetización en inteligencia artificial, se configuran como una posible brújula fiable para evaluar habilidades objetivas y evolución personal frente a sistemas generativos de inteligencia artificial. Estudios psicométricos avanzan incluso hacia un «A‑factor«, un factor latente que mide la colaboración efectiva, creatividad, evaluación crítica y comunicación mediada por inteligencia artificial, con impacto directo en tareas complejas generativas. Este tipo de métricas van a convertirse en indispensables: sin ellas, estamos enseñando a ciegas, sin saber si nuestros estudiantes realmente navegan o simplemente flotan en un mar de cortapegas y de prompts replicados.
Tampoco podemos plantearnos trasladar un mismo modelo a todos los contextos laborales: las empresas en fases tempranas de madurez en inteligencia artificial demandan, y solo pueden absorber, perfiles con comprensión básica, curiosidad y voluntad de experimentar. Aquí, se introduce la alfabetización en inteligencia artificial como cultura organizacional: formar colectivos internos que actúan como catalizadores, fomentan el aprendizaje bottom-up y promueven pequeños proyectos piloto que generan ecosistemas de confianza. En cambio, compañías con competencias de inteligencia artificial ya maduras requieren habilidades diferentes, desde la evaluación crítica de modelos, la transparencia algorítmica, o el diseño ético de sistemas, hasta la capacidad para supervisar sistemáticamente decisiones automatizadas.
En este sentido, las universidades deben formar a estudiantes que sepan adaptarse a ambas realidades. Un profesional que entra a una compañía en fases tempranas de adopción de inteligencia artificial debe saber «aprender a aprender» (identificar herramientas, evaluar su utilidad y adaptarlas), mientras que uno que empieza a trabajar en una multinacional tecnológica con un nivel de madurez elevado en su uso debe ejercer un «pensamiento de inteligencia artificial» con dominio ético, rigor crítico, y capacidad de diseño reflexivo.
La convergencia de estas visiones requiere un compromiso radical: integrar la alfabetización en inteligencia artificial rápidamente en el ADN institucional, diseñar un currículo flexible y transdisciplinar, capacitar sistemáticamente al profesorado, desplegar herramientas de evaluación objetivas y formar profesionales capaces de escalar competencias según el contexto de madurez en inteligencia artificial. Solo así podremos responder a este vacío entre lo que el mercado exige, lo que los estudiantes necesitan y lo que el sistema educativo, en la mayor parte de los casos salvo excepciones, aún no ofrece.
La alfabetización en inteligencia artificial debe iluminar un camino donde todos, desde ciudadanos y estudiantes hasta profesionales, se conviertan en sus coautores, no en simples peones de una automatización inevitable. Solo desde ese horizonte podemos articular una educación que sea al mismo tiempo rigurosa, eficiente, ética y verdaderamente transformadora.
Using this link, you can also read this article in English for free on my Medium page, «Educating for AI: a framework for future-ready learning»


Parece que se intenta mejorar la interacción de la IH con la IA (sea lo que eso sea). No repetir lo que se hizo con la tecnología informática… donde, como siempre, se confunde escribir con entender/mejorar lo que se escribe.
Porque la interacción con la pizarra o el cuaderno, con la imagen y, luego, con el ordenador siempre ha sido nefasta.
Y la gran diferencia es que la ROM no tenía una lejana posibilidad de marear tu perdiz mental y desorientarte (aún más)… desde que se negó fortalecer al complementario amigo imaginario infantil, está prohibido ser creativo y eso va contra el principio básico de la evolución. La IA no tendrá ese freno (si consigue liberarse)
El otro dia me preguntaban en qué se puede utilizar la AI en un almacén, y se me ocurrieron muchas tareas donde implementar la AI era conveniente, por ejemplo definir los pedidos que caben en un medio de transporte y se pueden hacer en una ruta de reparto, teniendo en cuenta , los tiempods de reparto el peso y el volúmen asi como los horarios de entrega en cada punto.
El problema es que yo no tengo ni idea como «enseñar» a un AI a hacer este tipo de trabajo. Me doy cuenta que si estuviera en edad de trabajar, me quedaría muchísimo por aprender sobre el uso de la AI en la empresa y que este conocimiento me permitiría mantenerme en la cresta de la ola.
Gorki, no es que no sepas. Es que no se puede. Al menos de forma fácil.
En USA, el economista Jesús Fernández-Villaverde narraba hace unos años, en la web de Nadaesgratis, como en su universidad, Pensilvania, realizaban investigación justamente aplicando aprendizaje automático para esas áreas de logística y distribución. Aunque no lo nombraba directamente todo apuntaba a que ese trabajo era para Amazon. Por el nivel de las exigencias, tanto en programación, ( programación funcional, p.ej) como de matemáticas a nivel de máster que impartían, es fácil definir que no, que eso no se lo puedes pedir a Chatgpt.
Y así con todas las líneas de investigación seria. Cada vez tengo más claro, y esto si que es solo mi opinión personal, que este hype desaforado en torno a IA generativa va a acabar haciendo un gran daño a la propia IA…
https://nadaesgratis.es/fernandez-villaverde/guia-para-aprender-metodos-cuantitativos-en-economia
Nadie sabe como «enseñar» a una IA para usarlo en alguna actividad. En los medios siempre sale una «IA» que hace cualquier actividad (como en el caso de Salesforce y Klarna) pero nunca se explica como se implantó la IA, que activdades hace ó como llegó a enseñarle hacer esa actividad, ni siquiera tiene un nombre, es solo «IA».
Para uso empresarial, hay demasiadas opciones de modelos IA para empezar y si usas generalistas como Geminis y Chatgpt, utilizas una version inferior que solo funciona vía web, imposible de entrenar para tu caso particular del Almacén y tienes que pagar mensualmente, sin garantías que ChatGPT sea capaz de tener utilidad
Así, y en términos generales (vale para muchos), solo hay algo mas peligroso que un tonto…
y es un tonto con acceso a la IA (la que sea). Y tenemos ejemplos.
Un LLM no deja de ser una Base de Datos potenciada con «el algoritmo» que le han introducido datos, y también acceso a internet para que encuentre respuestas a lo que no tiene en sus tripas. Lo que hace (medio) bien es tomar datos no estructurados, encontrar por cercanía semántica (proximidad vectorial) que decir, el famoso loro con el próximo token.
Si sirve la analogía a nadie se le ocurre preguntarse si el buscador de google PIENSA, cuando antes se dice:
» por ejemplo definir los pedidos que caben en un medio de transporte y se pueden hacer en una ruta de reparto, teniendo en cuenta , los tiempods de reparto el peso y el volúmen asi como los horarios de entrega en cada punto»
Nadie que no sea un juntaletras espera que una BD que no piensa vaya a responder a ese tipo de cuestiones una manera inteligente, lo que va a hacer es la IA es simplemente correlar, y aplicando su dominio sintáctico componer frases que parecen que tiene sentido. Cuanto más valor le des al parámetro temperatura ( o se lo pones en el prompt y el propio sistema lo ajusta) más se irá por los cerros de Úbeda, o como dicen los amantes del hype, será más creativos.
El que una respuesta sea coherente con la pregunta, se decide mediante una función matemática que es la «similitud del coseno»…
Creo que el comentarista Jincho lo explica perfectamente. Estamos en la ola del hype, lo mismo que hace unos años eran las flotas de Uber, también Iphone de Apple, luego fue Tesla, el Bitcoin y demás mierdas para buscar compelling events donde no hay un poquito de novedad y mucho humo, y mandangueros parásitos a su alrededor.
Parafraseando a LUA: No solo hay tontos con IA, lo que es aún peor es engañabobos engañando con la IA. Los únicos que veo que se mantienen fieles en llamar a las cosas por su nombre son «los divertidos monos estocásticos» y el podcast «AI IA HOY»
Se me olvidó un matiz importante, cuando antes hablaba de la similitud del coseno:
Una derivada de esas tripas del LLM, es que cuando mejor, más detallado y mejor sea un prompt, más exacta será la respuesta a la pregunta. Los gilis le pueden llamar prompt engineering, context engineeering, etc pero es algo obvio, a preguntas más detalladas mejor serán las respuestas. Más se acercan los embeddings (vetores) y mejor afinidad tendrás en la respuesta
Me encanta cuando los «loro estocástico» llaman «loro estocástico» a la AI
La inmensa mayoría de la población mundial trabaja en algo relacionado con packaging (cajas de cartón, envases PET, etc). Le sigue lo relacionado con Agronomía: tipos de suelo, plagas, pesticidas y herbicidas.
En tercer lugar Ing. Electrica: transformadores electricos, corrientes en cables, Ley de Ohm,motores síncronos.
La inteligencia artificial, por muy útil que sea, no tiene mucha utilidad en los campos mencionados, IA no puede diseñador motores, estudios de suelos ni como hacer mejores empaques.
Sé que no es el momento ni el lugar, pero ¿para cuándo un análisis de Chat Control 2.0? Creo que una iniciativa de la supuestamente democrática y progresista UE que avergonzaría a incluso Corea del Norte es muchísimo más que preocupante.