Desde que, tras el lanzamiento de ChatGPT en noviembre de 2022, los chatbots basados en inteligencia artificial generativa empezaron a estar disponibles para el gran público, me ha fascinado la forma en que los directivos se aproximan a su uso habitual.
Obviamente, el hecho de estar en contacto con numerosos directivos a través de la plataforma que, a varios niveles, supone mi trabajo en IE University – desde universitarios sin experiencia hasta MBAs con media de treinta años y varios de experiencia profesional, o alumnos de cursos de alta dirección – permite que pueda aproximarme de manera bastante razonable y completa a esta cuestión.
Tras una primera fase absurda en la que muchas instituciones educativas (nunca el IE) optaron por aproximaciones restrictivas, mis planteamientos sobre cómo gestionar esa cuestión se han mantenido bastante constantes: pedir a mis alumnos, independientemente de su nivel, que utilicen todo tipo de herramientas basadas en inteligencia artificial generativa para todo tipo de ejercicios y en todo momento, con la seguridad de que yo no voy a penalizarles por ese uso, pero pidiendo transparencia a la hora de decirme cómo lo han hecho. Básicamente, lo que les pido es que usen lo que quieran, pero que compartan conmigo cómo lo han utilizado, añadiendo como referencia el enlace a el o los prompts que hayan usado para obtener las respuestas.
La experiencia está siendo interesantísima, porque lejos de optar por un uso simplista de «pego la pregunta, obtengo una respuesta, la copio y la pego en el trabajo», lo que hacen es aproximaciones a su uso sumamente sofisticadas, en las que tienden a plantear numerosas restricciones, pero también a llevar a cabo revisiones bastante pormenorizadas y profundas de la información recibida. Al tener disponible para mi evaluación tanto el prompt y la respuesta original de los algoritmos, como el trabajo final entregado por los alumnos, puedo apreciar el trabajo de supervisión llevado a cabo sobre esa respuesta original, que tiende a incluir fuentes adicionales obtenidas por otros medios, en lo que supone una tarea de co-diseño en el que el trabajo del asistente es, fundamentalmente, gestionar grandes cantidades de información a modo de motor de búsqueda, dotado de mayor capacidad de estructuración.
No tengo en ningún caso la impresión de que invitar a mis estudiantes a utilizar toda la tecnología a su disposición de manera completamente transparente esté en modo alguno perjudicando su aprendizaje: más bien todo lo contrario. Encuentro una mayor variedad de argumentaciones, habitualmente planteadas de formas más realistas, y en muchos casos también, usos de las herramientas para cuestiones secundarias, como la corrección de errores tipográficos o gramaticales, que eran muy habituales al ser mis clases íntegramente en inglés y ser ese idioma la segunda lengua para muchos de mis estudiantes, que provienen literalmente de todo el mundo.
Mi impresión es, por tanto, coincidiendo con el artículo que enlazo en el primer párrafo, que utilizan asistentes basados en inteligencia artificial generativa de dos formas fundamentales: como ejecutor (ayudando con la escritura, resumen, codificación, traducción y recuperación de información) y como asistente para reflexiones (para generar ideas, resolver problemas o desafiar ideas que podrían ser, en muchos casos, arriesgadas, habituales en un curso de tecnología e innovación como el mío). Experimentan con la inteligencia artificial generativa en una amplia gama de tareas, desarrollando con ello gradualmente nuevas capacidades. También demuestran un buen nivel de conciencia de las limitaciones y los riesgos de la inteligencia artificial generativa, utilizando prácticas apropiadas, como proporcionar la información contextual necesaria a la IA, adoptar una mentalidad conversacional o ejercer un juicio crítico para evitar depender demasiado de la tecnología. Es raro que me encuentre con respuestas que contengan las mal llamadas «alucinaciones» o cuestiones obviamente absurdas, lo que indica que la idea de multiplicar el tiempo de supervisión tiende a desarrollarse, como una forma de sentido común.
También es curioso pensar que tras una primera era en la que los directivos pedían generalmente a personal administrativo que llevase a cabo tareas como teclear textos o preparar presentaciones, pasásemos a otra en la que los directivos tendían a encargarse cada vez más de esas tareas ellos mismos. Ahora, sin embargo, van volviendo a encargárselo a un tercero, solo que ahora ese tercero es un asistente de inteligencia artificial generativa. Desde el punto de vista de aprendizaje y educación, veo escasos problemas derivados de ello, y sí ventajas provenientes de desarrollar una mayor soltura en el manejo habitual de herramientas avanzadas. Y de cara a su futuro tras salir al mercado de trabajo, francamente, tampoco.
¿Se debe lo positivo de mi experiencia al nivel en el que desarrollo mi trabajo como profesor o al tipo de asignaturas que imparto, o puede ser generalizable también a otros niveles? ¿Experiencias? ¿Impresiones?
This article is also available in English on my Medium page, «Managers are using AI assistants more, and that’s a good thing«
Excelente, lo mismo le digo a mis estudiantes, las oportunidades de aprendizaje más rico y complejo que propicia la IA generativa es un tesoro que no tuvimos las generaciones pasadas, pero es directamente proporcional a la responsabilidad ética de su uso y aplicaciones. Un nuevo mundo de gente más brillante, con razonamientos más profundos desde el aprendizaje complejo que requiere que los docentes sean usuarios expertos de las IA generativas
Precisamente hoy estaba ayudando a un compañero con la redacción de su TFG. Le sugerí que lo mejor sería crear un GPT alimentado con la estructura específica del TFG, tal como lo exige la UOC, y algunos ejemplos de trabajos previos de otros alumnos, para que la herramienta tuviera suficiente contexto y pudiera realmente ayudarle. El enfoque que le propuse fue utilizar la IA como un asistente: para redactar, organizar, estructurar y sintetizar sus propias pruebas y trabajos previos, no para que lo hiciera todo por él. Se trata de utilizarla como una herramienta de apoyo, pero manteniendo siempre el control y la supervisión sobre el trabajo final.
Una parte fundamental de este proceso, como le comentaba a mi compañero, es tener la capacidad de dar las instrucciones necesarias y proporcionar la información adecuada a la inteligencia artificial para que esta genere lo que realmente deseas.
La clave es: saber comunicarse con la IA, darle el contexto correcto y, luego, revisar concienzudamente lo que genera, haciendo las preguntas necesarias para validar la información.
Este es, en mi opinión, el planteamiento adecuado “hoy en día”. En el futuro, quizá lleguemos a confiar tanto en las IA, gracias a su evolución y uso continuado, que dejemos de supervisar tanto, y en lugar de un asistente, se convierta en un verdadero compañero al que deleguemos ciertas tareas al 100%
Creo que un ambiente académico es el perfecto para practicar bien con el uso de IAs. A mi me da que un gran problema que ya pasa con su uso es que muchos esperan que el resultado de lo que buscan lo consigan con poco esfuerzo y poco tiempo (escribe unos prompts y listo). Otro es la ansiedad por la inmediatez, con plazos de entrega que sin duda se recortarán con un uso normalizado de IAs.
En mi campo han habido continuos avances tecnológicos que facilitaron enormemente el trabajo, pero aún así no se ha traducido en que estemos menos estresados y el trabajo sea siempre de mayor calidad. Más bien se ha centrado todo en hacerlo cada vez más barato, que por muy comprensible que sea, no debería ser el único propósito de una empresa.
Y es que he tenido clases donde me enseñaron las mejores maneras de hacer mi trabajo, pero luego en la realidad del mercado laboral o las ignoraban por prisas, o directamente las desconocían.
Ten la mejor tecnología disponible, que si al final està supeditada a las pobres decisiones del humano de turno…
ChatGPT no tiene ningun valor académico, aunque sea una tecnología de moda, ya que precisamente lo que hace es suplantar las cualidades que se le requieren a un profesional cualificado.
El proceso de formación consiste en dotar de las aptitudes y destrezas necesarias para el desempeño competente y autónomo, no asistido, de una profesión.
Es una muestra más de analfabetismo digital, y de subcualificación académica. De crear incompetentes.
Supongo, que en el currículum añadirán amplias competencias en el uso de ChatGPT para desempeñar tareas directivas y de liderazgo.
Hace ya tiempo que en las empresas de Silicon Valley se ha denostado el prompt engineering como recurso laboral.
AI Prompt Engineering Isn’t the Future –
Harvard Business Review
Las competencias psicologicas y cognitivas para la formulación y análisis de problemas complejos no tienen nada que ver con la elaboración de promts, que son recetas, breviarios reducidos, para esbozar someramente algo a un bot.
Pierdes por completo la capacidad de análisis, abstracción y desarrollo de una idea en favor de un conjunto de palabras clave para ese algoritmo.
Y estamos hablando de un único y primitivo bot generativo. Sin entender su funcionamiento o bases teóricas de ese algoritmo. O sea nada, una máquina expendedora de tabaco.
Es como tocar el piano con las teclas pintadas, sin entender la música o leer las partituras. Una manera de vender cursillos.
Pero igual en Harvard no saben de qué están hablando.
–
¿Prompt Engineer?… Mejor no lo pongas en tu curriculum
The Rise and Fall of Prompt Engineering: Fad or Future?
¿El fin de los ‘prompt engineering’?
«La experiencia está siendo interesantísima…» (EDans).
Dicen que la experiencia es la madre de la ciencia, así que me alegro te resulte un experimento científico con final interesante… es una de la «pegas» de la ciencia… como decía un experto en cuántica hace días, corres el riesgo de entusiasmarte y luego empiezas a pedirle peras al olmo.
En un principio fue la pizarra, pero estaba muy limitada, incluso para llevarla a casa con tareas de la escuela.
Luego vino la libreta, un artilugio más complejo, pero que obligaba a revisar con atención, sobre todo si se llevaba a casa, ya que podían hacerle otros las tareas pendientes. Esto obligaba al profesional docente a esmerar sus destrezas de corrección, no solo de lo hecho sino del «como». Sus técnicas hay… pero requiere un trabajo al que es alérgica buena parte del profesorado. Mucho hacer trabajar la libreta, pero luego no se le hacía puto caso. ¡Y eso le encantaba al alumnado!
Pero bueno, los políticos de ahora han descubierto el mediterráneo de no valorar una libreta para la evaluación, así que ya le dieron la razón al profesorado más trabajador, y, por supuesto, al alumnado… por lo menos ahora ya no hay tanta hipocresía. De ESTO me enteré el otro día, hablando con docentes en activo…
Y no sigo, pero podíamos hablar de pequeños trabajos de investigación, cuando apareció el ordenador y ¡Oh, Dios mío!, que «copian y pegan»… como si no se tuviera que enseñar a hacerlo como es debido (tú hablas un poco de ESO, al referirte a trabajar con la IA, POR MEDIO de la IH!!). Y al menos ya pasaba la vista sobre el texto a copiar… aunque había los que lo hacían para varios!!!
Y antes de la IA, vino el trabajar con presentaciones. Para lo cual, no estaba preparado el profesorado. Y luego vinieron los blogs (para trabajar en el aula)… entonces fue ya la Intemerata!!!
Y pobre del profesorado, cuando apareció el aula virtual…
Lo que más me gusta de estar jubilata, es no tener que aguantar la pelea diaria con los energúmenos del Claustro, contrarios a usar la tecnología punta en un centro escolar. Hubo un tiempo en que te miraban mal por usar diapositivas… Menos mal, que, por lo menos, nos queda Portugal…
Creo que los GPT desde un punto de vista académico son algo que no se le debería en general perder mucho el tiempo en hablar de ellos.
Que puedan ayudar en ciertas tareas no creativas es totalmente cierto, como por ejemplo le pasas un texto y repasar la redacción, sobre todo en inglés.
Para aprender un tema de forma superficial, son aproximaciones similares a un Wikipedia, y pueden tener la utilidad de ir al grano. Muchas veces divagan, y son menos útiles que ir a una fuente más solvente
En el tema ayudarte a programar, si sabes lo que quieres te pueden ahorrar tiempo, pero abordar una codificación con ellos es una pesadilla. A veces perdirles snippets para una tarea, bueno… pero poco más hacen.
Pero lo de arriba, no es aprender, si yo me apunto a una clase y me recomiendan chatgpt o wikipedia, es señal que esa enseñanza no es mediocre,
… pero de ahí a preguntarse que como lo usan los directivos o que si tiene valor académico es como decir que el chorizo mejora la paella.. No Jimmy, no, por muy cocinero famoso que seas eres un gañan!!
Perdón… He borrado un trozo:
«esa enseñanza no es mediocre, es lo siguiente…»
Hasta ahora, en mi sector (instalaciones, equipamientos y energía en sectores residencial, terciario e industrial), le he encontrado algunos principales posibles usos con problemas no resueltos:
1.- Conocimiento del sector: si no le hago una exposición de una situación concreta de mercado previa a mi pregunta es incapaz no solo de acertar sobre si el mercado crece o decrece, sino las razones. Gemini proporciona resultados más acertados con menos información, ChatGPT algo más de análisis si le das información y le cierras el análisis, y Preplexity ni está ni se le espera. Resultado: para industrias con elevada información en la red o que no tengan mucho ruido mediático quizás pueda sacarse partido, para el resto definitivamente no.
2.- Eso hace que me surjan muchas dudas a la hora de usarlo como «asistente» en textos o comunicaciones, ya que el ahorro de tiempo y esfuerzo por ahora no compensa
3.- Privacidad de datos: no puedes dar «tus datos» si no es un servicio aprobado por tu empresa, y por lo tanto no puedes usar asistentes más especializados para probar cosas
4.- Usamos Salesforce, y poco a poco estoy viendo nuevas funcionalidades sin asistente. Espero a lo largo de 2025 poder verlas con él
Yendo al punto 3, totalmente de acuerdo con tu empresa….
Para hacerlo privado se necesita al menos un entorno como el siguiente
a) Un PC con GPU
b) Instalar Ollama
c) Instalar uno de sus modelos
El que mejor resultado da en 7B
es Llama3.1 en inglés. En español es menos eficaz
d) Instalar AnythingLLM
Con eso consigues un LLM muy básico, nivel 3.5 que puede hacer lo siguiente:
a) Adjuntar un texto, video u URL
b) Jugar a que hacer resumenes
c) Jugar a que se le puede preguntar
sobre el texto
d) Parafrasear textos
e) Preguntas generales, estilo gpt
f) Pedirle snippets
g) En traducciones offline también básicas ayuda
Los resultados están por debajo de ChatGPT, Claude, Gemini, pero no tan lejos. Y son todos privados en tu PC, eso si.
Problema: ¿merece la pena montar un escenario como el anterior para el resultado? Sinceramente no. Para «aprender a jugar con LLM» depende de cada uno… A otros les gusta todo el día un videojuego, a mi me divierte más cacharrear…
Excelente artículo, Enrique. Doy fe con la experiencia de mis dos hijos. El menor, Ian, terminó cuarto y quinto años de Colegio Secundario con 10 en todas las materias (y haciéndose acreedor al derecho de portar la Bandera de nuestro país) gracias al CHATGPT gratuito. Eso sí, en Educación Física (algo que ningún bot puede hacer por él) sus calificaciones no fueron muy buenas. Mi hijo mayor, Augusto, actualmente Profesor de Comunicación Política de la UNNE, tuvo que tomar la triste decisión (junto a otros profesores) de no permitir más exámenes escritos a sus alumnos, ya que es casi imposible saber si lo escribió el alumno o un robot. Ergo, en la Facultad de Humanidades de la UNNE, solamente se rinden exámenes orales. Y en breve, dicha restricción se extenderá a otras carreras, como Medicina, Bioquímica, Arquitectura, etc. ¿ Consideras a eso un «Marcha Atrás» en el proceso de aprendizaje ?
¿Experiencias? ¿Impresiones?
Ya no podría prescindir del uso de Perplexity.
Es un buscador con I.A. no una I.A. generativa, además cita sus fuentes.
Es increíble el tiempo que me hace ganar para toda clase de trabajo, o de simple curiosidad personal.
Hola Enrique, una pregunta sobre cómo referenciar las búsquedas y el uso de IA en la generación de informes (e.g. en clase).
Les das un estandard a tus estudiantes de cómo referenciar el uso de IA en sus informes (e.g. algo como indica APA en el link de abajo? o les dejan que ellos eligan la forma de referenciarlo? Cuál es tu experiencia al respecto.
https://apastyle.apa.org/blog/how-to-cite-chatgpt
Gracias y un saludo,
Yo no me complico y les pido directamente que me compartan el enlace al chat como referencia…
Gracias