¿Usar inteligencia artificial generativa nos vuelve idiotas? No tan deprisa…

IMAGE: Grok

Un estudio recién publicado por un grupo de investigadores de Microsoft Research y Carnegie Mellon, titulado «The impact of generative AI on critical thinking: self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers« está siendo interpretado por algunas páginas no especialmente rigurosas como una supuesta evidencia de que, de alguna manera, el uso de inteligencia artificial generativa nos está volviendo idiotas.

Las conclusiones reales, por supuesto, no son así, y de hecho, varios de los artículos que extraen esa conclusión lo hacen citando un texto que, aunque aparece en el artículo, es en realidad una cita que el estudio hace de un estudio de Lisanne Bainbridge de 1983, mucho antes de que apareciese la inteligencia artificial generativa, buena prueba de que no siempre es sencillo leer e interpretar correctamente artículos académicos, y de que a muchos periodistas les gusta disparar desde la cintura cada vez que ven el menor atisbo de que algo corrobora las conclusiones que ya tenían.

La conclusión de que el uso de inteligencia artificial generativa puede poner en peligro el desarrollo del pensamiento crítico puede resultar tentador y fácil de extraer, sobre todo si has visto a tus alumnos utilizar mal esa tecnología simplemente dejando caer el ejercicio que les has puesto en la ventana de algún asistente e inmediatamente copiar los resultados y pegarlos en tu ejercicio sin el menor atisbo de razonamiento. Yo mismo me expresé en ese sentido hace no demasiado tiempo, pero lo hice, como hago habitualmente, resaltando que como ocurre con toda herramienta, la cuestión fundamental está en educar y entrenar su uso.

En los últimos tiempos, no hemos parado de oír hablar de herramientas que sirven para todo: desde escribirte el resumen perfecto de tu reunión con inversores hasta generarte la mejor estrategia de marketing para tu próximo trimestre o escribirte unas líneas de código. ¿La promesa? Un mundo en el que la productividad se dispara, se reduce la burocracia mental y todos podemos enfocarnos en lo realmente importante. Pero, ¿qué pasa con nuestra capacidad de pensar con criterio, de analizar, de desafiar y contrastar ideas, y de crecer como profesionales?

En efecto, el uso de este tipo de herramientas puede generar una peligrosa paradoja: nos encanta que nos faciliten la vida, pero a medida que confiamos ciegamente en ellas, podríamos perder algo esencial de nuestro bagaje profesional y experiencia. Confiar sin cuestionar, fiarse ciegamente de la máquina y, al final, quedarnos al borde de un precipicio cognitivo en el que lo más preciado, nuestra capacidad de criticar, analizar y pensar, se ve relegado a un segundo plano.

Para este estudio se entrevistó a profesionales de distintos sectores, todos ellos usuarios de herramientas de inteligencia artificial generativa en su día a día. La primera conclusión es clara: cuanta mayor confianza se deposita en la herramienta, menos estímulo tenemos para someterla a un escrutinio riguroso. Es decir, que si estamos convencidos de que la herramienta acierta siempre, tendemos a revisar el resultado cada vez menos y a tragarnos el resultado sin validación alguna. Por el contrario, quienes se consideran más seguros de sus propias habilidades, de su conocimiento del tema o del valor de su experiencia, terminan siendo más críticos y exigentes con la máquina, y someten sus respuestas a una supervisión y un examen más profundo.

Obviamente, el problema es que eso implica más esfuerzo mental: ¿para qué me voy a complicar, si la herramienta ya me da una solución con un aspecto aceptable? Precisamente ahí está la trampa, y la prevención que hago en todos mis cursos y conferencias: si la inteligencia artificial generativa te reduce el tiempo de trabajo (si no fuese así no la usarías), debes incrementar consecuentemente el tiempo de supervisión, algo que, en entornos académicos, puede funcionar muy bien de cara al aprendizaje.

Cuando usamos inteligencia artificial generativa, ciertas partes de nuestro trabajo, como buscar información o crear borradores, se hacen más rápidas y eficientes, pero surge una labor distinta: la de vigilancia o supervisión de la propia herramienta. Usamos menos energía buscando o redactando, pero debemos invertirla en verificar, comprobar, corregir, repensar y contextualizar aquello que la herramienta propone. Si la herramienta se convierte en una forma de sustituir las búsquedas en la red, está muy bien. Si pasa de ahí y nos resignamos a no gestionar adecuadamente al algoritmo, lo estaremos usando mal y empezará a ser peligroso.

La conclusión para directivos o profesionales de gestión es clara: el uso de inteligencia artificial puede catapultarnos a un nuevo nivel de productividad, pero siempre que no olvidemos por el camino entrenar (y mantener en forma) nuestras facultades para el pensamiento crítico. Si lo fiamos todo a la máquina, acabaremos con informes y presentaciones impecables pero huecos, vacíos de ese juicio humano fundamental a la hora de añadir valor. En el estudio, se ve cómo algunos de los encuestados hablan de la necesidad de «cuidar» la herramienta, de formarse adecuadamente en su uso y de hacerla encajar en los procesos de la organización de forma reflexiva. Al final, es cuestión de no comprar la idea de que la inteligencia artificial sustituye nuestra capacidad de pensar, sino de utilizarla como un trampolín, como un motor susceptible de optimizar nuestras tareas y de proporcionarnos alas para reflexionar en un plano superior, en lugar de simplemente desconectar el cerebro.

Pido a mis alumnos que me incluyan la URL de la consulta que hicieron al algoritmo que han utlizado, y he visto buenos ejemplos en ambos sentidos. Desde prompts más largos y elaborados que la propia respuesta obtenida, hasta diálogos interminables con la máquina intentando puntualizar o verificar muchas de sus aserciones.

La pregunta que todos debemos hacernos es si estamos listos para equivocarnos una vez más, dejar las herramientas fuera del curriculum educativo y enfrentarnos a una generación de empleados y directivos que, por fiarlo todo a la inteligencia artificial, pierdan esa capacidad de pensamiento crítico, algo que pagaríamos muy caro en la experiencia real de los negocios. Tal vez sea hora de abordar la llegada de la inteligencia artificial generativa sin olvidarnos de que, por mucha máquina y por mucha magia que parezca haber, debemos ser nosotros los que debemos ser insustituibles para aportar criterio, intuición, matices éticos, razonamiento y un punto de vista propio. Dicho de otro modo: dejemos que la IA sea nuestra aliada, no nuestra muleta.

Y como no podía ser de otra manera en un artículo escrito por un profesor con treinta y cinco años de experiencia, la clave está en la educación y la formación, y no en escandalizarse y disparar desde la cintura cuando se ven artículos que «parecen» decir lo que nosotros pensábamos…


This article is also available in English on my Medium page, «Generative AI: the shortcut to success or the road to cognitive ruin

34 comentarios

  • #001
    Alqvimista - 16 febrero 2025 - 17:22

    Perdón, pequeño off topic:
    ARM fabricará sus propios chips para centros de datos de IA, fabricados por TSMC. Meta deja atrás Intel y AMD en su apuesta por ARM.

    Eso se calienta…

    Responder
    • Marcos - 16 febrero 2025 - 17:49

      No le quites el sitio a otros. Los Off Topics suelen ser cosa de Lúa ;)

      Responder
      • Alqvimista - 16 febrero 2025 - 18:08

        Le he pillado distraído pasándole el test Voight-Kampff a Isabel je, je, je.

        Responder
        • Isabel - 16 febrero 2025 - 18:28

          BLADE RUNNER. Una de mis películas preferidas sobre la que hace unos 30, o más, debía tener 18 años , hice un estudio para la Uni. Qué tiempos aquéllos…

          Responder
        • Lua - 16 febrero 2025 - 19:12

          Aun os dura el vermut del mediodía…??? XDDD

          No os quejéis, que al menos mis OffTopics suelen ser cosas que pueden (o deberían) interesaros… :P

          ps.- gracias por las risas… :*

          Responder
    • Alqvimista - 16 febrero 2025 - 18:52

      ¡Ay dios, que ahora leo que entre Broadcom y TSMC podrían comprar Intel!

      https://www.wsj.com/tech/broadcom-tsmc-eye-possible-intel-deals-that-would-split-storied-chip-maker-966b143b

      Responder
  • #007
    Alqvimista - 16 febrero 2025 - 17:28

    … Usamos menos energía buscando o redactando, pero debemos invertirla en verificar, comprobar, corregir, repensar y contextualizar aquello que la herramienta propone…

    ¿Cómo se comprueba y corrige la información aportada por la IA, acudiendo por internet a sus mismas fuentes?
    Jolines, ya nos has chafado lo bueno de esto, que nos ahorra trabajo.
    Obtener información puede ser largo y tedioso, pero contrastarla puede ser incluso más.

    Responder
    • Lua - 16 febrero 2025 - 19:34

      Buen razonamiento… algo que llevo tiempo diciendo… si tengo que verificar todo lo que me dice la IA, (sobre todo, código) no adelanto nada…

      Para muestra tres artículos atrás, sobre las cifras de mercado iPhone en China…

      «La mejor jugada del diablo fue convencer al mundo de que no existía»
      – Keyser Söze

      Responder
      • Buzzword - 17 febrero 2025 - 12:20

        Os pongo un ejemplo que el error se detecta en 0 segundos. El código.

        Cuando le pides a una IA que genere un programa complejo en un lenguaje… partamos de un caso simple… una función para calcular Fibonnacci. En ese caso suele funcionar a la primera, y está super trillado. Lo mismo con un algoritmo supertrillado aunque sea un poquito más complejo (el bubble sort) ahí lo que hace la gente que va de puntillas en el código, es probarlo con unos ejemplos, y si funciona tira millas, porque revisarlo tu, supone al final que tardas menos haciéndolo tu mismo. Por lo que no se inspecciona a fondo…

        El problema es cuando le pasas 10 casos y funciona… es como lo de las conjeturas en mates, que haya un número limitado de aciertos no supone que el teorema sea cierto…
        O se prueba o es una conjetura…

        Por eso hay mucho bug, incluso en la informática sin IA, y se llama analizar al mínimo coste posible… y con la IA eso también sucede, pero el problema es que baja la barrera de entrada a progrmadores no expertos que o prueban poco, o en su vagancia si lo dice la IA estará bien…

        Responder
  • #010
    Gorki - 16 febrero 2025 - 17:54

    Dde quien decía, «Donde esté la Encyclopedia Britannica en 32 tomos, que se quite la Wikipedia», el nuevo mantra, «Donde esté la Wikipedia, que se quite ChatGPT»

    Responder
  • #011
    Ángel “el bueno “ - 16 febrero 2025 - 18:10

    Solo uso la inteligencia artificial generativa para generar imágenes o pequeños vídeos en los que no puedo publicar las imágenes verdaderas de alguien, porque estaría infringiendo la ley de protección de datos o de la propiedad intelectual. Para este tipo de situaciones creo que los algoritmos generativos son la solución., que corten nuestra creatividad??? Diría que la mía no.

    Responder
  • #012
    Buzzword - 16 febrero 2025 - 19:04

    Una cosita primero de índole interno a Marcos y Alquimista, cuando sois malos con gracia, mejora mucho esto…

    Lo segundo, es una frase que me gustaría soltar: «la IA no vuelve idiotas, solo agudiza los síntomas…. del que lo usa»

    Lo tercero, hace muchos años alguien me comentó que Excel aparte de poner muy fácil los colores para que más servía, luego recuerdo aquí mismo que alguien dijo (aprox 5 años, aún no había gpt) que para que le podía servir los algoritmos de ML (los normalitos) que para su día a día no lo veía, y ahora con la generativa vemos que Gorki usa perplexity p.ej. para resumir este blog… desde mi punto de vista muy particular, es que la curva de aprendizaje para sacarle un uso «personal» a estas herramientas ha descendido brutalmente. Llegando en el último caso a que para sacarle una respuesta sencilla al algoritmo simplemente hay que saber escribir en tu idioma…

    Y cuarto y último, es curioso la cantidad de libros que citamos de gente visionaria y que se escribieron antes de esta ola, hoy toca el turno a un paper de casi 4 hojas («Ironies of Automation») que los señores de Elsevier te venden en formato PDF a unos 25$. Lo deben imprimir con tinta de oro… claro que se puede encontrar en otro lado, aqui dejo el abstract, pq Enrique lo cita de pasada, y me parece lo más importante:

    «El artículo de Lisanne Bainbridge de 1983, Ironies of Automation (Ironías de la automatización), ha tenido una influencia considerable en la investigación hombre-máquina, ha sido premonitorio a la hora de predecir problemas relacionados con la automatización que han provocado incidentes y accidentes, y ha sido relevante para cuestiones que se manifiestan en la actualidad. El artículo de Bainbridge muestra las influencias de varios investigadores, pero el trabajo de Rasmussen sobre el rendimiento de los operarios en los sistemas de procesos ha sido quizá el más influyente. A diferencia de quienes consideraban que la aportación del operario era un aspecto unidimensional del rendimiento del sistema que debía tenerse en cuenta junto con otros elementos del sistema, Rasmussen consideraba que el rendimiento del operario era multidimensional y que debía tenerse en cuenta, junto con la formación y la experiencia, a la hora de examinar el papel del operario en el funcionamiento del sistema. Ampliando su trabajo y aplicándolo a los sistemas automatizados, Bainbridge describió cómo la automatización alteraba fundamentalmente el papel del operador humano en el rendimiento del sistema. Exigir al operador que supervise un sistema automatizado que podría funcionar con mayor precisión y fiabilidad que él o ella, puede afectar al rendimiento del sistema en caso de que sea necesaria la intervención del operador. La influencia de las ideas que aportó Bainbridge sobre los efectos de la automatización en el rendimiento del sistema pudo verse tanto en la investigación sobre automatización como en el reconocimiento de las ironías que se comentaron en accidentes posteriores relacionados con la automatización. Su inspiración para investigadores, investigadores de accidentes, reguladores y gestores sigue vigente hoy en día, cuando el desarrollo de la automatización y su aplicación»

    Que podría resumirse en «Si un idiota maneja una IA (ella habla de automatismo) el resultado será directamente proporcional al que lo maneja»

    Pero algunos se quedan con lo que he puesto en cursiva, hasta para leer un PDF hay que tener a una persona despierta… el automatismo no te idiotiza, simplemente saca «lo mejor» de cada uno

    Responder
    • Lua - 16 febrero 2025 - 19:29

      De un comentario (mio) del post que auto-enlaza eDans:

      «Una sociedad que se acostumbre a hacer dos clicks para tener un resultado, sin esfuerzo, sin trabajo, sin “discurrir el ‘por que’ de las cosas, dará como resultado a generaciones que no sabrán hacer nada sin esa tecnología.»

      Lo sigo manteniendo…

      ———

      En el articulo anterior, os he enchufado un OffTopic (alerta, Marcos, Alqvimista) que esta vez si tiene que ver con el tema:
      ———
      «Pero entonces podría darse algo maravilloso: alumnos haciendo trabajos con ChatGPT y profesores corrigiéndolos igual ¡Todo haciéndolo las máquinas! ¡El profesor tomando café toda la mañana y el alumnado fundiendo la Play 5! ¡El sueño keynesiano! ¡Todo el mundo sacando sobresalientes! ¡Y la ministra de educación dando saltos de alegría!»

      Uno de los mejores artículos que he leído en este ámbito…

      Cuando Pulgarcita descubrió el «deep learning»: el impacto que ChatGPT está teniendo dentro de las aulas

      Responder
      • Gabriel - 17 febrero 2025 - 08:31

        ¿Será un debate parecido al efecto de la calculadora o el Excel respecto a la enseñanza de matemáticas? ¿O del uso de la bicicleta, el coche o el metro o just eat para desplazarnos? ¿Noa atontan o nos vuelven más cómodos? Sí ¿Nos permiten ser más rápidos y llegar más lejos? También

        Responder
        • Lua - 17 febrero 2025 - 09:49

          Lo que nunca entenderé (en este blog) es la costumbre de polarizarlo todo: o es bueno, o es malo… o es blanco, o es negro… y obviar el gris.

          Excel es una de las materias que imparto, y créeme, que mis alumnos, todos ellos con títulos universitarios y masters varios, muchas veces desconocen hacer operaciones sin una calculadora. He tenido que enseñar como se hace una regla de tres o calcular un interés compuesto. Y se supone que eso se trae sabido de casa. Que sepas usar la calculadora no te exime de saberte la teoría (o saber hacerlo en papel).

          No he dicho en ningún momento que las herramientas sean malas o nocivas. Hablo de usarlas “con cabeza” y no perder nuestras habilidades mas básicas, como cuestionarnos las respuestas.

          Responder
      • f3r - 17 febrero 2025 - 13:37

        Había una escena en «Escuela de genios» donde el profe tenía grabada la clase y los alumnos grababan la clase. Resultado: una clase llena de radiocasettes sin gente

        Responder
    • Isabel - 16 febrero 2025 - 19:33

      Gracias, Buzzord. No me importaría ser un » replicante». Dudo que Marcos y Alquimista hayan entendido ni el libro ni la película. O quizá, sí, nunca se sabe…

      Responder
      • Lua - 16 febrero 2025 - 19:37

        «Dudo que Marcos…»

        Ahora si que te has metido en un jardin… XDDD

        Responder
        • Buzzword - 16 febrero 2025 - 19:44

          En esa no salía Paco Martinez Soria…

          Responder
          • Isabel - 16 febrero 2025 - 20:03

            Aquí sí has sido » bueno y con gracia»

            Responder
          • Alqvimista - 16 febrero 2025 - 23:59

            No te metas con don Paco que a «Don Erre que Erre» lo tengo en un altar.

            Responder
        • Isabel - 16 febrero 2025 - 20:04

          Siempre hay que dudar…

          Responder
      • Alqvimista - 17 febrero 2025 - 00:17

        Cuando hablas del libro tengo clara la referencia. Sólo hay uno. Y es magnífico a pesar de que Dick no era precisamente la alegría de la huerta.

        Pero cuando hablas de la película, ¿a cuál de las versiones te refieres? Bueno, da igual, las tengo todas.

        Y ya de paso un par de recomendaciones:
        – https://e00-elmundo.uecdn.es/especiales/2008/02/cultura/blade_runner/descargas/blade_runner_capitulo1.pdf (Tunea el enlace que son tres o cuatro partes).
        – Blade Runner, AAVV, ed. Tusquets.
        https://www.todocoleccion.net/libros-segunda-mano-cine/blade-runner-1-ed-1988-tusquets-cuadernos-infimos-cardin-quim-larrea-guarner-juli-capella~x260328600

        Responder
        • Buzzword - 17 febrero 2025 - 12:06

          Buen aporte !!

          PS: Lo de pasar los txt a PDF,… mira que les gusta putear al glorioso txt !!

          Responder
    • Isabel - 16 febrero 2025 - 22:05

      Te he leído con mucho interés, pero es que si ya hay ejemplos evidentes de lo que comentas.
      En uno de mis comentarios hice alusión a un íntimo amigo mío de la infancia. Un genio, aunque esta palabra se esté desvirtuando mucho. Hice una prueba para ver si realmente querías aprender y nadie ha tenido la curiosidad de saber ( aunque sea buscando en Google) qué persona y con qué tecnología ha sido la primera en demostrar científicamente la telepatia gracias a la tecnología. Tampoco habéis ni siquiera sospechado el alcance de este hallazgo. Mediante IA y otras tecnologías están trabajando para la ciencia para investigar enfermedades. El equipo es de un nivel inimaginable. Ninguno ha sentido la curiosidad intelectual de aprender y entender. Por tanto, sí, sí eres estúpido la tecnología sirve para muy poco.
      Gracias por tu apoyo, Buzzword.
      Y me retiro de los comentarios, porque aportan muy poco. Como siempre me decía este amigo al que cito » No intentes ponerte a su altura. Tan sólo busca a los que estén a la tuya en mudos.dones que incluyen la no mezquindad y el cinismo.
      A.Enrique.le.voy a seguir leyendo,.por.supuesto.

      Responder
  • #026
    Javier - 16 febrero 2025 - 19:30

    Por el contrario, quienes se consideran más seguros de sus propias habilidades, de su conocimiento del tema o del valor de su experiencia, terminan siendo más críticos y exigentes con la máquina, y someten sus respuestas a una supervisión y un examen más profundo.

    Y estamos los que sabemos que no sabemos y por lo tanto nos vemos obligados a dudar.

    Responder
    • Isabel - 16 febrero 2025 - 19:34

      Exacto.

      Responder
  • #028
    Juan T. - 16 febrero 2025 - 19:32

    Resumiendo:

    Como amplificador de aptitudes la IA amplifica lo que ya somos.

    No te vuelve idiota pero si lo eres, idiota al cuadrado.

    Responder
  • #029
    Xaquín - 16 febrero 2025 - 20:50

    «cuanta mayor confianza se deposita en la herramienta, menos estímulo tenemos para someterla a un escrutinio riguroso» «Pido a mis alumnos que me incluyan la» (EDans).

    ¡Cómo nos gusta poppear!

    Con tu confianza me pasa como con la tolerancia del Popper… confunde tolerar con dejar que te meen en la cabeza y digas, para colmo, que bien que llueve… porque tolerar una idea, que solo es potencia, que no llega a acto (movimiento aristotélico) no es dejadez, se llama libertad de expresión… y diga lo que diga esa idea, expresada en palabras, mientras no suponga aumentar el tono (grito en la oreja, megáfono, ponerte el micro en la cara…)… lo que ya sería acoso (acto).

    Lo que nos lleva a que : confiar en algo vivo (en los inertes no se confía) será por haber recibido una serie de datos que te indican que PUEDES CONFIAR (y siempre hasta cierto punto)… lo demás no es confianza, en mi barrio se le decía «hacer el pardillo»… así que no confundamos…

    Y ya, siguiendo con la herramienta… yo no confío en una sierra que tiene los dientes mala afilados (e incluso peor, oxidados), por lo que puede pasar… y no confío un pimiento en el algoritmo de X, aunque hasta ahora (dos añitos) se está comportando chachi… pero seré muy tonto y por eso…

    Así que el escrutinio (riguroso o pasable) se hace antes de establecer la conversación con la sierra, con el algoritmo … y no digamos con fulanito, sea este analógico o digital… y si no pasa el «escrutinio» es que no merece ser considerado interlocutor válido… eso aunque se llame Einstein o Perico de los Palotes… l

    Y esto ya va ligado a lo del alumnado, ya que precisamente el acto educativo empieza por mirar a los ojos del ser humano discente (no su foto), para que el diálogo que inicias en ese momento tenga visos de realidad… y luego vas y preguntas (no examinas!!!).. y sacas resultados iniciales… para que a partir de una serie de pasos (depende del «asunto») empieces a confiar mínimamente que puedes llegar a puerto (si consigues al mismo tiempo SU confianza)… entonces podemos decir que ESTAMOS navegando…

    La herramienta/alumno y tú, o tú y la herramienta/alumno… y si consigues hacer operativa la relación de ambos, entonces los dos evolucionáis (cada cual a su ritmo). Ni el lobo es tan feroz como lo pintan, ni la IA será (en mucho tiempo) ni siquiera feroz. Lo que puede hacerse el ser humano, es mucho más mediocre (y a toda speed!!!)

    Responder
  • #030
    Diego Regero - 16 febrero 2025 - 22:10

    Estudio patrocinado por ChatGPT.

    Responder
  • #031
    Carlos - 16 febrero 2025 - 22:54

    Que interesante y que irónico el artículo. Lo digo porque una de las cosas que a mi me preocupan y que me he visto haciendo sin querer es, que la IA es un alimento perfecto para el «confirmation bias»: en el momento en que esta da la respuesta que uno desea, hay esa tendencia a aceptarla. Y más aún si andamos escasos de tiempo, que es básicamente todo el mundo de hoy.

    Ya veremos donde acaba todo esto… porque la educación lleva tiempo, y por mucho que eduques, la tendencia a tomar el camino corto siempre va a estar en nosotros.

    Responder
  • #032
    Chipiron - 17 febrero 2025 - 09:09

    Dentro de toda esta reflexión, también hay cosas muy positivas.

    Yo, por ahora, me he pasado a DeepSeek y me leo más el proceso de razonamiento que la misma respuesta.

    Vaya, que no sólo te da una respuesta (errónea o no), si no que además puede ayudar a aprender a razonar si sigues su proceso de raciocinio. Eso sí, explicado en inglés.

    Saludos a la peña un lunes por la mañana!

    Responder
  • #033
    Luisondome - 17 febrero 2025 - 16:57

    Claro que como dice Enrique Dans, el uso de inteligencia artificial generativa puede poner en peligro el desarrollo del pensamiento crítico. Por ello, la Comisión Europea ha creado un repositorio para apoyar la alfabetización en IA, tal como exige el artículo 4 de la Ley de IA. Este artículo, que entró en vigor el 2 de febrero de 2025, exige que los proveedores e implementadores de IA garanticen una alfabetización en IA suficiente entre su personal y sus usuarios. En respuesta a este requerimiento, la Oficina de IA de la UE ha recopilado una serie de prácticas de alfabetización en IA en curso de las organizaciones involucradas en el Pacto de IA. El repositorio, disponible como PDF descargable, muestra varias prácticas categorizadas por su estado de implementación: completamente implementadas, parcialmente implementadas o planificadas. El repositorio no es exhaustivo y se actualiza periódicamente, y la reproducción de estas prácticas no garantiza el cumplimiento del artículo 4. En cambio, sirve como un recurso para fomentar el aprendizaje y el intercambio entre los proveedores e implementadores de IA. La Comisión no respalda ni evalúa las prácticas enumeradas, pero apoya la implementación.
    Es por ello que es importante que» no olvidemos por el camino entrenar (y mantener en forma) nuestras facultades para el pensamiento crítico», tal y como afirma Dans en su artículo, y para hacer un uso correcto de las herramientas de IA.

    Responder
  • #034
    Abelardo Ojeda - 18 febrero 2025 - 17:56

    Bueno entre las generativas, están las de imagen o ilustración. Es un hecho que muchos que las usan están evitando al 100% la “molestia” de aprender a conceptualizar y afinar sus capacidades de observación mediante el dibujo. En los casos muy concretos de quienes se auto proclaman “AI artist” y no podrían ni siquiera dibujar su propia mano. El punto específico es la pérdida de la capacidad de abstracción como proceso cognitivo, la planeación del espacio tridimensional, el manejo de color, luces y sombras, y el desarrollo de narrativas personales que requieren un proceso de introspección.

    Si dejas que tu AI generativa resuelva un estilo gráfico, una perspectiva y un estilo que da un tipo de narrativa, estas dejando todo en manos del “outsourcing” que hace el engine para armar un resultado para ti.

    Es en tal caso más interesante el uso de referencias estructurales y conceptuales o de color que tú mismo realices para alimentar Firefly o Midjourney.

    En fin, siento que en ciertos casos, más allá de faltarles entrenamiento, muchos simplemente quieren un atajo para crear cosas que impresionen a los demás, y que tristemente se vuelven vendedores de humo. En muchos casos usando la AI como una credencial de sofisticación y “vanguardia”.

    Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG