Inteligencia artificial: encerrarse o aprender a elegir

IMAGE: A man writes intently at his desk under the glow of a brain-shaped light made of circuitry, symbolizing harmony between human creativity and artificial intelligence

Cada avance tecnológico genera su cuota de pánico moral, y la inteligencia artificial no iba a ser la excepción. El Washington Post contaba hace unos días en «Meet the people who dare to say no to artificial intelligence« cómo un número creciente de estudiantes, artistas, profesores y trabajadores decide atrincherarse en una especie de fortaleza digital, rechazando el uso de herramientas de inteligencia artificial en nombre de la pureza creativa, el miedo a los sesgos o la defensa del «trabajo humano». Pero atrincherarse en un mundo que cambia no es una forma de resistencia: es una forma de renuncia.

Negarse a usar una tecnología que ya impregna la educación, la comunicación y el trabajo es, en el fondo, una manera de aislarse del futuro. No se trata de creer ciegamente en la inteligencia artificial ni de abrazar todo lo que produce, sino de entenderla y usarla con criterio. Porque quienes hoy dicen «no» de manera rotunda acabarán peor preparados para vivir en un entorno donde aquello que rechazan será parte estructural de la vida cotidiana.

Mi posición frente a la inteligencia artificial no es la del entusiasmo ingenuo ni la del rechazo: es la del uso selectivo y estratégico. La utilizo en lo que me aporta eficiencia, pero la mantengo lejos de aquello que considero esencial para mi identidad. No soy ilustrador, y por tanto no me preocupa en absoluto usar inteligencia artificial para acompañar mis artículos con imágenes generadas. Antes dependía de repositorios aburridos y lentos, donde cada cierto tiempo aparecía algún artista reclamando derechos o pidiéndome pruebas de procedencia de las ilustraciones que había utilizado hace años. Ahora, con un modelo generativo, el proceso es fluido, inmediato y limpio: nadie reclama nada, y mis textos quedan mejor ilustrados (aunque a algunos no les guste).

Tampoco tengo ningún problema en pedirle a un modelo de lenguaje que revise mis errores tipográficos, que me resuma documentos extensos o que me sugiera contrapuntos a un artículo que estoy escribiendo. Lo hago a menudo. Gracias a eso, cometo menos erratas, ahorro tiempo y puedo enriquecer mis argumentos. No lo hago siempre, pero lo hago cuando veo que tiene sentido. Y no me empobrece, sino todo lo contrario.

¿Podría ir más allá y pedirle a un modelo que escriba mis artículos? Por supuesto que sí. Bastaría con entrenarlo con mis textos, más de veintidós años de publicaciones como mínimo diarias, y obtendría una copia perfecta de mi estilo, mis estructuras y mis giros de lenguaje. Sería fácil, barato y, probablemente, el resultado sería indistinguible del original, o quién sabe, incluso mejor. Pero no lo hago, ni pienso hacerlo.

¿Por qué? No por ningún tipo de reserva moral, sino porque escribir es lo que me define. Escribir es mi manera de aprender, de entender y de recordar. Si delego ese proceso en una máquina, estoy saboteando precisamente el mecanismo que sostiene mi propio conocimiento. Mis artículos no son sólo piezas de opinión: son mi método para pensar. De hecho, mi opinión es lo que menos importa en ellos. Lo he dicho miles de veces: fijaros menos en mi opinión, y más en los enlaces. Yo escribo para ordenar ideas, para fijarlas en la memoria, para poder explicarlas y discutirlas después en clase o en una conferencia. Si dejara de escribir por mí mismo, me volvería incapaz de defender mis argumentos, de responder a una pregunta en un debate o de recordar por qué pensé lo que escribí. Una inteligencia artificial podría hacerlo mejor en forma, pero jamás en propósito.

Esa relación deliberada con la tecnología es la que muchos parecen no entender. El problema no es la inteligencia artificial: el problema es no saber para qué la usamos. El Brennan Center for Justice
advertía recientemente que las políticas de «opt-out», renunciar por completo al uso de inteligencia artificial, crean más desigualdad que protección, porque quienes se niegan a aprender su funcionamiento tienden a quedar marginados en su entorno profesional. Lo mismo sugiere MIT Technology Review: evitar la inteligencia artificial no preserva el pensamiento crítico, sino que reduce la capacidad cognitiva frente a quienes aprenden a usarla con criterio.

La investigación empírica lo confirma. Según un estudio de junio de 2024, la dependencia excesiva de sistemas conversacionales puede erosionar habilidades cognitivas en estudiantes, pero el uso estratégico de esas herramientas, como apoyo y no como sustituto, fortalece la comprensión y la creatividad. En el futuro, todo el aprendizaje de hard skills será impartido por sistemas agénticos y modelos generativos, que te los explicarán tantas veces como haga falta, 24×7, sin fatiga, y con el formato que mejor se adapte a tu manera de aprender. De modo que el problema, como siempre, no es la herramienta, sino cómo se usa.

En mi caso, la inteligencia artificial no sustituye mi pensamiento, lo amplifica. Me ayuda a ilustrar, corregir, investigar o preparar material, pero no a escribir. Porque escribir es lo que me mantiene vivo intelectualmente. La clave está en entender qué tareas delegar y cuáles preservar. Lo que algunos investigadores llaman «cognitive offloading«, ceder parte del esfuerzo mental a sistemas automáticos, puede ser útil siempre que no implique renunciar a las competencias que nos definen. Negarme a usar inteligencia artificial para escribir no me convierte en un negacionista de la inteligencia artificial. Sería absurdo. La uso todos los días, pero con límites claros. No la empleo para sustituirme en lo que considero parte esencial de mi trabajo intelectual. Uso la inteligencia artificial, pero no dejo que me use.

Negarse por completo a la inteligencia artificial equivale, en el fondo, a negarse a aprender a leer por miedo a los libros. Las herramientas cambian, pero el criterio sigue siendo humano. Como advierte Jan-Christoph Heilinger en su ensayo sobre la ética de la inteligencia artificial, la discusión no debería centrarse en si usarla o no, sino en cómo conservar la agencia y la responsabilidad humanas dentro de un ecosistema automatizado. El desafío no es encerrarse para «preservar la pureza», sino salir al mundo con discernimiento. La alfabetización del siglo XXI no consiste en evitar la tecnología, sino en aprender a usar bien lo que existe y proteger lo que te hace único.

Y sí, hay quienes vienen a mi página y, sin conocerme, dicen que mis textos «parecen escritos por inteligencia artificial». Es curioso: llevo más de veintidós años publicando a diario, antes incluso de que existiera ChatGPT, y sigo escribiendo palabra por palabra. Aun así, siempre aparece algún idiota dispuesto a entrar en el salón de tu casa digital, escupir en el suelo y dudar de tu integridad. Supongo que es parte de los tiempos que vivimos: un mundo en el que muchos prefieren sospechar antes que leer, y negar antes que comprender. Pero qué le vamos a hacer, imbéciles y maleducados los ha habido toda la vida y, desgraciadamente, los va a seguir habiendo.

La clave no está en decir «sí» o «no» a la tecnología, sino en decidir para qué la usas. En mi caso, la inteligencia artificial no sustituye mi pensamiento, lo amplifica. Me ayuda a ilustrar, corregir, investigar o preparar material, pero no a escribir. Porque escribir es lo que me mantiene intelectualmente vivo. Supongo que a otros más inteligentes que yo les llega con leer. Pero yo, que soy más torpe, necesito escribir para fijar conocimientos.

Decir «no» por principio es la forma más cómoda de evitar pensar. Lo difícil es construir una relación inteligente con la tecnología. Quien no entienda eso acabará descubriendo, demasiado tarde, que el mundo siguió avanzando. Y entonces, el problema ya no será la inteligencia artificial, sino su propia decisión de no haber aprendido a convivir con ella.


You can read this article in English on my Medium page, «Why I let AI help me think — but never think for me»


24 comentarios

  • #001
    Javier - 26 octubre 2025 - 13:13

    Dos cosas:

    1.

    … mis textos quedan mejor ilustrados (aunque a algunos no les guste)

    …teléfono LUA…

    2.

    evitar la inteligencia artificial no preserva el pensamiento crítico, sino que reduce la capacidad cognitiva frente a quienes aprenden a usarla con criterio.

    No puedo evitar relacionar en mi mente el párrafo anterior con dos temas:

    a) De las cajas negras a los agentes personales: sobre el uso que hacen las personas sobre la IA/ML.

    b) El reciente Premio Nobel de Economía: Cómo la innovación impulsa el crecimiento económico sostenido.

    Y me pregunto «¿no será que también el crecimiento personal?»

    Explicado por el propio ganador del Nobel: Qué es la destrucción creativa y por qué cree que es indispensable para crecer

    • Lua - 26 octubre 2025 - 16:12

      (que mal me sienta el cambio de hora… una mas para el vermut) XDDD

      1. … mis textos quedan mejor ilustrados (aunque a algunos no les guste)

      …teléfono LUA…

      Alo alo…!!! :P

      Cuando un blog, emplea imágenes “generadas”, dices: “mira que bien. Que gracia”. (el primer dia).

      Cuando tropecientos millones usan imágenes generadas, ni eres especial, ni diferenciador, ni original… y menos cuando no hay nada de ello (ni diferencial ni especial) que distinga a un blog de otros. Porque todas las imágenes parecen iguales. Todos los blogs, iguales. Una fábrica de churros. Es así de sencillo. El “impacto”, que pudieron tener en sus primeros días, se deshace en el tiempo como el azúcar en el agua. Eres “uno mas”.

      y cuelgo… XDDD

  • #003
    Gorki - 26 octubre 2025 - 13:44

    Cuando era jóven, (1960), había muchos escritores que se negaban a utilizar la máquina de escribir, (Olivetti), porque decían que no se podía escribir correctamente un texto a ese ritmo.y con ese ruido. Mas tarde, vino la resistencia a escribir en pantalla y no en papel. La intelectualidad es con mucha frecuencia contraria a la tecnología, por algo se considera «progresista», que es un termino del siglo XIX.

    Lo que es cierto es que el instrumento que manejes condiciona la forma de trabajar, Yo antiguamente era capaz de dictar un capítulo completo a la secretaría de un Manual de Informática, (que es lo único tipo de texto largo que he escrito), pero cundo la secretaria se sustituyó con el Word, voy escribiendo párrafos y al final los reordeno y enlazo, pero hoy soy incapaz de estructurar un capítulo completo en mi cerebro y luego escribirlo. Supongo, pues no tengo experiencia propia, que la ayuda de la AI, de alguna forma condiciona la forma de crear contenidos.
    .
    Te agradezco que los post sigan saliendo de tu cacumen y no del de una IA entrenada en ello, seria insufrible leer todos los días un artículo en contra de Zuckerberg

  • #004
    Buzzword - 26 octubre 2025 - 13:53

    He hecho un ejercicio abierto para ver que se opina del uso de IA basado en GPT considerando:

    1. WP artículo
    2. BBC artículo


    Perfecto ✅ Aquí tienes el **análisis completo** del artículo *“These students, tech workers and artists just say no to AI”* (The Washington Post) en diálogo con el texto de **BBC Mundo sobre Philippe Aghion y la “destrucción creativa”**.

    ---

    ## **Resumen integrado del texto del Washington Post**

    El artículo del *Washington Post* presenta una tendencia emergente: personas —desde estudiantes hasta ingenieros y artistas— que **resisten el uso de la inteligencia artificial (IA)** en su vida cotidiana o profesional.
    Entre las principales razones se destacan:

    1. **Preservar la autonomía intelectual y las habilidades humanas.**
    Temen depender demasiado de una tecnología que sustituye el pensamiento, la creatividad o el esfuerzo personal.

    2. **Preocupaciones éticas y de precisión.**
    Señalan los sesgos, errores y posibles desinformaciones generadas por la IA, así como los riesgos de privacidad y uso indebido de datos.

    3. **Impacto en el trabajo y la creatividad.**
    Algunos profesionales consideran que la IA reduce la calidad o autenticidad del trabajo; en el ámbito artístico surgen movimientos “not by AI” (no hecho por IA) como respuesta cultural.

    4. **Imposibilidad de escapar completamente.**
    Pese a las resistencias, el artículo muestra que es difícil “abstenerse” en un contexto donde la IA está integrada en casi todos los productos digitales y procesos laborales.

    El texto dibuja una paradoja: la IA se expande como símbolo de progreso y eficiencia, pero también genera una reacción contracultural que defiende la **humanidad frente a la automatización total.**

    ---

    ## ⚙️ **Síntesis del artículo de la BBC: Philippe Aghion y la destrucción creativa**

    El economista francés **Philippe Aghion**, Premio Nobel de Economía 2025, explica a *BBC Mundo* que el crecimiento económico sostenido se basa en la **“destrucción creativa”**, un concepto desarrollado por Schumpeter en 1942.

    Sus principales ideas:

    1. **Innovar implica destruir.**
    Las nuevas tecnologías reemplazan a las viejas, generando progreso pero también obsolescencia.

    2. **Motor del crecimiento.**
    La competencia y la entrada de nuevos talentos son esenciales: impulsan mejoras, nuevos sectores y una renovación constante.

    3. **Costos sociales temporales.**
    Cada ola de innovación destruye empleos o industrias, pero crea nuevas oportunidades y mercados.

    4. **Ejemplo actual: la IA.**
    Aghion considera que la inteligencia artificial forma parte de una nueva ola de destrucción creativa. Aunque puede generar burbujas o tensiones, es un proceso necesario para el desarrollo global.

    5. **Llamado al equilibrio.**
    Aghion no niega los riesgos (como el proteccionismo o el estancamiento), pero sostiene que **la innovación es indispensable** y que las sociedades deben “aprender a jugar inteligentemente” con ella, fomentando la educación, la competencia y las innovaciones sostenibles.

    ---

    ## **Análisis comparativo entre ambos textos**

    ### 1. **Visión del cambio tecnológico**

    * **Washington Post:** adopta una mirada crítica y sociocultural. Destaca la ansiedad, la resistencia y el deseo de conservar lo humano frente al avance tecnológico.
    * **BBC / Aghion:** ofrece una lectura estructural y económica: el cambio tecnológico (aunque destructivo) es **necesario y beneficioso a largo plazo.**

    *Interpretación:*
    Ambas perspectivas son complementarias. El Post muestra el impacto micro (individual, ético y emocional), mientras que Aghion observa el macro (económico y estructural). Los primeros sienten el “costo humano” de la innovación; el segundo lo considera el precio inevitable del progreso.

    ---

    ### 2. **El papel de la destrucción**

    * En el **Post**, la “destrucción” se vive como **pérdida de control, identidad o autenticidad**.
    * En **Aghion**, la destrucción es **condición para el renacimiento**: es el ciclo vital del desarrollo.

    *Conclusión:*
    Lo que unos interpretan como amenaza, Aghion lo entiende como oportunidad. Sin embargo, ambos textos coinciden en que el proceso **no es neutral ni exento de víctimas.**

    ---

    ### 3. **Innovación vs. resistencia**

    * Para Aghion, resistirse a la innovación equivale a **estancarse**.
    * Para los sujetos del Post, resistir es una **forma de preservar valores humanos** ante una innovación percibida como deshumanizadora.

    *Síntesis crítica:*
    La resistencia puede ser, paradójicamente, parte del proceso de destrucción creativa: los que se oponen obligan a la tecnología a evolucionar con mayor ética, transparencia y humanidad. Es decir, **la resistencia también genera innovación moral.**

    ---

    ### 4. **Impacto en el empleo y las habilidades**

    * Aghion reconoce que la IA y otras innovaciones destruyen empleos, pero insiste en que **crean otros nuevos**.
    * Los trabajadores del Post, en cambio, temen **perder capacidades o sentido profesional** al depender de sistemas automáticos.

    *Relación:*
    El Post muestra la etapa de transición del proceso schumpeteriano: la **incertidumbre antes de que se materialicen los beneficios**. Aghion habla desde la teoría y la historia; los entrevistados viven el cambio en tiempo real.

    ---

    ### 5. **Visión ética y humana**

    * En el Post, la ética se centra en la autenticidad, la confianza y la privacidad.
    * En la BBC, la ética aparece de manera indirecta, como **responsabilidad de guiar la innovación hacia fines sostenibles y sociales**.

    *Lectura integradora:*
    Ambos textos apuntan a una misma necesidad: **dirigir la innovación, no solo adoptarla.**
    El reto contemporáneo, entonces, no es elegir entre progreso o humanidad, sino lograr **una destrucción creativa con rostro humano.**

    ---

    ## **Conclusión general**

    El artículo del *Washington Post* muestra el **lado emocional y social** de la destrucción creativa: el miedo, la resistencia y la búsqueda de significado en medio del cambio tecnológico.
    El texto de **BBC Mundo**, por su parte, reivindica el **lado estructural y evolutivo** del proceso: la innovación que destruye viejas estructuras es la que impulsa el crecimiento y la prosperidad.

    Ambas miradas son necesarias:

    * Sin el impulso innovador descrito por Aghion, no habría progreso.
    * Sin la conciencia crítica y ética de quienes resisten, ese progreso podría volverse inhumano o insostenible.

    **Síntesis final:**
    La IA es hoy el escenario más visible de la “destrucción creativa” schumpeteriana. El reto no es evitarla, sino **domarla**: aprender —como propone Aghion— a “jugar inteligentemente”, equilibrando el avance tecnológico con el desarrollo humano y social.

    ¿Lo hace bien la IA?¿Lo hace mal? ¿Sirve para tener nosotros mismos una opinión? ¿ o está sesgada de origen?

    Puede ser un ejercicio interesante ver este resumen y luego leer los artículos de origen… y hay una pregunta que se me ocurrió al principio ¿hasta que punto para esos artículos usan la IA?

  • #005
    Xaquín - 26 octubre 2025 - 16:46

    «entrenarlo con mis textos» (EDans). Algo que hicieron muchos hombres «ilustres», dejando que un amanuense redactara sus apuntes de clase (o lo que coño fueran). Que lo haga una IA en vez de una IH (bien amueblada) no lo hace ni mejor ni peor.

    Otra cosa es que redactar un texto nuevo , con lo que tienes en tu memoria, te hace más creativo, como tú mismo dices… pero para gustos colores.

    «podría hacerlo mejor en forma» (EDans). Seguro, pero no en contenido… porque nosotros no solo tenemos información en nuestra «memoria ROM», la tenemos… y ríete tu del método zip… concentrada en nuestro ADN… ahí reside todo lo que sabe hacer la naturaleza, desde que decidió conjugar varios aminoácidos para generar la vida… sí, TODO está ahí, otra cosa es que seamos capaces de sacarlo flote.

    «necesito escribir para fijar conocimientos» (EDans). Claro, porque chapar de memoria no es fijar la memoria, solo es dejar pegadas con alfileres las palabras en la «memoria RAM», y después del examen a volar… y sí, solo con escribir lo que pienso ya se organiza de otra forma en mi ROM… pero seguimos debatiendo el sexo de los ángeles, como si no hubiéramos evolucionado un mínimo…

  • #006
    Juan T. - 26 octubre 2025 - 17:00

    Pues mis mas sinceras disculpas por que di por hecho de que la utilizabas y luego corregías y pulías. o al menos que metias un texto esquematico, lo reescribia la IA con tus indicaciones y luego lo arreglabas a tu gusto.

    Bueno , al final no haces lo que predicas por que si solo la utilizas para corregir gramaticalmente el texto, o resumir otros, solo ganas tiempo pero no enriqueces el texto ¿de que te sirve entonces algo que ya hacía un corrector sin IA?

  • #007
    Mauricio - 26 octubre 2025 - 19:09

    Enrique, me parece muy interesante todo lo que dices y en particular lo siguiente:

    «Mi posición frente a la inteligencia artificial no es la del entusiasmo ingenuo ni la del rechazo: es la del uso selectivo y estratégico. La utilizo en lo que me aporta eficiencia, pero la mantengo lejos de aquello que considero esencial para mi identidad.«

    El tema del pánico moral, sin embargo, no me parece que deba ser caricaturizado. Muchos tenemos reservas no por el potencial de estas herramientas sino por asuntos como, por ejemplo, los derechos de autor de las obras producidas por la inteligencia artificial, tema sobre el cual todavía no se ha hablado lo suficiente, aunque ya empiezan a verse textos legales o página de ayuda que dan ciertas directrices de por dónde se debería encaminar este tema.

    Por ejemplo, en los AI Product Terms de Canva dice, entre otras cosas:

    «In addition to the matters listed in our Acceptable Use Policy, it is prohibited to use AI Products to:

    Mislead anyone that the content generated by AI Products is human-generated

    Más adelante, en la misma página, dice sobre el polémico tema de la coautoría:

    Content co-authored with AI Products

    You may publish first-party written content (e.g., a book) created in part with AI Products under the following conditions:

    – The published content is attributed to your name or company;
    – The role of AI in formulating the content is clearly disclosed in a way that no reader could possibly miss, and that a typical reader would find sufficiently easy to understand;
    – The content does not violate our Acceptable Use Policy or these terms;
    – You refrain from sharing outputs that may offend others.

    For instance, you must detail in a foreword or introduction (or some place similar) the relative roles of drafting, editing, etc between you and the AI Products. You should not represent AI-generated content as being wholly generated by you, and you must take ultimate responsibility for the content being published.

    Me parece importante destacar que ya en el mundo previo a la inteligencia artificial había muchas discusiones en torno al poco respeto que tenían algunos catedráticos hacia la producción intelectual de los miembros de su equipo de investigación, que hacía que terminaran atribuyéndose en ocasiones todo el mérito ante trabajos que en realidad habían sido una obra colectiva. Esta es una preocupación que en el mundo actual, lejos de ser un rechazo hacia la inteligencia artificial, es una advertencia ante quienes desde siempre se han atribuido méritos intelectuales que no les pertenecen.

    Por otro lado, en la sección de ayuda de Canva hay una página titulada Use Canva to design digital and physical products for sale que tiene la siguiente advertencia relacionada con las imágenes:

    «In many countries, the legal ownership of AI-generated works is unclear. This means you may not be the copyright owner of the images you make. We recommend seeking legal advice if you plan to sell your AI-generated works.»

    A mí me parece valiosísimo que tu blog siga siendo escrito por ti mismo y ojalá esto pueda seguir siendo así, pues muchos valoramos enormemente los diálogos y debates humanos que aquí se desarrollan. Estoy seguro que si el contenido de esta página pasara a ser mayormente generado por inteligencia artificial, el interés por comentar decaería significativamente.

    Por último, tu siguiente afirmación me parece que no termina de cuadrar:

    «Negarse a la inteligencia artificial por completo es como negarse a aprender a leer porque uno teme a los libros.»

    Esto, Enrique, no es más que una mala reinterpretación del Fedro de Platón, que te aconsejo volver a leer detenidamente a partir de la parte inferior de la página 85.

    • Lua - 26 octubre 2025 - 19:42

      Te echaba de menos… :P

    • Buzzword - 26 octubre 2025 - 20:05

      Gracias Mauricio por volver a comentar.

      En cuanto la loable decisión (al menos a mi parecer) de no fundar un pensamiento, un escrito, o cualquier manifetación generativa literaria, en una IA me parece que debería estar recogida en los DDHH, que es el derecho a no leer producciones automáticas que son como mínimo muy «cansinas» y bastante «prescindibles»

      Es muy fácil generé ese rollo macabeo hecho con 2 fuentes «inspiradoras» para este artículo ( una que citó Enrique y otra Javier) y lo que saco gepeto es un muerto de mucho cuidado, que nadie en su sano juicio debería tomar como algo positivo, sino más bien como algo muy prescindible, en lo que a sentido crítico y pensamiento se refiere.

      El problema es que estamos rodeados de tecnobobos que se toman a pie juntillas ese marketing generado por esas compañías ¿Recordamos cuando decían tienen el nivel de doctorado? Y alguno se lo creyó. Usar un LLM en si no es malo ni mucho menos pero… de verdad creemos que todos los usuarios son capaces de usarla en el sentido que dice Enrique:

      «La utilizo en lo que me aporta eficiencia, pero la mantengo lejos de aquello que considero esencial para mi identidad.»

      Mi apuesta es que ni de coña…

      • Lua - 26 octubre 2025 - 20:13

        KBOUMMMM…!!!! +1000

      • Lua - 26 octubre 2025 - 20:57

        Voy a romper una lanza en favor de eDans (aun estamos de parrillada y el vinito me ha puesto “tierno”) XDDD

        Yo mismo, últimamente, utilizo -a veces- la IA para, a partir de determinados esquemas, me ayude a componer unos textos, en su mayoría técnicos. Eso no quita, que de ese resultado, yo no saque conclusiones (previo asegurarme que de verdad, pero de verdad de la buena, lo que dice la IA, sea “verdad”, que mas de un susto me ha dado ya), y que lo reescriba yo, a mi manera, con mis palabras, mis modos y mis dejes (mis inevitables chascarrillos, por muy técnico que sea el tema). Sinceramente, me lo paso mejor cuando soy solo yo, empezando de cero, pariendo, conformando y dando forma final. (y tanto en texto, como en imagen). Aunque me lleve algo más de tiempo.

        Llámame tiquismiquis, pero el saber, que todo se ha parido en mis dedos, con el sudor de mi frente, mis neuronas y mi esfuerzo, me resulta mas confortante que un trabajo, que quizás (quizás) podría estar mas bien hecho, pero me lo ha dado masticado una máquina. (o un “negro”, si lo tuviera).

        Eso no quita, que para ciertas personas, pueda ser una ayuda (o una muleta). Esto último, abriría otro melón… Tiene algo que ver, las carencias técnicas, las capacidades propias o el sentido de resolución, con la capacidad cantidad de adopción de dichas IA’s ¿??? No pretendo llamar “tontos” a quienes las usan. Pero quien se haya leído los dos enlaces que he puesto en el artículo anterior, quizás vean por donde voy.

        ps.- Quien quiera que sea que me vaya a contestar, que se los lea primero. Que aquí gustamos mucho de hablar por hablar sin hacer click.

      • Mauricio - 26 octubre 2025 - 23:59

        Gracias Lúa y Buzzword por sus amables palabras. Últimamente, no he tenido mucho tiempo para comentar varias cosas interesantes que se han escrito por aquí en las últimas semanas, pero todavía sigo leyendo con frecuencia este blog.

        Bonus: Un hilarante video de la realidad política actual.

  • #013
    Bibiana Andrea Ferreyra - 26 octubre 2025 - 23:05

    Primero quiero aclarar que la IA es más que tecnología. Por lo que no se reduce al dilema de usar herramientas o no.

    La IA es un campo interdisciplinario donde confluyen diversas materias tales como la informática, neurociencias, matemáticas, lingüística, filosofía entre otras, cuyo fin es construir sistemas que emulen la inteligencia (humana y otras).

    El dilema pues, no se trata de si usamos o no, herramientas basadas en modelos IA. Sino hacia dónde se dirige la humanidad y quién/quiénes están impulsando esa dirección.
    Hoy se invade los campos, estudios, las escuelas con el aprendizaje de estas tecnologías de IA generativa.
    Pero seguro no vamos a tener el mismo impulso para promover el autoconocimiento del cerebro del ser humano, siendo que la.ciencia avanzó muchisimo en ese campo, ej. Emociones y su impacto en nuestros pensamientos y decisiones.

    Las herramientas IA Generativa empodera y complementa a quien la usa bien. Del mismo modo, al que la usa para mal. Pero en ambos casos, las herramientas están «aprendiendo» del comportamiento humano.
    Frente al uso de estas herramientas IA generativas, no es lo mismo ser usado por un cerebro en formación, a otro que ya se ha desarrollado.

    Estamos en un estadio donde la inteligencia humana está creando inteligencia en artefactos.
    Y como ya se dice, un «ente» que puede superar al ser humano. Basta investigar y comprender la IA General, y la Supra IA.

    Defender la humanidad, nuestras.capacidades y posibilidades como seres humanos es un acto heroico, como todos los que se revelaron oportunamente. Hay que conocer, aprender, pero con pensamiento crítico, saber que hay límites. Y quien no quiera eso, que disfrute su libertad de elegir otro camino.

  • #014
    Josep Autet - 27 octubre 2025 - 07:45

    Como sucede con todas las novedades a lo largo de la historia, siempre existen detractores y personas que se niegan a los cambios, inventando miles de excusas, muchas de ellas falsas. Hay muchísimos ejemplos históricos de inventos con miles de opositores, siendo uno muy reciente el coche eléctrico. Los únicos argumentos que utilizan son que las baterías se queman y que contaminan más que los de combustión, algo que se ha comprobado sobradamente que es mentira.
    ​Yo utilizo la inteligencia artificial, me ha ayudado mucho y me ha hecho ahorrar una gran cantidad de dinero. Sin embargo, como ocurre con todas las tecnologías e inventos, no son peligrosos por sí mismos; el peligro reside en quien los usa. Tenemos muchísimos ejemplos en la historia: la pólvora, la energía nuclear, etc.
    ​En resumen, me identifico con tu forma de pensar.

  • #015
    Antonio - 27 octubre 2025 - 08:15

    Coincido plenamente contigo, Enrique. Tu reflexión pone el foco donde debe estar: no en el miedo ni en el entusiasmo ciego, sino en el criterio. La inteligencia artificial no debe reemplazar lo que somos, sino potenciarlo. Rechazarla por principio es una forma de desconexión del tiempo presente. Me parece clave tu distinción entre delegar y renunciar: usar la IA para ganar eficiencia sin perder identidad. Tu conclusión —“uso la inteligencia artificial, pero no dejo que me use”— debería ser lema para toda una generación que aún no ha entendido que el verdadero riesgo no es la herramienta, sino no saber para qué se usa.

  • #016
    Carlos - 27 octubre 2025 - 08:40

    Me ha encantado la lectura de este artículo. Es útil y resuelve muchas dudas (mis dudas). Gracias.

  • #017
    Michel Henric-Coll - 27 octubre 2025 - 11:13

    un número creciente de estudiantes, artistas, profesores y trabajadores decide atrincherarse en una especie de fortaleza digital, rechazando el uso de herramientas de inteligencia artificial

    ¿De qué se trata realmente? ¿De impedir el desarrollo de la IA o de ganar tiempo para adaptarse a los cambios y encontrar la forma de mantener los ingresos?

  • #018
    Luisondome - 27 octubre 2025 - 13:11

    Excelente artículo E. Dans, que desde hoy se convierte en mi credo.
    Es como si te hubieras elevado hasta el Monte Sinaí para bajar con la Tabla de los 10 Mandamientos de la IA, que quedarían asi:
    1. La alfabetización del siglo XXI no consiste en evitar la tecnología, sino en aprender a usar bien lo que existe y proteger lo que te hace único.
    2. Atrincherarse en un mundo que cambia no es una forma de resistencia: es una forma de renuncia.
    3. Negarse a usar una tecnología que ya impregna la educación, la comunicación y el trabajo es, en el fondo, una manera de aislarse del futuro.
    4. Escribir es la manera de aprender, de entender y de recordar. Si se delega ese proceso en una máquina, se sabotea el mecanismo que sostiene el conocimiento.
    5. La escritura permite ordenar las ideas, para fijarlas en la memoria, para poder explicarlas y discutirlas después. No hacerlo así, impediría poder defenderlas con argumentos, responder adecuadamente a una pregunta en un debate o de recordar como y por qué se pensó lo que se escribió.
    6. Renunciar por completo al uso de la IA, crea mas desigualdad que protección, al marginarnos en nuestro entorno profesional.
    7. Evitar la IA no preserva el pensamiento crítico, sino que reduce la capacidad cognitiva frente a quienes aprenden a usarla con criterio.
    8. La dependencia excesiva de sistemas conversacionales puede erosionar habilidades cognitivas en estudiantes, pero el uso estratégico de esas herramientas, como apoyo y no como sustituto, fortalece la comprensión y la creatividad.
    9. La IA no sustituye a nuestro pensamiento, sino que lo amplifica.
    10. Es necesario construir una relación inteligente con la tecnología. Quien no entienda eso acabará descubriendo, demasiado tarde, que el mundo siguió avanzando, y mientras tanto no hemos aprendido a convivir con ella.

    Pues estos son desde hoy los 10 Mandamientos de la IA, y quien no los cumpla, cometerá un pecado capital (que no venial) del que deberá arrepentirse y no cometerlo de nuevo, so pena de ir a parar al purgatorio de la inoperancia, o de caer en el infierno de la ignorancia,

    • Lua - 27 octubre 2025 - 14:34

      Y yo pregunto….

      Por que hay que polarizar las cosas a esos extremos que planteas…???

      No existen los grises entre el blanco y el negro…???

      • Luisondome - 27 octubre 2025 - 15:00

        No estoy polarizando (aún cuando se pueda estar en desacuerdo), estoy resumiendo.
        Quizás la última frase del comentario pudiera sobrar, pero es que creo que posicionarse inadecuadamente tiene consecuencias.

        • Lua - 27 octubre 2025 - 15:02

          La ultima frase del comentario, es precisamente la clave:

          – Ni a izquierdas ni a derechas
          – ni arriba ni abajo
          – ni blanco ni negro…

          Hay grises… y hay que contemplarlos…

          • Luisondome - 27 octubre 2025 - 15:06

            Mira, en eso si puede estar de acuerdo contigo. Un saludo.

  • #023
    Luisondome - 27 octubre 2025 - 15:16

    Sergio Jiménez, en un artículo suyo publicado en Substack de título «El Problema de los tres cuerpos de la Administración Digital» en el que habla de la trilogía de Cixin Liu, en la cual se plantea una posible invasión de la tierra por parte de unos alienígenas llamados “trisolarianos” por pertencer a un sistema con tres soles (de ahí el título), señala como los trisolarianos, que están ligeramente más avanzados que los humanos tecnológicamente saben que esa diferencia es definitiva en sus planes de conquista. Es por ello que crean los “sofones” unos superordenadores que envían anticipadamente a la tierra para evitar que la ciencia avance. Esto lo hacen de la siguiente manera: por debajo de cierto nivel de complejidad, el sofón no considera peligroso el avance, así que deja investigar, pero, a partir de cierto nivel, el sofón modifica los resultados. La ciencia avanzada deja de ser fiable porque los cálculos de los ordenadores se manipulan para que su mala calidad impida avanzar. De esta manera la ciencia se divide entre la que está “por debajo del nivel de sofón” (y por lo tanto es irrelevante) y “por encima del nivel de sofón”, que no es fiable, paralizando de facto la ciencia que podría evitar una invasión.
    Pienso que lo que no debemos de hacer los humanos es convertirnos en sofones, de la misma manera que no debemos de permitir que las máquinas nos sofonicen a nosotros.
    Por cierto: la historia merece la pena leerla. es muy amena y enseña mucho.
    https://sergiojimenez.substack.com/p/el-problema-de-los-tres-cuerpos-de?utm_source=post-email-title&publication_id=514232&post_id=177012396&utm_campaign=email-post-title&isFreemail=true&r=e49ea&triedRedirect=true&utm_medium=email

  • #024
    Carlos - 27 octubre 2025 - 18:12

    Tengo el hábito de leer algo suyo a diario, no recuerdo desde cuándo, y lo que dice en este artículo me ha alegrado el día porque seguirá escribiéndonos.

Dejar un Comentario a Juan T.

Los comentarios están cerrados

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.