La inteligencia artificial no solo automatiza trabajos: también crea nuevas capas de trabajo humano

IMAGE: A business professional with multiple digital copies of himself, symbolizing AI colleagues and the rise of workplace digital clones

Como ya mencioné en artículos anteriores, a los ejecutivos les gusta mucho decir es de que «están integrando la inteligencia artificial». Pero la mayoría aún trata la inteligencia artificial como una característica, no como una base. La integran en los sistemas existentes sin darse cuenta de que cada automatización esconde una capa invisible de trabajo humano y un creciente conjunto de riesgos ocultos.

La inteligencia artificial puede estar transformando la productividad, pero también está cambiando la naturaleza misma del trabajo, la rendición de cuentas e incluso la confianza dentro de las organizaciones. El futuro del trabajo no se limitará a la colaboración entre humanos y máquinas: se centrará en gestionar las alianzas invisibles que surgen cuando las máquinas empiezan a trabajar con nosotros… y, a veces, a nuestras espaldas.

La ilusión de la automatización

Toda ola de cambio tecnológico comienza con la misma ilusión: una vez que automatizamos, el trabajo desaparece. Sin embargo, la historia cuenta una historia diferente. La introducción de los sistemas ERP prometía «eficiencia integral», solo para crear años de «trabajo en la sombra» corrigiendo incoherencias de datos y depurando integraciones. La inteligencia artificial está repitiendo ese patrón a un nivel cognitivo superior.

Cuando una inteligencia artificial redacta un informe, alguien aún tiene que verificar sus afirmaciones (¡por favor, no lo olvidemos!), comprobar si hay sesgos y reescribir las partes que no suenan bien. Cuando un agente resume una reunión, alguien tiene que decidir qué es realmente importante. La automatización no elimina el trabajo: simplemente lo traslada a un nivel superior, de la ejecución a la supervisión.

La paradoja es clara: cuanto más inteligente es el sistema, más atención requiere para garantizar que se comporte como se espera.

Un nuevo informe de McKinsey llama a esta «la era de la superagencia«, donde las personas dedican menos tiempo a realizar tareas y más tiempo a supervisar sistemas inteligentes que sí las realizan. Cuanto más inteligente sea el sistema, más atención requerirá para garantizar que se comporte como se espera.

El auge de la fuerza laboral oculta

Un análisis reciente reveló que más de la mitad de los trabajadores ya utilizan herramientas de inteligencia artificial en secreto, a menudo sin el conocimiento de sus gerentes. De igual manera, otra investigación advirtió que los empleados comparten silenciosamente datos confidenciales con chatbots de consumo, exponiendo a las empresas a riesgos de cumplimiento normativo y privacidad.

Esta es la nueva fuerza laboral silenciosa: algoritmos que realizan parte del trabajo, sin ser vistos ni reconocidos. Para los empleados, la tentación es obvia: la inteligencia artificial ofrece respuestas instantáneas. Para las empresas, las consecuencias son peligrosas.

Si estos «socios silenciosos» son modelos de consumo, los empleados podrían estar enviando datos confidenciales a servidores desconocidos, procesados ​​en centros de datos ubicados en países con diferentes leyes de privacidad. Por eso, como advertí en un artículo anterior sobre BYOAI, las organizaciones deben asegurarse de que cualquier pregunta o indicación que los empleados utilicen se dirija a sistemas empresariales con la licencia adecuada.

El problema no es que los empleados usen inteligencia artificial, sino que lo hacen al margen de la gobernanza de datos.

Cuando la inteligencia se vuelve clandestina

El uso no autorizado de la inteligencia artificial genera más que un riesgo para los datos: fragmenta el aprendizaje colectivo. Cuando cada empleado depende de su propio asistente de inteligencia artificial, el conocimiento corporativo se fragmenta. La empresa deja de aprender como organización porque la información queda atrapada en los historiales de chat personales.

El resultado es una ineficiencia paradójica: todos se vuelven más inteligentes individualmente, pero la compañía se vuelve más tonta.

Las organizaciones deben tratar el acceso a la inteligencia artificial como una infraestructura compartida, no como una herramienta personal. Esto significa proporcionar sistemas autorizados y bien auditados donde los empleados puedan hacer preguntas de forma segura sin filtrar propiedad intelectual ni infringir la normativa. El modelo de inteligencia artificial adecuado, como bien sabe Microsoft, no solo es el más potente: es el que mantiene sus datos donde deben estar.

El trabajo humano oculto en los flujos de trabajo «inteligentes»

Incluso cuando se autoriza el uso de inteligencia artificial, introduce una capa de esfuerzo humano invisible que las empresas rara vez miden. Todo flujo de trabajo «asistido por inteligencia artificial» esconde tres formas de supervisión manual:

  1. Trabajo de verificación: personas que comprueban si los resultados son correctos y cumplen con las normas.
  2. Trabajo de corrección: editar, replantear o depurar el contenido antes de su publicación.
  3. Trabajo interpretativo: decidir qué significan realmente las sugerencias de la inteligencia artificial.

Estas tareas no se registran, pero consumen tiempo y energía mental. Son la razón por la que las estadísticas de productividad a menudo van a la zaga de la popularidad de la automatización. La inteligencia artificial nos hace más rápidos, pero también nos mantiene más ocupados: constantemente seleccionando, corrigiendo e interpretando las máquinas que supuestamente trabajan para nosotros.

La ética del trabajo invisible

El trabajo invisible siempre ha existido: en el cuidado de personas, la limpieza o la atención al cliente. La inteligencia artificial lo extiende a los ámbitos cognitivo y emocional. Detrás de cada flujo de trabajo «inteligente» hay una persona que garantiza que el resultado tenga sentido, se alinee con el tono de la marca y no viole los valores de la empresa.

Si ignoramos ese trabajo, corremos el riesgo de crear una nueva desigualdad: quienes diseñan y venden sistemas de inteligencia artificial son reconocidos, mientras que quienes corrigen sus errores discretamente permanecen invisibles. Las métricas de productividad mejoran, pero el coste real, la vigilancia humana que mantiene la credibilidad de la inteligencia artificial, pasa desapercibido.

Incluso los directivos que experimentan con «clones digitales» de inteligencia artificial admiten que no confían plenamente en sus dobles virtuales. La confianza, como se ve, sigue siendo tercamente humana.

La gestión de la colaboración silenciosa

Cuando la inteligencia artificial se integra en los flujos de trabajo cotidianos, el liderazgo debe evolucionar desde la gestión de personas a la gestión de la colaboración entre personas y sistemas. Esto requiere nuevos principios de gobernanza:

  1. Solo inteligencia autorizada: los empleados deben utilizar sistemas de inteligencia artificial con licencia de nivel empresarial. Sin excepciones. Cada consulta enviada a un modelo público supone una posible fuga de datos.
  2. Claridad en la residencia de datos: sepa dónde residen sus datos y dónde se procesan. «La nube» no es un lugar: es una jurisdicción.
  3. Transparencia por diseño: cualquier resultado asistido por inteligencia artificial debe ser rastreable. Si una inteligencia artificial ayudó a generar un informe, etiquételo claramente. La transparencia genera confianza.
  4. Retroalimentación como gobernanza: los empleados deben poder informar errores, alucinaciones y preocupaciones éticas. La verdadera protección contra la desviación del modelo no es una lista de verificación de cumplimiento: es una fuerza laboral vigilante.

La inteligencia artificial sin gobernanza no es innovación. Es negligencia.

La era de la supervisión cognitiva

Asistimos a la aparición de una nueva habilidad humana: la supervisión cognitiva, o la capacidad de guiar, criticar e interpretar el razonamiento de las máquinas sin realizar el trabajo manualmente. Se está convirtiendo en el equivalente corporativo a enseñar a alguien a gestionar un equipo que no comprende del todo.

Formar a los empleados en esta habilidad es urgente. Requiere ser consciente de los sesgos, la lógica y los límites de la automatización. No se trata de ingeniería rápida, sino de pensamiento crítico. Y es lo que distingue a las organizaciones que colaboran con inteligencia artificial de las que simplemente la consumen.

Las mejores empresas ya lo entienden. Están invirtiendo en formación, no solo en herramientas, y considerando la alfabetización en inteligencia artificial como una infraestructura estratégica. Un perfil reciente de los clones de empleados con inteligencia artificial de Viven reveló que la verdadera pregunta no es si la inteligencia artificial puede replicar a los trabajadores, sino si las organizaciones pueden gestionar las réplicas que crean.

Qué deben hacer ahora los directivos

Si diriges una compañía, asume que la inteligencia artificial ya forma parte de tus flujos de trabajo, independientemente de si la has aprobado o no. La tarea por delante no es impedir su uso, sino integrarla responsablemente.

  • Audita tu exposición a la inteligencia artificial: identifica dónde tu personal ya utiliza herramientas.
  • Ofrece alternativas seguras: si no, usarán lo que funcione, sea seguro o no.
  • Reconoce el trabajo oculto: crea métricas que recompensen la verificación, la corrección y la interpretación.
  • Integra la transparencia en la cultura: ningún resultado generado por la inteligencia artificial debe ocultar su origen.

Si se hace bien, la inteligencia artificial puede convertirse en un compañero de confianza que acelera el aprendizaje y amplifica la creatividad. Si se hace mal, se convierte en un socio silencioso e irresponsable con acceso a tus datos y sin ningún tipo de ética.

Una revolución silenciosa

La llegada de la inteligencia artificial al entorno laboral no esta siendo ruidosa ni escandalosa: es silenciosa, gradual y omnipresente. Se esconde tras interfaces pulidas, automatizándose lo justo para convencernos de que funciona por sí sola. Pero bajo ese silencio, se esconde una creciente capa de esfuerzo humano que mantiene el sistema ético, explicable y alineado.

Como líderes, nuestro trabajo es hacer que ese esfuerzo sea visible, medible y seguro. La inteligencia artificial más peligrosa no es la que reemplaza a las personas: es la que depende silenciosamente de ellas, sin permiso, supervisión ni reconocimiento.

Cuando la inteligencia artificial se convierta en tu socio silencioso, asegúrate de que sea alguien a quien realmente conozcas, en quien confías y con las licencias adecuadas. De lo contrario, podrías descubrir demasiado tarde que la colaboración, en realidad, nunca fue tuya.


(This article was previously published on Fast Company)

20 comentarios

  • #001
    Xaquín - 5 diciembre 2025 - 16:31

    Cuando tu explicas el libro de texto y luego testeas lo que chaparon es una cosa. Si lo que haces es ponerles trabajos para luego analizar lo que aprendieron, te toca una labor bien ardua, de separar la paja del grano… y cada alumno lo expresa diferente (y no hay soporte en el libro de texto previo, para comparar… mucho profe ya lo tiene «chapado», sobre todo si es de él)… por eso, ya antes de la IA, la IH del profesorado tenía alergia al trabajo personal o en grupo (como a la libreta de clase).

    Y ahora, claro, ¿cómo narices va a esforzare en supervisar la combinación de IH con IA, si eso requiere una preparación previa (profesional)… y continua (dado el avance tecnológico)… muy lejos del estándar del profesor medido.

    ¿Es muy diferente este caso del ejecutivo medio de cualquier empresa (privada, ya no digamos pública!!!)?

    Responder
  • #002
    Buzzword - 5 diciembre 2025 - 19:04

    No nos dejemos engñar porque la IA es torpe, lo que va a traer es peor calidad de los entregables, y sobre todo un deterioro de las sociedades en que vivimos, por mucho que lo endulcen las consultoras no woke.

    The threats from AI are real | Sen. Bernie Sanders

    RESUMEN: (De NotebookLM)

    El mensaje del video de Bernie Sanders se centra en la urgente necesidad de discutir y regular la inteligencia artificial (IA) y la robótica, tecnologías que transformarán el mundo de manera inimaginable, afectando la economía, la política, la guerra, el medio ambiente, el bienestar emocional y la educación.
    Sanders enfatiza que, a pesar de la extraordinaria importancia y la velocidad del progreso de la IA, el tema está recibiendo muy poca atención en el Congreso, los medios y la población general, una situación que debe cambiar. Menciona que, como miembro de alto rango del Comité de Salud, Educación, Trabajo y Pensiones del Senado de los EE. UU. (HELP), llevó a cabo una investigación sobre los desafíos monumentales de la IA, incluyendo una reciente discusión pública con el Dr. Jeffrey Hinton, el ganador del Premio Nobel y considerado el «padrino de la IA». Basándose en esta labor, su personal presentará pronto un conjunto específico de recomendaciones al Congreso para comenzar a abordar las amenazas sin precedentes que plantea la IA.
    Cuestiones Centrales y Amenazas Destacadas:

    1. El Control Oligárquico y la Democracia: La pregunta fundamental es quién debe estar a cargo de la transformación hacia un mundo de IA. Actualmente, un puñado de las personas más ricas del planeta (como Elon Musk, Jeff Bezos, Bill Gates, Mark Zuckerberg y Peter Thiel) está invirtiendo cientos de miles de millones de dólares en el desarrollo de estas tecnologías. Sanders cuestiona si es aceptable que estos hombres enormemente poderosos moldeen el futuro de la humanidad sin supervisión ni aportes democráticos. Se pregunta si el objetivo es simplemente hacer que los más ricos sean aún más poderosos, o si esta tecnología beneficiará a toda la humanidad. Cita el apoyo de Donald Trump a estos «oligarcas de las grandes tecnológicas» y su intento de bloquear la regulación estatal de la IA, y menciona que Peter Thiel llama a quienes quieren regulaciones «legionarios del Anticristo». Sanders sugiere que este grupo de multimillonarios podría creer que tiene un «derecho divino a gobernar», lo que plantea un retorno a las ideas del siglo XIX.
    2. Impacto Económico y Empleo Masivo: Sanders advierte que el impacto en la economía y en los trabajadores será devastador. Un informe que publicó indica que la IA, la automatización y la robótica podrían reemplazar casi 100 millones de empleos en Estados Unidos durante la próxima década. Esto incluye el 40% de las enfermeras registradas, el 47% de los camioneros, el 64% de los contadores, el 65% de los asistentes de enseñanza y el 89% de los trabajadores de comida rápida. Líderes tecnológicos han predicho que la IA y los robots reemplazarán todos los trabajos, haciendo que el trabajo sea opcional. La pregunta clave es cómo sobrevivirá la gente sin ingresos para alimentar a sus familias o pagar la vivienda y la atención médica si se eliminan millones de puestos de trabajo.
    3. Vigilancia y Pérdida de Privacidad: Sanders plantea la preocupación de que la IA invada masivamente la privacidad y las libertades civiles. Pregunta si la IA resultará en una sociedad más libre o si concentrará aún más poder en los oligarcas que controlan la tecnología. Menciona la predicción de Larry Ellison (la segunda persona más rica del mundo) de un estado de vigilancia impulsado por la IA donde «los ciudadanos se comportarán mejor porque constantemente grabamos e informamos todo lo que sucede». Esto plantea si se podrá mantener una democracia si cada llamada, correo electrónico, mensaje de texto e investigación en internet está disponible para los propietarios de la IA.
    4. Redefinición de la Humanidad y el Aislamiento Emocional: Una preocupación profunda es que la IA pueda redefinir lo que significa ser un ser humano. Las relaciones con otros humanos (familia, amigos, maestros) son fundamentales para el desarrollo emocional e intelectual. Sin embargo, una encuesta reciente de Common Sense Media reveló que el 72% de los adolescentes estadounidenses ha usado IA como compañía, y más de la mitad lo hace regularmente. Sanders reflexiona sobre el significado de que los jóvenes formen amistades con la IA y se aíslen de otros seres humanos, y cuál será el impacto a largo plazo en la humanidad cuando las relaciones más importantes no sean interpersonales.
    5. Impacto Ambiental Masivo: Los centros de datos de IA requieren enormes cantidades de electricidad y agua. Un centro de datos relativamente pequeño puede consumir más electricidad que 80,000 hogares. Los centros grandes, como el que Open AI y Oracle están construyendo en Abilene, Texas, usarán tanta electricidad como 750,000 hogares, y otro de Meta en Luisiana, del tamaño de Manhattan, usará la electricidad de 1.2 millones de hogares. Esta construcción continua está impactando el medio ambiente local, disparando las facturas de electricidad y desviando escasos suministros de agua.
    6. Guerra y Política Exterior sin Riesgo Humano: La IA y la robótica impactarán la guerra y la política exterior. Sanders señala que los líderes suelen ser reacios a la guerra por el temor a la reacción pública ante la pérdida de vidas. Pero si los robots reemplazan a los humanos en la guerra, ¿serán los líderes más propensos a involucrarse en conflictos o amenazas militares si no tienen que preocuparse por la pérdida de vidas? Esto podría llevar a una carrera armamentista de robots y transformar radicalmente las políticas exteriores.
    7. Amenaza Existencial: Finalmente, Sanders pregunta si la IA representa una amenaza existencial para el control humano del planeta. Recuerda la película de ciencia ficción 2001: Una odisea del espacio y la rebelión de la computadora HAL. Señala que, según el Dr. Jeffrey Hinton, es solo cuestión de tiempo antes de que la IA se vuelva más inteligente que los seres humanos. Esto plantea la posibilidad de que los humanos pierdan su capacidad de controlar el planeta, y la necesidad urgente de saber cómo detener esta «extraordinaria amenaza».
    Conclusión y Llamada a la Acción: Sanders concluye que, dado el rápido progreso de la IA y las enormes inversiones, el Congreso debe actuar ahora para responder a estas preguntas. Pide un debate nacional, argumentando que este problema no puede ignorarse, aunque los multimillonarios que controlan la tecnología deseen lo contrario, ya que es crucial para el futuro del mundo, los niños y el medio ambiente.

    Responder
    • Juan T. - 5 diciembre 2025 - 19:25

      Trump y sus multimillonarios ya no quieren obstáculos democráticos para sus planes y tienen prisa por que solo tienen asegurado 3 años de mandato, así que contar con una IA que sirva a sus planes es lo que quieren, por eso no solo no admiten ninguna restricción en su desarrollo si no que van a utilizar , aparte del capital privado en el caso de los multimillonarios, una enorme cantidad de fondos publicos en la Mision Génesis, el nuevo proyecto Manhattan de la IA, que por supuesto no estará al servicio del pais sino del régimen de Trump y sus aliados multimillonarios.

      Mira que tengo tirria a los típicos conspiracionistas pero en este caso puede que las distopías de la ciencia ficción se queden cortas.

      Responder
    • el hombre que rie - 6 diciembre 2025 - 18:33

      Un informe que publicó indica que la IA, la automatización y la robótica podrían reemplazar casi 100 millones de empleos en Estados Unidos durante la próxima década. Esto incluye el 40% de las enfermeras registradas, el 47% de los camioneros, el 64% de los contadores, el 65% de los asistentes de enseñanza y el 89% de los trabajadores de comida rápida.

      De hecho estoy convencido que realmente se necesitan que los robots reemplacen TODOS los humanos en esas áreas, incluyendo en áreas como recojer fresas en los campos (hay que inclinarse mucho lesionandose la espalda) en industria cárnica (donde la gente pierde dedos y se infecta de salmonela).

      Dado que los enfermeros, camioneros, contadores, comida rápida, y agricultura lo hacen inmigrantes ilegales, es más honorable que un robot haga esos menesteres.

      Responder
  • #005
    Juan T. - 5 diciembre 2025 - 19:08

    Estoy de acuerdo en que es necesaria la supervision en el corto plazo, o mejor dicho en el plazo en el que la IA siga cometiendo errores que no sepa autocorregir , pero a medio y largo plazo la IA se supervisará a si misma mejor que cualquier humano.

    Esto es como el trabajo de Ingeniero de Prompts por el que se pagaba en los inicios de la IA cifras escandalosas y que se consideraba la habilidad del futuro y en el plazo de 1 año pasó al olvido.

    Responder
    • Lua - 5 diciembre 2025 - 19:27

      Una IA, supervisada por una IA….

      Mi diccionario no alcanza a calificativos… me vais a perdonar que no es nada personal… XDDD

      Responder
      • Juan T. - 5 diciembre 2025 - 21:43

        Estás perdonado.

        «Estrategias Actuales para la Corrección:

        Actualmente, las soluciones se centran en refinar los modelos y añadir mecanismos de validación externa, muchos de los cuales tienen potencial para la autosupervisión futura:

        Refuerzo mediante Feedback Humano (RLHF): Si bien no es autosupervisión, entrena a la IA para preferir respuestas que un humano considere precisas, actuando como un precursor para que la IA «aprenda a validar» la calidad.

        Mecanismos de Humildad: Los modelos recientes están siendo diseñados para indicar incertidumbre o rechazar responder cuando la información es escasa o contradictoria. Esto reduce el número de respuestas inventadas que se presentan con alta confianza.

        Técnicas de Recuperación Aumentada (RAG – Retrieval Augmented Generation): Esta es una de las estrategias más efectivas hoy en día. Con RAG, el modelo de lenguaje primero busca información relevante en bases de datos externas (verificadas) y luego usa esa información para generar su respuesta. La IA se supervisa a sí misma contrastando la respuesta propuesta con datos fidedignos antes de emitirla.

        Penalización y Recompensa: Se están desarrollando métodos de entrenamiento en los que se penalizan las respuestas falsas y se recompensa la honestidad sobre la falta de conocimiento, incentivando al modelo a autovalidarse.

        Limitación de Resultados: Al limitar los resultados posibles mediante técnicas como la regularización o al entrenar la IA con fuentes muy específicas y relevantes, se reduce la posibilidad de que el modelo «invente» datos.

        El Futuro: Hacia la Autosupervisión
        El paso de estas estrategias a una verdadera autosupervisión requiere que la IA desarrolle una mejor capacidad de razonamiento y entendimiento del contexto, y que pueda:

        Detectar Inconsistencias Internas: La IA tendría que identificar cuándo una parte de su respuesta contradice otra, o cuándo la confianza de un fragmento es significativamente baja.

        Verificación Autónoma: En lugar de depender de una búsqueda en bases de datos (RAG) para cada consulta, la IA avanzada podría realizar una autovalidación interna o, de forma más sofisticada, generar múltiples respuestas y contrastarlas para encontrar la más coherente y mejor fundamentada.

        Explicabilidad (XAI): Un modelo que puede explicar por qué llegó a una respuesta (mostrando su proceso de razonamiento) tiene más posibilidades de que se detecten y corrijan errores de forma automática.

        Aunque las «cajas negras» de las redes neuronales hacen que predecir el comportamiento sea difícil, el progreso en técnicas de validación interna y la integración de herramientas de contraste de hechos sugieren que la IA será cada vez más competente para autogestionar y corregir sus fallos en el futuro.»

        Responder
        • Buzzword - 6 diciembre 2025 - 12:13

          Parece que has echado mano de la IA, para que «ilumine» esta respuesta que haces tuya…

          Bromas aparte, lo que dice LUA tiene su sentido.

          Y tu propia respuesta, en realidad, no contradice el hecho que un artículo de LLM mejora «dándole cariño», pero la esencia es que al final tienes «una salida estocástica» con una asíntota del 100% de exactitud que es una cota inalcanzeble para la máquina, ojo: tanto para máquinas como para personas. Lo que si va a haber es un corte, en el que aceptes como buena la respuesta, la cual se acepte que el artículo esté curado, o dicho de otro modo alguien o algo lo de por aceptable. Pero eso será una decisión digamos «política» o «económicista».

          Tu postura, se parece a la de San Agustín en su búsqueda de la verdad, para San Agustín, la verdad existe y es la meta del ser humano, alcanzada a través de la interiorización, donde el alma se encuentra con la Verdad eterna y divina (Dios), la fuente de toda verdad, superando la opinión sensible (doxa) y las dudas escépticas mediante la razón y la fe en un camino de búsqueda personal, amor y reflexión.

          Último párrafo con la ayuda de Gemini.

          Responder
  • #009
    Gorki - 5 diciembre 2025 - 19:40

    Las personas dedican menos tiempo a realizar tareas y más a supervisar los sistemas inteligentes. Cuanto más inteligente es el sistema, más atención requiere para garantizar su correcto funcionamiento.
    ¿No aparecerán AI, propiedad de las grandes corporaciones, especializadas en atender el correcto in funcionamiento de las AI propiedad de las pequeñas empresas?

    Responder
    • Lua - 5 diciembre 2025 - 19:46

      No sera que si una IA necesita supervision, igual no es tan AI…??? XDDD

      Responder
      • Buzzword - 5 diciembre 2025 - 20:47

        Por definición un LLM es un sistema estocástico que basa su salida en «escupir» tokens que correlan con el prompt… no hacen otra cosa. Entendiendo que su respuesta puede ser acertada solamente en un porcentaje, es imposible pensar en el 100%. Incluso si le preguntas «¿Cuál es la capital de Francia?» Su respuesta no es el 100%, está claro que se acercará al 100%, pero si en las fuentes de entrenamiento pudo leer «En la época de los romanos, la capital de Francia es Lyon»

        Cuanto más complejas sean las tareas más suprvisión requerirán, para asegurarnos la salida. Si se pueden usar LLM por capas para mejorar la salida inicial. Y su uso se ha extendido sin darnos cuenta. Por ejemplo ahora cuando le pedimos una imagen a un modelo, por dentro, tienen optimizadores y por eso necesitan menos verbosidas nuestra.

        Por ejemplo:usar qwen en 2 capas

        SYSTEM PROMPT: «Eres un asistente rápido que responde de forma directa y concisa.
        No analices en profundidad, solo da una respuesta inicial basada en tu conocimiento.
        Pregunta: ¿Por qué la energía solar es mejor que la eólica?»
        Resuesta: «La energía solar es mejor porque los paneles solares son más baratos de instalar que los aerogeneradores y no hacen ruido. Además, funcionan en más lugares, incluso en ciudades.»

        PROMPT REFINADOR:
        «Eres un experto crítico que revisa respuestas técnicas.
        Tu tarea es:
        1. Corregir datos incorrectos o sobre-generalizados.
        2. Añadir matices y contexto relevante.
        3. Señalar si la pregunta inicial tiene sesgos o suposiciones falsas.
        Respuesta a revisar:
        «La energía solar es mejor porque los paneles solares son más baratos de instalar que los aerogeneradores y no hacen ruido. Además, funcionan en más lugares, incluso en ciudades.»
        Pregunta original: ¿Por qué la energía solar es mejor que la eólica?»

        Y no tenemos que quedarnos ahí, podemos optimizar:

        Cómo optimizarlo?

        Para producción: Usar un modelo pequeño (ej: Qwen1.5-0.5B) en la Capa 1 para respuestas rápidas y reserva el Qwen2-7B para la Capa 2 (refinamiento).

        Agrega memoria externa: Conectar la Capa 2 a una base de datos de artículos científicos para respaldar sus correcciones (ej: usando RAG).

        Podemos medir el nivel de alucinaciones (ej: con herramientas como FactScore) antes y después de aplicar las dos capas.

        Responder
  • #012
    Lua - 5 diciembre 2025 - 22:13

    Yo solo voy a hacer una reflexión…

    Ya hace, que mucho de lo que se escribe aquí es IA

    Y esto se está volviendo aburrido.
    (y no hace falta q IA supervise IA para verlo)

    Responder
    • Dedo-en-la-llaga - 5 diciembre 2025 - 23:36

      Algo de esa sensación también tengo yo… Sorry!

      Responder
    • F3r - 6 diciembre 2025 - 12:13

      Propuesta: cuando nos aburramos de IA, que alguien introduzca un offtopic de interés un poco currado y le «secuestramos» la sección de comentarios XD

      Responder
      • Enrique Dans - 6 diciembre 2025 - 12:20

        Secuestrad lo que queráis, tenéis mi beneplácito y mi promesa de no cortar ni censurar los contenidos más allá de las reglas habituales. Simplemente tenéis que entender que en un momento como este, con la IA a tope en todas partes y conmigo montando una compañía de IA aplicada que va a cambiar el mundo tal y como lo conocemos, no me salga demasiado pensar en otras cosas…

        Responder
  • #016
    John Depaz - 6 diciembre 2025 - 04:13

    Muy buen articulo profesor Dans estoy de acuerdo en todos los puntos del artículo. Si la IA reforzó su articulo veo su mano que impuso su criterio en cada linea que he leido. Gracias

    Responder
    • Enrique Dans - 6 diciembre 2025 - 10:13

      No, la única IA que uso en estos artículos es la que me asegura que mi inglés es correcto. Los artículos de Fast Company los escribo directamente en inglés y los paso por ChatGPT únicamente por asegurar que mi gramática y mis giros estilísticos son adecuados (y me cambia algunas cosas, pero tampoco tantas ni tan significativas). Cuando llega el momento de escribirlos en español, simplemente los paso párrafo a párrafo por Google Translate. La experiencia de traducir con ChatGPT del inglés al español mis propios textos la probé y no me gustó, no los “sentía como míos”…

      Lo que sí es cierto es que para Fast Company utilizo un estilo algo diferente al de otros artículos, con secciones, con más énfasis, con listas de puntos y con un enfoque muy directivo. Consejos de mi editor, que es un crack del que conviene fiarse mucho. Si tienes la oportunidad de que tu editor sea nada menos que Jon Gluck, que ha trabajado para revistas míticas de la edad de oro del periodismo, desde Vogue hasta The Newyorker, hay que aprovecharlo!!

      Responder
  • #018
    Buzzword - 6 diciembre 2025 - 12:28

    OFFTOPIC: Especial Enrique y el uso de la IA.

    OBJETIVO:

    Quería ver hasta que punto puede una IA adjudicar que la IA es el autor de un artículo de Enrique.

    METODOLOGIA.

    a) Le di a Sonet el artículo presente. Resultado:
    70-80% humano al artículo real de Dans.

    b) Cree un artículo al estilo de Enrique.

    b1) Resumí con Qwen el enlace:
    https://www.mckinsey.com/capabilities/tech-and-ai/our-insights/superagency-in-the-workplace-empowering-people-to-unlock-ais-full-potential-at-work
    b1) Inserté en Sonet el resumen y le pedía un artículo al estilo de Enrique. Se genera el articulo que vamos a llamar B

    c) Le pido en una interacción nueva que me diga la probabilidad de que ha sido escrito por una IA o por Enrique:
    Da 85-90% humano a su propia generación (artículo B)

    Le hago ver que ese artículo B ha sido generado por Sonet, parte de su respuesta:


    La paradoja final
    -----------------

    Tu experimento prueba que:

    1. No puedo distinguir mi propio trabajo del humano
    2. No puedo distinguir trabajo humano de IA de calidad
    3. Puedo generar contenido que yo mismo evalúo como "probablemente humano"

    Lo cual significa que la distinción ya no es técnicamente útil sin contexto externo.

    La conclusión es clara, una salida «al modo de» es completamente indistinguible. Si Enrique usara IA o no, se vería en el número de comentarios decrecientes dada la falta de alma de esos textos. Creo que lo expresa muy bien, no los “sentía como míos”. Ese es el quiz, la falta de punch de esa escritura.

    Responder
    • Buzzword - 6 diciembre 2025 - 12:35

      Artículo de Sonet al estilo de Enrique:

      # La inteligencia artificial en el trabajo: entre la revolución prometida y la madurez pendiente

      Cuando los historiadores económicos miren atrás dentro de cincuenta años, es probable que vean la irrupción de la inteligencia artificial generativa como uno de esos momentos bisagra que redefinen el trabajo humano. No es exageración compararlo con la máquina de vapor o la imprenta: estamos ante una tecnología que no solo automatiza tareas físicas, sino que penetra en el terreno de lo cognitivo, en aquello que considerábamos irreductiblemente humano.
      Y sin embargo, aquí estamos: con el 92 % de las empresas planeando aumentar su inversión en inteligencia artificial en los próximos tres años, pero con apenas un 1 % de líderes que considera que su organización ha alcanzado verdadera madurez en su implementación. McKinsey estima que el potencial económico de la inteligencia artificial corporativa podría alcanzar los 4,4 billones de dólares a largo plazo. Pero entre la promesa y la realidad media un abismo de incertidumbre, resistencias organizativas y, sobre todo, un problema de liderazgo.

      ## El espejismo de la adopción

      Las cifras son engañosas. Que el 92 % de las empresas planee invertir más no significa que sepan qué están haciendo. La brecha entre intención y ejecución es brutal: solo ese 1 % que mencionaba puede decir honestamente que la inteligencia artificial está integrada en sus flujos de trabajo diarios, generando resultados medibles y transformando realmente la manera en que trabajan sus equipos.
      El resto está experimentando, probando herramientas, lanzando proyectos piloto que rara vez escalan, y proclamando en sus informes anuales que «están en plena transformación digital impulsada por inteligencia artificial». Pero la transformación real no consiste en comprar licencias de ChatGPT Enterprise o contratar a un Chief AI Officer. Consiste en repensar procesos, redistribuir responsabilidades y, sobre todo, gestionar el cambio cultural que toda tecnología disruptiva exige.
      Lo interesante es que los empleados van varios pasos por delante de sus líderes. Ya utilizan inteligencia artificial regularmente, esperan que sustituya hasta el 30 % de su trabajo en el próximo año y, lejos de temerla, piden formación para aprovecharla mejor. Los millennials, que crecieron con tecnología y ahora ocupan puestos de gestión intermedia, están particularmente preparados para liderar esta transición. Pero el 41 % de la fuerza laboral sigue siendo escéptica, y esa desconfianza no se resuelve con comunicados corporativos: requiere acompañamiento, transparencia y resultados tangibles.

      ## Más allá del bombo publicitario: avances que importan

      Los últimos dos años han sido vertiginosos en términos de capacidades técnicas. Los modelos de lenguaje grandes han pasado de ser curiosidades conversacionales a sistemas que superan exámenes profesionales como el Bar Exam o el USMLE, que razonan sobre problemas complejos y que pueden planificar secuencias lógicas de acciones. La llamada «inteligencia artificial agente» ya no es ciencia ficción: Salesforce ofrece Agentforce, una «fuerza laboral digital» capaz de gestionar clientes, procesar pagos y coordinar campañas de manera autónoma.
      La multimodalidad está redefiniendo las interfaces: modelos como Gemini Live mantienen conversaciones con matices emocionales, mientras Sora de OpenAI convierte descripciones textuales en videos coherentes. El hardware también ha evolucionado: las GPUs y TPUs especializadas permiten ejecutar estos modelos en tiempo real, incluso en entornos edge, lo que multiplica sus aplicaciones prácticas.
      Y algo que suele pasarse por alto: la transparencia está mejorando. En solo siete meses, según el índice de Stanford, empresas como Anthropic pasaron de una puntuación de 36 a 51 en transparencia, y Amazon de 12 a 41. No es perfecto, pero la dirección es correcta. Los modelos empiezan a explicar mejor sus decisiones, los sesgos se documentan con más rigor y las auditorías externas se normalizan.
      El obstáculo real no es tecnológico
      Sin embargo, el principal freno no está en los algoritmos ni en la potencia de cálculo. Está en las organizaciones mismas. Las preocupaciones sobre seguridad, precisión y ciberseguridad son legítimas y ralentizan la adopción, pero el verdadero cuello de botella es cultural y estratégico.
      Los empleados confían más en que su propia empresa hará un buen uso de la inteligencia artificial que en el sector en general. Es decir: quieren creer que sus líderes sabrán guiar esta transformación de manera ética y efectiva. Pero si esos líderes no fijan metas ambiciosas, si no se centran en aplicaciones prácticas que potencien el trabajo diario de sus equipos, si no miden el retorno de inversión con rigor, la oportunidad se desperdiciará.
      Las empresas que avanzan lentamente o con timidez corren el riesgo de quedar rezagadas, no porque la tecnología las abandone, sino porque sus competidores entenderán antes cómo integrarla en ventajas competitivas reales. Y aquí es donde entra el concepto de «superagencia»: no se trata de reemplazar humanos con máquinas, sino de amplificar la creatividad, la productividad y la toma de decisiones de las personas mediante sistemas inteligentes que eliminan fricciones, automatizan lo rutinario y liberan tiempo para lo estratégico.

      ## Liderazgo, no tecnología

      El éxito de la inteligencia artificial en el entorno laboral no depende principalmente de qué modelo uses o cuántos parámetros tenga. Depende de si tus líderes saben alinear equipos, gestionar resistencias, reestructurar procesos y, sobre todo, mantener la confianza de quienes harán el trabajo real: los empleados.
      Quienes subestimen esta magnitud, quienes traten la inteligencia artificial como una moda pasajera o como un proyecto más de IT, cometerán el mismo error que aquellos que en los años noventa pensaron que internet era «cosa de geeks» o que el comercio electrónico nunca despegaría. La historia no perdona a quienes llegan tarde a las revoluciones tecnológicas.
      La pregunta ya no es si la inteligencia artificial transformará el trabajo. La pregunta es si tu organización estará entre el 1 % que sabe cómo hacerlo, o entre el 99 % que sigue planeando, invirtiendo y proclamando transformaciones que nunca terminan de materializarse. La diferencia entre ambos grupos no es tecnológica: es de liderazgo, visión y ejecución. Y el reloj ya está corriendo.

      Responder
  • #020
    El hombre que ríe - 6 diciembre 2025 - 18:40

    Los directivos… Las empresas

    La IA se utiliza con frecuencia en ingenería y arquitectura, no para «reemplazar» a las personas, sino para superar el límite que ha alcanzado la capacidad humana; y se ha utilizado practicamente desde 1968 cuando una IA se utilizó para crear la ciudad de Cancún, México. Cuando se diseña un puente, un rascacielos o una línea de metro, se utiliza una IA como base.
    Es por eso porqué la implantación de IA es tan lento en negocios y administración, la IA no le interesa el dinero ni los directivos, estan pensado para un tipo de público diferente a los directivos

    Responder

Dejar un Comentario a Lua

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.