La perspectiva sobre la inteligencia artificial y la sustitución de trabajos humanos está empezando a evolucionar: decir, por ejemplo, como se escucha a menudo, que la inteligencia artificial «reemplazará» a los radiólogos se está viendo, cada vez más, como una simplificación peligrosa.
Lo que las discusiones más recientes parecen mostrar es que reducir la mirada del radiólogo al mero «intérprete de imágenes», es ignorar todo el resto del valor que aporta: desde el juicio clínico, la coordinación interdisciplinar, la comunicación con pacientes, el aseguramiento de calidad, o el manejo de incertidumbres, hasta la supervisión de algoritmos, la adaptación al contexto local o la toma de decisiones en zonas grises… esa visión parcial es una invitación al error. Pero, más aún, el caso del radiólogo ofrece una metáfora útil para cualquier ocupación moderna: no se trata solo del output que produces, sino de todo aquello que acompaña y fundamenta a ese output.
A pesar de que los modelos de inteligencia artificial ya superan a los radiólogos en pruebas de diagnóstico desde 2017, la demanda de especialistas humanos en radiología está en máximos históricos. Este año, los programas de residencia en radiología diagnóstica en Estados Unidos ofrecieron 1,208 plazas, un 4% más que en 2024, mientras que los salarios medios alcanzaron los 520,000 dólares, un 48% más que en 2015. Existen más de setecientos modelos de inteligencia artificial para radiología autorizados por la FDA, y alrededor de un 48% de los radiólogos utiliza alguno de ellos. Además, los modelos entrenados con conjuntos de datos estandarizados pierden hasta veinte puntos de precisión cuando se aplican en hospitales distintos. Y conviene recordar que los radiólogos dedican tan solo en torno a un 36% de su tiempo a interpretar imágenes: la mayor parte lo emplean en comunicación con pacientes, en docencia y en tareas administrativas que, por ahora, ninguna inteligencia artificial es capaz de asumir.
La literatura médica refuerza estas ideas: en una revisión sistemática reciente, se concluye que la inteligencia artificial puede leer e interpretar imágenes con rapidez, pero la sustitución completa de radiólogos es improbable: más bien, se les necesita para supervisar, validar, contextualizar, y manejar aspectos éticos y legales. Otras fuentes alertan que incluso los algoritmos más refinados pueden inducir sobrediagnósticos, aumentar la carga operativa o generar errores clínicamente peligrosos si carecen de supervisión humana. También se constata que muchas tareas auxiliares, como el reporte automático, el filtrado de casos urgentes o las tareas administrativas ya están siendo delegadas a la inteligencia artificial, liberando tiempo para que el radiólogo se concentre en las facetas donde su aporte es único. Un estudio piloto reciente mostró que el uso de borradores generados por inteligencia artificial puede reducir los tiempos de reporte sin degradar la calidad diagnóstica.
A todo ello se suma un debate curioso: el de la llamada deshabilitación cognitiva o deskilling. Un artículo reciente recoge un hallazgo llamativo: cuando los médicos adoptan un sistema de inteligencia artificial para asistirles en colonoscopias, su capacidad de detectar adenomas cae alrededor de un 20% con respecto a su desempeño previo. Muchos interpretan esto como un riesgo, el de los profesionales que pierden práctica al confiar en la máquina, pero cabe también otra lectura: ¿y si no pasa nada porque la máquina, sencillamente, ya es mucho mejor que nosotros en esa tarea? Hoy casi nadie sabe escribir con un punzón sobre una piedra, y el mundo no se derrumbó cuando perdimos esa habilidad: simplemente, pasamos a hacerlo mediante otra tecnología. Si una inteligencia artificial entrenada con millones de imágenes supera a cualquier médico en detectar tumores, quizás lo sensato sea dejar de competir ahí, y concentrar el valor humano en todo lo demás: la contextualización, la relación con el paciente, la gestión de casos complejos, la ética y la responsabilidad. Lo que para algunos parece una pérdida de habilidades, en realidad podría ser una liberación.
Si extraemos la moraleja para otras profesiones, vemos un patrón repetitivo: las tecnologías tienden a atacar primero lo fácil, lo estructurado, lo rutinario. Ahí es donde ofrecen retornos rápidos y evidentes. Pero lo extraordinario, lo que las máquinas hacen mal o no pueden replicar con fiabilidad, suele estar en los márgenes: en los juicios imprecisos, los contextos cambiantes, los pacientes con matices, los casos oscuros, las decisiones colectivas, el error, el ajuste fino. En esas áreas reside la ventaja competitiva humana.
Cualquiera que trabaje hoy en educación, consultoría, análisis financiero o diseño debería preguntarse: ¿mi valor está solo en la producción de outputs como presentaciones, informes, códigos y propuestas, o en todo lo que ocurre alrededor de esos outputs (estrategia, interlocución, negociación, verificación, personalización, interpretación, mantenimiento de relaciones)? El riesgo no es que la inteligencia artificial nos quite tareas, el riesgo es que nos quite roles si reducimos nuestra identidad profesional a funciones que pueden ser fácilmente automatizadas.
Otro factor a considerar es que las tecnologías no operan en un vacío. Están dentro de marcos regulatorios, protocolos de responsabilidad, ética, seguridad, cultura institucional. En medicina, estas barreras (y la necesidad de supervisión humana) actúan como colchón frente a una automatización agresiva. Lo mismo sucede en muchas profesiones: sin legitimidad normativa ni confianza social, una inteligencia artificial difícilmente puede sustituir completamente la responsabilidad de un profesional humano.
El radiólogo del futuro, por tanto, no sería alguien que se resigna a ver morir su papel, sino alguien que asume una versión enriquecida del mismo: un gestor de algoritmos, supervisor de calidad, intérprete final, e interlocutor entre el paciente y el equipo médico. Y aquel profesional de otra área que no trabaje para expandir sus fronteras más allá del output homogéneo, puede quedar desplazado.
La experiencia de la radiología frente a la inteligencia artificial nos enseña que las profesiones no serán reemplazadas por máquinas, sino por versiones tecnológicas de sí mismas, y que quienes sobrevivan serán quienes sepan abrazar la complejidad, el contexto, la relación, los matices y el manejo avanzado de esa tecnología o de esas máquinas. No es solo lo que produces, es todo lo que haces con ello, detrás de ello y alrededor de ello, lo que determina tu resiliencia en la era de la inteligencia artificial.
You can read this article in English on my Medium page, «The radiologist paradox: how AI made them more valuable, not obsolete»


El radiólogo no está siendo reemplazado; está siendo ascendido.
La IA se queda con el output fácil (el 36% aburrido). El humano cobra 520K por el 64% esencial: juicio, contexto y la responsabilidad cuando la máquina falle.
Si tu valor es replicable, serás automatizado. Tu problema no es la IA; es tu definición de trabajo. ¡Sé complejo o muere en el dashboard!
Me ha llamado la atención esto:
«los modelos entrenados con conjuntos de datos estandarizados pierden hasta veinte puntos de precisión cuando se aplican en hospitales distintos».
O yo lo he entendido mal o es un ejemplo, creo, de la dependencia del cjto. de datos de entrenamiento de la que hablaba Ramón López de Mántaras en su vídeo. De hecho no termino de entender a qué factores pueda deberse, si es que de verdad los datos están estandarizados. Puede reflejar formas distintas de entender la información en esos distintos hospitales, y distintos equipos de médicos, cosa habitual en medicina, pues precisamente por eso tendemos a visitar a más de un especialista ( otra cosa distinta es si usamos criterios racionales para decidir con cual nos quedamos), pero no me inspira confianza, pues yo creo que sería de esperar que si el conjunto de datos de entrenamiento es estandard y es de verdad representativo, no habría de haber dependencia de donde se aplique. No lo entiendo, me resulta extraño. Y sospechoso, pq a ver si somos los humanos los que alucinamos con las supuestas bondades de la IA…
En el plano técnico, me consta que uno de los avances que impulsó cierto éxito en visión artificial fue el descubrimiento de las Redes Neuronales Convolucionales, que entre otros, permitieron resolver correctamente el problema de la segmentación de imágenes, provocando un incremento del % de aciertos. Ejemplo perfecto de la necesidad de investigación básica fuertemente matemática para sustentar avances eficaces y eficientes.
overfitting…
No entiendo que USA sea la primera potencia del mundo teniendo a 26 millones de personas sin seguro medico, y eso que antes del programa Obamacare, ese que Trump quiere destruir, eran el doble, tantos como habitantes en España.
Pero viendo que un radiologo cobra 520.000 euros al años, 9 veces mas que un radiologo con experiencia en España, me hago una idea.
Suerte tenemos con no ser primera potencia, e infinita suerte de no tener a un fascista como el Trump de presidente.
«lo que las máquinas hacen mal o no pueden replicar con fiabilidad, suele estar en los márgenes: » (EDans).
Muy buen apunte. Entendiendo «márgenes» como lo fundamental del proceso que se inicia.
En la enseñanza, como educación vs domesticación, no habrá IA que pueda superar a una IH que mire a los ojos del educando (vidente), para establecer el primer contacto comunicacional. Al no vidente no lo tengo muy claro, aunque seguro también hay un primer contacto eficiente.
Y, si evoluciona esa IH, nunca será superada. No olvidemos que los márgenes sociales suelen estar muy desprotegidos. Ese no es territorio de la IA.
Los recepcionistas, cirujanos, enfermeras y radiologistas son los único que interactuan con los pacientes en un hospital. En el caso de los radiologistas humanos, ellos saben inmediatamente si un tumor es benigno o maligno, pero en los estudios donde se permite a la IA (creada exclusivamente para este menester de forma que no tienen un nombre, a diferencia de ChatGPT, Gemini, etc) se encuentra que la IA desconoce qué lo que supone que debe buscar, regresando al cliché que la IA necesita más datos de entrenamiento, incluso con los datos de todos las radiografías existentes en el mundo.
Los farmacéuticos, los contadores y el personal de laboratorio (histólogos) nuncan han estado en riesgo de «reemplazado por robots», se vé que los CEO de las empresas tecnológicas tienen una mentalidad autista, dónde aceptan que los robots/IA hagan cirugías y tomografías pero con humanos trabajando en el laboratorio
Muy bien, aquí va un intento:
Creo que la IA va a ser como ese vecino que siempre te regala las herramientas para que te hagas un jardín perfecto… pero luego te olvida el manual y solo sabe usar la función remover todo. Por eso, los radiólogos no se van a ir, simplemente pasarán de detectar tumores a resolver las discusiones que surgen cuando la IA dice remover todo en el corazón del paciente. Será el primer supervisor de calidad de IA que tiene que aprender a disculparse con los pacientes más persuasivamente que un vendedor de coches. ¡La resiliencia profesional es clave!
«Existen más de setecientos modelos de inteligencia artificial para radiología autorizados por la FDA»
Actualmente en el pais de Trump la FDA ya no es garantía de nada.