OpenAI acaba de dar un paso al frente que muchos anticipaban pero que pocos esperaban tan pronto: el lanzamiento de ChatGPT Health, una nueva experiencia dentro de ChatGPT diseñada para permitir que los usuarios conecten sus historiales médicos y aplicaciones de salud como Apple Health o MyFitnessPal para obtener respuestas más personalizadas a sus preguntas sobre salud y bienestar.
La compañía destaca que se trata de una respuesta a una demanda masiva: según sus propios datos, más de doscientos millones de usuarios preguntan sobre salud al chatbot cada semana, y que la herramienta busca ayudar los pacientes a entender resultados de laboratorio, a prepararse para citas médicas o a comparar opciones de seguros.
Desde una perspectiva superficial, este movimiento puede parecer razonable: un asistente de salud digital que utiliza datos personales para contextualizar y mejorar sus respuestas, respuestas que, de todas formas, los usuarios estaban demandando y obteniendo ya. Pero si uno mira con detenimiento, resulta inevitable plantearse una pregunta incómoda: ¿es esta apuesta realmente para empoderar a los pacientes o, ante todo, para acceder a más datos médicos, uno de los activos más valiosos que aún queda en manos de los usuarios, para alimentar y fortalecer los modelos de inteligencia artificial de una compañía?
OpenAI afirma que las conversaciones dentro de ChatGPT Health no se usan para entrenar sus modelos de base y que los datos médicos «se aíslan» y protegen con un cifrado especializado. Pero esta promesa, repetida machaconamente como una advertencia legal que afirma que, «no está destinado para diagnóstico ni tratamiento», no altera el hecho de que el producto invita activamente a los usuarios a subir y enlazar sus datos de salud más sensibles. En realidad, esa insistencia en que el sistema «no reemplaza a un médico» funciona más como un escudo legal que como una barrera real que modifique el comportamiento de los usuarios.
El atractivo de poseer datos médicos estructurados y longitudinales es enorme para cualquier empresa de tecnología que busque mejorar sus modelos de inteligencia artificial. La medicina, con su riqueza de pruebas diagnósticas, historiales clínicos y narrativas de enfermedad, ofrece un terreno de entrenamiento incomparablemente más valioso que los datos de texto genéricos que han dominado el entrenamiento de LLMs hasta ahora. Aunque OpenAI no utilice esos datos para entrenamiento directo según sus términos actuales, la simple recolección y procesamiento de información estructurada de salud crea un precedente de acumulación de datos que muchas compañías pagarían millones por obtener a través de alianzas con hospitales o aseguradoras.
Además, incluso con las advertencias, existe un riesgo real de sobreconfianza por parte de los usuarios. Numerosos estudios han demostrado que los modelos de lenguaje generan respuestas que suenan médicamente plausibles aunque no lo sean, y esto no es una ocurrencia aislada: investigaciones académicas independientes han encontrado tasas no despreciables de respuestas inseguras o incorrectas en chatbots generativos cuando se les formulan preguntas médicas sensibles. Cuando una persona interpreta esto como un «segundo diagnóstico» o como una confirmación alternativa a la opinión de un médico, estamos activando una auténtica bomba de relojería.
No es una preocupación abstracta: existen evidencias de casos en los que las respuestas automatizadas sobre salud han inducido a decisiones peligrosas o a la mala interpretación de síntomas, desde retrasos en buscar atención hasta malos hábitos terapéuticos. Aunque OpenAI lanzó previamente herramientas como HealthBench, concebidas supuestamente para medir la seguridad y precisión de las respuestas de sus modelos en escenarios médicos, estos esfuerzos siguen siendo evaluaciones, no garantías de seguridad clínica.
Además de los problemas de precisión, emergen tensiones sociales claras. ¿Cuántos médicos verán a pacientes llegar a consulta discutiendo diagnósticos sugeridos por un chatbot? ¿Cuántos profesionales de la salud tendrán que dedicarse a deshacer malentendidos sembrados por una herramienta que muchos creen omnisciente, que combina datos reales con razonamientos generativos que pueden sonar convincentes, pero que no están clínicamente validados? ¿Está para eso el escaso y tasado tiempo de los facultativos? La tecnología no sólo transforma datos: transforma expectativas, narrativas personales e interacciones de confianza entre pacientes y proveedores de salud.
La propia dinámica de advertir que «esto no es diagnóstico ni tratamiento» no es inocua: muchos usuarios no están preparados para ponderar esa limitación cuando reciben una interpretación de sus análisis de sangre o un resumen aparentemente comprensible de síntomas complejos. El simple hecho de que la herramienta acceda a tu historial completo y lo sintetice puede crear en el usuario la ilusión de autoridad médica, independientemente de lo que diga la pequeña advertencia legal en letra pequeña en un rincón de la pantalla.
Por último, está la cuestión de la regulación y la responsabilidad. ChatGPT Health se presenta como un producto de consumo, no como un dispositivo médico regulado, lo que significa que no está sujeto a los mismos estándares de evidencia, supervisión ni rendición de cuentas que las herramientas clínicas. Esto abre un vacío normativo peligroso cuando los datos, por sensibles que sean, se integran en un sistema que también es un servicio masivo de inteligencia artificial con fines comerciales.
ChatGPT Health puede representar un momento definitorio en la relación entre inteligencia artificial y salud: no solo por lo que ofrece, sino por cómo y a quién lo ofrece. La promesa de empoderamiento del paciente puede ser real en algunos aspectos, pero no puede concebirse al margen de los incentivos de la empresa que lo desarrolla.
En un momento en que los datos son la materia prima de la economía digital, el acceso a historiales médicos completos no es sólo una funcionalidad, sino una jugada estratégica de enorme valor. Y mientras los usuarios celebran la comodidad de respuestas personalizadas y la aparente democratización del conocimiento médico, los límites de responsabilidad, seguridad y ética siguen siendo nebulosos y peligrosamente abiertos. Antes de aceptar que una inteligencia artificial te «ayude a navegar tu salud», convendría preguntarse si estamos preparados, como sociedad, para gestionar las consecuencias de poner un doctor digital con acceso a tus datos, pero sin regulación clínica, en el bolsillo de millones de personas.
This article is also available in English on Medium, «ChatGPT Health: personalization, power and the price of our medical data«


Además de lo que se explica en el artículo está el hecho de que OpenAI puede cambiar en cualquier momento las condiciones de servicio sin que difícilmente tenga una repercusión legal, o al menos después de haber ganado decenas de miles de millones vendiendo los datos, posiblemente más que una hipotética sanción por parte de Europa.
Eso sin contar con la protección de Trump o el que esté mintiendo y usando realmente todos los datos, que tampoco sería la primera vez.
En poco tiempo hemos pasado de consultas médicas en dos tres días, a tiempos de espera altos, o consultas a través del teléfono o video conferencia.
Que pasa, cuando tienes necesidad de un diagnóstico? O la interpretación de un informe de una prueba médica que tienes encima de la mesa?, etc,etc.
Eso por no hablar de sitios donde no hay doctor ( también es el título de un libro de hace muchos años, que servía de guía en aquellos sitios, donde un médico era una quimera?
Cada vez más, el acceso rápido a una medicina personalizada es mucho más difícil y depende como siempre de tu capacidad, económica.
Eso no quiere decir, que puede sustituir al médico, pero es que a veces. El acceso al médico es muy complicado.
Por otro lado, tampoco tiene sentido que un médico hasta arriba de pacientes (cualquier servicio de urgencia) y con horarios maratonianos, tengan que redactar un informe y explicarlo deprisa y corriendo, pudiendo dejar muchas tareas a la IA
Si se reducen los recursos por paciente de la sanidad pública y se favorece a la privada es lógico que los tiempos aumenten para los pacientes públicos.
Pero luego los votantes se olvidan de todo eso en cuanto se agita cualquier espantajo delante de ellos, así que la sanidad no debe ser tan importante.
Porque últimamente lleváis todo al plano político?
Aaaah, tú también eres de los que creen que estos temas tampoco son políticos, ¿verdad? Claro, claro, claro, y luego las cosas van como van.
O me he confundido de blog o que yo sepa es un blog tecnológico.
Relajate, que solo acaba de empezar el año.
Ninguna tecnología es neutra.
Últimamente he pensado bastante en este tema.
He encontrado estos datos
https://datosmacro.expansion.com/estado/gasto/salud/espana
parece que el gasto en salud vs PIB ha ido (en general) aumentando. Mi sensación es que la gente cada vez «se mira más» y esto colapsa el sistema. ¿A alguien se le ocurre otra causa?
A riesgo que se me trate de “racista”, “fascista” y similares…
Igual es que tenemos unos sistemas de salud dimensionados para un cierto numero de personas, y de repente, estamos sobrepasados por “número de usuarios”… Sin ir mas lejos, es lo que estamos viendo en Catalunya… unos sistemas de salud dimensionados por y para 6 millones, de repente, tenemos 8 millones (y algunos iluminados, se frotan las manos pensando en la Catalunya de los 10 millones), mientras el sistema sigue manteniendo los mismos limites/criterios. (falta de inversión, hablando claro). Si no inviertes, te saturas.
Tema a parte, es que esa inversión, pueda llegar a raíz del reparto autonómico, algo con lo que hoy, se han rasgado las vestiduras todos los que están acostumbrados al “mana del cielo”… o lo que es lo mismo… que les mantengan otros mientras ellos no aportan una leche…
(ya está, ahora a llevarme a la hoguera) XDDD
Pese al riesgo de que se me trate como «catalonófobo», «fascista» y similares…
¿Podrías explicarnos por qué escribes «Catalunya» en lugar de «Cataluña»?
Quizás por algo tan sencillo como que es mi (casi) tierra, y la escribo en mi lengua???
Igual que un inglés escribirá London y no Londres, por ejemplo…
Y por ejemplo, lo que más me encanta de estos momentos en que tenemos estas discusiones…
Es que, en realidad, soy andorrano, y me la agarráis con la mano…
Queda clara la cosa, o necesitas más incentivos…???
Y si, en el momento en que te planteas si escribir de una forma u otra el nombre de una provincia, región, etc… esta faltando al respeto a la misma… fascista no se si lo serás, pero desde luego, nada bueno sale de eso… es el respeto a la gente, al territorio, a su cultura…
No me deja responder bajo tus respuestas…
Si escribes en castellano, es Cataluña.
Pero bueno, termino aquí porque vistas tus respuestas será inútil debatir este tema contigo.
Lua
Hay topónimos que suenan raros traducidos, ejemplos:
Maguncia en vez del alemán Mainz
Mastrique en vez del neerlandes Maastrict
Sin embargo en castellano, nos suena mejor (al menos a mi) nombrar ciertas ciudadades como Londres, Munich, en vez de London o München. Y por ejemplo los italianos a Munich le denominan Monaco de Baviera, y no te digo si usamos el bávaro, que usan Minga (fuera de coñas)
En cuanto a las ciudades o regiones españolas de tanto ver los topónimos en una lengua u otra, hay una mayoría de castellano parlantes que no nos importa ver Lleida o Lérida, Girona o Gerona, o el más común Catalunya o Catalunya… creo que eso va a gusto del consumidor y de su «minga» XDDDD. Si encuentras algún tonto que le moleste, ya sabes dónalo a Vox
A modo de anécdota, cuando conocía por trabajo el pueblo de Sant Boi de Llobregat, alguien me dijo que era en castellano San Baudilio de Llobregat, y me extraño un montón acostumbrado a haberlo oido siempre en catalán… Al final usamos lo que más hemos oido…
A Pedro:
Lo primero disculparme. Ayer precisamente venia calentito, porque un instalador que vino a casa, me monto un Cristo porque mi mujer y yo, hablábamos en catalán entre nosotros (no con él) y en mi puta casa. Y tu pregunta fue la guinda del pastel.
Ahora bien… si yo no tengo problemas, porque digáis CataluÑa, Lerida o Gerona… porque vosotros si los tenéis, si decimos CataluNYa, Lleida o Girona…???
No veo que nadie se rasgue las vestiduras porque en las salidas de Madrid, diga A Coruña. O porque a San Sebastián se le llame Donostia, o a Oviedo, Ovieu… pero vaya… con la cosa catalana, ahí si… os salen sarpullidos.
Mi lengua materna es el catalán, es la lengua oficial de Andorra y la cooficial en la autonomía. Y es lógico (creo) que, o se me “escapen” o quiera mantener algunas palabras, hable en castellano o en romano-bizantino.
Si no sois capaces de entender eso, no soy yo quien tiene un problema…
A Buzz:
Si lo de Sant Boi te sorprendió, igual lo de San Cucufato por Sant Cugat del Valles, te hace explotar la cabeza… XDDD
Pedro…. una pequeña aclaracion… mi mujer es Extremeña… XDD
Claro. Que gran parte de ese gasto va a la sanidad privada mientras se estan cargando la sanidad publica. Solo con leer las noticias al respecto sobre los miles de millones que en Madrid y Andalucia reparten a los hospitales privados puedes hacerte una idea. Vamos hacia el modelo sanitario yankee.
F3R, efectos de la incesante privatización de nuestra sanidad pública.
Estados Unidos tiene el mayor gasto sanitario por habitante entre los países industrializados… y ya ves cómo tienen el patio.
«Salud en Estados Unidos: pagar más y vivir menos».
https://periodistas-es.com/salud-en-estados-unidos-pagar-mas-y-vivir-menos-192753
Magnífico. Nuestra ración de distopía mañanera.
Risas, capítulo 1:
-Hola, vengo a hacerme un seguro médico privado.
-Son 1000€ al mes. Hace tres meses usted hizo una consulta sobre cáncer a chatgpt, y hace una semana, otra sobre colon irritable.
Risas, capítulo 2:
1) Se extiende el uso de esta herramienta
2) La UE la prohíbe porque vulnera todo lo vulnerable
3) Trump tira una bomba atómica sobre Bruselas
+1000
XD
Me has arrancado, no una, si no mil risas… XDDD
Y te me has adelantado…
— ”OpenAI afirma que las conversaciones dentro de ChatGPT Health no se usan para entrenar sus modelos de base y que los datos médicos «se aíslan» y protegen con un cifrado especializado.”
Creedme… estoy dispuesto a donar 100mil lereles a quien me recite una poesía… palabra de LUA, confiad en mi…XDDDD
— ”existen evidencias de casos en los que las respuestas automatizadas sobre salud han inducido a decisiones peligrosas o a la mala interpretación de síntomas, desde retrasos en buscar atención hasta malos hábitos terapéuticos”
ya en su momento, dije (y critique) en estas líneas, el asunto de los SmartWatch y lo que me comentaban algunos amigos médicos (y algunos cardiólogos). Están hasta el moño de los que se presentan en con sus lecturas, y hasta peor… los que: ”es que he leído en Google…”
— ”Esto abre un vacío normativo peligroso cuando los datos, por sensibles que sean, se integran en un sistema que también es un servicio masivo de inteligencia artificial con fines comerciales.”
… siguiendo con lo dicho antes… es para hacerse mirar la cantidad de datos médicos que esos dispositivos han recopilado y que sin duda, tendrán mucho que ver con la prima de tu aseguradora… Ni os cuento lo que ocurrirá ahora, con miríadas de incautos, preguntando (y soltando datos) a los Gepetos…
En fin… id jugando…
Edit:
La frase era: «Están hasta el moño de los que se presentan en [hipocondriaco Mode ON] con sus lecturas»
Los simbolos me la han jugado… XDDD
Yo a veces soy de ese tipo de pesados, pero la versión de «me he mirado los papers» jaja, aunque intento ser respetuoso. Algunas veces he corroborado que los propios médicos están totalmente desactualizados (esto en la policía nacional y local ya es flagrante, por cierto).
Y sí, la acumulación de este tipo de datos es una bomba de relojería. Siempre he pensado que lo único que nos separa de la barbarie es el sistema público de salud. Y me refiero a público de verdad, no cosas como Bélgica, Alemania, etc.
Por cierto, creo recordar que en Alemania cuando pides un crédito o hipoteca, tu solicitud pasa por un organismo que analiza tu «credibilidad crediticia», lo cual suena razonable pero es lo mismo que esto.
Esto enlaza con otro debate: los impuesto que penalizan las actitudes que van contra la propia salud. Se supone que el tabaco está ultra-penalizado por los costes que acarrea tratar un cáncer de pulmón. ¿Empezaremos a penalizar a la gente económicamente porque comen demasiadas grasas? ¿porque no andan 5000 pasos al día?
En Alemania, en España y en todas partes, hijo de mi vida… el historial crediticio se mira en todas partes antes de concederte un crédito.
XD
Mi candidez viene de que nunca he pedido dinero prestado en mi vida, ni créditos ni hipotecas. Y aun así tengo casa.
Somos 2… XDDD
(Bichos raros… si…)
Hombre… yo hago 10mil… (pero es que mi barriga es Homer/cervecera) y a eso no pienso renunciar… que es un motero sin su Harley y sin su barriga??? XDDD
Bromas a parte, como fumador, siempre he dicho, que se prohíba la venta de tabaco, que desaparezcan las maquinas de los bares y los estancos. Y entonces, si. SI.
Pero eso no ocurre porque la “parte contratante” que se lleva el estado, es muy “contratante”.
En cualquier caso… mi tumor en el pulmón, esta de sobras pagado con mis impuestos al tabaco.
La pregunta no es si se van a vender esos datos médicos. La pregunta si el modelo de venta es del tipo Facebook o del tipo Google
Es decir se va a consolidar OpenAI como broker de esos datos los va a anonimizar y los va a vender a preguntas de las compañías de seguro como estadística confiable
O va Open-AI va a vender datos sin anonimizar a las compañías de seguros. Seguro que es un negocio redondo… Y aqui hay 2 negocios:
a) Que las compañías de seguros quieran a los pacientes más sanos, para ofrecerles sus pólizas
b) Que cuando ingrese en el sistema de la compañía de seguros el nombre de un posible nuevo cliente, y le salte la red flag…
Y luego tenemos el negocio tipo Apple, que ellos crean la OpenAI-Póliza, me estoy imaginando la propaganda:
«With OpenAI Insurance Card, we completely reinvented the insurance coverage. Your information lives on your iPhone, beautifully laid out and easy to understand. We eliminated fees and built tools to help you pay less for your Health, and you can apply in minutes to see if you are approved with no impact to your credit health score. Advanced technologies like Face ID, Touch ID, and OpenAI Pay help prevent unauthorized purchases. And with every consult to your doctor a you get increase in your insurance policy that you cannot spend or save. It’s everything an insurance policy should not be.»
Ahora mismo para entrar en una sociedad médica tienes que rellenar un cuestionario con todo tipo de detalles sobre tu salud ya la mínima te niegan el acceso.
Que pasa cuando has rellenado el cuestionario y lo envías por correo electrónico? Que pasa con los datos, cuando te deniegan la póliza? O cuando la seguridad informática de la aseguradora se ha visto comprometida (hace pocos años, hubo varias afectadas).
Seguros médicos, del hogar, etc etc cada vez excluyen más en cuanto ven cualquier posibilidad de palmar dinero.
Desgraciadamente desde el momento que enciendes y necesidas un móvil para cualquier tipo de gestión, estas atrapado.
Todo deja rastro.
Como se dice, los ricos consiguen lo que quieren con dinero, los pobres o con tiempo de su vida o con sus datos.
Mas de lo mismo… IH confiando el Crecepelos Trump, pero desconfiando de un bot a medio camino en su proceso de evolución… más bien en un infinitésimo.
Cuando el tipejo Trump está en el lado negativo del eje.
Soy consciente del mal uso que se puede dar a los datos sanitarios de las personas en manos de desaprensivos, pero por otra parte soy consciente del buen uso que cualq1uier médico puede obtener de poder acceder al historial médico de un persona y me siento incapaz de encontrar la forma de que sólo los médicos puedan acceder a una base de datos con el historial de los pacientes..
.
Es indudable que una AI capaz de acceder a estos datos, puede ser una magnifica ayuda en aquellos lugares del mundo donde no hay médicos, o bien esto no son especialistas, pero como digo soy consciente de los inmensos riesgos que tiene el que estos datos sean accesibles a cualquiera.
— «puede ser una magnifica ayuda en aquellos lugares del mundo donde no hay médicos»
Donde no hay médicos, una IA sirve para lo mismo que una hormigonera en el comedor de mi casa…
Si no hay médico, no hay quien interprete esos datos… o nos quieres decir que, gracias a la IA, ahora todos podemos ser médicos, y a tomar viento la carrera…??? (viniendo de ti, no me sorprendería) XDDD
Pregúntale a la IA cómo puedes superar ese odio y verás que sí es útil en asuntos médicos.
Que odio…???
Te refieres al que una maquina te diga que no «pasa nada», y de repente, te encuentres con un cáncer de pulmón???
¿Has vivido eso?
Pues cállate… por decencia…
También te digo, Gorki… lo que tú ya sabes… es feo eso de ir inventando cuentas… XDD
Como ya comenté en LinkedIn, esto es el Doctor Google con esteroides.
Hipocondríacos preguntándole a mansalva a un chatbot cuya naturaleza implica darle la razón al usuario ¿Qué puede salir mal?
Pues que las IA’s se metan en medicina es cómo con todo lo demás, y a fin de cuentas, los médicos tampoco son tan infalibles ni solícitos a nuestras consultas cómo para que no esté justificado que intentemos alternativas a nuestras consultas.
Otra cosa es el mercado que estas grandes corporaciones organicen con nuestros datos, pero eso ya es algo que ocurre con muchos otros aspectos de nuestra vida. ¿Que ahora les toca a los médicos?, pues que se j***n y se pongan las pilas.
Claro, claro… como no nos toca otra, vamos a tragar… que remedio… XDDD
Igual deberíais preguntaros porque el mundo va como va… quizás por vuestra complacencia y resignación…???
Si me meten un churro por el culo, pues que le voy a hacer… comprare vaselina… XDDD
Si preguntando «cualquier» cosa, ya tienes que ir verificando si lo que ha dicho la IA es verdad o una alucinación, ahora imagina, cuando tu salud depende de ello… a menos que tu salud te importe un huevo…
No se trata de eso: yo no voy a poner las decisiones sobre mi salud en manos de un chatbot, se trata de la gente que se rasga las vestiduras con estas cuestiones para las que sólo con un poco de sentido común debería ser suficiente.
Aunque hay cosas que parecen hacer bien, las IA’s son un bluff a las que todavía les queda mucho para merecer la «I»…
Ya que Lúa hace referencia, al parecer, al tema del sistema de salud y la inmigración sugiero la compra urgentísima como regalo atrasado de Navidad (o de Reyes) del libro Repensar la pobreza: Un giro radical en la lucha contra la desigualdad global que, aunque no se centra exactamente en el asunto que él plantea, da algunas pistas muy importantes que habría que tomar en cuenta al hablar sobre este tema. En el capítulo 3 de su versión en español, los autores cuentan, por ejemplo:
Evidentemente, estos párrafos solo ilustran una parte muy limitada de un tema muy complejo. En todo esto se entrecruzan diferentes concepciones sobre lo que es urgente y lo que no, el papel de los médicos, las medicinas que se consideran efectivas, la naturaleza de la prevención, los seguros médicos, la diferencia entre médicos de cabecera y especialistas, la atención en los hospitales públicos y en los privados, etc.
Me faltó agregar, además, que es muy importante reflexionar sobre la parte final del último párrafo:
Esto muestra que hay determinadas actitudes supersticiosas sobre temas de salud que lamentablemente tienen su origen y se consolidan en la estrechez económica, algo que debería tomarse en cuenta en las campañas de prevención de dolencias graves.
Gracias, me lo acabo de autorregalar en un pis pas… ;-)
Me parece atroz lo que cuentas, pero me temo que es totalmente correcto.
Si a una persona le duele la cabeza no parará de auto diagnosticarse hasta que obtener la respuesta que, consciente o inconscientemente, busca: es cáncer. Y por eso creo que estas son herramientas para el profesional médico y no para nosotros.
(Conociendo el problema, a esas enfermeras les propondría recetar un sobre de SRO acompañado de una inyección inocua de suero).
_
En cuanto a la referencia a Lua, eso puede pasar incluso dentro de una ciudad sin inmigrantes de por medio. Barrios que se crean y llenan de gente sin su Centro Médico que, finalmente, se crea años después.
En mi pueblo se ha diseñado un barrio completo, 5000 viviendas, entre la ciudad y la futura estación de AVE. He visto los planos y no he encontrado dónde irá ni el Centro de Salud ni los colegios. ¡PLANIFICACIÓN SEÑORES, PLANIFICACIÓN!
_
Creo que la degradación de ciertos servicios públicos obedece más a la mala, pésima, gestión que a la falta de recursos. Los políticos son cada más inútiles, y según se van retirando los funcionarios que saben hacer estas cosas, esto no hará sino empeorar.
Efectivamente, Alquimista, hay problemas en los sistemas de salud que se derivan de una mala planificación y esto se ve en muchas partes del mundo. En todo caso, en lo que me quería enfocar es en aquellos problemas derivados de una falta de conocimiento de los prejuicios, prácticas y expectativas de las personas de otros ámbitos culturales con respecto a los sistemas de salud de los países europeos. Hay funcionarios y políticos carentes de las necesarias competencias interculturales que podrían hacer que los procesos de integración (o, mejor aún, de inclusión) de los recién llegados fueran muchísimo más fáciles si es que se tomaran la molestia de leer lo que se ha escrito al respecto.
Y en cuanto a la ayuda de la inteligencia artificial en este campo, creo que sería importante analizar en qué medida estas nuevas herramientas solo son un reflejo del tiempo en el que vivimos. No recordaba en qué libro había leído los párrafos que he transcrito (el libro es de 2012) y la ayuda que me dio ChatGPT para tratar de identificarlo no fue efectiva. Al final, logré encontrar la referencia correcta en Google, pero no en su IA sino en su lista de resultados de toda la vida.
Open AI dentro de unos años:
Oferta de Suscripción a su API Seguro Médico Ciudadano que evalúa los riesgos del Asegurado solicitante y que calcula una prima estimada a cada paciente cada año. Además de su historial médico, nuestras bases de datos cruzan datos con la compra en los supermercados del paciente estimando sus hábitos alimentarios, detectamos sus ejercicio medio diario, compras en farmacias y productos nocivos. Analizados su ficha policial y la información sobre él en la dark-web.
Pack de 15 consultas al mes: 5.000 EUR
Pack Anual limitadas a 1.000: 100.000 EUR
Para packs masivos consulte precios con su agente sector seguros OPEN AI.
¿Mi salud en manos de ChatGPT después de leer que la Sala de lo Penal de un Tribunal Superior de Justicia ha acordado investigar al abogado de una de las partes por haber redactado un recurso de apelación preguntándole al ChatGPT (o herramienta similar), copiando su respuesta sin verificar que la herramienta de IA le había citado al menos siete sentencias del Tribunal Supremo y un informe del Consejo General del Poder Judicial que no existían?
No, gracias.
https://laboro-spain.blogspot.com/2026/01/buscar-sentencias-chatgpt.html