El futuro y los datos de salud

IMAGE: GoInvo (CC - BY SA)

La evidencia de que Google está trabajando con datos de salud de millones de norteamericanos, supuestamente para desarrollar algoritmos capaces de diagnosticar determinados tipos de problemas médicos, de manera completamente legal de acuerdo a la legislación del país, hace saltar las alarmas de privacidad, alarma que crece cuando un empleado de la compañía escribe un artículo anónimo en The Guardian denunciando la práctica y mencionando específicamente la falta de anonimización de los citados datos y sus inseguridades con respecto a sus posibles usos en el futuro.

La práctica, conocida internamente como Project Nightingale y en la que un total de 250 empleados de Google y de la compañía Ascension trabajan conjuntamente, es sin duda un proyecto interesantísimo, pero en el que resulta fundamental asegurar que determinadas prácticas cumplen con los requerimientos que todo programa que trabaja con datos de máxima protección en términos de privacidad debería cumplir. La matriz de Google, Alphabet, que también trabaja en temas relacionados con la salud a través de otras de sus compañías como Calico o Verily, o mediante la reciente adquisición de Fitbit, no es la única empresa tecnológica interesada en la recopilación de datos y su análisis: Apple lleva tiempo incorporando médicos a su plantilla y trabajando con entidades como Stanford en el desarrollo de macroestudios con casi medio millón de usuarios que ofrecen los datos de ritmo cardíaco que brindan sus Apple Watch, y Amazon parece también haber puesto sus ojos en el mercado del cuidado de la salud.

Este tipo de estudios, que aplican la disciplina del machine learning y el evidente expertise de estas compañías en el tratamiento de datos masivos al ámbito de la salud, constituyen sin duda una nueva frontera en el campo de la medicina, donde habitualmente los estudios se circunscribían a cantidades de datos muy inferiores y a otro tipo de planteamientos infinitamente menos ambiciosos, y ofrecen la posibilidad de desarrollar grandes avances en un entorno que interesa a toda la sociedad. La alarma en este sentido, sin embargo, puede llegar a estar justificada si los estudios tienen lugar en unas condiciones que permitan que, por acción o por omisión, los datos de salud de sus participantes puedan quedar expuestos o ser utilizados para fines diferentes a los originalmente establecidos, o si simplemente se demuestra que su recolección no responde a patrones que permitan, por ejemplo, tomar decisiones de exclusión, como todo indica que parece estar produciéndose.

El progreso de la ciencia médica es, sin ninguna duda, algo a lo que prácticamente cualquier persona querría contribuir, por fines que van desde lo más personal – mejorar el tratamiento de las propias enfermedades o problemas de la persona – hasta los más altruistas – mejorar el tratamiento de las enfermedades en su conjunto para el bien de la humanidad. Pero eso no implica que ese tipo de estudios deban tener lugar en ausencia de controles rígidos sobre su desarrollo, con una trazabilidad completa de los datos empleados, con los permisos adecuados de los participantes, sin buscar recovecos y argucias legales para evitar la petición de esos permisos, u olvidando la condición de datos de especial protección que tienen los datos de salud. Que estés buscando el Santo Grial no justifica que lo busques de cualquier manera, y trabajar con la idea de que el fin justifica los medios puede, de hecho, llegar a estropear algo que ofrece unas posibilidades impresionantes e interesantísimas. 

Por otro lado, es importante tener en cuenta la reputación de algunas compañías tecnológicas con respecto al tratamiento de los datos personales, y las alarmas que esa reputación pueda generar en los participantes. Los participantes deben contar con la oportunidad de decidir libremente si quieren que sus datos sean incluidos o no, y de hacerlo de manera clara e inequívoca, sin enfrentarse a formularios confusos que otorguen permisos ilimitados o a consentimientos firmados en ausencia de información clara. Solo de esta manera conseguiremos avanzar en una disciplina enormemente prometedora que puede contribuir muchísimo al bienestar de la humanidad, pero que no puede ni debe desarrollarse de ninguna manera en condiciones de oscuridad. Además, sería interesante plantearse hasta qué punto no deberíamos obligar a que este tipo de investigación tenga lugar en un entorno completamente open source, en el que todas las compañías estén obligadas a colaborar, con conjuntos de datos anonimizados pero públicos y compartidos, en lugar de con compañías compitiendo para atesorar más datos que la de al lado y compitiendo para ser las primeras en ser capaces de poner servicios en el mercado: si el código abierto ha demostrado ser el entorno de desarrollo más dinámico que las sociedades humanas han sido capaces de crear en la historia, posiblemente deberíamos replantearnos qué tipo de condiciones queremos generar para algo tan importante como descifrar la ciencia que nos ayuda a mejorar nuestra salud.


This article was also published in English on Forbes, «How are we going to use our health data for public, not private, good?«


8 comentarios

  • #001
    Tarquinio - 16 noviembre 2019 - 12:37

    Si el asunto deriva en un bien publico y son datos anonimos ,genial……mientras no haya ánimo de lucro de la plataforma que cede los datos.
    Y vista la imposibilidad de que quien lo cede o vende, pague a los usuarios por sus datos, que lo pague como impuestos, y lo revierta a la sociedad.

    Y la ultima idea de almacenarlos open source, muy buena, excepto que no veo como llevar a cabo lo de obligar a una tecnológica, cuando ni siquiera se puede obligar a facebook para que deje de publicar fake news a sabiendas de que lo son.

  • #002
    Gorki - 16 noviembre 2019 - 13:44

    Imaginemos que la ML que se alimenta con todos estos datos esccapaz de predecir con fiablilidad el riesgo de que vayas a padecer enfermedades crónicas, cardiacas, hepáticas, psicóticas etc…

    En principio es maravilloso, cabe hacer una medicina preventiva, hoy inexistente, que reduzca significativamente el que realmente se genere la enfermedad prevista..

    Sin embargo veo un riesgo, indudablemente en la fase de selección para cubrir un puesto de trabajo, como ahora te hacen una revisión médica, te harán un chequeo con la ML médica. ¿Te dará trabajo estable, si la máquina detecta riesgo de que adquieras una enfermedad crónica?

    ¿No existe el riesgo, de que al actual grupo de enfermos crónicos, se sume una muevo grupo de «futuros inválidos», que hoy están perfectamente sanos y hasta es posible que nunca se les presente la enfermedad, precisamente por la medicina preventiva.?

  • #003
    Antonio Gregorio Montes - 16 noviembre 2019 - 20:54

    totalmente de acuerdo con las consideraciones finales.

  • #004
    Julián - 16 noviembre 2019 - 21:09

    Me sorprende que escribas «de manera completamente legal de acuerdo a la legislación del país» cuando en el artículo de la denuncia se indica que hay una «federal inquiry» de por medio para juzgar la legalidad de los métodos de Google.

    Me parece horroroso que no se haya anomizado la información médica antes de cederse fuera del wntorno médico.

  • #005
    LEON - 18 noviembre 2019 - 12:42

    La inmensa mayoría de los avances humanos han tenido contrapartidas negativas, en algunos incluso las negativas han superado a las positivas, recordemos la energía atómica que ha sido un fiasco en sus aplicaciones civiles, mientras que además de los miles de muertos directos, han sumido y aún mantienen al mundo en el terror a un holocausto masivo.

    No se puede negar el inmenso valor de nuevas tecnologías como el Machine Learning o la Inteligencia Artificial, ambas vienen con sus contrapartidas negativas, toca evaluar esas consecuencias y tratar de minimizarlas.

    Que este conocimiento esté en manos de empresas privadas es muy poco tranquilizador, pero tampoco tranquiliza que estén en manos de gobiernos, la experiencia con la energía atómica así lo indica.

    Es de suponer que habrá que regular, al menos intentarlo, el uso que se da a esas tecnologías, antes incluso que se desarrollen plenamente, lo difícil va a ser como hacerlo porque los legisladores no parecen saber cual es el problema así que dificilmente van a poder aportar una solución.

  • #006
    LEON - 18 noviembre 2019 - 13:41

    ¿Y si para controlar a donde van nuestros datos y el uso que se haga de ellos empleamos técnicas de trazabilidad?

    Al igual que se hace en otros campos como la alimentación, se podría incorporar una etiqueta en los datos que enviamos a cualquier empresa que nos los solicite de forma que si estos datos son transferidos a un tercero, esa etiqueta define de donde proceden y el camino seguido hasta su destino.

    Eso facilita el control legal de la circulación no autorizada de datos y permite conocer que empresa hace un uso inadecuado, así como legislar para castigar esos comportamientos.

  • #007
    X@os - 19 noviembre 2019 - 12:46

    No nos engañemos, cuando disfrutamos de productos gratuitos, como es el caso de la mayoría de aplicaciones de Google, es porqué en realidad el PRODUCTO somos nosotros.

    Otra cosa es el caso del mercadeo de datos personales al INE por parte de las grandes telefónicas, sin posibilidad, como en el caso de Movistar, de que el usuario se niegue a la cesión de los mismos. Estos sí que son servicios de pago y el respecto y la defensa de la/s compañía/s por los usuarios es 0.

    • Gorki - 20 noviembre 2019 - 21:15

      No nos engañemos, cuando disfrutamos de productos gratuitos, como es el caso de la mayoría de aplicaciones de Google, es porqué en realidad el PRODUCTO somos nosotros.

      Cierto es algo conocido, pero también lo eres cuando pagas. Si vas a un hipermercado, aparte de pagar la comprar la compra, te toman datos.
      La matricula al aparcar y al salir y adjuntan a esos datos a la factura, te validan el tiket de entrada (¿para qué?),

      Si pagas con tarjeta de Crédito, ni te cuento los datos que dejas, no solo en el supermercado, sino tambien en Telefonica y en el banco,

      Además, en el interior del hipermercado, unas cámaras ven donde para y por donde pasas, si vas con carrito grande o cesto, solo o acompañado…. Todos son datos que vamos dejando.

      Y si, también tu teléfono móvil va dejando rastro de su paso, pero solo es uno mas en la producción de datos que generamos constantemente.
      .

Dejar un Comentario

Los comentarios están cerrados