Big data

Big data


Capítulo 5. Big data en sanidad

Página 11 de 16

CAPÍTULO 5

Big data en sanidad

Introducción

Hemos hecho ya una introducción a las metodologías y tecnologías principales del big data e ilustramos algunas de las aplicaciones iniciales en el desarrollo e implantación de políticas públicas. Quizás el campo de la sanidad sea uno en los que el big data y las TIC estén cambiando de manera más perceptible las prácticas profesionales y de planificación. En este capítulo haremos un breve recorrido sobre algunos de los avances más significativos en esta importantísima área.

Diagnóstico y prognosis

El diagnóstico en medicina consiste en atribuir una enfermedad o una afección como la causa más probable asociada a los síntomas presentados por un paciente para poder determinar en consecuencia el tratamiento más adecuado. La prognosis supone emitir una predicción sobre el comportamiento futuro del paciente a partir del estado observado en la actualidad, utilizando el conocimiento adquirido sobre la evolución de otros pacientes con características similares. Tanto el diagnóstico como la prognosis conllevan, en principio, el razonamiento bajo incertidumbre. Un paciente se presenta en la consulta describiendo un cuadro de síntomas y el facultativo le hace una serie de preguntas encaminadas a recabar información relevante para tomar una decisión sobre las acciones a recomendar. Además, la historia clínica del paciente contiene información adicional que puede resultar de utilidad para el diagnóstico. Empleando la evidencia acumulada (pero también su propia experiencia anterior, su conocimiento experto y tal vez el de otros colegas), el médico, al menos intuitivamente, valora las probabilidades de que el paciente padezca las distintas afecciones que podrían explicar tal evidencia. En función de su gravedad y de las probabilidades estimadas puede recomendar la realización de pruebas médicas adicionales para reducir la incertidumbre. Estas pruebas pueden ser más o menos invasivas o molestas para el paciente, además de comportar un gasto para el sistema de salud; de ahí la importancia de una buena estimación de los riesgos.

Con frecuencia, los médicos de atención primaria manejan pequeños modelos o reglas aproximadas que les ayudan a estimar mentalmente tales probabilidades. Por ejemplo, en el tratamiento de enfermedades cardiovasculares, uno de los modelos más aceptados es el Frammingham Risk Score (Wilson et al., 1998), adaptado a las características de la población española en el modelo Regicor (Marrugat et al., 2003). Conociendo la edad del paciente y una serie de variables predictivas como la presión sanguínea, el nivel de colesterol HDL, el género del paciente o si este es fumador o padece diabetes, el modelo devuelve una puntuación que se traduce en una estimación del riesgo de contraer una enfermedad cardiovascular en los próximos diez años. Otras enfermedades tienen sus propios modelos, como el CHADS2-VASc para evaluar el riesgo de accidente cerebro vascular (Lip et al., 2010) o el índice Charlson para evaluar la comorbilidad debida a diversas causas. Desde un punto de vista estadístico, llama la atención la simplicidad de tales modelos: esencialmente son lineales con unas pocas variables y no suelen tener en cuenta ningún tipo de correlación entre ellas.

La diferencia entre un modelo tan sencillo como los índices epidemiológicos antes mencionados y un modelo de IA, que toma muchos más datos específicos para cada individuo, probablemente radique en el punto de vista y la utilidad de las correspondientes predicciones. Desde una perspectiva macro, es decir, para los responsables de diseñar una política de salud pública, la predicción puede ser más grosera porque juega a su favor la ley de los grandes números: si a partir de cuatro o cinco indicadores básicos se predicen probabilidades de supervivencia, en algunos casos se fallará por exceso y, en otros, por defecto; pero la predicción en relación con toda la población puede ser correcta al compensarse unos errores con otros. En el diseño de estas políticas se tienen en cuenta las cifras globales y quizás por eso los modelos sencillos proporcionan reglas de actuación fácilmente implementables cuyos efectos son medibles y se pueden evaluar mediante indicadores globales. Sin embargo, el asunto cambia cuando se ve desde el punto de vista de un paciente individual al que no debería dejar indiferente si el error de predicción es por exceso o por defecto. Además, si fuéramos dicho paciente, ¿cómo tendríamos que entender si un médico nos dice que en los siguientes diez años tenemos una probabilidad del 50% de adquirir una enfermedad cardiovascular? ¿Quiere decir que si vivimos 1000 veces, en 500 de ellas habremos contraído la enfermedad? Pero solo vamos a vivir una vez… ¿Quiere decir que si hay 1000 personas iguales que nosotros, 500 de ellas habrán contraído la enfermedad? ¡Pero solo hay una persona exactamente igual! La interpretación frecuentista de la probabilidad solo tiene sentido cuando se emiten predicciones sobre grandes poblaciones, pero lo pierde cuando se interpreta individualmente. En ese caso14, hemos de interpretar tal probabilidad de forma bayesiana, como un grado de creencia en que se produzca cierto hecho.

Más allá de este tipo de índices sencillos, desarrollados a partir de estudios concretos, desde hace décadas se están aplicando en diagnóstico médico sistemas expertos basados en redes bayesianas (Koller et al., 2009; Pearl, 2014), también llamados “modelos gráficos probabilísticos” (PGM). Estos modelos representan las relaciones de dependencia estadística de unas variables frente a otras y, en consecuencia, factorizan la densidad de probabilidad conjunta de todas ellas, de modo que el número de parámetros libres del modelo se mantenga en una cifra razonable y no incremente exponencialmente con el número de variables consideradas. Recordemos, como hemos visto en el capítulo 3, que un modelo no ha de tener más parámetros libres que datos de entrenamiento si queremos mitigar el problema de sobreajuste; es decir, si deseamos garantizar que el modelo generalice bien la predicción en casos no vistos previamente. Desde un punto de vista estadístico, el uso de redes bayesianas en inferencia estadística representa de manera mucho más rigurosa el proceso de cuantificación de la incertidumbre respecto a una variable (la enfermedad del paciente) conocidas una serie de evidencias (los síntomas que presenta, los datos de su historia clínica, etc.).

El problema de construcción y evaluación de una red bayesiana no es en absoluto sencillo, ya que el conjunto de síntomas y enfermedades pueden no ser mutuamente excluyentes. Los parámetros libres del modelo son las probabilidades condicionadas en cada nodo de la red y se fijan incorporando el conocimiento de expertos; o bien siguiendo un proceso de aprendizaje, ajustando dichos parámetros a los datos observados, o combinando ambas fuentes de información. El diseño de la estructura de la red se suele hacer con un criterio experto de las relaciones de dependencia entre las variables, aunque existen también métodos para aprender dicha estructura a partir de los propios datos.

Uno de los primeros ejemplos de aplicación de las redes bayesianas al diagnóstico médico fue el sistema Pathfinder I (Heckerman et al., 1992) para el tratamiento de las enfermedades asociadas a los nódulos linfáticos. Este sistema experto incluye el diagnóstico de 60 tipos de enfermedades linfáticas que, en este caso, sí se consideraron mutuamente excluyentes, tomando como datos de entrada 100 propiedades morfológicas de los nódulos obtenidas a partir de estudios de anatomía patológica, y 30 variables con datos clínicos, inmunológicos o de biología molecular relevantes para el diagnóstico. Este tipo de modelos expertos en medicina basados en razonamiento estadístico han recibido mucha atención durante las últimas décadas.

Sin embargo, si se dispone de un número suficientemente grande de casos correctamente diagnosticados para formar un amplio conjunto de entrenamiento, los modelos basados en aprendizaje profundo que veremos más adelante pueden conseguir resultados más precisos en el diagnóstico, comparables o incluso superando la capacidad humana. La diferencia fundamental estriba en que, en modelos como Pathfinder, las variables predictivas han sido seleccionadas de manera externa por un patólogo —por ejemplo, el tamaño promedio de las células o la rugosidad de la membrana— y esta selección es la que alimenta como entrada al modelo. Hoy en día se tiende a aplicar modelos end-to-end basados en redes neuronales, que toman como entrada la imagen entera sin apenas procesamiento y, a partir de ella, predicen qué tipo de enfermedad existe. Los modelos de redes neuronales profundas abstraen sus propias variables predictivas como parte de su arquitectura, aunque dichas variables intermedias no sean fácilmente interpretables, como sí lo eran las 100 propiedades morfológicas escogidas por el patólogo.

Apreciamos aquí otra característica básica del razonamiento probabilístico: la diferencia entre predicción e inferencia. La predicción se ocupa solo de evaluar la precisión del diagnóstico, evaluado sobre conjuntos de validación suficientemente amplios, sin importar la interpretación de las características que han conducido a dicha predicción y, por tanto, sin capacidad de poder actuar sobre ellas. Los modelos de aprendizaje profundo conducen a buenos resultados para las tareas de predicción, consiguiendo normalmente rendimientos superiores a cualquier otro modelo si se dispone de suficientes datos para su entrenamiento. Como vimos en el capítulo 3, esto se debe a su gran flexibilidad para aprender distribuciones de probabilidad complejas en alta dimensión. Sin embargo, estos modelos funcionan como cajas negras y no permiten, en general, extraer conclusiones o recomendaciones sobre cómo actuar sobre las variables para obtener una variación de las probabilidades predichas en el sentido deseado. Los modelos basados en redes bayesianas permiten hacer inferencia: son interpretables y aportan una representación adecuada del conocimiento experto y su incertidumbre asociados a una situación. Dependiendo de la misma se habrá de favorecer la predicción o la inferencia. Si la tarea que nos incumbe consiste en tomar una imagen médica de una escisión tumoral y clasificar correctamente el tipo de tumor, el modelo con mayor precisión en la predicción será el más útil, sin importar cómo se ha llegado a dicha conclusión. Por el contrario, si la tarea consiste en razonar sobre una serie de propiedades de un paciente (concentración de colesterol, triglicéridos, hemoglobina, etc.) y su relación con la probabilidad de desarrollar una afección determinada, no nos basta con que la predicción sea adecuada, sino que desearemos entender el papel de cada variable para actuar sobre ellas con ayuda del tratamiento adecuado.

La revolución de la IA está teniendo efectos drásticos sobre el mercado de trabajo a través de la automatización de las tareas más mecanizables. No parece que sea ese el caso de los profesionales de la atención sanitaria, pero es cierto que la inclusión progresiva de elementos de IA en la práctica médica modificará las tareas de los facultativos, que podrán delegar algunas de ellas a sistemas inteligentes y concentrar su atención en realizar las de mayor nivel. Probablemente no veremos en un futuro muy cercano robots médicos cuando vayamos a nuestro centro de salud; sin embargo, una parte importante del filtrado en atención primaria se puede realizar ya a través de chatbots, sistemas de diálogo automático que, a través de un chat en el teléfono móvil, orientan al paciente a través de preguntas y respuestas, proporcionando información y recomendando las mejores medidas a adoptar. Es evidente que un profesional de la salud llega mucho más lejos que cualquier sistema automático al evaluar esa información difícilmente cuantificable, usando lo que podríamos llamar su “ojo clínico”: el paciente tiene mala cara, no me está diciendo la verdad porque viene con un familiar, etc. El sentido común y los aspectos psicológicos y emocionales de la medicina hacen imprescindible el contacto y la atención humana. Sin embargo, la capacidad de razonar a partir de casos observados, gestionando simultáneamente multitud de factores y conociendo toda la literatura y estudios clínicos realizados es evidente que son tareas que pueden realizar sistemas de IA y que, cada vez, aportarán más una asistencia en la ayuda a la toma de decisiones por parte de los profesionales médicos.

En algunas ocasiones, un sistema de IA podrá reemplazar una consulta médica. Pongamos un ejemplo: descubrimos una mañana una manchita un poco rara en la piel y nos gustaría saber si es un lunar inofensivo o, por el contrario, un melanoma que requiera tratamiento médico. En la actualidad pediríamos cita en el sistema de atención primaria y, en unos pocos días, acudiríamos al centro de salud a ver al médico de familia. En casos muy obvios, el médico diagnosticará tras ver la mancha; sin embargo, en muchos otros, y principalmente para tener la certeza, nos derivará al dermatólogo, que nos dará cita para dentro de cierto tiempo, pongamos un mes. Tras pasar por su consulta, mirará la mancha y nos dirá de qué se trata. Los tumores cutáneos afectan a 76.000 personas en España y se han duplicado en los últimos 30 años. La mayor parte de la gente no acude al dermatólogo para revisar sus lunares y, sin embargo, la detección temprana de melanomas es esencial para su tratamiento eficaz. En muy poco tiempo dispondremos de una aplicación en el móvil en la que podremos hacer una foto del lunar y nos dirá inmediatamente su estimación sobre qué se trata. El equipo del doctor Esteva en Stanford, en colaboración con el grupo del profesor Thrun, ha desarrollado un clasificador basado en las mismas redes convolutivas profundas que ganan las competiciones de ImageNet (en particular, la red Inception v3). El clasificador logra resultados de diagnóstico más precisos que los dermatólogos humanos (Esteva et al., 2017) y realiza una predicción end-to-end tomando como entrada los píxeles de la foto y proporcionando como salida la etiqueta de la enfermedad.

Ampliando la base estadística

El modelo para clasificación de tumores cutáneos se entrenó con 130.000 imágenes correctamente catalogadas mediante anatomía patológica. Este número es 100 veces menor que los 14 millones de imágenes catalogadas en 1.000 categorías de la base de datos ImageNet15, pero 100 veces mayor que el estudio más amplio en tumores cutáneos realizado hasta la fecha. Pone de manifiesto la necesidad, ya mencionada, de disponer de conjuntos de datos correctamente anotados lo más amplios posibles para el entrenamiento de modelos de aprendizaje automático, especialmente en imagen médica.

Efectivamente, cuanto mayor sea el número de casos en un estudio, tanto más fiables serán sus conclusiones. Como hemos visto en el capítulo 3, el rendimiento de los clasificadores crece con el tamaño del conjunto de entrenamiento, especialmente en el caso de modelos muy flexibles como las redes profundas. En otros sectores, como hemos discutido a lo largo de otros capítulos, las compañías recopilan datos de forma muy ingeniosa, con frecuencia ofreciendo servicios gratuitos a los usuarios a cambio de datos con los que entrenar sus modelos. En el caso de los datos de salud, se requiere de manera necesaria una cooperación entre instituciones públicas para compartir pruebas diagnósticas e historias clínicas del mayor número posible de pacientes. Esto conlleva retos en varias direcciones. En primer lugar, un importante reto técnico se debe a la inexistencia de un formato estándar para las historias clínicas a nivel global; a pesar de los esfuerzos y millones de líneas de código escritas por Microsoft, Google y, más recientemente, Apple, ninguna compañía ha conseguido estandarizar el formato para el intercambio de historias clínicas (EHR, Electronic Health Records) y la situación sigue siendo una torre de Babel con muchos sistemas que no se entienden entre sí. En España, al tener un sistema sanitario público más o menos centralizado, la situación es ligeramente mejor, pues el proyecto Historia Clínica Digital del Sistema Nacional de Salud ha conseguido, en el momento de escribir estas líneas, que las comunidades autónomas, con la excepción de Cataluña, compartan algún documento de la historia clínica. Los documentos compartidos, en número superior a 200 millones, son principalmente la historia clínica resumida, mientras que los resultados de pruebas de laboratorio o imágenes médicas son solo compartidos, de momento, por seis de ellas (HCDSNS, 2019).

Además, las dificultades no son puramente técnicas, sino también de índole económica, legal o política. Sin embargo, existe una percepción creciente de la importancia de compartir datos médicos sobre una base amplia, no solo para garantizar la atención médica de personas desplazadas respecto de su residencia habitual, sino para posibilitar la realización de estudios estadísticos sobre enfermedades específicas. En el caso del cáncer, por ejemplo, que concentra una proporción importante de recursos, la iniciativa Genomic Data Commons del NIH estadounidense16 agrupa ya más de 30.000 genomas secuenciados para acceso público de los investigadores. Otros estudios específicos han conseguido reunir diferentes centros para crear una base de datos lo más grande posible y la han puesto al servicio de la comunidad investigadora a través de competiciones, en algunos casos con cuantiosos premios para los equipos con mejores resultados. Un ejemplo es la competición lanzada en la plataforma Kaggle para la detección de cáncer de pulmón a partir de imágenes de tomografía axial de la cavidad pulmonar, siendo el objetivo la predicción de que el paciente fuera diagnosticado con cáncer de pulmón en el año siguiente a la realización de la prueba, con datos verificados mediante anatomía patológica. En la ella participaron 400 equipos y fue patrocinada por Amazon AWS, NVIDIA y parte de la Data Science Bowl, una competición anual en ciencia de datos que ha dedicado sus últimas tres ediciones a problemas en biomedicina.

Aprendizaje profundo para diagnóstico por imágenes

Como se ha mencionado, uno de los impactos más inmediatos de la IA y la ciencia de datos se está produciendo en las especialidades de radiología y anatomía patológica gracias a la mejora en las tareas de clasificación y segmentación de imágenes con ayuda de redes convolutivas, un tipo de redes neuronales profundas adaptadas al procesamiento de imágenes. La labor de un patólogo consiste fundamentalmente en estudiar imágenes al microscopio de muestras obtenidas por biopsia y determinar si se corresponden a tejido sano o no y, en el segundo caso, clasificar el tipo de tumor. También suelen determinar si los bordes de una escisión están libres de tejido tumoral y, por tanto, han de localizar dentro de cada imagen qué tejido es sano y cual no. Estas tareas se conocen como “clasificación de imágenes” y “segmentación de objetos en visión artificial”. Los algoritmos actuales basados en redes convolutivas profundas presentan ya, en tareas de reconocimiento más convencionales como las del ImageNet Large Scale Visual Recognition Challenge (ILSVRC), rendimientos superiores a la capacidad humana.

Usando estos modelos con una base de datos suficientemente grande de imágenes médicas correctamente catalogadas, y aplicando aprendizaje por transferencia, se están de­­sarrollando clasificadores automáticos para apoyar la labor de los patólogos y radiólogos. Por ejemplo, para la detección de metástasis de cáncer de mama en nódulos linfáticos, cinco hospitales holandeses han coordinado recursos para reunir mil imágenes y organizar el Camelyon Grand Challenge17 para resolver un problema de segmentación de imágenes para el reconocimiento de tejido tumoral. La importancia de automatizar la realización de esta tarea puede cambiar el tratamiento quirúrgico de esta enfermedad. En la actualidad, tras la detección de un tumor y una operación para extraer la zona afectada, se envían los resultados de la biopsia a un patólogo para determinar si los bordes están limpios y todo el tumor ha sido correctamente extraído. En caso contrario, ha de realizarse una segunda intervención. Una empresa suiza18 ha desarrollado un escáner histológico que permite al cirujano observar un tejido recién resecado y determinar en tiempo real durante la intervención si todo el tumor ha sido extraído antes de cerrar la herida. Ante la imposibilidad de tener un patólogo presente en cada operación, un software de IA aplicando resultados similares a los de la competición anterior haría esta tarea. Es importante señalar que esto no sustituirá las pruebas patológicas, pero dotará al cirujano de mayor control e información sobre el resultado de la operación mientras esta se desarrolla y logrará que la intervención sea menos invasiva para el paciente.

Junto a los ya mencionados estudios sobre diagnóstico automático de cáncer de la piel sobre fotografías y de detección de metástasis de cáncer de mama sobre imágenes histológicas, otros ejemplos recientes de aplicación del aprendizaje profundo a diagnóstico por imágenes incluyen:

La distinción entre zonas de radionecrosis y tumores cerebrales en imágenes por resonancia magnética.

La detección y medida de aneurismas cerebrales.

El diagnóstico de edemas, enfisemas y otras enfermedades en imágenes de radiografía torácica.

Naturalmente, las empresas no permanecen ajenas a estos desarrollos y están ya convirtiendo la patología computacional en una realidad: desde pequeñas startups nacidas de la labor de investigadores como PathAI19 hasta grandes corporaciones como Google, NVIDIA o Phillips20, entre otras.

Sensores portátiles, redes sociales y salud pública

El desarrollo de sensores de tamaño reducido y bajo consumo, junto a su interconectividad, está dado lugar a una serie de dispositivos destinados a ser llevados en todo momento como una prenda más de vestir, a veces incluso como extensión de nuestro cuerpo. Son los denominados dispositivos portátiles (wearables). Su versión más conocida son las pulseras y relojes de actividad que monitorizan constantemente nuestros hábitos de actividad física, desde el número de pasos que damos hasta las horas de sueño, nuestro ritmo cardíaco o las calorías consumidas, pero las posibilidades son mucho más amplias (figura 5).

Los dispositivos portátiles pueden medir la actividad muscular con un electromiógrafo incorporado a la ropa (Finni, 2007), la actividad física y los patrones de sueño a través de un acelerómetro instalado en el reloj (Yang, 2010), el estrés con un sensor electrodérmico en una pulsera (Sandulescu, 2015) o el ciclo menstrual monitorizando la temperatura (Rollason, 2014). Además, se pueden medir los niveles de atención mental con un pequeño número de electrodos EEG sin necesidad de gel (Poltavski, 2015) o los niveles de interacción social, muy importantes para la depresión y otras enfermedades mentales, a través de sensores de proximidad mediante conexión bluetooth (Eagle, 2009).

Figura 5

Dispositivos portátiles y propiedades que son capaces de medir.

Estos dispositivos proporcionan información personalizada en tiempo real, con alertas orientadas a objetivos, y tienen una larga vida útil debido a su bajo consumo. En la actualidad, muchos de ellos precisan de un smartphone para el procesamiento de los datos pero, en un futuro próximo, toda la funcionalidad de cálculo se integrará en los propios dispositivos. Hay además otros en fase de desarrollo o en proceso de aprobación por la FDA, la agencia americana responsable de la regulación de alimentos y medicamentos. Algunos que ya empiezan a anunciarse en el mercado incluyen:

Sensores en la espalda para ergonomía y corrección postural.

Sensores de calidad en el aire incorporados a inhaladores.

ECG y monitorización continua del ritmo cardiaco para detección de fibrilación atrial.

Gafas inteligentes con cámara incorporada y servicio de asistencia para invidentes.

Parches digitales desechables para la monitorización continua de temperatura en bebés.

Sensores para registrar la exposición a radiación ultravioleta.

Electrodos para aliviar el dolor crónico.

Parches cutáneos que detectan cambios en la temperatura para la detección temprana no invasiva del cáncer de mama.

Lentillas con sensores para medir la glucosa en las lágrimas, para el seguimiento de la diabetes.

Dispositivos digitales ingeribles: píldoras fabricadas en torno a sensores del tamaño de un grano de pimienta que se activan al contacto con los jugos gástricos y emiten información (esencialmente una confirmación de que el paciente ha tomado la medicación).

La lista parece no tener fin y, más allá de la evidente demostración del ingenio humano y el afán de las compañías por conquistar nuevos mercados, cabe hacerse una serie de preguntas. La primera de ellas es si las mediciones de estos dispositivos son realmente fiables (al nivel de los estándares de instrumentación médica) o, por el contrario, han de ser considerados como meros gadgets electrónicos, poco más que juguetes para el mercado de consumo. En segundo lugar, es razonable que cuestionemos si el empleo que los usuarios hacen de la información recibida es positivo o negativo para su salud y les acerca a los objetivos para los que los adquirieron. Igualmente, podemos preguntarnos por el uso que hacen las compañías fabricantes de la información recopilada de todos los dispositivos conectados, almacenada en sus servidores.

Respecto a la fiabilidad de las medidas, cabe distinguir entre dispositivos de monitorización de la actividad, como pulseras y relojes inteligentes, y otros sensores destinados a pacientes con enfermedades crónicas. Los primeros están dirigidos fundamentalmente a promover un cambio de hábito para llevar una vida más saludable, fin que persiguen a través de objetivos, gamificación e interacción con redes sociales. Sin embargo, está comprobado que las personas que compran principalmente este tipo de gadgets son de por sí las que tienen hábitos más desarrollados de actividad física y alimentan su actividad con información para cuantificar cada pequeño esfuerzo o avance, como describe el movimiento Quantified Self21. Además de existir variaciones considerables entre las medidas de actividad realizadas por diferentes dispositivos, la evidencia de los pocos estudios científicos realizados hasta la fecha no es concluyente sobre sus potenciales beneficios: el 50% de los compradores abandonan el dispositivo durante el primer año de uso y no está comprobado que dichos dispositivos mejoren la calidad del sueño. En los dispositivos orientados a medir parámetros fisiológicos para monitorizar pacientes crónicos, el nivel de precisión de las medidas está sujeto a un fuerte control por parte de la FDA americana, que también regula las aplicaciones que se distribuyen en los marketplaces de Apple y de Android. Cabe esperar, por tanto, que se comercialicen dispositivos y aplicaciones que mantengan unos estándares mínimos de fiabilidad. Sin embargo, la fuerte presión de las compañías tecnológicas, al igual que las farmacéuticas, siempre nos hace albergar alguna duda, dado el inmenso mercado e intereses económicos alrededor del mismo. Como ejemplo, la FDA ha permitido a Apple incluir en su smartwatch dos funcionalidades para medir el ritmo cardiaco y alertar de anormalidades en el pulso, pero impone que dicha funcionalidad no debe ser utilizada por personas menores de 22 años ni pacientes que hayan sufrido fibrilación atrial: su uso está aprobado fundamentalmente para personas sanas. Las Google Smart Lenses, lentillas que miden el contenido de glucosa en las lágrimas para control de diabetes, por ejemplo, son un proyecto que no se ha continuado debido a que el contenido de glucosa en lágrimas presenta baja correlación con la glucosa en sangre. La app para medición de la fase del ciclo menstrual que se comercializa en el marketplace de Android por 80 dólares al año ha sido aprobada por la FDA y por las autoridades europeas en febrero de 2018, pero ha recibido numerosas denuncias de embarazos no deseados que ponen en duda los niveles de eficacia de control de la natalidad declarados por la compañía.

¿Qué podemos afirmar entonces respecto a la efectividad de estos dispositivos? Al estar en una fase inicial de desarrollo, son muchos los proyectos y compañías que luchan por conseguir convertirse en el estándar en cada sector y, naturalmente, muchos de ellos están en fase de perfeccionamiento. Independientemente de la fiabilidad de las medidas, los especialistas alertan del riesgo de autodiagnóstico realizado a partir de la información adquirida a través de estos dispositivos, fenómeno que ya se da en pacientes que acuden a la consulta con una enfermedad autodiagnosticada tras búsquedas en internet, a veces incluso con petición expresa de que el profesional les recete el medicamento que ellos han determinado.

Pero quizás el verdadero interés de la información recopilada por los dispositivos móviles no reside tanto en el uso individual que cada usuario hace de ella, sino en las posibilidades de estudios científicos y el avance en el conocimiento que abre su tratamiento colectivo. En salud pública, el tener acceso a tanta información personalizada sobre los hábitos de actividad, sueño y parámetros fisiológicos —aunque dicha información sea ruidosa por mediciones imperfectas— supone un recurso muy valioso para monitorizar el estado de salud de la población. Podemos, de hecho, citar los siguientes ejemplos de estudios concretos:

Se está desarrollando un proyecto de crowdsourcing gracias a la instalación de GPS y sensores para medir la calidad del aire en inhaladores, facilitando estudios de incidencia del asma en función de la polución, que utilizan datos sobre la frecuencia de uso del inhalador, la posición y la calidad del aire en ese punto.

La iniciativa PPD-ACT, promovida por un consorcio de más de 30 investigadores en siete países, tiene como objetivo el estudio de la predisposición genética a la depresión posparto e incluye una app para recabar información a través de preguntas y el envío de un kit para recopilar muestras de saliva.

El proyecto Epi Watch de la Universidad Johns Hop­­kins recopila información sobre episodios de epilepsia medidos a través del acelerómetro y giroscopio de un smartwatch, con una app con juegos para evaluar el impacto tras un episodio y trazar la influencia de la medicación y el ritmo cardiaco.

Otros proyectos de recopilación de información a través de dispositivos digitales para estudios clínicos están enfocados a la enfermedad de Parkinson (mPower), la diabetes (GlucoSuccess), la Hepatitis C (C Tracker) o el tratamiento del autismo (Autism & beyond). Todos ellos se integran dentro de la plataforma Research Kit de Apple, que está apostando fuertemente por consolidar su posición en el mercado de las TIC aplicadas a la salud. Al aumentar en varios órdenes de magnitud la base estadística para estos estudios, por las facilidades introducidas para la recogida de datos, es evidente que muchos de ellos tendrán un alto impacto en nuestra capacidad de generar nuevo conocimiento.

Un aspecto que —probablemente debido al rápido desarrollo requerido por el mercado de consumo— no está teniendo suficiente atención en los dispositivos wearables es el referido a la seguridad en el almacenamiento y tratamiento de la información. Suele hacerse sin encriptación, permitiendo el acceso físico; pero, además, siendo dispositivos conectados, dichos datos podrían ser comprometidos para realizar cualquier actividad de espionaje, seguimiento, etc. Aunque la información de cada usuario en las bases de datos de los fabricantes se haga de manera anónima sin incluir datos personales, es importante resaltar que la mera sustitución del nombre por un código de usuario no suele proporcionar una anonimización robusta (De Montjoye, 2015) y permite identificar al individuo, lo cual tiene especial repercusión al ser los datos de salud particularmente sensibles. Rizando el rizo, unos investigadores han demostrado que las mediciones del acelerómetro y giroscopio de una pulsera de actividad son suficientes para reconstruir el movimiento de la mano al insertar un código pin de seguridad (Wang et al., 2016).

También se están explorando en el ámbito de la salud las posibilidades que abre el análisis de la información escrita a través de procesamiento de lenguaje natural. Hace unos años, Google puso en marcha el servicio Google Flu Trends, que escaneaba las búsquedas con términos relacionados con la gripe para así adelantarse a los brotes estacionales (Ginsberg, 2009) y facilitar las campañas de vacunación. Algunas iniciativas similares se están empleando para la detección de movimientos sísmicos y monitorizar las redes sociales como flujo continuo e incesante de información (nowcasting). Las predicciones de Google Flu Trends ya no se hacen públicas desde 2015 al descubrirse, tras algunos estudios, que tenían tendencia a sobrestimar el número de casos, pero la colaboración con grupos de investigación para afinar las predicciones sigue vigente. En general, la información contenida en el lenguaje natural que producen las redes sociales es altamente ruidosa, pero en los próximos años se espera que mejoren las herramientas capaces de extraer, filtrar y analizar la información relevante para estudios en epidemiología y salud pública, como ya se está haciendo en otros sectores. Otras aplicaciones del PLN en el ámbito de la salud se referirían a la realización de predicciones de reingreso a partir de los informes de alta, lo que permite planificar recursos en los hospitales, o los ya citados chatbots para filtros de atención primaria.

Por último, aunque no está directamente relacionado con big data, sino con TIC en general, querríamos mencionar algunos de los avances que se están desarrollando en telemedicina, que permiten que la atención sanitaria llegue a zonas remotas usando los avances en comunicaciones digitales. Un ejemplo de programa piloto es el desarrollado por Novartis y el servicio de salud de Ghana en colaboración con empresas globales de telecomunicaciones, universidades y ONG. El piloto abarcó 30 comunidades rurales conectando a 35.000 personas con un centro de consulta telefónica atendido por profesionales, proporcionando acceso digital durante las 24 horas del día. El éxito de este programa piloto ha propiciado su extensión al resto del país y demuestra que disponemos ya de la tecnología necesaria para acercar la atención médica a zonas remotas. La telemedicina puede ser clave para ampliar la cobertura de salud universal, uno de los principales requisitos de los denominados Objetivos de Desarrollo Sostenible de la ONU. Pero no solo en atención primaria; también se realizan ya cirugías laparoscópicas con robots conectados a internet controlados por un cirujano a miles de kilómetros del paciente, usando una tecnología inicialmente concebida para operar a astronautas en el espacio. Este tipo de intervenciones abren inmensas posibilidades, aunque ahora mismo se encuentran limitadas por la ausencia de una normativa al respecto dadas las dudas sobre qué legislación se aplicaría en caso de que algo saliera mal.

Para saber más

Una discusión breve y certera sobre cómo las tecnologías vinculadas al big data y la IA están influyendo en la medicina clínica puede leerse en la prestigiosa revista New England Journal of Medicine (Obermeyer, 2016).

A pesar de que el aprendizaje profundo es relativamente reciente, su impacto y nivel de actividad en imagen médica ha sido tan grande que ya existen varias revisiones de la literatura (por ejemplo, Shen et al., 2017) donde el lector interesado encontrará además una discusión sobre las implicaciones de estos algoritmos en anatomía patológica.

Desde el punto de vista de la implantación de disposi­­tivos móviles y tecnología digital en la práctica médica, es interesante consultar el informe realizado por la consultora Cello Health (Mannu, 2015). Aunque se trata de un informe preparado para analizar las necesidades de la industria farmacéutica en relación con las tecnologías digitales, contiene datos recopilados de una encuesta realizada a 1.000 profesionales en ocho países. Una discusión técnica más rigurosa desde el punto de vista científico se puede consultar en Piwek, (2016).

A pesar de haber cubierto un buen número de desarrollos recientes dejamos también numerosos temas en el tintero, lo cual es una evidencia más del vertiginoso ritmo y la amplitud de aplicación de las TIC, la ciencia de datos y la IA en ciencias de la salud. Por ejemplo, apenas hemos mencionado la investigación genómica, que hace un uso intensivo de datos de expresión genética y la IA para el desarrollo de nuevos fármacos especialmente diseñados para un individuo específico a partir de su respuesta esperada (medicina genómica personalizada). En los mecanismos para garantizar la seguridad e integridad de los datos médicos compartidos no hemos mencionado los muchos proyectos encaminados a aplicar las cadenas de bloques (blockchain) en el ámbito sanitario, ni tampoco el papel que, respecto de las nuevas fuentes de información, jugarán las mutuas y aseguradoras médicas.

Ir a la siguiente página

Report Page