Tecnología para todos: términos digitales para este milenio

Tecnología para todos: términos digitales para este milenio

Es evidente que los avances tecnológicos son imparables y marchan a una velocidad tan frenética que los jóvenes que actualmente están estudiando la ESO trabajarán en profesiones que todavía no se han inventado.Read more


¿Brecha o abismo digital?

¿Brecha o abismo digital?

Mi sobrino de 15 años “wasapea” periódicamente con su abuela, que ya ha cumplido los 80. Él nació con una tablet en una mano y un smartphone en la otra. Ella tuvo que desprenderse de todos sus miedos, carencias y complejos para aprender. Obligada por las circunstancias de vivir en ciudades distintas, algo que nunca pensó que tuviera que aprender para poder comunicarse con su nieto, salvando así el abismo digital que les separa.

Es evidente que vivimos en una sociedad digitalizada. A excepción de las compras por internet, las cuales podrían ser incluso prescindibles, cosas como pedir cita en el médico, realizar gestiones con la administración o recibir y pagar los recibos de las empresas suministradoras son gestiones que en muchos casos ya no se pueden hacer de forma “analógica”. Esto nos obliga a todos a realizarlas a través de un ordenador o un teléfono con conexión a internet.

Para mi sobrino, cualquiera de estas acciones resulta algo normal. No en vano es un “nativo digital” como se denomina a los nacidos en esta era hiper tecnológica. Pero para mi madre, su generación y generaciones aledañas supone un grandísimo esfuerzo cuando no una tremenda desesperación y frustración por no tener los medios y/o conocimientos necesarios para poder hacer ese tipo de tareas y gestiones sin ayuda.

 

¿A qué denominamos “brecha digital”?

 

Hablar de “brecha digital” es sinónimo de desigualdad en el acceso, uso o impacto de las Tecnologías de la Información y la Comunicación (TIC) entre grupos sociales determinados en base a criterios económicos, geográficos, de género, de edad o culturales.

Esta brecha se ha acrecentado a raíz de la pandemia en la que la única posibilidad de hacer determinadas gestiones ha sido (y sigue siendo) a través de internet. Una brecha que tienen que salvar muchas abuelas y abuelos, o madres y padres en su día a día y en tareas imprescindibles. Una brecha que en ocasiones se convierte en verdadero abismo debido a la imposibilidad de hacer determinadas gestiones de una forma que no sea exclusivamente de forma “digital”.

 

Innovación + tecnología = mejor servicio

 

Evidentemente los avances y modernizaciones de la tecnología nos hacen, en la mayor parte de las ocasiones, ahorramos tiempo y recursos. Además, ganamos en comodidad… siempre y cuando sepamos realizar las tareas y dispongamos de los medios necesarios a nuestra disposición para poder realizarlas.

Lo que ha ocurrido es que la evolución de la tecnología ha sucedido muy rápido. No nos hemos preocupado de poner los medios ni de enseñar a nuestros mayores y/o a los colectivos más vulnerables que por circunstancias sociales, económicas o geográficas no han podido acceder a formación en competencias digitales.

 

Tipos de brecha digital

 

Podemos decir que existen tres tipos de brecha digital:

 

  • Brecha de acceso. Tiene que ver con las posibilidades que tienen las personas para acceder a los recursos digitales como puede ser una conexión a internet (todavía hay pueblos en España que carecen de cobertura). Dependerá básicamente de temas socioeconómicos.
  • Brecha de uso. En este caso hablamos de la falta de competencias digitales de las personas que impide el manejo de la tecnología.
  • Brecha generacional. La población más envejecida, que ha llegado algo más tarde al cambio y, por tanto, no ha recibido ningún tipo de formación en competencias digitales. Una brecha que se acrecienta todavía más si a este factor de la edad unimos las desigualdades económicas y geográficas. Pero no sólo los mayores, también los más jóvenes encuentran peligros que les dejan fuera de juego.

 

Consecuencias de la brecha digital

 

La discriminación tecnológica es una forma de pobreza y exclusión social que priva a algunos ciudadanos de recursos esenciales para el desarrollo normal de su vida. Lo que ocurre por ejemplo en lugares remotos de nuestra geografía donde no hay acceso a internet. Esa carencia provoca falta de comunicación y aislamiento en la población.

Genera también una barrera a los estudios y al conocimiento y acentúa las diferencias sociales, ya que el analfabetismo digital reduce las posibilidades de encontrar empleos de calidad lo que tiene un impacto negativo en la economía de los trabajadores.

Discriminación de género. La brecha digital afecta negativamente a las mujeres más que a los hombres, lo que viola los principios de igualdad de género. Y finalmente tenemos una discriminación por edad ya que las personas más mayores no han tenido la oportunidad de acceder a las competencias digitales y, sin embargo, se les exigen esos conocimientos para realizar tareas imprescindibles en el día a día.

 

¿Cómo podemos reducirla?

 

Es una tarea que no resulta nada fácil ya que hemos permitido que la brecha haya crecido mucho, pero para reducirla deberíamos:

  • Crear infraestructuras en aquellas zonas donde la accesibilidad a los servicios de internet sea más difícil o imposible. De forma que toda la población tenga acceso a internet.
  • Poner en marcha programas de formación dirigidos a colectivos especialmente vulnerables: personas mayores, trabajadores con bajo nivel de estudios, personas con discapacidad…
  • Inversión en digitalización de las empresas y para conseguir soportes técnicos de calidad.

Debemos actuar con la mayor velocidad posible para que esta brecha no se convierta en un abismo insalvable ya que la tecnología no espera y la cantidad de procesos en los que resulta imprescindible el dominio de las competencias digitales crece día a día.


Detección y prevención de caídas mediante sistemas automáticos

Las caídas en personas mayores de 65 años representan un importante problema de salud y son más frecuentes de lo que podemos pensar. Read more


La importancia de las métricas de clasificación

El COVID lo ha transformado todo en estos últimos años. La llegada de la pandemia ha hecho que tengamos que informarnos de temas muy técnicos tanto médicos como estadísticos. Y una de las grandes preocupaciones ha sido la precisión de los test.

Merece la pena dedicar un tiempo a entender cómo se mide su error para juzgar mejor los riesgos que asumimos tanto para los test de COVID como para cualquier otra prueba médica o tratamiento.

 

¿Qué es un problema de clasificación?

 

Imaginemos el siguiente problema, dadas unas características de un individuo (por ejemplo, el peso y la longitud del brazo) queremos calcular su altura. La variable que queremos predecir es continua, es decir, dentro de unos límites físicos (desde 0 a 3 metros, por ejemplo) y la altura puede tomar cualquier valor real. En este caso estamos hablando de un problema de regresión.

En los errores de clasificación lo que buscamos predecir no toma valores continuos sino discretos. Por lo que tratamos de predecir la pertenencia a grupos o intervalos.  Este es el caso de los test de COVID que tienen la capacidad de clasificarnos como infectados o no infectados.

 

¿Cómo medir los errores de clasificación?

 

Veamos ahora cómo medir el error de un clasificador binario (dos grupos) centrándonos en el ejemplo del test de COVID.

La primera métrica en la que pensamos es el porcentaje de aciertos, es decir, el porcentaje de veces que decimos que la persona está infectada o no-infectada y estamos en lo cierto. Esta es la métrica a la que estamos más acostumbrados; sin embargo, no siempre es la mejor. Supongamos que sólo un 5% de la gente que se hace la prueba está realmente infectada. Un test que predijese siempre a la población no-infectada acertaría el 95% de las veces. No parece fácil de utilizar si las dos clases no ocurren en proporciones parecidas.

Pero, además, no nos da información de los dos tipos de error que podemos cometer. Por un lado, podemos decir a un paciente realmente contagiado que no tiene el virus eso se conoce como Falso-Negativo (la prueba dio negativa pero no coincide con la verdad). Su contrario se conoce como Falso-Positivo, el test da positivo, pero realmente no estamos infectados.

 

 

Para acabar de entender bien las diferencias entre ambos tipos de errores de clasificación, pongamos un ejemplo con los resultados de dos tipos de test imaginarios probados en 100 individuos:

 

Resultados de dos tipos de test imaginarios probados en 100 individuos
 

Esta tabla se conoce como tabla de contingencia y resulta de gran utilidad para analizar los resultados de un problema de clasificación. La tasa de acierto sería de un 89% para el test A y un 95% para el test B. Sin embargo, como veremos a continuación no está tan claro que el test B sea nuestro preferido.

 

Para mejorar nuestro entendimiento de los resultados se suelen calcular dos métricas:

  • Precisión: porcentaje de contagiados entre la gente que ha dado positivo en el test.

Test A: 4/(4+10) = 0.286     (28.6 %)

Test B: 1/(1+1) = 0.5  (50%)

 

La precisión mide lo fiable que es un positivo del test. Vemos que si hemos dado positivo en el test B es más probable que estemos contagiados que si hemos dado positivo en el test A.

 

  • Sensibilidad: porcentaje del total de enfermos que he podido identificar gracias al test.

Test A: 4/(4+1) = 0.8  (80%)

Test B: 1/(1+4) = 0.2 (20%)

 

La sensibilidad mide la habilidad del test para no dejar escapar enfermos sin identificar. Vemos que con el test A somos capaces de detectar más enfermos que con el test B. Un test que diera a todo el mundo como enfermo tendría sensibilidad 100%.

 

Conclusión

 

El lenguaje nos ayuda a recordar para qué sirven estas métricas. Normalmente decimos que algo es muy preciso cuando lo que dice coincide con mucha fidelidad con la realidad. Por lo que cuando diga “enfermo” podemos fiarnos, pero puede dejar pasar muchos enfermos de los que no tiene opinión segura. Y decimos que algo es muy sensible cuando ante la mínima perturbación salta, por lo que es más fácil que salte en los casos que nos interesa, pero probablemente también muchas veces que no debería.

Usando el test A estaremos molestando a 10 de cada 100 personas que tendrán que pasar cuarentena sin ser necesario, pero estamos poniendo en cuarentena al 80% de los infectados. Mientras que con el test B estamos molestando a poca gente, pero no lo estamos haciendo bien de cara a frenar la propagación pues sólo ponemos en cuarentena a un 20% de los contagiados.

Otra cosa sería si tuviéramos un tratamiento muy escaso que pudiéramos únicamente dar a 1 de cada 1000 personas. En ese caso el test B sería el mejor pues en el 50% de los casos en los que da positivo el paciente tiene COVID y necesita el tratamiento, mientras que con el test A estaríamos desperdiciando más tratamientos al sólo ser ciertos el 28.6% de los positivos. Los datos son siempre muy importantes, pero hay que saber interpretarlos.

Actualmente, los test de antígenos en el mercado de la UE superan el 90% de sensibilidad y precisión. Lo que en nuestro ejemplo, con un 5 % de infectados de la gente que se hace la prueba, en el peor de los casos (sólo un 90% en ambos) supone una tabla de contingencia de este tipo:

Tabla de contingencia
 

 

En definitiva, es importante comprender los errores de clasificación más allá de la tasa de acierto. Hemos entendido las dos métricas principales (precisión y sensibilidad) que miden los dos tipos de errores que podemos cometer y en qué casos conviene elegir un clasificador según tenga un mejor resultado en uno de ellos.


Tecnología para mejorar la vida de las personas con discapacidad visual

Si el 80% de la información que recibe nuestro cerebro lo hace a través de nuestro sentido más inmediato que es la vista, la salud de nuestros ojos debe ser algo a lo que prestar un cuidado especial.

Sin embargo, la prevención y la buena la salud visual no se toma demasiado en cuenta por las personas que no tienen problemas de gravedad. Pero el cuidado de nuestra vista haría que la mayoría de los problemas visuales leves o habituales como la miopía, el astigmatismo e incluso la presbicia, tuvieran un impacto menor en las personas.

Según señala la OMS, en el mundo se estima que 1.000 millones de personas viven con algún tipo de deficiencia visual a causa de no disponer de un cuidado preventivo ni tratamiento de enfermedades como las cataratas o el glaucoma. De estos millones, aproximadamente 36 son personas ciegas y más de 200 tienen discapacidades visuales de cierta severidad.

Pese a ello, un porcentaje muy elevado de estos pacientes podría evitar la severidad o limitaciones de su autonomía por esta causa con un mejor acceso al tratamiento y, por supuesto, a los avances que la ciencia y la tecnología están desarrollando.

 

Dispositivos tecnológicos para impulsar la autonomía

 

Las personas con discapacidad visual corren mucho más riesgo de sufrir caídas. Los dispositivos de ayuda a la movilidad más habituales -como los bastones o algunos dispositivos electrónicos- tienen limitaciones. Pero la tecnología es siempre la mejor aliada para dotar de autonomía a las personas. Por eso, es interesante llamar la atención sobre el dispositivo experimental creado en un laboratorio de rehabilitación visual.

Este aparato que consta de un dispositivo avanzado cuenta con una unidad de registro de datos y una cámara de gran angular conectada a dos pulseras por Bluetooth. La cámara está conectada a una unidad de procesamiento y capta imágenes evaluando el riesgo de colisión en función del movimiento relativo de los objetos entrantes y circundantes en el campo de visión de la cámara. Ante estos riesgos la pulsera correspondiente (derecha o izquierda), vibrará y cuando sea frontal serán las dos las que emitan estas vibraciones.

Pero además de este sensor avanzado hay otros elementos tecnológicos que hacen que la movilidad y la autonomía sean cada día más reales para las personas con una discapacidad visual.

 

Inteligencia artificial y 3D contra la discapacidad visual

 

La inteligencia artificial ha comenzado a conseguir avances reales que mejoran efectivamente la accesibilidad y la capacidad de las personas de interactuar de modo distinto en un mundo cada día más complejo.

Así, los asistentes visuales portátiles con inteligencia artificial actuales cuentan ya con reconocimiento y descripción de imágenes y voz así como identificador de textos y hasta gestual. Son 100% portables, permitiendo su uso incluso sin conexión a internet.

Los, anteojos para personas ciegas, como el desarrollado en España EyeSynth, hace que unas simples gafas registren en 3D todo lo que sucede en su entorno y lo traduzcan en sonidos. Con dos cámaras y un miniordenador incorporado, el sistema se actualiza hasta 60 veces por segundo. Este tipo de tecnología requiere aprendizaje por parte del usuario. Pero lo más sorprendente es que los sonidos son transmitidos a través de los huesos de la cabeza.

Aplicaciones como Seeing AI están diseñadas para ayudar a la gente con poca visión. Además de las descripciones auditivas, el programa puede leer incluso un texto escrito a mano o escanear un código de barras. Luego lo traduce a la persona que lo está usando. Las descripciones del entorno son cada vez más completas.

Las lentes inteligentes desarrolladas en la Universidad de EAE utilizan la inteligencia artificial para leer, navegar por internet o identificar caras. Todo desde la conexión con el móvil a través de la unidad de procesamiento que permite al sistema funcionar sin una conexión a internet. Se les augura una precisión superior al 95%. 

Balizas Bluetooth que actúan como guías personalizadas. Estos dispositivos de altísima precisión son un gran apoyo para la gente con problemas severos de visión. Mientras que la tecnología GPS básica puede llevar a los usuarios a una ubicación, las balizas montadas en una tienda, restaurante o edificio público pueden guiarlos a la entrada del edificio en cuestión. Y cuando el usuario está en el interior, otras balizas los pueden dirigir al baño o a cualquier otra instalación importante.

 

Un mundo de posibilidades casi ilimitado que hace que la accesibilidad del espacio y también del mundo sean más entendibles e interpretables para todos. La tecnología y los avances científicos son siempre una herramienta que hace el mundo más cercano para las personas con todo tipo de discapacidad o dependencia.  Y nosotros, desde ViveLibre, queremos también darles apoyo con nuestras soluciones inteligentes y contribuir a dotar de toda la autonomía a quienes lo necesiten.


IA para vigilar la salud

En un blog anterior explicamos cómo las nuevas tecnologías van a permitir la generación continua de datos de salud de cada individuo en su vida cotidiana y cómo aplicando algoritmos a esos datos podremos determinar, para cada individuo, sus patrones de normalidad y detectar más rápidamente cuando la persona se salga fuera de sus propios patrones.

A medida que vayamos aumentando el número y la variedad de dispositivos conectados a los sistemas de monitoreo, como ViveLibre hogar o ViveLibre movilidad, iremos incrementando exponencialmente la cantidad de patrones que podremos estudiar y la complejidad de estos.

 

Monitorización de datos con IA

 

Por ejemplo, ahora tenemos medidas continuas de la frecuencia cardiaca y la actividad física del usuario. Podemos estudiar cómo su frecuencia cardiaca se altera cuando aumenta la actividad. Pero si además pudiéramos medir continuamente la presión arterial y los niveles de glucosa podríamos buscar relaciones más complejas entre estas cuatro variables.  Y si esta tecnología se implementara a gran escala en la población, cada individuo podría ser un generador de Big Data que requeriría un análisis complejo.

El problema que surge entonces es ¿quién va a monitorizar todos esos datos de tantos individuos? ¿Quién va a estimar los patrones de normalidad para cada individuo y estará vigilando si hay algún cambio? ¿Serán los médicos de atención primaria los que explotarán todos estos datos? ¿Hará falta crear una nueva profesión de médicos analistas de datos para que puedan explotar esta información? ¿Cuántos de estos nuevos expertos necesitaríamos en un país como España para monitorizar a la población?

 

¿Cómo actúan los Sistemas expertos?

 

La única forma de poder analizar continuamente tal cantidad de datos es mediante programas de IA que imitaran la labor de vigilancia del médico. Los llamados "sistemas expertos". Estos sistemas expertos aprenderían los patrones de los individuos y detectarían cuándo estos se salen de la normalidad.  En principio, estos sistemas serían viables ya que los algoritmos son buenos determinando patrones cuando hay muchos datos.  Una de las áreas más estudiadas es el de reconocimiento de patrones en las imágenes médicas como radiografías o resonancias magnéticas.

Por ejemplo, es relativamente fácil entrenar a un tipo de programa de IA a reconocer masas tumorales en una radiografía de pulmón a base de enseñarle muchos ejemplos de radiografías con tumor y radiografías sin tumor. Se han hecho estudios demostrando que estos programas pueden tener mayor tasa de acierto que un radiólogo experto. Lo interesante es que no hace falta meter explícitamente todo el conocimiento del radiólogo en el programa.

 

Redes neuronales artificiales

 

El programa aprende solo a base de ver ejemplos. Del mismo modo que el cerebro de un niño de 2 años aprende a distinguir perros de gatos a base de ver ejemplos sin que nadie le de instrucciones específicas de cómo hacerlo. Estos programas de IA se llaman *redes neuronales artificiales* (ANN en sus siglas en inglés) porque precisamente imitan el funcionamiento de la red de neuronas del cerebro humano para aprender patrones a base de ejemplos. Su desarrollo y mejora ha sido espectacular desde finales del siglo pasado. Con ellos funcionan, por ejemplo, los programas de reconocimiento facial de los controles de aeropuertos. Recientemente se han entrenado redes neuronales para reconocer patrones patológicos en electrocardiogramas (por ejemplo, signos de fibrilación auricular). Están demostrando ser efectivos y para detectar ciertas patologías y algunos "relojes inteligentes" ya incorporan esta tecnología.

 

El problema de estos sistemas de reconocimiento de patrones es que tienen poca capacidad de interpretación de los resultados en el contexto del paciente. Por ejemplo, el sistema podría detectar unos niveles de glucemia y de tensión arterial anormalmente altos para un paciente a las 12 de la noche y lanzar una alarma. Pero no entendería que hasta cierto punto esto es algo esperado porque el sujeto está en una situación excepcional celebrando fin de año, o la boda de un familiar. Un médico que conociera la circunstancia no se preocuparía tanto de esa medición a las 12 (a no ser que fueran valores extremos de alto riesgo inminente) y esperaría unas horas a ver si se normalizan los datos.

 

Limitaciones de la IA

 

La gran limitación de la IA actualmente es que es muy difícil incorporar toda la información necesaria para que el programa pueda interpretar los datos en el contexto, ya que esta información suele ser mucha y muy variada. En el ejemplo anterior tendríamos que hacer comprender al ordenador que cuando el usuario se encuentra en una situación excepcional de celebración, los niveles se pueden alterar. Pero esto no es motivo de alarma si se mantiene bajo ciertos parámetros de control. En este sentido la IA está aun muy lejos de imitar la inteligencia humana. La IA solamente es muy efectiva en tareas muy limitadas que no requieren de contexto. Como por ejemplo, jugar al ajedrez o reconocer un patrón en una imagen o en una serie de datos, pero es muy difícil que haga razonamiento humano en general. En este sentido no es esperable que a corto plazo los programas de IA de monitorización de pacientes sean completamente autónomos. La clave estaría en combinar su uso con el juicio humano. La IA puede servir de "filtro" para detectar situaciones posiblemente patológicas que después tendría que revisar un humano para juzgar su gravedad y plantear una posible intervención.

 

En este artículo hemos hablado de cómo usar programas de IA para aplicar algoritmos que determinar patrones personalizados usando Big Data generado por un sistema de monitoreo continuo de la salud. En el siguiente artículo explicaremos cómo integrar toda esta tecnología con el factor humano -los usuarios y los profesionales de la salud- para crear un Sistema de Salud Inteligente, en el que aprendamos continuamente de los datos generados rutinariamente por el sistema para mejorar la asistencia a los pacientes que generaron esos datos y a los que vendrán en el futuro.

 


El problema de la “causalidad”: datos para prevenir y tratar la enfermedad

 Los estudios de causalidad suscitan un gran interés en la comunidad científica y el gran público. Read more


Algoritmos para cuidar de nuestra salud

¿Qué es un algoritmo? Mucha gente ve en la palabra "algoritmo" un término misterioso que esconde complicadas ecuaciones matemáticas solo al alcance de unos pocos expertos.Read more


La IA una gran aliada contra el cáncer de mama

Según datos de la Organización Mundial de la Salud (OMS), se estima que casi una de cada 12 mujeres enfermará de cáncer de mama a lo largo de su vida.Read more


Cómo el Big Data puede mejorar nuestra salud

"Big Data" es, sin duda, uno de los términos de moda del nuevo milenio. Pero poca gente tiene una idea clara y precisa de lo que realmente es. Una definición sencilla sería referirnos a este término como la recopilación masiva de datos en las actividades de al vida real en lugar de la recogida programada en entornos de experimentación.

Pero esta acepción es demasiado general y quizás no nos acerca a lo que el Big Data puede hacer para prevenir y ayudar al cuidado de la salud. Para comprender mejor el Big Data en este entorno, vamos a imaginar un paciente ficticio. Vamos a comparar cómo se recogía y usaba su información de salud antes y cómo lo podemos mejorar con las tecnologías de Big Data.

 

Medicina y prevención antes del Big Data

 

Año 1990, una paciente embarazada va a su médico de cabecera a causa de cierta patología. El medico la explora, diagnostica y le receta un tratamiento anotándolo todo en una historia clínica en papel. El tratamiento es el estándar que se da a la población general con la misma patología, ya que nunca se hacen ensayos clínicos en embarazadas. Tampoco se sabe si para ellas implica un riesgo especial o hay alternativas mejores.

Al cabo de unos días, la paciente sufre un shock e ingresa en urgencias inconsciente. El médico de urgencias no la conoce, no tiene su historia clínica (que está en el archivador del médico de cabecera). El médico empieza de cero a pedir las mismas pruebas que ya le pidieron en primaria, pero sin poder comunicarse con la paciente desconoce gran parte de su historia y hace un diagnóstico erróneo. Para colmo, le prescribe un medicamento que interacciona con el tratamiento anterior (y que él desconoce) y le produce una reacción adversa. Los datos están en papel, fragmentados y aislados en distintos centros que no se comunican entre si. Cada vez que un médico ve a un paciente tiene que recomenzar muchos procesos de nuevo.

 

Digitalización y buenos pasos para compartir información

 

En 2010, una paciente también embarazada va al médico. Le abre una historia clínica electrónica donde apunta los datos de la entrevista, las pruebas clínicas, los diagnósticos y los tratamientos que le prescribe. Cuando la paciente es admitida inconsciente en urgencias tras sufrir un desvanecimiento, el médico de guardia tiene acceso a todo su historial clínico con diagnósticos, test de laboratorios, tratamientos y evoluciones. Sus decisiones y reacciones quedarán registradas en ese mismo sistema. La información ya es digital, se puede acumular y compartir entre profesionales. Es un gran avance para el paciente, pero sin embargo aun no es "Big Data". Para ello se necesita algo más, hay que combinar muchos datos de muchos pacientes para obtener conocimiento y avanzar en la prevención.

 

Big Data hoy: datos que curan

 

En el 2021 un médico busca el mejor tratamiento para su paciente embarazada y con una patología complicada. El tratamiento estándar recomendado por los protocolos clínicos no ha sido probado en embarazadas y el médico está preocupado por los posibles efectos a largo plazo.

Pero este mismo médico sabe que hay muchas pacientes embarazadas con esa patología y quizás con distintos tratamientos. Con la ayuda de un informático buscan en la base de datos del sistema de salud nacional pacientes embarazadas con la misma patología con al menos 5 años de seguimiento. Comparan las respuestas a largo plazo a diferentes tratamientos y, como la base de datos es tan grande, puede incluso seleccionar un subgrupo de pacientes con características muy similares a su paciente para buscar el mejor tratamiento.

Esto es realmente Big Data, es decir, la recopilación de información de muchos pacientes que se combina y estudia para dar respuestas a problemas muy específicos. Información que cura y ayuda a prevenir.

 

Big Data mañana: más personalización y mayor atención

 

Mismo escenario en el año 2030. Los usuarios utilizan diversos sensores para monitorizar su salud. Estos incluyen los llamados "wearables" (relojes, pulseras, ropa inteligente) y sensores en el domicilio, el trabajo o el coche. Los sensores recogen constantemente información de distintos aspectos de salud como el ritmo cardíaco, la presión arterial, la saturación de oxígeno, el peso, el índice de grasa, la cantidad de movimiento que hace, la cantidad y calidad del sueño, etc.

La enorme cantidad de datos que se genera diariamente es procesada por un sistema de inteligencia artificial que calcula y monitoriza indicadores de salud complejos. Por ejemplo, la actividad metabólica del paciente, la capacidad de reacción frente al estrés y la capacidad de recuperación. Además de dar alertas cuando estas métricas se salen de rangos "saludables". El sistema aprende a personalizar estos rangos para cada individuo. Establece los patrones de evolución y ritmos de estas variables en condiciones de salud de ese paciente en particular, y puede detectar cuándo ese paciente empieza a desviarse de su propia estabilidad.

Esto es sólo un pequeño viaje para situarnos en cómo era hasta ahora la información en la salud y hacia dónde podemos ir si aprovechamos las oportunidades del enorme desarrollo en tecnologías para recopilar, almacenar y manejar enormes cantidades de datos.

Pero no debemos olvidar que, para aprovechar estas oportunidades, debemos cambiar nuestra forma de pensar en cómo usamos y analizamos la información clínica y desarrollar un nuevo conjunto de algoritmos y técnicas de análisis.

Seguiremos informando de todos estos retos y oportunidades del Big Data en próximos posts, porque lo mejor de trabajar con datos, es lograr que toda esa información nos proporcione mejor atención, soluciones más efectivas y salud, para seguir siendo autónomos e independientes.