Con gran preocupación vemos actualmente como los sistema de información para la salud no han respondido como se esperaba a la urgencia que ha representado el tener a la mano los datos epidemiológicos en tiempo real, con el fin de que las diferentes organizaciones para la salud puedan tomar decisiones en materia de salud pública como respuesta a contrarrestar una pandemia como la que ha producido Covid-19, que ha su vez, ha venido afectar otros sectores sociales.
Pero ¿por qué después de casi 5 meses de pandemia no hemos logrado que los engranajes tecnológicos sean más eficientes y ágiles para apoyar a generar políticas en salud pública más eficaces y efectivas? Como ya ha sucedido para muchas áreas sociales, esta pandemia vino a desnudar a lo que el ex-vicepresidente de los Estados Unidos, Al Gore, llamaría “verdades incómodas” respecto a nuestra gestión de datos para el sector salud.
Un informe publicado por Big data and AI executive survey de NewVantage Partners en el 2019 reveló que el 88% de las empresas deben mejorar urgentemente su capacidad de procesar datos en tiempo real. Este informe arroja datos sumamente interesantes como:
- El 72% de las instituciones/empresas informó que todavía tiene que forjar una cultura de datos.
- El 69% informó que no han creado una organización basada en datos.
- El 53% afirmó que todavía no está tratando los datos como un activo.
- El 52% admitió que no compiten en datos y análisis.
Aún con estos datos la instituciones y/o empresas que fueron parte de este informe dieron otros datos aún más interesantes:
- El 92% informó que el ritmo de inversiones en big data e inteligencia artificial se está acelerando.
- El 88% informó una mayor urgencia de invertir en big data e inteligencia artificial.
- El 75% mencionó la “disrupción” como un factor motivador para la inversión en big data/IA.
- El 55% informó que sus inversiones en big data e inteligencia artificial ahora superan los $ 50,000,000.00 USD
- A partir del 2012 el 68% de las organizaciones han creado y dotado al personal para funciones de big data e inteligencia artificial en los últimos 7 años.
¿Cómo explicar el panorama actual que ha sugerido el gran reto para las instituciones en tener los datos en tiempo real para la toma de decisiones?
Con todas estas inversiones en la espalda y toda las expectativas de un “mejor mañana” que nos da tan solo pensar en implementar big data y/o inteligencia artificial en nuestras organizaciones, podemos encontrar del otro lado de la esquina un “enemigo” al que hace décadas hemos venido “alimentando” sin medir las consecuencias que hoy no aquejan; el “Dirty Data”.
El “Dirty Data” se puede explicar como la configuración de datos incorrectos, incompletos, desactualizados, duplicados y/o desnormalizados que se encuentran en las base de datos de las organizaciones. Para que los datos generados por las organizaciones pueden ser utilizados para propósitos de big data deben ser o tener: Veracidad, Volumen, Variedad, Velocidad.
Recientemente, escuché el reporte dado por una Institución sobre el contagio y, con la intención de transmitir la validez y veracidad en los datos, aclaró que estos datos pasaban primero por la revisión de expertos antes de que fueran validados. El resultado es que estos datos tienen un rezago de hasta 5 meses y han provocado que las métricas no se puedan tener en tiempo real, lo cual contradice en alguna medida el mensaje que el funcionario buscaba transmitir.
¿Realmente los países latinoamericanos tenemos plataformas, arquitecturas y datos que cumplan los requerimientos mínimos para implementar big data y/o inteligencia artificial? ¿Están los sistema de información en salud listos en este momento para implementar esta tecnología?
Sin ser pesimista debo de decir que no. Una gran desnormalización de la información de los paciente y datos clínica pondrían en riesgo obtener falsos indicadores, algo que ya empresas como Microsoft, Google, Facebook por mencionar algunas, viven el día a día en procesamiento de big data y que sufren justamente porque aún no hay una sanitización en los datos generados y almacenados.
Desde 1980 se ha venido trabajando en la normalización de los datos para el sector salud, en que estos sean representados de manera estandarizada de tal forma que su procesamiento sea transparente. La tendencia en las últimas décadas ha sido estandarizar arquitecturas de datos y procesos con el fin de acelerar, adoptar e implementar. Entre más las organizaciones estandaricen sus datos y la forma en como los procesan más estaremos “saneando” los datos que vamos generando y la capacidad de intercambiarlos de manera segura y ágil. En tanto logremos ampliar la visión en que nuestros datos deben de generar información para que como producto generen conocimiento, iremos cambiando la gestión de nuestras organizaciones.
Organizaciones internacionales que generan estándares para el sector médico informático han trazado mapas de éxito para ir paulatinamente dando el valor real a los datos, generados en verdaderos activos que ayuden a la gestión del cambio y digital.
Es urgente, por el bien de la salud pública, que haya un “golpe de timón” en quienes están al frente de la gestión de diseño, implementación y despliegue de los sistema de información para la salud, desde en cómo se piensan y se discuten hasta en cómo y para qué se implementan. Espero que no terminemos esta pandemia sin que esto también signifique una nueva normalidad para los sistemas de información para la salud en América Latina.
Alejandro Benavides es Especialista en Informática en Salud, CEO de Meddyg y Sub-Coordinador de la Red Centroamericana de Informática en Salud.
Las opiniones expresadas en los artículos son responsabilidad exclusiva del autor o los autores y no representan necesariamente la posición de la Junta Directiva y del Equipo Coordinador de la Red Centroamericana en Informática en Salud.