//
Estás leyendo...
Bigdata

Bigdata y Salud. Cantidad no es sinónimo de Calidad

Cada día, en todos y cada uno de los centros donde se presta servicio a los pacientes, el entorno sanitario genera y recoge cientos de miles de registros. Sin embargo, ¿tiene esta información recogida la suficiente calidad para poder se explotada a través de procesos analíticos?

Generalmente son los procesos que emplean la información recogida los que sufren esta carencia en la calidad de la información almacenada. Los sistemas de facturación, de contabilidad analítica o los mismos cuadros de mando se enfrentan en muchas ocasiones a juegos de datos incompletos que, en unos casos, les impiden realizar su función adecuadamente y, en otros, ofrecen información sesgada o incompleta.

En algunos casos (los menos) son los usuarios los que no incorporan la información suficiente pero en la mayoría de los casos son problemas derivados de las propias aplicaciones, de su diseño o de la integración entre ellas los que impiden que la información recogida pueda ser utilizada y explotada en las mejores condiciones.

Datos, datos y más datos

Estamos obsesionados por recoger datos. Cuantos más mejor. No importa cómo ni dónde. Los sistemas se diseñan llenos de pantallas, de procesos … de cajas de texto y opciones para que los usuarios introduzcan en el sistema informático toda la cantidad de información que puedan.

Sin embargo no se suele tener en cuenta ni la calidad del dato recogido ni el entorno en el que se irá a recoger. Se exige introducir demasiada información sin pensar en la complejidad del proceso de registro ni considerando que en entornos con gran presión asistencial el usuario no tendrá tiempo de recoger todo lo que el sistema informático precisa y que, si lo hace, la calidad no será suficiente para su posterior explotación.

Aún existen los nichos

Aunque parezca difícil de creer, aún existen nichos, aplicaciones fuera del control de los servicios de organización y sistemas de información donde se registran datos departamentales.

En estas aplicaciones se acostumbra a registrar gran cantidad de información, especialmente clínica, pero posteriormente no se integran con los sistemas centrales o, si lo hacen, es de forma muy superficial, enviando lo estrictamente necesario. Además, al ser aplicaciones pequeñas no se consideran suficientemente importantes y no se supervisan adecuadamente por lo que la calidad de la información desde un punto de vista de homologación con los sistemas centrales suele ser deficiente y complica los procesos de comunicación.

Los sistemas se integran … lo justo

Para que los datos recogidos por los diferentes sistemas pueda relacionarse adecuadamente es fundamental alcanzar un elevado nivel de integración entre todos ellos. No basta con comunicarlos sino que la información que recogen ambos sistemas debe ser coherente y debe poder relacionarse fácilmente.

Sin embargo, cuando se diseñan y se crean los procesos de integración, se construyen con el alcance justo. Se intercambia el mínimo número de datos posible para que ambos sistemas puedan trabajar sin problemas, pero sin analizar qué información será posteriormente necesaria para realizar explotaciones conjuntas de datos.

Es más habitual de lo que parece que nos encontremos frente a sistemas de aplicaciones que no son capaces de relacionar, por ejemplo, la medicación dispensada por la farmacia al episodio de hospitalización en el que se administra, o las dietas que se le han suministrado a un paciente … En algunas ocasiones el problema es intrínseco al diseño de las aplicaciones pero en otras es debido al desarrollo de las integraciones. Es únicamente cuando tratamos de consumir la información recogida en todos y cada uno de los sistemas cuando nos damos cuenta de los problemas que una insuficiente integración genera para su explotación.

Y luego ya extraeremos la información

Al final, es cierto, la información se extrae, de una u otra forma. Y también se relaciona, dando coherencia a la información recuperada. Hemos visto crear estos procesos en demasiadas ocasiones y sabemos que tarde o temprano los datos se relacionan.

¿Pero qué coste tiene el esfuerzo de desarrollar y validar estos procesos? Demasiado grande si pensamos en que la coherencia y correlación de la información debería estar analizada y prevista desde el mismo momento en que se diseñan los procesos de trabajo y se implantan las aplicaciones responsables de su recogida. Cualquier otro proceso posterior que trate de suplir las carencias que los datos recogidos tengan tendrá un coste excesivo que recaerá y penalizará los procesos de explotación.

Pero la cosa puede ir a peor en el futuro

Si a todo este escenario unimos que el desarrollo de la tecnología wearable está en auge y que cada día que pasa la cantidad de información que se recoge va en aumento, el problema crece de forma exponencial.

Nos encontramos en la actualidad en un escenario en el que el usuario está comenzando a tomar el control de su propia información. Participa activamente en sus procesos de salud y quiere contribuir a ello mediante el registro de más información a través de dispositivos y aplicaciones. Debemos prepararnos para que los sistemas sean capaces, en primer lugar, de recibir esta nueva fuente de información pero además, de que los datos queden integrados con el resto de información clínica disponible de la manera más completa posible.

¿Pueden las técnicas de análisis de datos solucionar estos problemas?

Cuando hablamos de bigdata o de análisis de información somos conscientes de que estos sistemas deberán enfrentarse a escenarios con información heterogénea, mal estructurada (o al menos no estructurada de la misma forma en cada una de las fuentes de información con las que se contará) o incluso sin estructura alguna.

Sin embargo no debe añadirse a estos procesos complejidad adicional derivada de la mala calidad de la información recogida. A través de procesos de correlación, transformación o de análisis podrán suplirse algunas carencias pero no todas ellas.

En resumen, para que en un futuro cercano las técnicas de análisis de datos (o bigdata) sean realmente efectivas debemos prestar especial atención a la calidad de la información recogida y no solo en el hecho o la necesidad de registrarla. Sólo a partir de juegos de datos completos, bien registrados y bien correlacionados podremos implantan procesos de análisis eficientes y efectivos.

Foto: Elif Ayiter

Deja un comentario

Introduce tu dirección de correo electrónico para seguir este Blog y recibir las notificaciones de las nuevas publicaciones en tu buzón de correo electrónico.

Únete a otros 3.364 suscriptores

Archivos