Le pregunté a ocho chatbots si tenía Covid-19. Las respuestas iban desde el riesgo "bajo" hasta el "inicio del aislamiento del hogar"

Por Casey Ross para STAT

Los hospitales de EE. UU., Las autoridades de salud pública y las compañías de salud digital han implementado rápidamente verificadores de síntomas en línea para detectar signos de Covid-19 en los pacientes. La idea es simple: al usar un chatbot impulsado por inteligencia artificial, pueden evitar que los pacientes ansiosos inunden las salas de emergencia y brindar consejos de salud sólidos desde lejos.

O al menos ese era el terreno de juego.

A fines de la semana pasada, un colega y yo perforamos más de media docena de chatbots en un conjunto común de síntomas (fiebre, dolor de garganta, secreción nasal) para evaluar cómo funcionaban y la consistencia y claridad de sus consejos. Lo que obtuve fue un mosaico conflictivo, a veces confuso, de información sobre el nivel de riesgo que presentan estos síntomas y lo que debo hacer al respecto.

Un chatbot publicado en el sitio web de los Centros para el Control y la Prevención de Enfermedades determinó que tenía “uno o más síntomas que pueden estar relacionados con COVID-19” y me aconsejó que contactara a un proveedor de atención médica dentro de las 24 horas “y comenzara aislamiento en el hogar de inmediato “.

Pero un verificador de síntomas de Buoy Health, que dice que se basa en las pautas actuales de los CDC, descubrió que mi “riesgo de una infección grave por nuevo coronavirus (COVID-19) es bajo en este momento” y me dijo que siguiera controlando mis síntomas y que volviera a comprobarlo si algo cambia. Otros concluyeron que estaba en “riesgo medio” o “podría tener la infección”.

La mayoría de las personas probablemente consultarán solo uno de estos bots, no ocho versiones diferentes como lo hice. Pero los expertos en epidemiología y el uso de inteligencia artificial en medicina dijeron que la amplia variabilidad en sus respuestas socava el valor de los verificadores automáticos de síntomas para asesorar a las personas en un momento en que, por encima de todo, buscan información confiable y orientación clara.

“Estas herramientas generalmente me ponen un poco nervioso porque es muy difícil validar cuán precisas son”, dijo Andrew Beam, un investigador de inteligencia artificial en el departamento de epidemiología de la Escuela de Salud Pública de Harvard TH Chan. “Si no sabes realmente qué tan buena es la herramienta, es difícil entender si realmente estás ayudando o perjudicando desde una perspectiva de salud pública”.

La prisa por desplegar estos chatbots subraya una tensión más amplia en el brote de coronavirus entre el deseo de las compañías de tecnología y las nuevas empresas de salud digital de lanzar nuevas soluciones de software ante una crisis sin precedentes y de rápido movimiento, y el solemne deber de los profesionales médicos de garantizar que estas intervenciones realmente benefician a los pacientes y no causan daño ni difunden información errónea. Un estudio de 2015 publicado por investigadores de Harvard y varios hospitales de Boston descubrió que los verificadores de síntomas para una variedad de afecciones a menudo llegan a conclusiones erróneas cuando se usan para triaje y diagnóstico.

Según el informe de STAT, el director ejecutivo de Buoy, Andrew Le, dijo que sincronizaría el verificador de síntomas de la compañía con los CDC. “Ahora que tienen una herramienta, la usaremos y adoptaremos el mismo tipo de protocolos de detección que sugieren y lo pondremos en el nuestro”, dijo. “Esto es probablemente una discrepancia en el tiempo, porque hemos estado atendiendo todas sus llamadas y tratando de mantenernos lo más cerca posible de sus pautas”.

Los CDC no respondieron a una solicitud de comentarios.

Antes de continuar, debo tener en cuenta que ni yo ni mi colega nos sentimos enfermos. Diseñamos una prueba simple para evaluar los chatbots y limitamos el experimento a las propias herramientas basadas en la web y en los teléfonos inteligentes para no perder el tiempo de los médicos de primera línea. Elegimos un conjunto de síntomas que fueron lo suficientemente generales como para ser cualquier cantidad de cosas, desde un resfriado común, hasta la gripe, y sí, el coronavirus. Los CDC dicen que los primeros síntomas de Covid-19 son fiebre, tos y falta de aire.

Las diferencias en los consejos que recibimos son comprensibles hasta cierto punto, dado que estos chatbots están diseñados para propósitos ligeramente diferentes: algunos están destinados a determinar el riesgo de infección por coronavirus, y otros buscan clasificar a los pacientes o evaluar si deben ser probados. También recopilan y analizan diferentes piezas de información. El bot de Buoy me hizo más de 30 preguntas, mientras que el de Cleveland Clinic, y los bots creados por varios otros proveedores, plantearon menos de 10.

Pero las recomendaciones, que varían ampliamente, resaltaron la dificultad de distinguir el coronavirus de las enfermedades más comunes y brindar asesoramiento constante a los pacientes.

La herramienta de Cliveland Clinic, determinó que estaba en “riesgo medio” y que debía tomar un cuestionario en línea, programar una visita virtual o llamar a mi médico de atención primaria. Amy Merino, médica y directora de información médica de la clínica, dijo que la herramienta está diseñada para empaquetar las pautas de los CDC en una experiencia interactiva. “Creemos que a medida que aprendemos más, podemos optimizar estas herramientas para permitir que los pacientes proporcionen detalles personales adicionales para personalizar los resultados”, dijo.

Mientras tanto, otra herramienta creada por Verily, el brazo de ciencias de la vida de Alphabet, para ayudar a determinar quién en ciertos condados del norte de California debería hacerse la prueba de Covid-19, concluyó que mi colega con sede en San Francisco, que ingresó el mismo conjunto de síntomas, no era elegible para la prueba.

Pero en la siguiente oración, el chatbot dijo: “Tenga en cuenta que esto no es una recomendación de si debe hacerse la prueba”. En otras palabras, una recomendación no recomendada.

Una portavoz de Verily escribió en un correo electrónico que el lenguaje que usa la compañía está destinado a reforzar que la herramienta de detección es “complementaria a las pruebas que ocurren en una situación de atención clínica”. Ella escribió que más de 12,000 personas han completado el examen de detección en línea, que se basa en los criterios proporcionados por el Departamento de Salud Pública de California.

El desafío que enfrentan los creadores de chatbots se magnifica cuando se trata de productos que se basan en datos limitados y pautas que cambian por minuto, incluidos qué síntomas caracterizan la infección y cómo se debe tratar a los pacientes. Un estudio no revisado por pares publicado en línea el viernes por investigadores de la Universidad de Stanford descubrió que usar los síntomas solo para distinguir entre las infecciones respiratorias solo era marginalmente efectivo.

“Hace una semana, si tuvieras un chatbot que decía: ‘Aquí están las recomendaciones actuales’, sería irreconocible desde donde estamos hoy, porque las cosas se han movido muy rápidamente”, dijo Karandeep Singh, médico y profesor de la Universidad de Michigan que investiga la inteligencia artificial y las herramientas digitales de salud. “Todo el mundo está repensando las cosas en este momento y hay mucha incertidumbre”.

Para mantenerse al día, los desarrolladores de chatbot tendrán que actualizar constantemente sus productos, que dependen de la lógica de ramificación o de la inferencia estadística para entregar información basada en el conocimiento que está codificado en ellos. Eso significa mantenerse al día con los nuevos datos que se publican todos los días sobre el número de casos de Covid-19 en diferentes partes del mundo, que deben evaluarse en función de los recursos disponibles y la gravedad de la enfermedad que causa en diferentes tipos de la gente.

Las diferencias que encontré en la información recopilada por los chatbots parecían reflejar los desafíos de mantenerse al día. Todos me preguntaron si había viajado a China o Irán, pero ahí fue donde terminó la comunidad. La Cleveland Clinic me preguntó si había visitado un solo país en Europa, Italia, que tiene los segundos casos más confirmados de Covid-19 en el mundo, mientras que Buoy preguntó si había visitado algún país europeo. Providence St. Joseph Health, una red de hospitales con sede en el estado de Washington, publicó una lista de varios países en Europa, incluidos Italia, España, Francia y Alemania.

Después de que STAT preguntó sobre limitar el enfoque de su chatbot a Italia, Cleveland Clinic actualizó su herramienta para incluir el Reino Unido, Irlanda y los 26 países europeos incluidos en el área Schengen.

Las diferencias también incluyeron los síntomas sobre los que preguntaron y la granularidad de la información que pudieron recopilar y analizar. El bot de Buoy, que sugirió que tenía un resfriado común, pudo recopilar información detallada, como rangos de temperatura específicos asociados con mi fiebre y si mi dolor de garganta era moderado o severo.

Pero Providence St. Joseph solo preguntó si había experimentado alguno de varios síntomas, como fiebre, dolor de garganta, secreción nasal, tos o dolor de cuerpo. Marqué sí a esa pregunta, y no a las consultas sobre si había viajado a un país afectado o si había entrado en contacto con alguien con un caso de Covid-19 confirmado por laboratorio. El bot (construido, como el CDC, con herramientas de Microsoft) ofreció la siguiente conclusión: “Podría estar infectado con el coronavirus. Realice una de las siguientes acciones: llame a su médico de atención primaria para programar una evaluación “o” llame al 911 para una emergencia que ponga en peligro la vida “.

Todos los chatbots que consulté incluían alguna forma de descargo de responsabilidad que instaba a los usuarios a contactar a sus médicos o consultar con profesionales médicos al tomar decisiones sobre su atención. Pero el hecho de que la mayoría ofreciera un menú de opciones bastante obvias sobre lo que debería hacer parecía socavar el valor del ejercicio.

Beam, el profesor de Harvard, dijo que publicar información inexacta o confusa en medio de una crisis de salud pública puede tener graves consecuencias.

“Si eres demasiado sensible y estás enviando a todos a la sala de emergencias, vas a abrumar al sistema de salud”, dijo. “Del mismo modo, si no eres lo suficientemente sensible, podrías decirle a las personas que están enfermas que no necesitan atención médica de emergencia. Ciertamente no es un reemplazo para levantar el teléfono y llamar a su médico de atención primaria “.

Si alguien estuviera entusiasmado con las posibilidades de desplegar inteligencia artificial en epidemiología, Beam sería el tipo. Su investigación se centra en la aplicación de IA de manera que ayude a mejorar la comprensión de las enfermedades infecciosas y la amenaza que representan. Y aunque dijo que el esfuerzo para implementar herramientas de detección automatizadas está bien intencionado, y que las compañías de salud digital pueden ayudar a estirar los recursos frente a Covid-19, advirtió a los proveedores que tengan cuidado de no adelantarse a las capacidades de la tecnología.

“Mi sensación es que deberíamos equivocarnos con la experiencia centralizada de los expertos en salud pública en lugar de dar a las personas 1.000 mensajes diferentes con los que no saben qué hacer”, dijo. “Quiero tomar este tipo de tecnología e integrarla con las técnicas tradicionales de epidemiología y salud pública”.

“A la larga, soy muy optimista de que estos dos mundos se integren entre sí”, agregó. “Pero todavía no hemos llegado”.

Erin Brodwin contribuyó reportando.

Esto es parte de una serie de artículos de un año que explora el uso de la inteligencia artificial en la atención médica que está financiado en parte por una subvención del Commonwealth Fund.

Casey Ross es periodista de negocios que cubre las empresas que están transformando las industrias farmacéutica y de atención médica en los Estados Unidos para STAT.

Publicado con el permiso de STAT. Este artículo apareció originalmente el 23 de marzo de 2020 en https://www.statnews.com/2020/03/23/coronavirus-i-asked-eight-chatbots-whether-i-had-covid-19/

Traducido al español por Daniel Otzoy para la Red Centroamericana de Información en Salud.

1 Comments

  1. Responder

    En Colombia a través de la resolución 2654 de 2019 Los servicios basados en Inteligencia Arificial como los bots permiten orientar al usuario. Importante definir criterios de calidad.

Responder a Ever Torres Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *