Una nueva herramienta de inteligencia artificial (IA) que analiza videos cortos de sonrisas logró una gran precisión en la detección de la enfermedad de Parkinson (EP), según una investigación publicada por Tariq Adnan, M.Sc., y colegas en el New England Journal of Medicine (NEJM) el jueves.
El modelo se entrenó con el conjunto de datos de video de expresiones faciales más grande conocido hasta la fecha, y contó con la participación de 1.452 participantes, incluidos 391 que viven con EP.
El estudio de inteligencia artificial del NEJM informó que se logró una precisión general del 87,9 por ciento en la detección de EP utilizando solo el análisis de video de sonrisas.
Los investigadores informaron que el modelo de IA podía distinguir con precisión entre individuos con y sin EP basándose en el análisis de sus sonrisas, incluso cuando se aplicaba en diversas muestras de población de América del Norte y Bangladesh.
La Fundación de Parkinson dice que se estima que 90.000 personas más serán diagnosticadas este año, y que el número de los afectados alcanzará los 1,2 millones para 2030.
El diagnóstico temprano de la enfermedad de Parkinson sigue siendo un desafío importante debido al acceso limitado a la experiencia clínica y a las evaluaciones en persona.
Las herramientas de detección remota basadas en inteligencia artificial prometen soluciones escalables y rentables para cerrar estas brechas en la atención médica.
Los hallazgos se alinean con la creciente demanda de soluciones de atención médica digital que eliminen las barreras geográficas y económicas para el diagnóstico temprano de enfermedades neurológicas, lo que es especialmente relevante para las comunidades rurales y marginadas de Estados Unidos.
El método
El nuevo método de evaluación invitó a los participantes a grabarse imitando expresiones faciales, incluida una sonrisa, utilizando una plataforma en línea.
Luego, los equipos de investigación extrajeron puntos de referencia faciales y midieron las unidades de acción para cuantificar la hipomimia, un síntoma motor común en la EP en el que el movimiento de los músculos faciales está disminuido.
Se desarrollaron modelos de aprendizaje automático utilizando estas características, diferenciando a las personas con EP de las que no la padecen.
El enfoque se basó en una amplia estrategia de reclutamiento, que involucró a participantes de América del Norte a través de las redes sociales, el correo electrónico, centros de bienestar y registros de investigación, junto con una cohorte de alto riesgo de Bangladesh.
Entrenado únicamente con videos de sonrisas, el modelo alcanzó una precisión de validación cruzada de 10 veces del 87,9 %, una sensibilidad del 76,8 % y una especificidad del 91,4 %. La validación en conjuntos de pruebas externos reveló una precisión del 80,3 % en un conjunto de datos de una clínica estadounidense y del 85,3 % en la cohorte de Bangladesh.
Mientras que el valor predictivo negativo se mantuvo por encima del 92 por ciento en todos los entornos, el valor predictivo positivo cayó al 35,7 por ciento entre los participantes de Bangladesh, lo que refleja variaciones en las características de la población.
El estudio no encontró diferencias significativas en el desempeño del modelo entre subgrupos sexuales y étnicos, excepto una precisión marginalmente mayor en las participantes femeninas en Bangladesh.
Los autores enfatizaron la generalización y equidad del enfoque, consideraciones clave en el desarrollo de herramientas de IA clínica.
El código de procesamiento de video y aprendizaje automático que respalda el estudio está disponible para el público en GitHub.
Sin embargo, los autores del estudio señalaron que el intercambio de datos de video sin procesar está restringido para cumplir con la ley de privacidad de la atención médica de los EE. UU. (HIPAA), lo que limita el acceso únicamente a funciones derivadas no identificadas.
La investigación recibió financiación del Instituto Nacional de Trastornos Neurológicos y Accidentes Cerebrovasculares de los Institutos Nacionales de Salud, entre otras fuentes.
El trabajo fue un esfuerzo colaborativo que involucró a socios académicos y clínicos como el centro de bienestar de la enfermedad de Parkinson InMotion y el Centro de Salud y Tecnología de la Universidad de Rochester.
El proceso de investigación también se benefició de las contribuciones del personal de Google Research y de la Universidad de Rochester, particularmente en el análisis estadístico.
Tariq Adnan, M.Sc., autor principal, afirmó en la conclusión del estudio : “Los videos sonrientes pueden diferenciar eficazmente entre personas con y sin EP, lo que ofrece una forma potencialmente fácil, accesible y rentable de detectar la EP, especialmente cuando el acceso al diagnóstico clínico es limitado”.
¿Qué se espera?
Los próximos pasos del equipo de investigación incluyen una validación más amplia del método de detección de IA en poblaciones adicionales del mundo real y un mayor refinamiento del algoritmo para maximizar la precisión de la detección temprana.
Las vías de traducción regulatoria y clínica determinarán si esta tecnología estará disponible en el sistema de salud de los Estados Unidos y cuándo.