Expertos en inteligencia artificial (IA) de Cedars-Sinai y el Smidt Heart Institute desarrollaron una base de datos que incluye más de un millón de ecocardiogramas y sus respectivas interpretaciones clínicas. A partir de esta información, crearon EchoCLIP, un avanzado algoritmo de aprendizaje automático capaz de “interpretar” imágenes de ecocardiograma y evaluar hallazgos cruciales.
La investigación publicada en Nature Medicine detalla que el diseño y la evaluación de EchoCLIP indican que la interpretación de un ecocardiograma mediante esta herramienta ofrece evaluaciones médicas detalladas de la función cardíaca, revisión de cirugías previas y dispositivos implantados, y asiste a los médicos en la identificación de pacientes que requieren tratamiento.
Este modelo de IA también tiene la capacidad de identificar a un mismo paciente en varios vídeos, estudios y momentos distintos, además de detectar cambios clínicamente significativos en el corazón del paciente. De acuerdo con el autor correspondiente, David Ouyang, MD, miembro de la facultad del Departamento de Cardiología del Smidt Heart Institute y de la División de Inteligencia Artificial en Medicina, “hasta donde sabemos, este es el modelo más grande entrenado en imágenes de ecocardiografía”.
Asimismo, el autor señaló que muchos modelos de IA que ya se han desarrollado para ecocardiogramas tan solo entrenan con decenas de miles de ejemplos. En cambio, “el desempeño excepcionalmente fuerte de EchoCLIP en la interpretación de imágenes es el resultado de su entrenamiento con casi diez veces más datos que los modelos existentes”.
Entre tanto, los resultados de la investigación sugieren que grandes conjuntos de datos de imágenes médicas e interpretaciones realizadas por expertos pueden servir como base para entrenar modelos médicos, que son una forma de IA generativa. Por ello, este modelo de IA podrá ayudar a los cardiólogos en la avaluación de ecocardiogramas, generando evaluaciones preliminares de mediciones cardíacas, identificando cambios que ocurren con el tiempo y estados patológicos comunes.
¿Cómo se desarrolló EchoCLIP – IA?
El equipo de investigación desarrolló EchoCLIP utilizando un conjunto de datos compuesto por 1.032.975 vídeos de ecografías cardíacas y las respectivas interpretaciones de expertos. Las conclusiones principales del estudio revelan:
- EchoCLIP demostró una eficacia notable en la evaluación de la función cardíaca a través de imágenes del corazón.
- El modelo básico fue capaz de identificar dispositivos intracardíacos, como marcapasos y reparaciones de válvula mitral, así como válvulas aórticas implantadas, a partir de las imágenes de ecocardiograma.
- EchoCLIP logró identificar con precisión a pacientes únicos a lo largo de diversos estudios, detectó cambios clínicamente relevantes, como cirugías cardíacas previas, y facilitó la generación de una interpretación textual preliminar de las imágenes de ecocardiograma.
Además, “EchoCLIP se entrena con pares de imágenes de ecocardiograma (muestreadas aleatoriamente de fotogramas de video) y texto de informe clínico asociado sin etiquetado directo de interpretaciones o mediciones clínicas”, señala el estudio.
Christine M. Albert, MD, MPH, presidenta del Departamento de Cardiología del Smidt Heart Institute y la Cátedra Distinguida de Cardiología Lee y Harold Kapelovitz explicó que “los modelos básicos son una de las áreas más nuevas dentro de la IA generativa, pero la mayoría de los modelos no tienen suficientes datos médicos para ser útiles en el ámbito de la atención médica”.
Este novedoso modelo integra la interpretación de la visión por computadora de las imágenes de ecocardiograma con el procedimiento del lenguaje natural, lo cual para Albert quien no participó en el estudio, podría “aumentar la interpretación de los ecocardiogramas por parte de los cardiólogos”.
Descargue aquí la investigación completa: