El crecimiento exponencial de las tecnologías basadas en inteligencia artificial en salud y en la atención médica plantea nuevos retos regulatorios. Estas herramientas, diseñadas para asistir en diagnósticos, seguimiento clínico y decisiones terapéuticas, no se comportan como los dispositivos médicos tradicionales. A diferencia de estos últimos, los algoritmos de IA aprenden y evolucionan después de su aprobación inicial, lo que genera incertidumbre sobre su rendimiento y seguridad en entornos clínicos reales.
Un nuevo análisis liderado por Leo Celi, investigador del Instituto Tecnológico de Massachusetts (MIT), y publicado esta semana en PLOS Digital Health, insta a la Administración de Alimentos y Medicamentos de los Estados Unidos (FDA) a adoptar un enfoque regulador más dinámico, ético y transparente para estas tecnologías. Los autores afirman que “la FDA necesita un sistema de supervisión ágil, transparente y basado en la ética para equilibrar la innovación con la seguridad del paciente”.
Brechas regulatorias: una amenaza para la equidad y la seguridad
Actualmente, el marco regulatorio de la FDA no contempla adecuadamente los cambios posteriores a la aprobación en los algoritmos de IA. Esta limitación puede permitir que una herramienta previamente validada evolucione hacia decisiones clínicas inexactas o incluso peligrosas, sin un monitoreo suficiente.
El artículo destaca los riesgos de reproducir sesgos si los modelos de IA son entrenados con bases de datos limitadas o no representativas. “Si un algoritmo se entrena principalmente con datos de un grupo de personas, podría cometer errores al usarlo con otros”, advierten los investigadores. Esta situación podría agravar las desigualdades en salud al ofrecer diagnósticos erróneos o decisiones de tratamiento no óptimas para poblaciones vulnerables.
Hacia una regulación centrada en el paciente y con vigilancia continua
Los autores proponen una serie de medidas clave para fortalecer la supervisión regulatoria:
- Transparencia obligatoria: Exigir a los desarrolladores que revelen cómo se entrenaron y validaron los modelos, incluyendo los conjuntos de datos utilizados, las variables introducidas y los posibles sesgos.
- Participación comunitaria: Incluir activamente a pacientes, defensores de derechos y comunidades diversas en el proceso de evaluación y aprobación de tecnologías de IA.
- Repositorios públicos de datos: Crear plataformas accesibles para rastrear el desempeño en el mundo real de los algoritmos, permitiendo una auditoría continua y colaborativa.
- Incentivos éticos: Ofrecer beneficios fiscales y regulatorios a las empresas que cumplan con buenas prácticas éticas, como auditorías de equidad y pruebas multiculturales.
- Formación médica adaptada: Instruir a los profesionales de la salud y estudiantes de medicina en la evaluación crítica y responsable de herramientas de IA, entendiendo sus limitaciones y alcances reales.
Estas propuestas buscan construir un entorno regulatorio más resiliente, que no obstaculice la innovación, pero que ponga en el centro a la seguridad del paciente y la equidad.
Replantear la supervisión, el llamado de los científicos
El informe, respaldado por académicos y especialistas en tecnología médica, sostiene que “este trabajo tiene el potencial de generar un impacto real al impulsar a la FDA a replantear los mecanismos de supervisión existentes para las tecnologías médicas basadas en IA”. Subrayan la urgencia de adoptar un enfoque regulatorio “centrado en el paciente, consciente del riesgo y con capacidad de adaptación continua”, para garantizar que el desarrollo tecnológico no comprometa ni la seguridad clínica ni la justicia en el acceso a la atención.
En un contexto donde los algoritmos ya están integrados en múltiples decisiones médicas desde imágenes diagnósticas hasta priorización de pacientes, la falta de regulación específica podría desencadenar consecuencias graves, especialmente si los errores no son detectados a tiempo.
El futuro de la inteligencia artificial en salud depende de su regulación
La inteligencia artificial representa una oportunidad significativa para mejorar la atención médica, optimizar procesos clínicos y democratizar el acceso al conocimiento médico. Sin embargo, sin una supervisión rigurosa que evolucione al ritmo del avance tecnológico, esta misma herramienta podría convertirse en un factor de riesgo.
El llamado de Celi y sus colegas es claro, la innovación debe estar acompañada de responsabilidad. Para garantizar un uso ético, seguro y eficaz de la inteligencia artificial en salud, es imperativo que los organismos reguladores como la FDA modernicen sus marcos y herramientas de vigilancia, reconociendo la singularidad de estas tecnologías en constante evolución.