Jugando con el fuego de los dioses

Jugando con el fuego de los dioses
[favorite_button]
Comentar

En la mitología griega, existe un cuarteto de titanes hermanos cuyas personalidades e historias nos ayudan a entender muchas de las condiciones humanas. Prometeo, Epimeteo, Menecio y Atlas, hijos del titán Jápeto y de la oceánide Clímene, eran semidioses e inmortales. Sin embargo, enfoquémonos en los dos primeros: Prometeo y Epimeteo.

Prometeo, apasionado defensor de la humanidad, decidió robar el fuego, reservado exclusivamente para los dioses, y entregárselo a los hombres. Este acto desató la furia de Zeus, quien condenó a Prometeo a un castigo eterno. El titán fue encadenado a una roca, donde cada día un águila llamada Ethon devoraba su hígado. Durante la noche, el hígado de Prometeo se regeneraba, solo para ser devorado de nuevo al día siguiente, perpetuando su tormento sin fin.

Por otro lado, su hermano Epimeteo, menos racional y más ingenuo, fue manipulado por Zeus para tomar como esposa a la primera mujer creada, Pandora. Pandora traía consigo una caja que contenía todos los males de la humanidad. Epimeteo, débil y desprevenido, permitió que Pandora abriera la caja, liberando así todos los males, con la excepción de la esperanza, la que quedó atrapada dentro.

Estas historias, cargadas de simbolismo y lecciones, nos hablan de la dualidad de la condición humana: la búsqueda del conocimiento y el progreso, encarnada por Prometeo, y la ingenuidad y las consecuencias de la imprudencia, representadas por Epimeteo.

Ahora imaginemos que Prometeo y Epimeteo, han sido transportados al siglo XXI. En esta era moderna, ya no son dioses del fuego y los dones, sino pioneros de la inteligencia artificial (IA) en el campo de la salud. Prometeo, como un Titán matemático, nos ha traído el potencial de la IA analítica y generativa para transformar la medicina, mientras que Epimeteo, se preocupa por los riesgos y las implicaciones éticas de estas poderosas herramientas, pero su fragilidad le tienta a liberarlas sin control.

¿Utilizaremos la IA analítica y generativa como el fuego que alumbra, calienta y transforma o liberaremos acaso una nueva caja de Pandora?, todo esto depende de nosotros, de nuestro conocimiento, análisis y decisiones.

La inteligencia artificial (IA) irrumpe con fuerza en el ámbito de la salud, prometiendo mejorar la calidad de la atención, reducir costos y enriquecer las experiencias tanto de los pacientes como de los profesionales de la salud. Sin embargo, junto con estas promesas -que bien pueden ser solo humo- vienen desafíos y riesgos significativos, especialmente en relación con la seguridad del paciente.

Preocupados por las potenciales consecuencias sobre la seguridad del paciente que puede traer en particular la IA generativa, el Instituto para la Mejora de la Salud (IHI) acaba de lanzar un documento marco en el cual un grupo transdisciplinario de expertos genera una serie de recomendaciones para la implementación adecuada de este tipo de desarrollos en el marco del uso clínico. A continuación los puntos esenciales del mismo:

Beneficios Potenciales de la IA en la Seguridad del Paciente

  1. Reducción del Burnout Clínico: Las herramientas de documentación asistida por IA pueden liberar a los profesionales de la salud de las tediosas tareas administrativas, permitiéndoles enfocarse más en la atención directa al paciente. Estas herramientas pueden transcribir automáticamente las interacciones clínicas y actualizar los registros médicos electrónicos, reduciendo la carga cognitiva y el riesgo de errores. Estudios han demostrado que la IA puede reducir significativamente la carga de documentación, lo que a su vez mejora la satisfacción laboral y disminuye el riesgo de burnout.
  1. Mejora en la Precisión Diagnóstica: La IA puede analizar grandes volúmenes de datos clínicos y sugerir diagnósticos y tratamientos basados en patrones previamente identificados. Esto puede ayudar a los médicos a considerar diagnósticos que podrían haber pasado por alto y a tomar decisiones más informadas. Un ejemplo notable es el uso de algoritmos de aprendizaje automático para identificar signos tempranos de enfermedades como el cáncer, mejorando las tasas de detección precoz y, por ende, los resultados clínicos.
  1. Identificación de Riesgos en Tiempo Real: Los sistemas de IA pueden monitorear continuamente los datos del paciente y alertar a los profesionales de la salud sobre cambios críticos en el estado del paciente que requieren intervención inmediata (análisis de tendencias, trayectorias y anomalías). Esto puede prevenir eventos adversos como infecciones nosocomiales o errores de medicación. La capacidad de la IA para procesar y analizar datos en tiempo real permite una intervención más rápida y eficaz, lo que puede salvar vidas y reducir la morbilidad asociada a complicaciones médicas.

Sin embargo, existen riesgos potenciales especialmente con los modelos generativos basados en los LLMs, estos son entre otros:

Desafíos y riesgos asociados con la inteligencia artificial

  1. Despersonalización de la Atención: La dependencia excesiva de la IA puede llevar a una disminución de la interacción humana en el cuidado del paciente, afectando negativamente la relación médico-paciente. Es crucial que los sistemas de IA se diseñen para complementar y no reemplazar, el juicio clínico humano. La tecnología debe ser una herramienta para mejorar la interacción humana, no para reemplazarla, asegurando que los pacientes sigan sintiéndose escuchados y comprendidos. Es importante también trasformar el impacto negativo en dicha relación médico-paciente que ha traído el modelo médico industrial.
  1. Errores y Sesgos Algorítmicos: La IA no está exenta de errores. Los sistemas de IA, especialmente los generativos pueden generar recomendaciones incorrectas o sesgadas si se entrenan con datos incompletos o sesgados (alucinaciones y pérdidas de contexto). Es vital implementar mecanismos de supervisión humana y auditoría continua para mitigar estos riesgos. Los desarrolladores de IA deben garantizar la diversidad y representatividad de los datos de entrenamiento para evitar sesgos que puedan afectar negativamente a poblaciones vulnerables.
  1. Descalificación Clínica: Con la creciente dependencia de la IA, existe el riesgo de que los profesionales de la salud pierdan habilidades clínicas esenciales. Es fundamental equilibrar el uso de la IA con la formación continua y la práctica clínica. Los programas de formación deben adaptarse para incluir tanto la capacitación en el uso de herramientas de IA como el mantenimiento de habilidades clínicas tradicionales. Ni tanto que se olvide la semiología ni tanto que seamos románticos clínicos y luditas.

Recomendaciones para la implementación segura de la inteligencia artificial

Las principales recomendaciones derivadas del grupo desarrollador son:

  1. Gobernanza y Supervisión Estrictas: Establecer estructuras de gobernanza sólidas que incluyan la participación de pacientes, defensores de los pacientes, y profesionales de la salud en el diseño, implementación y monitoreo de herramientas de inteligencia artificial. La creación de comités de ética y grupos de trabajo multidisciplinarios puede ayudar a supervisar y guiar el desarrollo y la implementación de estas tecnologías.
  1. Transparencia y Educación: Asegurar que tanto los profesionales de la salud como los pacientes comprendan cómo se utilizan las herramientas de IA y las implicaciones de su uso. Proveer educación continua sobre las capacidades y limitaciones de la IA. Los pacientes deben ser informados de cuándo y cómo se está utilizando la IA en su atención, y deben tener la oportunidad de optar por no usarla si así lo desean (empoderamiento).
  1. Evaluación y Validación Continua: Implementar un proceso riguroso de evaluación y validación para las herramientas de IA, asegurando que sean seguras, efectivas y libres de sesgos antes de su implementación a gran escala. Es esencial realizar pruebas piloto y estudios de validación en entornos clínicos reales para garantizar que las herramientas de IA funcionen según lo previsto y beneficien a todos los pacientes de manera equitativa. Pronto, en este sentido presentaremos la adaptación hispana del marco de evaluación de sistemas de IA DECIDE-AI para nuestros países.

Conclusión

La IA tiene el potencial de transformar la seguridad del paciente y la calidad de la atención médica. Sin embargo, su implementación debe ser gestionada con cuidado, asegurando que se maximicen los beneficios y se minimicen los riesgos. Con una gobernanza adecuada, transparencia y educación, la IA puede convertirse en un aliado poderoso para los profesionales de la salud y los pacientes, mejorando la seguridad y la calidad del cuidado de salud.

Necesitamos entonces usar el fuego entregado por Prometeo para iluminar nuestra búsqueda de las soluciones a los males de la caja de Pandora, con la mayor esperanza pero también con el adecuado entendimiento de las capacidades reales, y especialmente de las nuestras, las que vienen en nuestro modelo generativo llamado ADN.

Referencias

Lucian Leape Institute. (2024). Patient safety and artificial intelligence: Opportunities and challenges for care delivery. Institute for Healthcare Improvement. Disponible en ihi.org.

Temas relacionados

Compartir Noticia

Facebook
Twitter
LinkedIn
WhatsApp
Noticias destacadas
Más Noticias

Escríbanos y uno de nuestros asesores le contactará pronto

Reciba atención inmediata mediante nuestros canales oficiales aquí:

Tu carrito de compras está vacío.

Volver a la tienda