Recientemente, la Sala Segunda de Revisión de la Corte Constitucional de Colombia conoció una acción de tutela presentada por la madre una mejor de edad contra una EPS, solicitando el amparo de los derechos fundamentales a la salud y a una vida digna, debido a que la EPS se negó a:
- Garantizar un tratamiento integral para su condición.
- Exonerar al niño del pago de cuotas moderadoras y copagos.
- Cubrir los gastos de transporte para que pudiera asistir a sus terapias.
Para este caso, la Corte dividió el análisis del caso en dos temas principales:
- Examinó si se había vulnerado el derecho al debido proceso debido al uso de inteligencia artificial (IA) por parte del juez de segunda instancia. Como tal, este juez utilizó ChatGPT para formular preguntas legales sobre el derecho a la salud de menores con trastorno del espectro autista y luego incorporó esas preguntas y respuestas en la sentencia.
- La Corte evaluó si se habían afectado los derechos a la salud, vida digna y seguridad social del menor.
La Sala de Revisión, al abordar el uso de herramientas de inteligencia artificial (IA) en el sistema de justicia, enfatizó que se debe respetar el derecho al “juez natural,” lo que significa que el juez debe ser un ser humano, ya que el marco legal actual no contempla la existencia de un “juez máquina.” Por lo tanto, la IA no puede reemplazar al juez en la toma de decisiones judiciales, sin importar la complejidad del caso.
Sin embargo, la Corte considera que es aceptable utilizar estas tecnologías para tareas administrativas y de gestión documental, así como para apoyar al juez en actividades que no involucren la creación de contenido, interpretación de hechos o textos, ni la resolución de casos. Además, aclara que la IA puede ser usada para la corrección y síntesis de textos, siempre y cuando un operador jurídico supervise estos procesos para garantizar su precisión, coherencia y correcta aplicación.
Por otra parte, también añadió que, para respetar el derecho al debido proceso, el uso de la IA en el sistema judicial debe asegurar la independencia e imparcialidad de los jueces, lo cual significa que ninguna entidad, ya sea estatal, privada o una IA, debe influir en las decisiones judiciales.
La Corte también advirtió que no es aceptable que las decisiones judiciales se vean afectadas por sesgos o prejuicios que podrían estar presentes en estas herramientas, ya que esto podría llevar a discriminaciones y decisiones injustas. Además, subrayó la importancia de la motivación adecuada en las decisiones judiciales, destacando que el uso de la IA conlleva el riesgo de “alucinaciones,” un fenómeno donde la IA puede generar información inexacta o falsa, lo que podría comprometer la justificación de las decisiones judiciales.
Conclusión de la Corte sobre el uso de IA en este caso
Con este análisis, la Corte concluyó el uso de la IA en el sistema de justicia es aceptable, siempre que se haga de manera equilibrada y razonada. Esto debe basarse en la protección de los derechos fundamentales, la aplicación de las mejores prácticas, el respeto a criterios éticos y la observancia de los mandatos superiores. Un aspecto clave es que la IA no debe reemplazar la racionalidad humana y cuando los jueces utilicen estas herramientas tecnológicas, deben asumir las responsabilidades de transparencia, responsabilidad y protección de la privacidad.
Es clave mencionar que la transparencia implica que se debe explicar claramente cómo se utilizó la herramienta de IA, cuál fue su alcance y cómo influyó en las decisiones tomadas. La responsabilidad requiere que el funcionario esté capacitado en el uso de la IA, que pueda justificar la razón, idoneidad y necesidad de su uso, y que verifique tanto las condiciones de la herramienta como la información y los resultados que esta genera. Finalmente, la privacidad exige la protección de los datos personales y sensibles proporcionados al sistema judicial para cumplir con sus funciones.
Con base en lo anterior, al revisar el caso específico, la Sala de Revisión concluyó que ChatGPT no reemplazó la función judicial, ya que el juez de segunda instancia utilizó esta herramienta después de haber fundamentado y tomado su decisión; solo entonces transcribió las preguntas que formuló en la plataforma y las respuestas obtenidas. Por lo tanto, no se cuestionó la validez de la decisión del juzgado, ya que esta se tomó antes de utilizar la herramienta.
No obstante, la Corte encontró que no se cumplieron completamente los principios de transparencia y responsabilidad requeridos en el uso de la IA. En cambio, el principio de privacidad sí se respetó, ya que el juez no introdujo datos personales del menor, su historial clínico, ni información de las partes involucradas en la disputa.
Consideraciones sobre la afectación del derecho a la salud del menor
En cuanto a la posible afectación del derecho a la salud del menor, la Corte concluyó que se cumplían las condiciones para exonerarlo del pago de copagos y cuotas moderadoras por los servicios y medicamentos que necesite. Esto se debe a que las leyes 1438 de 2011 y 1618 de 2013, junto con el Decreto 1652 de 2022, exceptúan del pago de cuotas moderadoras y copagos a las personas con discapacidad en lo relacionado con su rehabilitación. También ordenó eliminar las barreras para aplicar esta exoneración, en particular, asegurando que se realicen las gestiones administrativas necesarias para que la EPS informe a los prestadores de servicios sobre la no aplicación de estos cobros.
La Sala a su vez determinó que tanto el niño como su madre se encuentran en situación de pobreza extrema y no tienen los recursos económicos para cubrir los gastos de transporte necesarios para acceder a los servicios de salud. La falta de autorización del transporte, dada la condición médica del niño, podría poner en riesgo su dignidad y su estado de salud. Aunque la EPS autorizó el transporte para las terapias de rehabilitación, no extendió esa autorización a los demás desplazamientos necesarios para consultas con especialistas y pruebas diagnósticas. Por ello, la Corte identificó una deficiencia en la protección otorgada por los jueces de instancia.
Corte hace un llamado a uso ético y responsable de la IA en la administración de justicia
La Corte Constitucional exhortó a los jueces de la República a evaluar cuidadosamente el uso de herramientas tecnológicas como ChatGPT y otras relacionadas con la IA y recomendó que, al utilizarlas, se valoren las mejores prácticas y se apliquen criterios éticos y de respeto a los mandatos superiores para garantizar los derechos fundamentales, especialmente el debido proceso, y mantener la independencia y autonomía judiciales, esenciales para el Estado Social de Derecho y la democracia.
Para ello, los funcionarios judiciales deben aplicar principios como transparencia, responsabilidad, privacidad, no sustitución de la racionalidad humana, seriedad y verificación, prevención de riesgos, igualdad y equidad, control humano, regulación ética, adecuación a buenas prácticas, seguimiento continuo, y idoneidad.
Además, la Corte ordenó al Consejo Superior de la Judicatura que desarrolle una guía o manual sobre la implementación de la IA generativa en la Rama Judicial, en particular sobre el uso de ChatGPT. También instruyó a la Escuela Judicial Rodrigo Lara Bonilla a difundir la providencia a todos los despachos judiciales del país y a continuar generando espacios de capacitación sobre el uso de la IA en el contexto judicial, abordando sus riesgos y beneficios con un enfoque de derechos.