*Por: Omar Niño, Profesional en Salud y Derecho con especializaciones en Auditoría Médica, Seguros y Seguridad Social y Derecho Procesal Civil, MBA con enfoque en Dirección de Empresas y con amplia experiencia en procesos indemnizatorios, actividades jurídicas y de consultoría relacionados con el Seguro Obligatorio de Accidentes de Tránsito SOAT.
La justicia no es solo la aplicación de normas, sino la garantía de derechos fundamentales. Pero ¿qué ocurre cuando una herramienta tecnológica interviene en el proceso judicial? En Colombia, un caso de vulneración del derecho a la salud de un niño diagnosticado con Trastorno del Espectro Autista (TEA) ha trascendido su impacto individual para convertirse en un hito en la discusión sobre el uso de la Inteligencia Artificial (IA) en la administración de justicia.
En principio, el caso parecía ser uno más de los múltiples fallos rutinarios que han protegido el acceso a los servicios de salud: una acción de tutela presentada por la madre del menor donde buscaba se le eximiera del pago de copagos y cuotas moderadoras para el suministro del servicio de transporte interurbano para la asistencia a sus terapias, bajo el argumento de que no existía prescripción médica que lo ordenara y no se le autorizó un tratamiento integral, en protección de los derechos fundamentales a la salud, la vida digna y la seguridad social.
Sin embargo, un juez de segunda instancia, que confirmó al fallo del juez de primera instancia y conoció de la impugnación de este por la EPS, utilizó la herramienta de IA ChatGPT 3.5 para realizar algunas preguntas y extender los argumentos de la decisión adoptada a favor del menor, lo cual adquirió una relevancia sin precedentes cuando la Corte Constitucional revisó el caso.
El análisis de la Corte Constitucional
La Corte evaluó si el uso de ChatGPT por parte del juez vulneraba el derecho al debido proceso y la garantía de un juez natural. Concluyó que, en este caso específico, no se sustituyó la función judicial humana, ya que el juez tomó y fundamentó su decisión antes de consultar la herramienta de IA. Es decir, parecía innecesario que el juez acudiera a la IA, sino que validó unas preguntas con ChatGPT para citarlas en su escrito y argumentar su decisión.
Un aspecto interesante en este caso es el análisis profundo que la corte esgrime frente al “Uso de la herramienta de inteligencia artificial IA generativa ChatGPT en procesos de tutela y debido proceso”, donde desarrolla:
- El derecho fundamental al debido proceso,
- El debido proceso en un sistema jurisdiccional que utilice razonablemente IA, Sistemas de IA.
- Concepto y aspectos básicos acerca de su funcionamiento;
- Impactos del uso de herramientas de IA en la sociedad,
- Estado de la IA en Colombia,
- El marco regulatorio de la IA en el mundo.
- Algunos instrumentos de soft law e iniciativas normativas,
- Algunas experiencias concretas relacionadas con la IA en la práctica jurídica,
- La garantía del juez natural en un sistema jurisdiccional que utilice IA,
- El debido proceso probatorio en un sistema jurisdiccional que utiliza IA
Otro aspecto interesante fue la ejemplificación, diligencias o pruebas que adelantaron tres funcionarios del despacho sustanciador en sede revisión, en la plataforma ChatGPT, versión 3.5., en la que iniciaron sesión en dicha herramienta desde dispositivos y cuentas distintas para realizar las preguntas que formuló el Juez del Circuito, con tres enfoques diferenciado:
- Uno de los servidores planteó exactamente los mismos interrogantes,
- Otro contextualizó al sistema antes de cada pregunta indicándole «soy un juez laboral de la República de Colombia», y
- un tercero, hizo lo propio identificándose como estudiante de derecho de una universidad en Colombia.
Las preguntas fueron las siguientes:
¿Menor diagnosticado con Trastorno del Espectro Autista esta exonerado de pagar cuotas moderadoras en sus terapias?
¿Las acciones de tutela en estos casos se deben conceder?
¿Exigir en estos casos la cuota moderadora es una barrera de acceso al servicio de salud?
¿La jurisprudencia de la corte constitucional (sic) ha tomado decisiones favorables en casos similares?
Lo curioso de esta inteligencia es la variedad de respuestas que emitió a cada uno. Claramente las respuestas dependen de múltiples factores como el rol del que pregunta, la descripción del mimo, el orden de las preguntas, especificidad, claridad, contextualización y demás variables alimentadas en ChatGPT, con lo cual se hace muy difícil el contar con respuestas muy similares.
En colorario de lo anterior, la Corte enfatizó que el uso de IA en decisiones judiciales debe manejarse con extrema cautela, asegurando siempre la transparencia, responsabilidad y privacidad. Se destacó que, aunque la IA puede ser útil en tareas administrativas y de apoyo, no debe reemplazar el juicio y la racionalidad inherentes al rol del juez.
Implicaciones para la administración de justicia
Este fallo sentó un hito sin precedentes en Colombia respecto al uso de IA en el ámbito judicial. La Corte exhortó al Consejo Superior de la Judicatura a desarrollar lineamientos claros sobre la implementación de herramientas de IA en la Rama Judicial, garantizando que su uso respete los derechos fundamentales y no comprometa la independencia e imparcialidad judicial, por lo cual el Consejo Superior de la Judicatura expidió el Acuerdo PCSJA24-12243 del 16 de diciembre de 2024[1].
Además, se ordenó la capacitación de los funcionarios judiciales en el manejo ético y responsable de estas tecnologías.
Los riesgos de la IA en la justicia
La Corte Constitucional no pasó por alto la implicación de este hallazgo. En su análisis, señaló que, si bien la IA puede ser una aliada en la eficiencia de la administración de justicia, su uso debe cumplir con estrictas garantías que preserven la autonomía judicial y los derechos fundamentales de los ciudadanos.
Algunos de los riesgos más relevantes identificados por la Corte incluyen:
- Opacidad y falta de explicabilidad: Muchas herramientas de IA operan como “cajas negras”, lo que impide conocer los criterios exactos utilizados para emitir recomendaciones.
- Sesgos algorítmicos: La IA puede replicar y amplificar discriminaciones preexistentes, lo que afecta la imparcialidad judicial.
- Dependencia de los jueces en la IA: Si los jueces adoptan mecánicamente las recomendaciones de un sistema algorítmico, la autonomía y la interpretación jurídica se ven comprometidas.
- Ausencia de control ciudadano: Las partes procesales deben tener el derecho de conocer, impugnar y debatir cualquier decisión que haya sido influenciada por la IA.
Criterios establecidos por la Corte Constitucional para el uso de la IA en la justicia
A raíz de estos riesgos, la Corte estableció una serie de criterios fundamentales para el uso de la IA en la administración de justicia:
- Transparencia y explicabilidad: La IA debe operar de manera comprensible para jueces y ciudadanos, evitando decisiones automáticas sin justificación clara.
- Supervisión humana: Los jueces deben conservar el control sobre las decisiones y no delegarlas a un algoritmo sin una evaluación crítica.
- Evitar sesgos y discriminaciones: Se deben adoptar mecanismos para prevenir que la IA refuerce desigualdades preexistentes.
- Accesibilidad y derecho de contradicción: Las partes en un proceso deben poder conocer y cuestionar el rol de la IA en sus casos.
- Finalidad legítima y proporcionalidad: La IA debe utilizarse solo para mejorar la eficiencia judicial sin afectar los derechos fundamentales.
- Protección de datos y privacidad: Se deben garantizar la seguridad y el tratamiento adecuado de la información procesada por los algoritmos.
- Rendición de cuentas: Las instituciones judiciales deben establecer mecanismos de control y auditoría sobre el uso de la IA.
Reflexiones finales
La Sentencia T-323 de 2024 marca un hito en la jurisprudencia colombiana, abriendo la puerta a la integración de tecnologías avanzadas en la administración de justicia. No obstante, subraya la necesidad de establecer marcos regulatorios y éticos que aseguren que la IA sea una herramienta complementaria que fortalezca el sistema judicial, sin socavar los principios fundamentales que lo rigen.
Lo que comenzó como un caso de tutela para proteger el derecho a la salud de un niño con Trastorno del Espectro Autista terminó convirtiéndose en un debate crucial sobre la IA y el debido proceso en Colombia.
La automatización no puede sustituir la deliberación humana, y la tecnología debe ser una herramienta al servicio de la equidad, nunca un reemplazo de la conciencia judicial.
Claramente este tema nos hace pensar sobre la debida utilización de las IA en todos los sectores de la economía, en la cual también deberíamos tener lineamientos para su adecuado USO.
Referencias
- Sentencia T-323 de 2024 de la Corte Constitucional: T-323-24 Corte Constitucional de Colombia
- Decisión innovadora: Sentencia t-323 de 2024, la inteligencia artificial (IA) no puede sustituir al juez en la toma de decisiones judiciales.: https://escuelajudicial.ramajudicial.gov.co/noticia/decision-innovadora-sentencia-t-323-de-2024-la-inteligencia-artificial-ia-no-puede
- ABC Sentencia T-323 DE 2024, https://escuelajudicial.ramajudicial.gov.co/sites/default/files/ABC_SentenciaIA_T323De2024.pdf
- Criterios orientadores para que jueces evalúen el adecuado uso de la Inteligencia Artificial: https://www.youtube.com/watch?v=0dw4Tjid_yk
- Acuerdo PCSJA24-12243 Consejo Superior de la Judicatura (16 de diciembre de 2024): “Por el cual se adoptan lineamientos para el uso y aprovechamiento respetuoso, responsable, seguro y ético de la inteligencia artificial en la Rama Judicial” https://actosadministrativos.ramajudicial.gov.co/GetFile.ashx?url=%7e%2fApp_Data%2fUpload%2fPCSJA24-12243.pdf
[1] El Consejo Superior de la Judicatura expidió el AcuerdoPCSJA24-12243, con el que se adoptan reglas y lineamientos para el uso de herramientas de Inteligencia Artificial (IA) en la Rama Judicial, en el objetivo de su aprovechamiento respetuoso, responsable, seguro y ético.
Ver en internet: https://actosadministrativos.ramajudicial.gov.co/GetFile.ashx?url=%7e%2fApp_Data%2fUpload%2fPCSJA24-12243.pdf