Saltar al contenido

Law Innovando Derecho

Portada » Blog » Justicia en la era digital: la sentencia T-323/24 y los límites de la inteligencia artificial en la función judicial

Justicia en la era digital: la sentencia T-323/24 y los límites de la inteligencia artificial en la función judicial

Mtro. Fabián Roberto Guerrero Santillán
SECRETARIO ADSCRITO, JUZGADO PRIMERO DE DISTRITO EN MATERIA ADMINISTRATIVA EN EL ESTADO DE JALISCO
FB: Fabián Roberto Guerrero

I. INTRODUCCIÓN

La inteligencia artificial (IA) ha revolucionado la sociedad contemporánea, transformando sectores como la medicina, las finanzas y la investigación científica. Esta revolución tecnológica ha alcanzado el ámbito jurídico y la impartición de justicia, en los que promete optimizar procesos, lo cual tiene que verse con cautela, pues involucra los derechos humanos de las personas.

La Sentencia T-323/24, de 2 de agosto de 20241, dictada por la Sala Segunda de Revisión de la Corte Constitucional de Colombia, aborda los desafíos de incorporar la inteligencia artificial en la función jurisdiccional. Esta decisión se emite en un momento en que herramientas como ChatGPT2, que ha transformado la manera en que interactuamos con la tecnología, generan tanto expectativas sobre su eficiencia como preocupaciones sobre la privacidad, la seguridad de la información, los sesgos y, particularmente en el ámbito judicial, la integridad del proceso en la toma de decisiones.

II. CONTEXTO Y ANTECEDENTES

La sentencia de la Corte Constitucional analiza un caso en el que un juez utilizó un sistema de IA generativo, ChatGPT 3.5, como herramienta adicional en la motivación de una sentencia. La particularidad radica en que el juez transparentó el uso de esta tecnología, explicando que la empleó después de que adoptó su decisión, como complemento a la argumentación que construyó mediante métodos tradicionales.

La Corte estableció un marco regulatorio sobre el uso de la inteligencia artificial en el sistema judicial colombiano, reconociendo que la transformación digital de la justicia, aunque inevitable y potencialmente beneficiosa, debe desarrollarse garantizando derechos fundamentales y preservando la esencia humana de la función judicial.

III. RIESGOS IDENTIFICADOS EN EL USO DE IA EN DECISIONES JUDICIALES

La Corte identificó algunos riesgos en el uso de inteligencia artificial en el contexto judicial:

Aludió a las “alucinaciones” de la IA, fenómeno en el que los sistemas generan información aparentemente coherente pero falsa o inexacta, creando, incluso, referencias inexistentes a normativa, jurisprudencia o doctrina3.

Identificó los sesgos, que pueden manifestarse en discriminaciones basadas en raza, género o condición socioeconómica, o en preferencias por ciertos tipos de interpretaciones jurídicas.

De igual manera, refirió a la falta de transparencia y trazabilidad en sistemas que funcionan como “cajas negras”, en los que resulta imposible conocer el proceso exacto mediante el cual se llega a una conclusión4.

Y, consideró los riesgos para la protección de datos personales y la confidencialidad de la información judicial, especialmente cuando se utilizan herramientas comerciales que podrían almacenar y procesar información sensible.

IV. MARCO REGULATORIO ESTABLECIDO POR LA CORTE

La Corte desarrolló un marco regulatorio para los usos permitidos y los límites de la IA en el contexto judicial. Permitió su utilización en el sistema judicial para los ámbitos de gestión administrativa y documental, así como el de apoyo a la gestión judicial y la corrección y síntesis de textos, siempre bajo supervisión humana.

Sin embargo, estableció una prohibición categórica: la IA no puede sustituir al juez en el razonamiento lógico y humano que le corresponde realizar para interpretar los hechos, las pruebas, motivar la decisión e incluso adoptarla, pues en ese escenario sostuvo que habría una sustitución del poder jurisdiccional por cuenta de la IA y con ello, la configuración de una violación al debido proceso por violación de la garantía de un juez legal previamente establecido.

V. CRITERIOS ORIENTADORES

La Corte estableció 12 criterios orientadores, 5 en cuanto al uso de herramientas de IA como ChatGPT para guiar su implementación en el sistema judicial. Algunos de los criterios son:

Transparencia, entendida como la obligación de evidenciar con claridad y precisión el uso, alcances y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de tales herramientas, que permita a los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de contradicción.

Responsabilidad demanda que los operadores judiciales estén debidamente capacitados y comprendan las implicaciones y riesgos de estas tecnologías, más allá de su mera operación técnica.

Privacidad, consistente en el deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial.

No sustitución de la racionalidad humana, como expresión de la imposibilidad ética y jurídica de sustituir la acción y la responsabilidad del individuo de la especie humana en la gestión de las actuaciones y decisiones judiciales.

Control humano, en tanto que siempre se permita la realización efectiva de escrutinios sobre las actuaciones y decisiones en que se usen herramientas de IA, mediante el acceso a la debida información y el uso de recursos que deban ser resueltos por autoridades humanas.

VI. IMPLICACIONES PRÁCTICAS Y DESAFÍOS

La implementación de este marco regulatorio implica transformaciones significativas en tres niveles: a) La necesidad de capacitación especializada que combine aspectos técnicos con una comprensión profunda de las implicaciones éticas y jurídicas del uso de IA; b) La adaptación institucional mediante el desarrollo de protocolos específicos y mecanismos de control, lo que implica no solo cambios procedimentales sino también culturales; c) La preservación de garantías procesales fundamentales en un entorno tecnológicamente mediado, asegurando que la implementación de IA no comprometa el debido proceso, la independencia judicial y el derecho de defensa.

VII. CONCLUSIONES

La Sentencia T-323/24 constituye un referente regional sobre la regulación de la inteligencia artificial en la impartición de justicia. Su relevancia radica en el desarrollo de un marco regulatorio que, aunque surge en un contexto nacional específico, ofrece principios y criterios aplicables a cualquier sistema judicial que enfrente el desafío de integrar estas tecnologías.

El ejercicio realizado por la Corte Constitucional colombiana destaca por su aproximación equilibrada, ya que por un lado reconoce el potencial de la IA para optimizar la labor judicial, y por otro, establece mecanismos que buscan proteger la integridad del proceso. Este balance entre innovación y prudencia ofrece una guía para otros países que buscan modernizar sus sistemas judiciales sin comprometer principios fundamentales.

Si bien los límites establecidos por la Corte Constitucional podrían considerarse excesivamente cautelosos, especialmente en un contexto de rápida evolución tecnológica donde las IAs demuestran capacidades cada vez más sofisticadas, esta prudencia inicial resulta comprensible. La desconfianza manifestada en la sentencia refleja una preocupación legítima por salvaguardar principios fundamentales en la impartición de justicia, como la independencia judicial y el debido proceso.

Este precedente seguramente inspirará desarrollos similares en otros ordenamientos jurídicos. El marco establecido sienta las bases para una discusión regional sobre cómo integrar responsablemente la tecnología por parte de los operadores jurídicos, manteniendo la esencia humana en la función judicial.

1 La sentencia puede consultarse en https://www.corteconstitucional.gov.co/relatoria/2024/T-323-24.htm

2 ChatGPT es un modelo de IA que produce texto conversacional a través de una interfaz de chat en línea, funcionando como una herramienta de producción de contenido a partir de instrucciones. OpenAI, Informe presentado a la Corte Constitucional de Colombia, en la sentencia T-323/24.

3 Un ejemplo es el caso Mata vs. Avianca, donde un abogado fue sancionado por citar en su escrito precedentes inexistentes que había obtenido consultando ChatGPT. La herramienta había ‘alucinado’ creando casos que nunca existieron pero que parecían convincentes y pertinentes. El caso puede ser consultado en https://cases.justia.com/federal/district-courts/new-york/nysdce/1:2022cv01461/575368/54/0.pdf?ts=1687525481

4 El término ‘caja negra’ en IA se refiere a sistemas en los que se pueden observar los datos que ingresan y los resultados que se producen, pero no comprender completamente cómo se procesa la información internamente para llegar a esas conclusiones. En la sentencia se alude al sistema COMPAS, utilizado en Estados Unidos para evaluar el riesgo de reincidencia criminal. En este caso, aunque se conocen los datos que se introducen (como historial criminal y características demográficas) y el resultado (puntaje de riesgo), el algoritmo específico que realiza la evaluación permanece opaco incluso para los tribunales que lo utilizan. Asimismo, véase: Rudin, C. ‘Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead’. Nature Machine Intelligence, 1, 206-215 (2019), disponible en https://doi.org/10.1038/s42256-019-0048-x

5 Los criterios orientadores son: Transparencia, Responsabilidad, Privacidad, No sustitución de la racionalidad humana, Seriedad y verificación, Prevención de riesgos, Igualdad y equidad, Control humano, Regulación ética, Adecuación a buenas prácticas y estándares colectivos, Seguimiento continuo y adaptación e Idoneidad.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

× ¿Cómo puedo ayudarte?