
El Poder Judicial ha decidido no prohibir la inteligencia artificial generativa a sus funcionarios, sino regularla. La Circular 31-2026 establece lineamientos obligatorios para el uso de herramientas como ChatGPT o Gemini por parte de jueces, fiscales, defensores y personal administrativo. Es un paso relevante: reconocer que la IA llegó para quedarse es más honesto que fingir que no existe.
La circular acierta en aspectos importantes. Reafirma que la inteligencia artificial (IA) es una herramienta de apoyo y que la responsabilidad final recae exclusivamente en la persona servidora que firma la resolución. Exige verificación de contenidos para evitar “alucinaciones”, es decir, las citas inventadas o jurisprudencia inexistente que en algunos casos generan estos sistemas, y establece un deber de transparencia: cuando se utilice IA, debe dejarse constancia expresa en el expediente, indicando herramienta, versión, fecha y finalidad.
En comparación con otros sistemas judiciales, no es un estándar menor. Hay tribunales que apenas han emitido advertencias generales. Costa Rica, en cambio, optó por reglas formales. Pero aquí aparece el punto crítico.
Decir que la responsabilidad final es humana no equivale, necesariamente, a delimitar con precisión el alcance de la intervención tecnológica en el proceso deliberativo. La circular prohíbe la sustitución formal del juez y reafirma que la decisión no puede delegarse. Pero no desarrolla qué debe entenderse por “delegación” cuando la inteligencia artificial interviene en la formación del razonamiento. Entre sustituir la decisión y participar en su estructuración existe una zona intermedia que el texto no define con claridad.
Esa distinción es decisiva. La regulación protege la firma y la responsabilidad disciplinaria, pero no establece límites específicos respecto al uso de IA en la valoración de la prueba, la ponderación de derechos o la determinación del sentido del fallo. Tampoco distingue entre asistencia meramente lingüística y apoyo sustantivo en la construcción del análisis jurídico.
La inteligencia artificial generativa no “decide” formalmente. Pero puede intervenir en la formación del juicio. Si se le pide que analice si procede una condena a partir de determinados hechos, la herramienta no solo organiza argumentos: propone una estructura de valoración, selecciona criterios y jerarquiza elementos. Y cuando sugiere líneas argumentales, filtra jurisprudencia, estructura análisis o evalúa la coherencia de una prueba, no está asistiendo de manera neutra. Está configurando el marco dentro del cual la decisión se forma.
Una sentencia es legítima no solo porque esté firmada por un juez, sino porque es el resultado de una deliberación humana. Juzgar implica ponderar hechos, interpretar normas y asumir responsabilidad frente a valores en conflicto. Miguel Reale lo explicó con precisión en su teoría tridimensional del derecho: el fenómeno jurídico surge de la tensión dinámica entre hecho, norma y valor. No es una operación algorítmica; es una síntesis intelectual y ética.
Una IA no delibera en ese sentido. Calcula. Opera mediante patrones estadísticos, correlaciones probabilísticas y regularidades cuantitativas extraídas de millones de textos. Su lógica es la de la recurrencia y la frecuencia, no la de la ponderación valorativa. El riesgo no es que el algoritmo sustituya al juez. Es que el juez, sin advertirlo, comience a razonar dentro de la lógica que la herramienta privilegia. Si el sistema destaca precedentes “más probables”, el análisis tenderá hacia lo estadísticamente dominante. Si organiza el argumento según estructuras típicas, la decisión puede amoldarse a moldes recurrentes. La singularidad del caso concreto, es decir, esa fricción entre hecho, norma y valor, corre el riesgo de diluirse en la regularidad de los datos.
En ese desplazamiento silencioso realizado en la intimidad del despacho del juez se juega una transformación más profunda: el tránsito de la justicia como deliberación hacia la justicia como cálculo.
Precisamente, los estándares internacionales más avanzados, como el Reglamento Europeo de Inteligencia Artificial, parten de una premisa clara: cuando están en juego derechos fundamentales, la supervisión humana no basta. Debe existir una prohibición expresa de la sustitución decisoria. No es suficiente que el juez revise; es indispensable que la formación del juicio no se externalice. La circular deposita la carga casi exclusivamente en la prudencia individual. Es un modelo de responsabilidad personal. Pero la justicia no puede descansar únicamente en la autocontención tecnológica del usuario.
Nada de esto implica rechazar la innovación. La IA es útil para resumir expedientes, mejorar redacción o sistematizar información. Negarlo sería ingenuo. El problema no es la herramienta, sino el punto exacto donde deja de ser auxiliar y comienza a influir en la decisión, y eso no queda claro en la circular. Tal vez necesitaba una frase más contundente, sin ambigüedades: la deliberación jurisdiccional es indelegable. No solo en la firma, sino en su formación intelectual. La valoración de la prueba, la ponderación de derechos, la determinación del sentido del fallo no pueden ser externalizadas, ni siquiera bajo la apariencia de asistencia tecnológica.
Si el Poder Judicial quiere gobernar la inteligencia artificial y no simplemente adaptarse a ella, debería adoptar una definición inequívoca de los límites en su utilización. En la era digital, la independencia judicial no solo se defiende frente a otros poderes del Estado. También se defiende frente a los algoritmos.
m@mauricioparis.com
Mauricio París es abogado experto en tecnología, medios y telecomunicaciones.