El regreso de las vacaciones y la vuelta a nuestra rutina, nos trae nuevamente a las reaperturas con actos institucionales. Uno de ellos, que también ha causado revuelo, es la apertura del año judicial español. Si bien la IA está por fuera de los temas de discordia, nos hace recordar que también en ese sector, tenemos mucho por reflexionar. 

La justicia suele representarse con los ojos vendados, símbolo de imparcialidad. En la era digital, a esa figura clásica podríamos añadirle un nuevo atributo: un algoritmo que ayuda a clasificar expedientes, sugerir sentencias o evaluar riesgos. Pero esta nueva herramienta, ¿podría garantizar el equilibrio de la balanza que también la representa?

La inteligencia artificial ya no es una hipótesis futurista en los tribunales: en varios países se utilizan sistemas automatizados para apoyar decisiones judiciales, organizar procesos y agilizar tareas administrativas.

Este fenómeno despierta preguntas inevitables que ya tienen varios años, pero pocas respuestas: ¿pueden los algoritmos ser jueces? ¿Cómo garantizar que la digitalización de la justicia no erosione derechos fundamentales como la igualdad, la transparencia o la responsabilidad? Y, sobre todo, ¿qué espacio debe seguir teniendo el juicio humano?

La promesa de la IA en los tribunales

La administración de justicia enfrenta un desafío común en todo el mundo: la sobrecarga de casos. Millones de expedientes se acumulan en los juzgados, generando demoras que, en algunos sistemas, se cuentan en años.

Viví 14 años entre paredes de expedientes llenos de insectos, asbesto y muchas cosas más que seguro desconozco. Es precisamente allí, donde la prestación de servicios esenciales por parte del Estado es deficiente, que la IA se presenta como una herramienta valiosa.

Existen aplicaciones que permiten clasificar documentos, detectar patrones en jurisprudencia y agilizar búsquedas de precedentes. En algunos países, sistemas predictivos ayudan a estimar probabilidades de reincidencia en casos penales o a calcular indemnizaciones en litigios civiles. El objetivo no es reemplazar al juez, sino ofrecerle un apoyo técnico que permita tomar decisiones más informadas y rápidas.

En este sentido, la IA tiene un potencial democratizador: reducir tiempos de espera, descongestionar tribunales y facilitar que más ciudadanos accedan a una justicia eficiente. También hay abogados y representantes legales que se basan y gestionan pura y exclusivamente con esa tecnología. 

Los riesgos: sesgos, opacidad y responsabilidad

Los beneficios vienen acompañados de riesgos. El más evidente es el de los sesgos algorítmicos: si los sistemas incorporan nuestros prejuicios y estereotipos, las decisiones judiciales también los tendrán.

Ejemplos conocidos son los algoritmos de predicción de reincidencia que sobreestiman la peligrosidad de personas negras en Estados Unidos o que envían más efectivos a determinados barrios más humildes, incrementando el número de detenciones solo por la apariencia (el -supuestamente- desterrado, derecho penal de autor).

Otro riesgo es la opacidad. Muchos modelos funcionan como cajas negras: ofrecen un resultado sin que quede claro cómo lo alcanzaron. En la justicia, donde la motivación de la sentencia es garantía de legitimidad, esto plantea un problema serio. En realidad, esto aplica a la administración del Estado en general, debido al principio de transparencia de los actos públicos. 

Finalmente, la responsabilidad: si un juez se apoya en un sistema automatizado y la decisión causa un daño, ¿quién responde? La respuesta debería ser -una vez más- clara: siempre la persona. La IA puede ayudar, pero nunca asumir la carga de la responsabilidad jurídica ni ética. Quien cumplió el procedimiento constitucional para ser designado juez fue la persona, no el algoritmo, que ni siquiera tiene personería jurídica. 

No es rechazo, es regulación

Frente a estos riesgos, algunos sectores proponen rechazar de plano el uso de IA en la justicia. Sin embargo, esa postura puede ser tan problemática como ingenua: la tecnología ya está aquí, y negar su uso no hará que desaparezca. Además, es un sector que necesita tanta modernización y eficiencia, cerrarle la puerta a la IA constituye, cuanto menos, un despropósito. 

Lo que necesitamos no es prohibición, sino gobernanza ética: marcos normativos y protocolos claros que definan en qué condiciones se puede usar IA en tribunales, qué límites se imponen y qué salvaguardas deben aplicarse.

El AI Act europeo ofrece un ejemplo: clasifica los sistemas de IA utilizados en justicia como de alto riesgo y, por lo tanto, exige auditorías, explicabilidad y supervisión humana constante. Se trata de un enfoque que no demoniza la innovación, pero tampoco la deja librada al azar.

Hacia una justicia híbrida y ética

Un algoritmo puede ayudarnos a analizar datos, pero no puede comprender la complejidad de un caso humano. Ahí reside el espacio insustituible del juicio humano: en la capacidad de interpretar la ley con sensibilidad, responsabilidad y empatía. El camino más realista no es elegir entre jueces o algoritmos, sino entre jueces solos o jueces mejor acompañados.

La pregunta inicial —¿pueden los algoritmos ser jueces? — tiene una respuesta clara: no. Pero eso no significa que no deban formar parte del ecosistema judicial. La IA puede y debe ser una aliada estratégica para construir sistemas de justicia más accesibles, rápidos y eficaces.

La clave está en la hibridación: humanos y algoritmos trabajando juntos, con controles éticos y legales que garanticen la primacía de los derechos humanos. En este modelo híbrido, los algoritmos aportan eficiencia y capacidad de análisis, mientras que los jueces preservan la legitimidad democrática y la sensibilidad humana.