Domingo, 31 de Agosto de 2025

Riesgos y beneficios de la IA en la Justicia: lo que está pasando en EE.UU.

UruguayEl País, Uruguay 13 de agosto de 2025

Debate sobre eficiencia, riesgos y la importancia del juicio humano en decisiones clave

En los últimos meses, la integración de la inteligencia artificial (IA) en el sistema judicial de Estados Unidos genera preocupaciones. Los jueces están recurriendo cada vez más a herramientas de IA para manejar los retrasos en los casos, agilizar la investigación legal e incluso redactar decisiones. Sin embargo, el riesgo de que los errores generados por la IA pasen desapercibidos enciende alarmas sobre su impacto en las decisiones judiciales y en la confianza pública en el Poder Judicial.

A medida que la IA se convierte en una parte importante del proceso judicial, la línea entre asistencia y toma de la decisión final se difumina. En varios casos de alto perfil, los errores generados por la IA no fueron detectados hasta después de que se tomaron las decisiones. Por ejemplo, un juez federal en Nueva Jersey tuvo que retractar una orden debido a errores que parecían haberse originado en una herramienta de IA. De manera similar, otro de Mississippi emitió una decisión que contenía errores generados por IA, pero se negó a explicar la causa.

Aunque estos errores iniciales son preocupantes, algunos jueces están experimentando con la IA con la esperanza de mejorar la eficiencia en un sistema judicial que como la mayoría está abrumado por exceso de trabajo. El juez federal Xavier Rodríguez, por ejemplo, utiliza IA para resumir casos y generar cronologías de eventos, tareas que él cree que no requieren un juicio profundo humano. "No se está tomando una decisión final, por lo que es relativamente libre de riesgos", comentó Rodríguez en una entrevista con The Technology Review del MIT. Sin embargo, él reconoce que usar la IA para tomar decisiones como determinar la elegibilidad para la fianza, podría ser un paso demasiado grande.

El enfoque de Rodríguez refleja el debate que ha comenzado sobre qué tareas puede manejar la IA sin poner en riesgo la integridad judicial. Según Erin Solovey, investigadora en interacción humano-IA en el Instituto Politécnico de Worcester, la línea entre lo que es adecuado para que lo haga un juez y lo que es apropiado para que lo haga una herramienta de IA cambia dependiendo del juez y del contexto. La investigación de Solovey ha destacado que algunas tareas, como resumir documentos legales, son más adecuadas para la IA, mientras que otras, como determinar la elegibilidad para la fianza o la custodia de los niños, requieren de un juicio más humano.

Si bien algunos jueces consideran que la IA puede ser útil para tareas rutinarias como la investigación legal, otros están más escépticos debido a los errores que han ocurrido en tribunales. En su propia corte, Rodríguez ha visto cómo las partes no representadas legalmente (en muchos casos, personas que no tienen abogado) utilizan herramientas de IA para escribir sus alegatos. En una disputa reciente sobre quién debía recibir un pago de seguro, ambas partes presentaron documentos que hacían referencia a casos inventados. Aunque el juez tenía la autoridad para sancionar a las partes, optó por no hacerlo dado que no eran abogados.

Sin embargo, algunos expertos advierten sobre los peligros de depender demasiado de la IA. La jueza federal Allison Goddard, por ejemplo, utiliza IA como una herramienta para ayudar a comprender cuestiones técnicas en casos complicados, pero sigue siendo consciente de sus limitaciones. "Es como un compañero de pensamiento, y aporta una perspectiva que tal vez no habrías considerado", afirma Goddard. A pesar de esto, subraya que la IA no es adecuada para todo tipo de decisiones, especialmente en casos que involucran el derecho penal, como la determinación de si hubo causa probable para un arresto.

El uso de la IA en tribunales no está exento de riesgos. El juez Scott Schlegel, que sirve en la Corte de Apelaciones del Quinto Circuito en Luisiana, ha advertido sobre los peligros de cometer errores generados por la IA, los que según él, podrían crear una "crisis" mucho más grande que los problemas causados por los abogados que presentan casos falsos. Schlegel argumenta que cuando un abogado comete un error, puede ser sancionado o perder el caso. "Cuando el juez comete un error, esa es la ley", dice Schlegel. "No puedo ir un mes o dos después y decir 'Ups, lo siento mucho', y revertir mi decisión. Así no funciona".

Este problema no es teórico. En junio, un juez de una corte de apelaciones en Georgia emitió una orden que se basaba parcialmente en casos inventados presentados por una de las partes, un error que pasó desapercibido. En julio, un juez federal en Nueva Jersey retiró una opinión después de que los abogados se quejaron porque contenía "alucinaciones" generadas por la IA. A diferencia de los abogados, quienes pueden ser obligados a explicar los errores en sus escritos, los jueces no tienen que ser tan transparentes, y pocos se sienten motivados a explicar sus errores.

El juez Schlegel advierte que la dependencia de la IA en decisiones judiciales podría socavar la confianza pública en la legitimidad de los tribunales. Si bien ciertas aplicaciones estrechamente monitoreadas de la IA, como resumir testimonios o proporcionar retroalimentación rápida para la escritura, pueden ahorrar tiempo, los jueces deben asegurarse de que la IA no reemplace el pensamiento crítico humano. "Si estás tomando una decisión sobre quién se queda con los niños este fin de semana y alguien descubre que usaste Grok y deberías haber usado Gemini o ChatGPT, eso no es el sistema de justicia".

En resumen, aunque la IA ofrece el potencial de mejorar la eficiencia en los tribunales, los jueces deben proceder con cautela. Los riesgos de cometer errores, como citar casos inexistentes o basarse en información errónea, podrían tener consecuencias mucho más graves que los errores cometidos por los abogados. Como señala el juez Goddard, "es realmente embarazoso" cuando un juez depende de la IA para tomar decisiones críticas. Por lo tanto, mientras la IA siga evolucionando en el ámbito legal, es esencial que se sigan desarrollando pautas claras y prácticas para evitar los errores que podrían socavar la integridad del sistema judicial.
La Nación Argentina O Globo Brasil El Mercurio Chile
El Tiempo Colombia La Nación Costa Rica La Prensa Gráfica El Salvador
El Universal México El Comercio Perú El Nuevo Dia Puerto Rico
Listin Diario República
Dominicana
El País Uruguay El Nacional Venezuela