El uso de inteligencia artificial (IA) en el ámbito judicial se posiciona como un tema clave en la modernización de los sistemas de justicia. Herramientas como ChatGPT, Gemini y modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) prometen mejorar la eficiencia, pero también plantean desafíos éticos y legales que no pueden ser ignorados (Diario La Ley, edición del 21 de noviembre de 2024).
Beneficios para el sistema judicial
La incorporación de herramientas de IA ofrece una serie de ventajas prácticas:
1. Procesamiento rápido de información: Los LLMs pueden analizar grandes volúmenes de datos y resumir documentos extensos en minutos, ahorrando tiempo y recursos.
2. Accesibilidad y democratización: Estas herramientas son fáciles de usar y están disponibles en múltiples plataformas, permitiendo que profesionales sin formación técnica accedan a sus beneficios.
3. Personalización: Pueden adaptarse a los marcos legales específicos de cada jurisdicción, facilitando una interpretación más precisa de las leyes.
4. Comunicación clara: En Argentina, por ejemplo, un juez utilizó ChatGPT para redactar un fallo en lenguaje sencillo, mejorando la comprensión del proceso judicial para ciudadanos con bajo nivel educativo.
Riesgos y desafíos
Sin embargo, estos avances no están exentos de riesgos:
• Falta de transparencia: Los LLMs funcionan como una “caja negra”, dificultando conocer cómo se entrenan y qué datos influyen en sus respuestas.
• Alucinaciones de la IA: Las herramientas pueden generar información falsa que parece confiable, lo que podría comprometer una decisión judicial.
• Sesgos: Los modelos heredan prejuicios presentes en los datos con los que fueron entrenados, lo que puede perpetuar discriminaciones en el sistema judicial.
• Confidencialidad de datos: El ingreso de información sensible en plataformas de IA plantea riesgos de privacidad y protección de datos personales.
• Responsabilidad legal: Si un fallo se basa en información errónea generada por IA, surge la pregunta de quién debe responder: ¿el juez, el desarrollador de la herramienta o ambos?
Opiniones divididas: entre tecnogarantismo y tecnoactivismo
El debate sobre el uso de la IA en la justicia ha dividido a los expertos:
• Tecnogarantismo: Esta postura considera que el uso de IA puede poner en peligro principios fundamentales como el derecho de defensa y la imparcialidad. Según sus defensores, el juez no debería incorporar información generada por estas herramientas sin que sea revisada y debatida por las partes.
• Tecnoactivismo: Por otro lado, esta corriente argumenta que la IA puede ser una aliada en la búsqueda de la verdad jurídica objetiva. Con un uso adecuado, permitiría al juez analizar más pruebas y tomar decisiones mejor fundamentadas, siempre bajo supervisión humana.
Hacia un uso responsable
Los especialistas coinciden en que la IA tiene el potencial de transformar positivamente la justicia, pero su implementación debe estar guiada por principios éticos claros. La capacitación de jueces y abogados, junto con regulaciones específicas, es esencial para garantizar que estas tecnologías sean una herramienta complementaria, sin comprometer la imparcialidad ni el debido proceso.
Fuente: Diario La Ley, edición del 21 de noviembre de 2024.