Publicado en abril de 2026
La inteligencia artificial empieza a incorporarse en los sistemas de Justicia como herramienta de apoyo para ordenar información, agilizar tareas y mejorar el acceso a normativa, jurisprudencia y documentación. Sin embargo, su adopción no plantea solo una discusión tecnológica, también abre desafíos en materia de privacidad, sesgos, opacidad, trazabilidad, responsabilidad institucional y supervisión humana, en un ámbito donde están en juego derechos, garantías y confianza pública.
Este documento ofrece al sistema judicial argentino un análisis comparado de experiencias internacionales y un conjunto de orientaciones para contribuir a una adopción responsable de herramientas de inteligencia artificial, con especial atención a su utilidad para el Consejo de la Magistratura de la Nación. A partir de casos en Reino Unido, Brasil, Canadá, Unión Europea, Francia, Finlandia, Estonia y Chile, el informe identifica qué usos avanzan, bajo qué condiciones institucionales y con qué resguardos.
El principal hallazgo es claro: la brecha no es tecnológica, sino institucional. La evidencia comparada muestra que los avances más sostenibles no dependen ante todo de la herramienta, sino de la existencia de reglas de gobernanza, datos confiables, trazabilidad, capacidades organizacionales y supervisión humana efectiva. Allí donde estas condiciones existen, la IA puede mejorar funciones auxiliares como clasificación de expedientes, búsqueda de jurisprudencia, anonimización, organización documental y producción de estadísticas. Allí donde faltan, los riesgos aumentan y la tecnología tiende a reforzar problemas previos.
Un hallazgo central del estudio es que varios de los riesgos atribuidos a la inteligencia artificial no derivan únicamente de la herramienta en sí, sino de las condiciones institucionales de su implementación. En particular, la reproducción de sesgos aparece asociada no solo a problemas del modelo o de los datos de entrenamiento, sino también a fallas de gobernanza: ausencia de evaluación ex ante, controles insuficientes sobre calidad y representatividad de los datos, falta de monitoreo en uso, debilidad de los mecanismos de auditoría y escasa capacidad para detectar y corregir desvíos. En este sentido, una implementación deficiente puede convertir a la IA en un mecanismo de estabilización y opacamiento de desigualdades preexistentes.
Para Argentina, este punto resulta especialmente relevante. La incorporación de IA en Justicia se da en un contexto de fragmentación, heterogeneidad en la calidad de la información, baja interoperabilidad y debilidades en publicidad y trazabilidad documental. En ese escenario, la IA no puede pensarse como un atajo de modernización ni como una solución autónoma. Su adopción exige, primero, consolidar condiciones institucionales mínimas que permitan usar estas herramientas de manera controlable, auditable y compatible con el Estado de derecho.
Sobre esa base, el documento propone una agenda inicial de adopción responsable orientada a ordenar decisiones y reducir riesgos. Entre las prioridades se destacan la definición de una conducción institucional clara, el establecimiento de estándares mínimos de datos y metadatos, la regulación de criterios de anonimización, la segmentación de casos de uso según nivel de riesgo, el desarrollo de pilotos acotados y evaluables, además del fortalecimiento de capacidades técnicas y organizacionales.
Más que ofrecer un manual cerrado, el informe aporta criterios para construir una trayectoria gradual, prudente y sostenible de incorporación de inteligencia artificial en el sistema judicial. Su premisa de fondo es simple: en Justicia, la innovación no empieza por el algoritmo, sino por las reglas, los datos, las capacidades y la supervisión que permiten gobernarl