Derecho y Tecnología2026-04-098 min de lectura

La Corte Suprema aprobó la primera política de inteligencia artificial para el Poder Judicial

La Resolución N° 12.677 establece directrices sobre el uso ético, transparente y responsable de sistemas de IA en la actividad jurisdiccional y administrativa. Analizamos sus principios rectores, lo que permite, lo que prohíbe y lo que implica para abogados y litigantes.

Dr. José Ramón Pérez

Especialista en Derecho Corporativo

La Corte Suprema aprobó la primera política de inteligencia artificial para el Poder Judicial

Análisis de la Resolución N° 12.677 de la CSJ

El 4 de marzo de 2026 la Corte Suprema de Justicia del Paraguay dictó la Resolución N° 12.677, por la cual aprobó la "Política Operacional que establece directrices para el uso de sistemas de inteligencia artificial en el Poder Judicial" — Versión 1. Se trata del primer instrumento normativo interno que regula de manera integral cómo los magistrados y funcionarios judiciales pueden —y no pueden— utilizar herramientas de inteligencia artificial en el ejercicio de sus funciones.

La decisión no surge de manera aislada. Responde al Objetivo Estratégico 3 del Plan Estratégico Institucional 2026-2030, que busca "optimizar el servicio de justicia, con la gestión eficiente en todos los fueros", y específicamente a la Acción Estratégica 3.8, que propone "consolidar la gestión digital en todas las instancias y fueros, incorporando herramientas de inteligencia artificial para la optimización de la gestión de los procesos judiciales".

El documento fue elaborado con la asistencia del consultor internacional Juan David Gutiérrez, en el marco de una cooperación con la Oficina Regional de UNESCO en Montevideo, formalizada mediante Carta Acuerdo del 5 de diciembre de 2024. La revisión de la política consta en el Acta N° 11 del 20 de noviembre de 2025, del Equipo Técnico del Comité de Control Interno.

Alcance: a quién aplica y qué sistemas abarca

La política aplica a todos los magistrados y funcionarios del Poder Judicial que utilicen, desarrollen, adquieran o supervisen sistemas de inteligencia artificial, en todos los órganos jurisdiccionales, circunscripciones judiciales y dependencias administrativas.

Su alcance es deliberadamente amplio: comprende tanto los sistemas de IA existentes como los futuros, ya sean desarrollados internamente, adquiridos o licenciados por terceros, bajo cualquier modalidad que impacte directa o indirectamente en los procesos judiciales o administrativos. Abarca todas las actividades relacionadas con el procesamiento de datos, la toma de decisiones asistida y la gestión de la información mediante IA dentro del ámbito judicial.

Los cuatro principios rectores

La política se estructura alrededor de cuatro principios fundamentales, cada uno con sus reglas y prohibiciones específicas.

1. Supervisión humana y toma de decisiones

Este es el principio cardinal de toda la política. El artículo 6 establece con claridad que el uso de IA no reemplaza a los magistrados y funcionarios en sus funciones. Debe mantenerse un nivel adecuado de control y participación humana en todos los procesos donde se utilicen estos sistemas. La IA no sustituye el análisis independiente, la legislación vigente, las pruebas, ni cualquier aspecto relevante que deba considerar el magistrado en la toma de decisiones.

Lo que está permitido (Art. 7): utilizar sistemas de IA, siempre que los resultados sean revisados, verificados y contrastados con fuentes confiables, para:

  • Apoyar la investigación jurídica, análisis de precedentes y capacitación judicial.
  • Organizar y sistematizar información sustantiva y procesal.
  • Estructurar borradores de documentos que luego sean revisados y validados por el magistrado.
  • Explorar explicaciones alternativas sobre cuestiones jurídicas o administrativas.
  • Realizar resúmenes y síntesis de grandes volúmenes de textos.
  • Apoyar la traducción de texto y audio.
  • Diseñar presentaciones y visualizaciones.
  • Analizar patrones en grandes volúmenes de datos jurídicos.
  • Editar textos legales para hacerlos más sencillos y accesibles, respetando la propiedad intelectual.

Lo que está prohibido (Art. 8):

  • Delegar la toma de decisiones en cualquier tipo de resoluciones judiciales y administrativas.
  • Automatizar completamente procesos que pudieran afectar derechos fundamentales.
  • Utilizar IA sin supervisión humana en la generación y valoración de pruebas, o la argumentación de las partes, o la fundamentación de resoluciones judiciales.
  • Determinar la culpabilidad o inocencia en los juicios.
  • Establecer penas o medidas cautelares sin intervención humana.
  • Calcular montos de indemnización, compensación o daños sin revisión humana meticulosa.
  • Sustituir la realización de dictámenes periciales.

2. Transparencia y justicia abierta

La política exige un alto grado de transparencia sobre el desarrollo, datos de entrenamiento, funcionamiento, capacidades, limitaciones y riesgos de los sistemas de IA utilizados.

Entre las reglas más relevantes para los litigantes, el artículo 10 establece que se debe:

  • Informar a las partes sobre el uso de sistemas de IA en el proceso o en la toma de decisiones judiciales, incluyendo qué herramienta se utiliza, para qué propósitos y cómo su uso podría afectar a las partes y terceros.
  • Revelar el uso de IA generativa para redactar sentencias, autos, dictámenes y otros documentos con consecuencias legales, o cuando se utilicen en audiencias.
  • Distinguir mediante comillas los textos extraídos directamente de sistemas de IA generativa y documentar toda la interacción que condujo al resultado, incluyendo el prompt utilizado.
  • Explicar las limitaciones y riesgos de los sistemas empleados cuando su uso pueda afectar significativamente a las partes.
  • Garantizar que las personas conozcan su derecho a controvertir o apelar decisiones en las que se hayan empleado sistemas de IA.

Se prohíbe (Art. 11): utilizar IA sin informar a las partes procesales, emplear sistemas cuyo funcionamiento sea completamente opaco, usar IA sin documentar su posible influencia en las decisiones judiciales, implementar sistemas que generen sesgos no detectables, y atribuir como propio texto generado por IA generativa.

3. No discriminación e igualdad

El artículo 12 establece que debe priorizarse el uso de sistemas de IA que salvaguarden la equidad, garanticen el acceso inclusivo a la tecnología y la igualdad de trato ante los órganos jurisdiccionales.

Se permite utilizar IA para identificar y corregir sesgos en procesos judiciales, promover la igualdad en el acceso a la justicia, hacer análisis estadísticos que detecten patrones discriminatorios y facilitar traducciones que garanticen comprensión en idiomas nativos.

Se prohíbe utilizar sistemas que reproduzcan, refuercen o amplifiquen sesgos de discriminación, generen resultados diferenciados por características protegidas, limiten el acceso a la justicia, propicien el trato discriminatorio o generen perfiles discriminatorios de usuarios de los servicios judiciales.

4. Protección de datos personales y seguridad de la información

Los sistemas de IA deben proteger la privacidad y los datos personales tratados, evitando riesgos de manipulación, divulgación o acceso no autorizado. Se debe privilegiar la implementación de sistemas con cifrado de datos que no impliquen la salida de datos confidenciales fuera de los servidores del Poder Judicial, incluyendo salvaguardas contra amenazas cibernéticas.

Se permite usar IA para la despersonalización de datos en expedientes, la gestión segura de expedientes con datos personales sensibles y la detección de intentos de acceso no autorizado.

Se prohíbe utilizar IA que permita acceso no autorizado a expedientes, que manipule o exponga datos personales sin base legal, que almacene datos en servidores externos sin garantías de seguridad, que incumpla estándares de protección de datos o que genere perfiles personales no autorizados.

Un glosario para el Poder Judicial

Un aspecto notable de la resolución es el esfuerzo pedagógico del artículo 5, que introduce definiciones formales de conceptos que hasta ahora carecían de encuadre normativo en el ámbito judicial paraguayo: algoritmo, inteligencia artificial, machine learning, deep learning, procesamiento del lenguaje natural, IA generativa, modelos de lenguaje a gran escala (LLM), chatbot, agentes de IA, prompt, IA de caja negra, IA explicable, humano en el bucle, alucinaciones, dependencia excesiva y sesgo algorítmico.

La inclusión de estos términos —algunos de ellos altamente técnicos— en un documento normativo del Poder Judicial refleja la voluntad de construir un vocabulario común que facilite la aplicación uniforme de la política.

Desarrollo de capacidades digitales y revisión periódica

La política no se limita a establecer reglas y prohibiciones. Los artículos 18 a 20 reconocen que la implementación efectiva requiere formación continua y revisión constante.

El Poder Judicial se compromete a fomentar una cultura de aprendizaje y adaptación, garantizando la actualización permanente de magistrados y funcionarios frente a los nuevos retos éticos y prácticos que plantean las tecnologías emergentes. Se promoverá el acceso a programas educativos para desarrollar habilidades de alfabetización en inteligencia artificial.

La Corte Suprema reglamentará los aspectos operativos necesarios para la efectiva aplicación de la política, y un grupo de trabajo conformado según Acta N° 5/2025 del Consejo de Superintendencia informará periódicamente sobre los avances de la implementación.

La política tendrá una revisión ordinaria anual, conforme a las disposiciones legales vigentes y los resultados de auditorías internas.

Implicancias para la práctica profesional

La Resolución N° 12.677 tiene consecuencias concretas para abogados y litigantes:

Para los abogados, la obligación de transparencia del artículo 10 introduce un nuevo estándar verificable. Si un magistrado utiliza IA generativa para redactar una sentencia, debe revelarlo. Si las partes no son informadas, se abre una vía legítima de impugnación. Los profesionales del derecho deberán estar atentos a estas declaraciones y evaluar si el uso de la herramienta respetó los límites establecidos en la política.

Para los magistrados, la política dibuja un perímetro claro. La IA puede ser una herramienta poderosa de apoyo — para investigar, resumir, organizar y explorar — pero la decisión final, la valoración de las pruebas y la fundamentación jurídica deben seguir siendo ejercicios exclusivamente humanos. El incumplimiento de las prohibiciones del artículo 8 podría generar nulidades procesales.

Para el sistema de justicia en su conjunto, la resolución posiciona al Paraguay entre los países de la región que han comenzado a regular formalmente el uso de IA en la administración de justicia. La cooperación con UNESCO y la referencia al Plan Estratégico Institucional 2026-2030 sugieren que esta es solo la primera versión de un marco regulatorio que continuará evolucionando.

Marco normativo de referencia

La política se asienta sobre un amplio marco legal que incluye, entre otros: la Constitución de la República, la Ley 879/81 (Código de Organización Judicial), la Ley 1183/85 (Código Civil), la Ley 213/93 (Código Laboral), la Ley 742/61 (Código Procesal Laboral), la Ley 1337/88 (Código Procesal Civil), la Ley 1160/97 (Código Penal), la Ley 1286 (Código Procesal Penal), la Ley 6083/18 y la Ley 6822/22 (servicios de confianza para transacciones electrónicas y documento electrónico), la Ley 5282/14 (acceso ciudadano a la información pública), la Ley 5777/16 (protección integral a las mujeres), la Ley 6534/20 (protección de datos personales crediticios), y la Acordada 633/10 que ratifica las "100 Reglas de Brasilia" sobre acceso a la justicia de personas en condiciones de vulnerabilidad.


Fuentes:

  • Corte Suprema de Justicia del Paraguay, "Corte Suprema de Justicia aprobó política para el uso de sistemas de inteligencia artificial en el Poder Judicial", nota de prensa del 9 de abril de 2026. Disponible en: www.pj.gov.py/notas/29655
  • Resolución N° 12.677 de fecha 4 de marzo de 2026, Corte Suprema de Justicia. Anexo: "Política Operacional que establece directrices para el uso de sistemas de inteligencia artificial en el Poder Judicial", Versión 1, 10 páginas.

Soluciones legales que avanzan con usted

Nuestro equipo de abogados puede asesorarle sobre su situación específica.