°
19 de Octubre,  Jujuy, Argentina
PUBLICIDAD

Anularon una condena penal en Chubut porque el juez usó IA para redactar el fallo

Es el primer caso de nulidad de un juicio por esta causa en Argentina. Especialistas advierten sobre los riesgos de delegar la función judicial en algoritmos.

Viernes, 17 de octubre de 2025 08:35

En un fallo inédito que marca un precedente para el Poder Judicial, la Cámara de Apelación en lo Penal de Esquel anuló una sentencia y todo el proceso judicial después de descubrir que el juez de primera instancia utilizó inteligencia artificial (IA) para redactar partes de la condena. La "huella digital" que delató al magistrado fue una frase insertada en el texto: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”, típica de chatbots como ChatGPT.

El caso corresponde a la condena de dos años y seis meses de prisión efectiva que el juez Carlos Rogelio Richeri impuso el 4 de junio pasado a Raúl Amelio Payalef por un robo. La Cámara decidió anular "de oficio" el juicio, es decir, sin que ninguna de las partes lo solicitara, ordenando que el proceso se realice nuevamente ante un juez diferente.

Un problema global que llega a los tribunales

Este no es un caso aislado en Argentina. A fines de agosto, un abogado en Rosario fue amonestado por presentar jurisprudencia inventada por una IA. Sin embargo, los expertos subrayan que el fallo de Chubut es el primero donde la anulación recae sobre un juez en una causa penal.

“Lo llamativo es que la Cámara actuó de oficio. A lo mejor al condenado le convenía esa condena, quizás ahora le den tres años. Y si el imputado no lo planteó, por garantías constitucionales, no se puede empeorar su situación”, señaló Pablo Palazzi, profesor de Derecho en la Universidad de San Andrés, quien abogó por “aprender a usarla, con conocimiento propio y criterio”, en vez de “espantarse con la IA”.

Lucas de Venezia, abogado especialista en Derecho e IA, contextualizó el hecho: “La utilización de estos sistemas por parte de jueces, fiscales o abogados es parte de una tendencia global que se expande más rápido que el debate ético y normativo”. Recordó casos similares en tribunales de Estados Unidos, España, México, Perú y Corea del Sur.

Para De Venezia, la nulidad “no es una sanción excesiva, sino un acto de resguardo institucional. El derecho debe reaccionar con severidad ante la sustitución del juicio humano por el automatismo algorítmico”.

El caso más conocido a nivel global ocurrió en junio de 2023 en Estados Unidos, donde un abogado usó ChatGPT para redactar una demanda y citó fallos que no existían. La práctica ya es tan común que existen sitios web dedicados a recopilar estos “casos de IA” en la justicia de todo el mundo.

PUBLICIDAD
PUBLICIDAD