Investigan a juez en Brasil por usar IA que erró al redactar una sentencia

AFP

Las autoridades brasileñas abrieron una investigación a un juez federal por usar una herramienta de inteligencia artificial que se equivocó en la redacción de una sentencia, en lo que sería la primera decisión de este tipo en Brasil.

El Consejo Nacional de Justicia (CNJ), órgano encargado de mejorar el sistema judicial, pidió al juez Jefferson Rodrigues que explique la publicación de una decisión que contenía fragmentos erróneos formulados por la herramienta ChatGPT.

Rodrigues, que se desempeña en el estado de Acre (norte), fundamentó su sentencia con antecedentes procesales falsos, atribuidos al Supremo Tribunal de Justicia (STJ), uno de los más altos tribunales de Brasil, según el pedido de investigación consultado este lunes por la AFP.

Según el documento, el magistrado alegó que la decisión redactada con la ayuda de inteligencia artificial (IA) fue elaborada por un “asesor de confianza”.

“Las disconformidades ocurrieron debido a la utilización de alguna herramienta virtual que se mostró inadecuada”, se defendió el magistrado.

Rodrigues calificó la situación de “un mero equívoco” originado en la “frecuente sobrecarga de trabajo que recae sobre los hombros de los jueces”. 

El magistrado dijo además que el autor del equívoco fue un asesor “experimentado” de su gabinete, por lo que no vio necesidad de “revisar” cada una de las jurisprudencias citadas erróneamente.

“Creemos que se trata del primer caso” de este tipo, dijo el CNJ, que dio al magistrado Rodrigues 15 días, a partir del miércoles pasado, para que preste esclarecimientos. 

De acuerdo con el propio CNJ, cada vez más tribunales brasileños han utilizado herramientas de inteligencia artificial, aunque la tecnología todavía no ha sido regulada por una ley. 

Antes de la decisión de la CNJ, una corregiduría regional había decidido archivar la investigación, ya que no detectó ninguna “infracción disciplinaria” por parte de Rodrigues ni de su ayudante.

Alertó, no obstante, sobre los “perjuicios que pueden ser causados por la utilización inadecuada de herramientas de inteligencia artificial” para la búsqueda de antecedentes procesales.