Los algoritmos podrían ayudar a mejorar las decisiones judiciales

La sustitución de determinadas funciones de toma de decisiones judiciales por algoritmos podría beneficiar a los acusados, al eliminar algunos de los sesgos sistémicos de los jueces, sostiene un nuevo estudio.

Por la Oxford University Press USA

El aprendizaje automático puede ayudar a tomar mejores decisiones en la sala de audiencias. Imagen generada con Copilot

Los responsables de la toma de decisiones toman decisiones trascendentales basándose en predicciones de resultados desconocidos. Los jueces, en particular, toman decisiones sobre si conceder o no la libertad bajo fianza a los acusados o cómo condenar a los culpables de un delito.

En la actualidad, las empresas utilizan cada vez más modelos basados en el aprendizaje automático en decisiones de alto riesgo. Hay varios supuestos sobre el comportamiento humano que subyacen al despliegue de estos modelos de aprendizaje y que se manifiestan por ejemplo en las recomendaciones de productos en Amazon, el filtrado de spam del correo electrónico y los textos predictivos en el teléfono.

En un artículo publicado en el Quarterly Journal of Economics, de la Oxford University Press, un equipo de ¡investigadores desarrollaron una prueba estadística basada en uno de estos supuestos de comportamiento, en concreto, si los responsables de la toma de decisiones cometen errores sistemáticos de predicción, y desarrollaron además métodos para estimar las formas en que sus predicciones están sistemáticamente sesgadas.

La raza, la edad y el comportamiento previo del acusado, cuentan a la hora de dictar una libertad provisional.

Tras analizar el sistema de prisión preventiva de la ciudad de Nueva York, la investigación revela que una parte sustancial de los jueces cometen errores sistemáticos de predicción sobre el riesgo de mala conducta antes del juicio basándose en las características del acusado, que incluyen la raza, la edad y el comportamiento previo.

En esta investigación, sus autores utilizaron información de jueces de la ciudad de Nueva York, asignados de forma casi aleatoria a casos definidos en la sala de audiencias adjudicada por turno. El estudio comprobó si las decisiones de puesta en libertad de los jueces reflejan creencias precisas sobre el riesgo de que un acusado no comparezca a juicio (entre otras cosas).

El estudio se basó en información sobre 1.460.462 casos de la ciudad de Nueva York, de los cuales 758.027 fueron objeto de una decisión de libertad provisional.

El trabajo derivó una prueba estadística para determinar si un responsable de la toma de decisiones comete errores sistemáticos de predicción, y proporcionó métodos para estimar las formas en que las predicciones del responsable de la toma de decisiones están sistemáticamente sesgadas.

Sustituir a los jueces por reglas de decisiones algorítmicas.

Mediante el análisis de las decisiones de libertad provisional de los jueces de la ciudad de Nueva York, el trabajo estima que al menos el 20% de los jueces cometen errores sistemáticos de predicción sobre el riesgo de mala conducta del acusado dadas las características de este. Motivado por el resultado de este análisis, los investigadores decidieron investigar cuáles serían los efectos de sustituir a los jueces por reglas de decisiones algorítmicas.

El sesgo cognitivo es una interpretación sistemáticamente errónea de la información disponible que ejerce influencia en la manera de procesar los pensamientos, emitir juicios y tomar decisiones, un fenómeno del que tampoco no se libran los jueces en sus decisiones. Imagen generada con DALL-E

El estudio descubrió que las decisiones de al menos el 32% de los jueces de la ciudad de Nueva York son incoherentes con la capacidad real de los acusados de pagar una fianza determinada y con el riesgo real de que no comparezcan en el juicio.

La investigación indica que cuando se tienen en cuenta tanto la raza como la edad del acusado, los jueces que por regla general no toman ni las decisiones más severas ni las más indulgentes, sino que se encuentran en el punto medio, cometen errores sistemáticos de predicción en aproximadamente el 30% de los acusados que se le asignan.

Cuando se tienen en cuenta tanto la raza del acusado como el hecho de que haya sido acusado de un delito grave, el juez con el perfil descrito comete errores sistemáticos de predicción en aproximadamente el 24% de los acusados que se le asignan.

Algoritmos en los juzgados.

Aunque el artículo en el Quarterly Journal of Economics señala que la sustitución de los jueces por decisiones algorítmicas —automatizadas y realizadas por computadoras usando reglas, que también están basadas en datos— tiene efectos ambiguos que dependen del objetivo de los legisladores —¿el resultado deseado es que se presente el mayor número de acusados a juicio o que haya menos acusados en la cárcel a la espera del juicio?— parece que reemplazar a los jueces por algoritmos podría llevar a mejoras de hasta un 20% en los resultados de los juicios, medidos en función de la tasa de no comparecencia entre los acusados liberados y la tasa de detención preventiva.

Según Ashesh Rambachan, autor principal del estudio, “los efectos de sustituir a los decisores humanos por algoritmos depende de la disyuntiva entre si el humano comete errores sistemáticos de predicción basados en la información observable de que dispone el algoritmo o si el humano observa alguna información privada útil”. Y concluye—: “El marco econométrico de este trabajo permite a los investigadores empíricos aportar pruebas directas sobre estas fuerzas contrapuestas”.

Anterior
Anterior

Nuevas pistas sobre el misterio del espín del protón

Siguiente
Siguiente

Las moléculas “olvidadas” que originaron la vida en la Tierra