AGI – Delegare alcune decisioni giudiziarie ad algoritmi potrebbe garantire un giudizio più equo agli imputati, eliminando alcuni dei pregiudizi sistemici dei giudici. Lo rivela un nuovo studio della Oxford University, pubblicato sulla rivista Quarterly Journal of Economics. Le aziende utilizzano sempre più spesso modelli basati sull’apprendimento automatico per prendere decisioni ad alto rischio. Ci sono diverse ipotesi sul comportamento umano alla base dell’impiego di questi modelli di apprendimento, che si traducono in raccomandazioni di prodotti su Amazon, nel filtraggio dello spam nelle e-mail e in testi predittivi sul telefono.
I ricercatori hanno analizzato il sistema preprocessuale di New York e hanno scoperto che una parte sostanziale dei giudici commette errori sistematici di previsione sul rischio di cattiva condotta preprocessuale in base alle caratteristiche dell’imputato, tra cui etnia, età e comportamenti precedenti. La ricerca ha utilizzato le informazioni fornite dai giudici di New York, che sono assegnati quasi casualmente a casi definiti nell’aula di tribunale. Lo studio si è basato su informazioni relative a 1.460.462 casi della città di New York, di cui 758.027 casi sono stati oggetto di una decisione di scarcerazione preventiva. I ricercatori hanno sviluppato un test statistico per stabilire se un giudice avesse commesso errori sistematici di previsione e ha fornito metodi per stimare i modi in cui le previsioni dei giudici sono sistematicamente distorte.
Analizzando le decisioni di scarcerazione preventiva dei giudici di New York, lo studio ha rilevato che almeno il 20% dei giudici commette errori sistematici di previsione sul rischio di cattiva condotta dell’imputato, date le sue caratteristiche. Motivati da questi risultati, gli scienziati hanno stimato gli effetti della sostituzione dei giudici con regole decisionali algoritmiche. La ricerca ha mostrato che le decisioni di almeno il 32% dei giudici di New York non sono state coerenti con la capacità effettiva degli imputati di pagare una determinata cauzione e con il rischio reale che non si presentino al processo.
Gli esiti hanno indicato che, se si considerano sia l’etnia che l’età dell’imputato, il giudice commette errori sistematici di previsione su circa il 30% degli imputati che gli vengono assegnati. Se si considerano sia l’etnia dell’imputato sia il fatto che l’imputato sia stato accusato di un reato, il giudice commette errori sistematici di previsione su circa il 24% degli imputati assegnati. Sebbene lo studio osservi che la sostituzione dei giudici con una regola decisionale algoritmica ha effetti ambigui che dipendono dall’obiettivo della classe politica, ovvero un maggior numero di imputati che si presentano al processo o un minor numero di imputati che restano in carcere in attesa del processo, sembra che la sostituzione dei giudici con un algoritmo porterebbe a miglioramenti fino al 20% nei risultati dei processi, misurati in base al tasso di mancata comparizione degli imputati rilasciati e al tasso di detenzione preventiva.
“Gli effetti della sostituzione dei giudici umani con algoritmi dipendono dal compromesso tra il fatto che l’uomo commetta errori sistematici di previsione basati su informazioni osservabili a disposizione dell’algoritmo e il fatto che l’uomo osservi informazioni private utili”, ha dichiarato Ashesh Rambachan, l’autore principale del lavoro. “Il quadro econometrico di questo lavoro consente ai ricercatori di fornire prove dirette su queste forze in competizione”, ha concluso Rambachan.