La crescente **dipendenza dagli algoritmi di valutazione del rischio** nel sistema giudiziario statunitense ha suscitato ampi dibattiti e discussioni. Questi algoritmi, progettati per stimare la probabilità che un imputato possa ripresentarsi in tribunale o rappresentare una minaccia per la società, stanno diventando sempre più prevalenti nelle decisioni riguardanti la concessione della libertà su cauzione. Tuttavia, studi recenti condotti da **Sino Esthappan**, ricercatore presso la **Università Northwestern**, evidenziano come questi strumenti, anziché ridurre i pregiudizi umani, possano mascherare problematiche più profonde insite nel sistema di giustizia.
Funzionamento degli Algoritmi di Valutazione del Rischio
Questi algoritmi utilizzano un approccio comparativo, analizzando il **precedente penale** e altri parametri degli imputati in relazione a un vasto database di casi storici. Attraverso questa valutazione, producono una **classificazione di rischio** che può variare da “basso”, “medio” a “alto” rischio, esprimendosi anche tramite una semplice **punteggiatura numerica**. Tali valutazioni vengono quindi presentate ai giudici durante le udienze preliminari. In linea teorica, i punteggi forniti da questi algoritmi dovrebbero supportare i giudici nel prendere decisioni più obiettive, minimizzando l’influenza dei pregiudizi soggettivi.
La Realtà dell’Uso: Scelte Strategiche da Parte dei Giudici
Tuttavia, lo studio di Esthappan suggerisce che, in pratica, i giudici tendono a non attenersi rigidamente alle raccomandazioni fornite dagli algoritmi. Piuttosto, sembrano adottare una modalità di utilizzo strategica delle valutazioni, adattandole ai propri criteri personali e alle motivazioni di giudizio. Durante interviste con 27 magistrati provenienti da diverse aree geografiche, Esthappan ha osservato come molti di loro ricorressero agli algoritmi per giustificare decisioni controverse, in particolare nei casi di reati gravi. Quando una valutazione algoritmica indicasse un basso rischio in situazioni di **violenza domestica** o **abuso sessuale**, i giudici tendevano a ignorarla. Al contrario, in contesti meno gravi, come i reati legati alla povertà o alla tossicodipendenza, i giudici mostrano una maggiore propensione a seguire le raccomandazioni fornite, percependo un rischio reputazionale ridotto.
Algoritmi e il Rischio di Rinforzare i Pregiudizi Razziali
Pur sostenendo la loro **neutralità**, i sostenitori di questi strumenti devono far fronte a studi precedenti, come quello condotto da **ProPublica nel 2016**, che dimostrano come gli algoritmi possano essere sorprendentemente inaccurati e persino rinforzare i **pregiudizi razziali**. Nel caso del **Broward County** in Florida, è stato osservato che l’algoritmo tendeva a categorizzare gli imputati di colore con una maggiore frequenza come futuri criminali rispetto agli imputati bianchi. Esthappan mette in luce come tali problematiche siano amplificate dal fatto che gli algoritmi si basano su dati storici che sono “codificati razzialmente”, derivanti da pratiche di sorveglianza storicamente discriminatorie.
Algoritmi: Risoluzione o Parte del Problema?
Megan Stevenson, esperta in giustizia criminale presso la **Università della Virginia**, fa notare che questi algoritmi potrebbero essere considerati come «**giocattoli tecnocratici**» che non affrontano le problematiche strutturali di un sistema giudiziario sovraccarico. Secondo Stevenson, sebbene appaiano in grado di eliminare l’«**aleatorietà**» nelle decisioni giudiziarie, non hanno ancora dimostrato di avere un impatto significativo sui risultati. Inoltre, Esthappan si pone una questione cruciale: il problema risiede realmente nei pregiudizi dei giudici o in una struttura giudiziaria che richiede decisioni affrettate basate su informazioni limitate?
I Costi della Prevenzione: Un Dilemma tra Libertà e Giustizia
La fiducia dei giudici in questi punteggi potrebbe avere ripercussioni negative per gli imputati a basso rischio, che rimangono incarcerati senza giustificazione. Esthappan osserva che la detenzione di una persona in attesa di processo influisce negativamente sulla sua vita lavorativa, familiare e quotidiana, nonostante non sia stata condannata. Tuttavia, pochi giudici si sentono a disagio con l’idea di mantenere in carcere una persona per errore, temendo meno per la propria reputazione, rispetto alla possibilità di liberare qualcuno che possa poi causare danni.
Riflessioni Conclusive: Un Futuro Giudiziario Senza Algoritmi?
Alla luce di queste considerazioni, emerge la necessità di una riflessione profonda sulla vera natura della funzione degli algoritmi nel sistema giudiziario. Sebbene questi strumenti possano fornire supporto, è evidente che non costituiscono la soluzione definitiva per un sistema che necessita di una riforma profonda e strutturale. Come sottolinea Esthappan, il problema va oltre i pregiudizi algoritmici; rappresenta una questione culturale all’interno della giustizia penale che richiede un approccio più umano, distaccato da dati storicamente viziati. In ultima analisi, gli algoritmi non possono essere classificati come semplicemente **positivi o negativi**: il loro impatto è determinato da come e per quali scopi vengono utilizzati.
Marco Stella, è un Blogger Freelance, autore su Maidirelink.it, amante del web e di tutto ciò che lo circonda. Nella vita, è un fotografo ed in rete scrive soprattutto guide e tutorial sul mondo Pc windows, Smartphone, Giochi e curiosità dal web.