Libertà condizionata decisa da algoritmi che elaborano “punteggi di rischio”

Un algoritmo che può decidere le modalità della libertà condizionata delle persone: è quello a cui si accenna in uno articolo sul sito del New York Times.
L’algoritmo, creato dal professore Richard Berk dell’Università della Pennsylvania, può aiutare chi deve decidere ad individuare, per esempio, quei soggetti “ad alto rischio”.

Berk è un leader riconosciuto nel campo dell’apprendimento automatico e in questo caso ha creato un algoritmo di “previsione” del crimine, in particolare di casi di “recidiva”, e già fatto discutere tantissimo e ha sollevato tanti dubbi in relazione all’utilizzo sempre più massiccio dell’intelligenza artificiale degli algoritmi per prendere decisioni che a volte possono apparire delicate.

Dubbi ai quali lo stesso ricercatore controbattè: “Tutti gli algoritmi di apprendimento automatico sono scatole nere, ma anche il cervello umano è una scatola nera”.
Questi software elaborano dei punteggi di rischio che vengono generati da un algoritmo. Gli algoritmi elaborano vari dati, ad esempio quelli relativi agli arresti, al tipo di reato commesso o altre informazioni di tipo demografico personale, per elaborare il punteggio.

Questi algoritmi, secondo gli stessi creatori, dovrebbero essere migliori del giudizio umano in quanto scevri da pregiudizi inconsci, dall’umore momentaneo a cui un giudice o chi deve decidere può essere soggetto o da altre carenze tipicamente umane.
Detti algoritmi stanno diventando sempre più performanti e importanti e vengono sempre più utilizzati anche per decidere questioni di primo piano ovvero dove e quando devono pattugliare gli agenti di polizia e in quali settori mettere determinati detenuti oltre a chi rilasciare in libertà condizionata e chi no.

L’argomento è stato anche oggetto di uno studio realizzato da ricercatori del Dartmouth College Julia Dressel e Hany Farid che hanno pubblicato il proprio articolo su Science Advances (vedi il secondo link più sotto).

I due ricercatori, tramite una serie di questionari on-line posti a persone comuni, hanno dimostrato che queste persone potevano prevedere la recidiva in maniera altrettanto accurata quanto il software che hanno analizzato. Uno studio, dunque, che ne delinea un certo livello di pericolosità, soprattutto in quei casi in cui l’algoritmo del genere può essere abusato o utilizzato in maniera erronea.

Approfondimenti

Articoli correlati

Condividi questo articolo

Dati articolo

Resta aggiornato su Facebook