Un'impronta digitale

Hart: l’IA in aiuto della polizia di Durham

La polizia di Durham (Inghilterra) si prepara ad adottare un sistema di intelligenza artificiale (IA) per le decisioni di custodia cautelare.

Si tratta di un sistema funzionale e affidabile? Ci possono essere dei rischi? Cerchiamo di capire meglio di cosa si tratta.

 

Hart a supporto della polizia

Il sistema di IA della polizia di Durham è pronto per entrare in azione. Si chiama Hart (Harm Assessment Risk Tool) e classifica i sospetti in base a una bassa, media o alta probabilità che commettano un’azione illegale.

I dati sono stati raccolti dal 2008 al 2012. Nel 2013 è stato testato e i risultati sono stati monitorati per i successivi 2 anni. Le previsioni sui sospetti a basso rischio si sono rivelate accurate nel 98% dei casi. Per i sospetti ad alto rischio, invece, le previsioni sono state accurate nell’88% dei casi.

Durante il periodo di prova, le previsioni di Hart sono state sotto il controllo della polizia, ma queste non hanno influito sulle decisioni dei sergenti di custodia. Sheena Urwin, responsabile della giustizia penale della polizia di Durham, ha dichiarato: “Immagino che nei prossimi 2-3 mesi probabilmente lo renderemo un strumento attivo per supportare le decisioni degli ufficiali.“.

Urwin ha spiegato che le persone con la fedina penale pulita hanno meno possibilità di essere classificate ad alto rischio, anche se venissero arrestate con il sospetto di aver commesso un grave crimine come un omicidio.

Il professor Lawrence Sherman, direttore del Centre for Evidence-based Policing dell’Università di Cambridge ha collaborato nello sviluppo del sitema di IA. Ha suggerito che Hart potrebbe essere usato in diversi casi: per decidere se mantenere un detenuto in custodia per poche ore; se rilasciarlo su cauzione prima di un’accusa; oppure se, dopo che è stata fatta un’accusa, rimandarlo in custodia. “È ora di entrare in servizio, e farlo con un esperimento randomizzato è il miglior modo“, ha detto alla BBC.

Durante il prossimo esperimento, gli ufficiali avranno accesso al sistema Hart in una selezione casuale di casi. Così sarà più facile analizzare i risultati e compararli nei casi in cui è stato usato e nei casi in cui invece se n’è fatto a meno.

 

Il problema dell’impronta umana

C’è però un ostacolo in quest’ambito che non siamo riusciti ancora a superare. Quello della trasmissione dei pregiudizi umani nell’IA. L’anno scorso c’è stato un caso emblematico. Il sito ProPublica pubblicò un’indagine su un algoritmo adottato dalle autorità per prevedere i futuri crimini di coloro che erano stati già arrestati almeno una volta.

L’indagine mostrava che questo algoritmo amplificava i pregiudizi razziali ed effettuava previsioni eccessivamente negative nei riguardi degli afroamericani. Il professor Cary Coglianese, scienziato politico presso l’Università della Pennsylania, ha evidenziato: “In una certa misura, ciò che fanno i modelli di apprendimento è risalire alle ipotesi nascoste e tacite di tutti gli esseri umani. Questi sono modelli molto ingannevoli per provare e valutare il grado in cui sono veramente discriminatori.“.

Il rischio di funzionamento su base discriminatoria del sistema della polizia di Durham esiste se si considera che tra i dati raccolti ci sono anche il codice postale e il genere dei sospettati. Tuttavia, attraverso un’indagine parlamentare sul processo decisionale algoritmico, gli sviluppatori assicurano di aver attenuato simili rischi. Inoltre, hanno sottolineato che i risultati delle previsioni di Hart dovrebbero essere considerati come consultivi e che le discrezioni dei poliziotti saranno sempre necessarie.

Quello dei pregiudizi umani trasferiti nelle macchine è uno dei problemi più difficili da risolvere. Riusciremo mai a sviluppare IA senza i nostri pregiudizi?

 

Un altro limite di Hart

La responsabile Urwin ha anche descritto un altro limite evidente del sistema Hart. L’IA è basata esclusivamente sui dati raccolti dalla polizia di Durham e non ha accesso al computer nazionale. Ciò significa che se qualcuno con un passato criminale al di fuori di Durham venisse arrestato, Hart non sarebbe in grado di fare una previsione accurata di quanto pericolose potrebbero essere le sue azioni future.

Questo è un problema“, ha detto Helen Ryan, responsabile dell’ufficio legale dell’Università di Winchester. “Anche senza questo sistema, [l’accesso a dati sufficienti] è un problema per la polizia.“. Nonostante ciò, Ryan ritiene che il sistema Hart sia “incredibilmente interessante” e che, dopo una gestione esauriente, possa dimostrarsi estremamente vantaggioso.

Penso sia davvero uno sviluppo molto positivo“, ha aggiunto. “Penso che, potenzialmente, le macchine possano essere molto più accurate degli umani, con i dati giusti.

Già, i dati giusti. Molto dipende da quali dati forniamo all’IA. La loro elaborazione è solo il passo successivo. Oltre al problema dei pregiudizi, bisognerebbe prestare attenzione anche a quello sulla sicurezza dei dati personali.

Hart potrebbe essere molto utile alla polizia di Durham se venisse usato, per l’appunto, come strumento di supporto alle decisioni. Perché basterebbero poche previsioni sbagliate per alimentare i dubbi e la sfiducia nei confronti di queste tecnologie. E ovviamente, un sistema che non funziona bene è un sistema che non lavora a favore della giustizia, ma a suo sfavore.

Per ricevere notizie sull’evoluzione digitale e sugli effetti delle tecnologie dirompenti, iscriviti alla newsletter.

Controcorrente Newsletter

Fonte: BBC


Lascia un commento