Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Sarebbe in grado di prevedere crimini futuri, ma alcuni parlamentari chiedono al ministero dell'Interno più informazioni su privacy e algoritmo utilizzati

È stata depositata in Senato un'interrogazione parlamentare sul sistema Giove, il software italiano di “polizia predittiva” annunciato ieri dal Dipartimento di pubblica sicurezza del ministero dell'Interno e che sarebbe destinato a tutte le questure italiane.

Il testo, che vede come primo firmatario il senatore dem Filippo Sensi (già attivo nella precedente legislatura sul tema delle intelligenze artificiali), chiede al ministero dell'Interno delucidazioni in merito alla “capacità di previsione di una serie di reati in base allo sviluppo di un algoritmo di intelligenza artificiale - sulla carta controllato e gestito da operatori della Polizia di Stato - come supporto alle indagini preliminari” e di chiarire “quali interventi intenda mettere in atto per introdurre il sistema Giove in Italia, se esistono altri software di questo tipo già in uso o dei quali si prospetta l'utilizzo, quali aziende siano state coinvolte nella definizione di questa tecnologia, della sua implementazione e del suo sviluppo”.

Un software, Giove, che dovrebbe essere in grado infatti di “prevedere” i cosiddetti crimini predatori, che molto spesso sono esemplificati dal furto e dalla rapina...

Leggi l'articolo

“All’inizio c’era l’idea che la tecnologia potesse risolvere i problemi”, dice nel video Andrew G. Ferguson, saggista e docente di diritto statunitense. “Offriva alle forze dell’ordine la possibilità di fare di più con meno risorse”.

Le attività di polizia predittiva si basano sull’uso di metodi statistici per anticipare e quindi evitare la commissione di reati, come nel film di Steven Spielberg Minority Report. Negli ultimi anni questa tecnologia è diventata sempre più sofisticata e in varie città statunitensi sono stati sperimentati dei software che, attraverso la combinazione di diversi tipi di dati, avrebbero dovuto individuare i soggetti più inclini a commettere un crimine violento. Il loro uso ha scatenato polemiche e preoccupazioni per la tutela dei diritti umani.

I sostenitori di questi sistemi sostengono che questi software, escludendo la valutazione umana con i suoi pregiudizi, permetterebbero alle forze di polizia di agire in maniera più equa. Ma anche su questo sono stati sollevati dei dubbi: “Se nei dati inseriti è presente un pregiudizio razziale, anche i risultati conterranno lo stesso pregiudizio”, spiega Ferguson.

Guarda il video della Thomson Reuters Foundation sul sito di Internazionale.