Si conosce il numero di ricerche ogni mille reati, di molto maggiore rispetto ad altri Paesi europei. Avere un dibattito pubblico sull’argomento è impossibile: i dati sono incompleti
In Italia non è consentito sapere come e se funziona l’infrastruttura per il riconoscimento dei volti in uso alle forze dell’ordine. È una conclusione inevitabile, quella tratta da IrpiMedia e StraLi – associazione non profit che promuove la tutela dei diritti attraverso il sistema giudiziario – da tempo impegnate in un braccio di ferro burocratico con il ministero dell’Interno, restio a fornire dati e informazioni richieste tramite l’accesso agli atti generalizzato. Questo strumento dovrebbe garantire ai cittadini la possibilità di accedere a documenti e informazioni in possesso della pubblica amministrazione.
Tuttavia a dire del Viminale, oggi retto dal ministro Matteo Piantedosi, ne sarebbero escluse le statistiche relative all’efficacia del riconoscimento facciale: informazioni aggregate che non possono certo minare l’andamento delle indagini in corso. Dall’altra, proprio queste informazioni sono tasselli indispensabili a ricostruire lo sfaccettato puzzle delle tecnologie di cui fa uso la sorveglianza di Stato in Italia e che per ora è destinato a rimanere incompleto. Leggi la storia
Sarà valido fino a fine 2025, e non era scontato visto che piacciono molto al ministro dell'Interno, Matteo Piantedosi
La Camera ha approvato decreto-legge 51 del 2023 che tra le altre cose contiene l’estensione della moratoria sui sistemi di riconoscimento facciale in scadenza alla fine dell’anno. Fino al 31 dicembre 2025, e non più fino al 31 dicembre 2023, le autorità pubbliche e i privati non potranno installare impianti di videosorveglianza con sistemi di riconoscimento facciale in luoghi pubblici e aperti al pubblico. L’emendamento che ha confermato il divieto in scadenza era stato presentato da Marianna Madia, Lia Quartapelle e Filiberto Zaratti del Partito Democratico, e approvato la scorsa settimana in commissione.
La conferma della moratoria non era scontata perché alla fine di aprile il ministro dell’Interno, Matteo Piantedosi, aveva sostenuto la necessità di installare sistemi di riconoscimento facciale nelle stazioni, negli ospedali e nelle zone commerciali delle grandi città per garantire più sicurezza. «La videosorveglianza è uno strumento ormai unanimemente riconosciuto come fondamentale», aveva detto Piantedosi, intervistato dal Quotidiano Nazionale. «La sua progressiva estensione è obiettivo condiviso con tutti i sindaci. Il riconoscimento facciale dà ulteriori e significative possibilità di prevenzione e indagine». L’estensione del divieto fino al 2025 non era scontata anche perché negli ultimi anni molti sindaci, soprattutto di centrodestra, avevano cercato di installare telecamere a riconoscimento facciale: tutti i tentativi fatti finora erano stati bloccati dal Garante della privacy.
Con l'aiuto di esempi e semplificazioni scopriamo il significato e il funzionamento del Machine Learning (ML): uno dei concetti più nominati e contemporaneamente più misteriosi dei nostri giorni. Scopriremo inoltre quali problemi risolve e il rapporto con l'AI e con il Deep Learning.
Nell'articolo Alessio Pomaro spiega:
Nella quarta puntata del ciclo "Estrattivismo dei dati", focus su Intelligenza Artificiale con Daniela Tafani, docente di filosofia politica presso il Dipartimento di Scienze Politiche dell'Università di Pisa.
Nella prima parte Tafani introduce l'Intelligenza Artificiale. Cosa è; le distorsioni con cui viene volutamente presentata; cos'è l'apprendimento automatico e gli ingredienti tecnologici fondamentali: dati, potenza di calcolo e algoritmi.
Nella seconda parte: come vengano occultati i costi ambientali, estrattivistici ed energetici dei sistemi di IA; come viene in realtà sfruttato massicciamente il lavoro umano, sottopagato e delocalizzato.
Nella terza parte: i rischi delle decisioni automatizzate prese attraverso i sistemi di Intelligenza Artificiale, con la convinzione che siano capaci di prevedere il comportamento di singoli individui. Perché si parla di bolla giuridica e perché si propone l’illegalità di default dei sistemi di IA.
Ascolta la registrazione sul sito di Radio Onda Rossa
A partire dalle note vicendi dell'aggressione a alla stazione ferroviaria di Roma Termini avvenuta il 31 dicembre, parliamo del riconoscimento facciale.
Facciamo anzitutto una breve cronistoria del riconoscimento facciale, distinguendolo dalla "mera" videosorveglianza.
Uno sguardo alla situazione legale in Italia e andiamo ad indagare le basi del riconoscimento facciale, gli effetti che produce nei luoghi in cui è già utilizzato, i motivi profondi per cui è discriminatorio.
Non solo il riconoscimento facciale non funziona bene come ci vogliono dire. Gli errori che questi sistemi producono sono in maniera schiacciante più pesanti per i gruppi marginalizzati (in particolare le donne nere). Questi errori hanno delle ripercussioni reali sulla vita di queste persone. La ragione profonda di questi errori non è il caso ma esattamente la loro condizione di marginalizzazione. Sono quindi sistemi che riproducono ed amplificano le oppressioni già esistenti.
Cerchiamo di tenere uno sguardo sull'automazione, dato che la creazione di un dibattito consapevole su questo tema non è più rimandabile.
Ascolta la registrazione sul sito di Radio Onda Rossa
In seguito a una sentenza, la società non venderà più il suo database ad aziende private
Clearview AI, oltre a essere un’azienda che punta a raccogliere un database di 100 miliardi di foto di volti utilizzando di fatto il riconoscimento biometrico per mappare pressoché tutta la popolazione mondiale, è un grande tema etico. Su questa linea, a quanto pare, si sta giocando una nuova partita e si sta aprendo un nuovo fronte, in seguito a un accordo giuridico in attesa di una conferma da pate di un tribunale in Illinois. American Civil Liberties Union, una associazione che si occupa della tutela dei diritti fondamentali, ha vinto la sua battaglia contro Clearview AI: l’azienda ha accettato di non vendere i suoi prodotti, i suoi database a società private.
Riporto una parte della newsletter di dataninja del 6 maggio 2022, perché il tema è particolarmente caldo.
E soprattutto: facciamo davvero abbastanza perché cresca la consapevolezza su questo argomento? Ma i nostri dati biometrici sono al sicuro?
Nelle ultime ore si è parlato moltissimo di dati sanitari. La UE ha annunciato che ci sarà una banca dati sanitaria unica dal 2025, ma appena prima qui in Italia abbiamo assistito a un attacco informatico che ha fatto saltare i sistemi informativi di alcuni ospedali a Milano. Mentre sul caso milanese c'è ancora molto da capire, sul caso dell'Ulss Euganea ha scritto tempo fa Guerre di Rete, facendo anche una cronistoria dei precedenti attacchi informatici. Una fonte dice in questo articolo: «In ogni caso, adesso i sistemi che utilizziamo hanno ogni tipo di blocco, anche se quella che manca davvero è la formazione del personale sui temi della cybersicurezza».
Questa questione di essere "formati" o comunque "preparati" è fondamentale, ma è anche fondamentale avere manager consapevoli che sanno ciò che fanno. Per carità non sarà un problema solo italiano, ma pare che dalle nostre parti le discussioni sulla cybersicurezza siano sempre abbastanza farsesche, come giustamente fa notare qualcuno, perché capita spesso che chi comanda non solo non ha competenze di cybersicurezza ma non sente neanche il bisogno di aumentare la propria consapevolezza sugli strumenti digitali e relativi rischi/opportunità.
Ma chi ce l'ha davvero una consapevolezza? Se compri un'auto, tra i cento fogli che firmi potrebbero chiederti di poter analizzare i tuoi dati biometrici, ma appena ci sali sopra e la guidi ti chiedi: come li raccolgono? Dove sono i sensori? Boh! La cittadinanza si sta mobilitando per chiedere regolamentazioni grazie al sostegno delle (ancora molto poche in Europa) organizzazioni della società civile che si battono per i diritti digitali. Per esempio la campagna Reclaim Your Face raccoglie firme contro la "sorveglianza biometrica di massa".
Quello che forse dovremmo chiederci noi che lavoriamo nel contesto digitale è: ma stiamo facendo abbastanza perché si diffonda una consapevolezza sul problema?
P.s.: il 10 maggio se ne è parlato a Milano in un evento al MEET Digital Culture Center (info qui)
Se vuoi iscriverti alla newsletter di Dataninja, puoi andare sul loro sito.
Meta è alla ricerca di titoli di giornale che dimostrino il suo impegno per la privacy — ma la storia della cancellazione dei dati biometrici su Facebook è più complessa.
In un post sul blog aziendale, il vicepresidente all’intelligenza artificiale Jerome Pesenti spiega che Facebook vuole limitare il proprio uso di tecnologie di riconoscimento facciale su larga scala, perché “anche nei molti casi in cui il riconoscimento facciale può essere utile, bisogna confrontarsi con le crescenti preoccupazioni della società sull’uso della tecnologia stessa.”
Il post non menziona, tuttavia, la cancellazione di DeepFace, l’algoritmo di riconoscimento facciale che Facebook ha allenato proprio sulle foto dei propri utenti, e che l’azienda quindi potrebbe utilizzare in qualsiasi momento in prodotti futuri.
La redazione di Dataninja ha intervistato Ivana Bartoletti, Technical Director – Privacy in Deloitte e Co-Founder di Women Leading in AI Network.
Tra le altre cose Bartoletti dice: "Siamo abituati alla neutralità dei dati, all’idea – sbagliata – che i dati siano oggettivi e che, pertanto, ci informino sul mondo. E che quando dati in pasto agli algoritmi possono produrre predizioni e decisioni obiettive. Non c’è nulla di più sbagliato. I dati sono lo specchio della società e ne rappresentano le gerarchie e disuguaglianze. Lo stesso esercizio di raccogliere dati e di tralasciarne altri è il prodotto di un giudizio e una scelta che io definerei politica."
Leggi tutta l'intervista nel magazine di Dataninja
Torino, Como e Udine hanno già approvato i progetti, nonostante i rischi e il fatto che al momento non siano tecnicamente legali
Raggiungere il centro di Udine a piedi, partendo dalla stazione ferroviaria, è piuttosto semplice: Google Maps consiglia di camminare in via Roma, una strada a senso unico con molti negozi, qualche dehors, e due file di magnolie che danno il nome al quartiere. Come in tutte le zone vicino alle stazioni, anche nel quartiere delle Magnolie si possono incontrare persone con problemi di alcol o senza una casa. Negli ultimi anni ci sono stati alcuni arresti legati allo spaccio di droga e chi abita qui ha chiesto più volte al comune di intervenire per garantire più sicurezza.
La soluzione trovata coinvolgerà chiunque camminerà in via Roma e in tante altre strade di Udine: tutti saranno osservati, seguiti e identificati dalle telecamere per il riconoscimento facciale, che il comune vuole attivare nei prossimi mesi. Potenzialmente si potranno acquisire i dati biometrici – le caratteristiche fisiche che consentono di identificare una faccia – di migliaia di persone ogni giorno: secondo il Garante della privacy, che ha già fermato un progetto simile, questa tecnologia rappresenta una premessa per la sorveglianza di massa.
Leggi l'articolo completo su Il post.