Si conosce il numero di ricerche ogni mille reati, di molto maggiore rispetto ad altri Paesi europei. Avere un dibattito pubblico sull’argomento è impossibile: i dati sono incompleti
In Italia non è consentito sapere come e se funziona l’infrastruttura per il riconoscimento dei volti in uso alle forze dell’ordine. È una conclusione inevitabile, quella tratta da IrpiMedia e StraLi – associazione non profit che promuove la tutela dei diritti attraverso il sistema giudiziario – da tempo impegnate in un braccio di ferro burocratico con il ministero dell’Interno, restio a fornire dati e informazioni richieste tramite l’accesso agli atti generalizzato. Questo strumento dovrebbe garantire ai cittadini la possibilità di accedere a documenti e informazioni in possesso della pubblica amministrazione.
Tuttavia a dire del Viminale, oggi retto dal ministro Matteo Piantedosi, ne sarebbero escluse le statistiche relative all’efficacia del riconoscimento facciale: informazioni aggregate che non possono certo minare l’andamento delle indagini in corso. Dall’altra, proprio queste informazioni sono tasselli indispensabili a ricostruire lo sfaccettato puzzle delle tecnologie di cui fa uso la sorveglianza di Stato in Italia e che per ora è destinato a rimanere incompleto. Leggi la storia
Sarà valido fino a fine 2025, e non era scontato visto che piacciono molto al ministro dell'Interno, Matteo Piantedosi
La Camera ha approvato decreto-legge 51 del 2023 che tra le altre cose contiene l’estensione della moratoria sui sistemi di riconoscimento facciale in scadenza alla fine dell’anno. Fino al 31 dicembre 2025, e non più fino al 31 dicembre 2023, le autorità pubbliche e i privati non potranno installare impianti di videosorveglianza con sistemi di riconoscimento facciale in luoghi pubblici e aperti al pubblico. L’emendamento che ha confermato il divieto in scadenza era stato presentato da Marianna Madia, Lia Quartapelle e Filiberto Zaratti del Partito Democratico, e approvato la scorsa settimana in commissione.
La conferma della moratoria non era scontata perché alla fine di aprile il ministro dell’Interno, Matteo Piantedosi, aveva sostenuto la necessità di installare sistemi di riconoscimento facciale nelle stazioni, negli ospedali e nelle zone commerciali delle grandi città per garantire più sicurezza. «La videosorveglianza è uno strumento ormai unanimemente riconosciuto come fondamentale», aveva detto Piantedosi, intervistato dal Quotidiano Nazionale. «La sua progressiva estensione è obiettivo condiviso con tutti i sindaci. Il riconoscimento facciale dà ulteriori e significative possibilità di prevenzione e indagine». L’estensione del divieto fino al 2025 non era scontata anche perché negli ultimi anni molti sindaci, soprattutto di centrodestra, avevano cercato di installare telecamere a riconoscimento facciale: tutti i tentativi fatti finora erano stati bloccati dal Garante della privacy.
Con l'aiuto di esempi e semplificazioni scopriamo il significato e il funzionamento del Machine Learning (ML): uno dei concetti più nominati e contemporaneamente più misteriosi dei nostri giorni. Scopriremo inoltre quali problemi risolve e il rapporto con l'AI e con il Deep Learning.
Nell'articolo Alessio Pomaro spiega:
Nella quarta puntata del ciclo "Estrattivismo dei dati", focus su Intelligenza Artificiale con Daniela Tafani, docente di filosofia politica presso il Dipartimento di Scienze Politiche dell'Università di Pisa.
Nella prima parte Tafani introduce l'Intelligenza Artificiale. Cosa è; le distorsioni con cui viene volutamente presentata; cos'è l'apprendimento automatico e gli ingredienti tecnologici fondamentali: dati, potenza di calcolo e algoritmi.
Nella seconda parte: come vengano occultati i costi ambientali, estrattivistici ed energetici dei sistemi di IA; come viene in realtà sfruttato massicciamente il lavoro umano, sottopagato e delocalizzato.
Nella terza parte: i rischi delle decisioni automatizzate prese attraverso i sistemi di Intelligenza Artificiale, con la convinzione che siano capaci di prevedere il comportamento di singoli individui. Perché si parla di bolla giuridica e perché si propone l’illegalità di default dei sistemi di IA.
Ascolta la registrazione sul sito di Radio Onda Rossa
A partire dalle note vicendi dell'aggressione a alla stazione ferroviaria di Roma Termini avvenuta il 31 dicembre, parliamo del riconoscimento facciale.
Facciamo anzitutto una breve cronistoria del riconoscimento facciale, distinguendolo dalla "mera" videosorveglianza.
Uno sguardo alla situazione legale in Italia e andiamo ad indagare le basi del riconoscimento facciale, gli effetti che produce nei luoghi in cui è già utilizzato, i motivi profondi per cui è discriminatorio.
Non solo il riconoscimento facciale non funziona bene come ci vogliono dire. Gli errori che questi sistemi producono sono in maniera schiacciante più pesanti per i gruppi marginalizzati (in particolare le donne nere). Questi errori hanno delle ripercussioni reali sulla vita di queste persone. La ragione profonda di questi errori non è il caso ma esattamente la loro condizione di marginalizzazione. Sono quindi sistemi che riproducono ed amplificano le oppressioni già esistenti.
Cerchiamo di tenere uno sguardo sull'automazione, dato che la creazione di un dibattito consapevole su questo tema non è più rimandabile.
Ascolta la registrazione sul sito di Radio Onda Rossa
In seguito a una sentenza, la società non venderà più il suo database ad aziende private
Clearview AI, oltre a essere un’azienda che punta a raccogliere un database di 100 miliardi di foto di volti utilizzando di fatto il riconoscimento biometrico per mappare pressoché tutta la popolazione mondiale, è un grande tema etico. Su questa linea, a quanto pare, si sta giocando una nuova partita e si sta aprendo un nuovo fronte, in seguito a un accordo giuridico in attesa di una conferma da pate di un tribunale in Illinois. American Civil Liberties Union, una associazione che si occupa della tutela dei diritti fondamentali, ha vinto la sua battaglia contro Clearview AI: l’azienda ha accettato di non vendere i suoi prodotti, i suoi database a società private.
Riporto una parte della newsletter di dataninja del 6 maggio 2022, perché il tema è particolarmente caldo.
E soprattutto: facciamo davvero abbastanza perché cresca la consapevolezza su questo argomento? Ma i nostri dati biometrici sono al sicuro?
Nelle ultime ore si è parlato moltissimo di dati sanitari. La UE ha annunciato che ci sarà una banca dati sanitaria unica dal 2025, ma appena prima qui in Italia abbiamo assistito a un attacco informatico che ha fatto saltare i sistemi informativi di alcuni ospedali a Milano. Mentre sul caso milanese c'è ancora molto da capire, sul caso dell'Ulss Euganea ha scritto tempo fa Guerre di Rete, facendo anche una cronistoria dei precedenti attacchi informatici. Una fonte dice in questo articolo: «In ogni caso, adesso i sistemi che utilizziamo hanno ogni tipo di blocco, anche se quella che manca davvero è la formazione del personale sui temi della cybersicurezza».
Questa questione di essere "formati" o comunque "preparati" è fondamentale, ma è anche fondamentale avere manager consapevoli che sanno ciò che fanno. Per carità non sarà un problema solo italiano, ma pare che dalle nostre parti le discussioni sulla cybersicurezza siano sempre abbastanza farsesche, come giustamente fa notare qualcuno, perché capita spesso che chi comanda non solo non ha competenze di cybersicurezza ma non sente neanche il bisogno di aumentare la propria consapevolezza sugli strumenti digitali e relativi rischi/opportunità.
Ma chi ce l'ha davvero una consapevolezza? Se compri un'auto, tra i cento fogli che firmi potrebbero chiederti di poter analizzare i tuoi dati biometrici, ma appena ci sali sopra e la guidi ti chiedi: come li raccolgono? Dove sono i sensori? Boh! La cittadinanza si sta mobilitando per chiedere regolamentazioni grazie al sostegno delle (ancora molto poche in Europa) organizzazioni della società civile che si battono per i diritti digitali. Per esempio la campagna Reclaim Your Face raccoglie firme contro la "sorveglianza biometrica di massa".
Quello che forse dovremmo chiederci noi che lavoriamo nel contesto digitale è: ma stiamo facendo abbastanza perché si diffonda una consapevolezza sul problema?
P.s.: il 10 maggio se ne è parlato a Milano in un evento al MEET Digital Culture Center (info qui)
Se vuoi iscriverti alla newsletter di Dataninja, puoi andare sul loro sito.
Meta è alla ricerca di titoli di giornale che dimostrino il suo impegno per la privacy — ma la storia della cancellazione dei dati biometrici su Facebook è più complessa.
In un post sul blog aziendale, il vicepresidente all’intelligenza artificiale Jerome Pesenti spiega che Facebook vuole limitare il proprio uso di tecnologie di riconoscimento facciale su larga scala, perché “anche nei molti casi in cui il riconoscimento facciale può essere utile, bisogna confrontarsi con le crescenti preoccupazioni della società sull’uso della tecnologia stessa.”
Il post non menziona, tuttavia, la cancellazione di DeepFace, l’algoritmo di riconoscimento facciale che Facebook ha allenato proprio sulle foto dei propri utenti, e che l’azienda quindi potrebbe utilizzare in qualsiasi momento in prodotti futuri.
La redazione di Dataninja ha intervistato Ivana Bartoletti, Technical Director – Privacy in Deloitte e Co-Founder di Women Leading in AI Network.
Tra le altre cose Bartoletti dice: "Siamo abituati alla neutralità dei dati, all’idea – sbagliata – che i dati siano oggettivi e che, pertanto, ci informino sul mondo. E che quando dati in pasto agli algoritmi possono produrre predizioni e decisioni obiettive. Non c’è nulla di più sbagliato. I dati sono lo specchio della società e ne rappresentano le gerarchie e disuguaglianze. Lo stesso esercizio di raccogliere dati e di tralasciarne altri è il prodotto di un giudizio e una scelta che io definerei politica."
Leggi tutta l'intervista nel magazine di Dataninja
Torino, Como e Udine hanno già approvato i progetti, nonostante i rischi e il fatto che al momento non siano tecnicamente legali
Raggiungere il centro di Udine a piedi, partendo dalla stazione ferroviaria, è piuttosto semplice: Google Maps consiglia di camminare in via Roma, una strada a senso unico con molti negozi, qualche dehors, e due file di magnolie che danno il nome al quartiere. Come in tutte le zone vicino alle stazioni, anche nel quartiere delle Magnolie si possono incontrare persone con problemi di alcol o senza una casa. Negli ultimi anni ci sono stati alcuni arresti legati allo spaccio di droga e chi abita qui ha chiesto più volte al comune di intervenire per garantire più sicurezza.
La soluzione trovata coinvolgerà chiunque camminerà in via Roma e in tante altre strade di Udine: tutti saranno osservati, seguiti e identificati dalle telecamere per il riconoscimento facciale, che il comune vuole attivare nei prossimi mesi. Potenzialmente si potranno acquisire i dati biometrici – le caratteristiche fisiche che consentono di identificare una faccia – di migliaia di persone ogni giorno: secondo il Garante della privacy, che ha già fermato un progetto simile, questa tecnologia rappresenta una premessa per la sorveglianza di massa.
Leggi l'articolo completo su Il post.
La proposta lascia spazio all’uso ostile delle tecnologie da parte delle forze dell’ordine, e lascia troppe libertà alle aziende che le usano per profitto, minacciando il futuro dei diritti di tutti i cittadini
Da quando la presidente della Commissione europea Ursula Von Der Leyen ha promesso di consegnare un regolamento per l’intelligenza artificiale “all’avanguardia, ma affidabile” nei suoi primi 100 giorni di mandato, i riflettori della politica tecnologica globale sono stati puntati sulla risposta dell’Ue. E mercoledì è stato finalmente presentato dalla Commissione il progetto di regolamento UE sull’IA.
Ad una prima lettura il regolamento sembra incentrato sulla tutela dei diritti fondamentali e sul divieto di utilizzo di tecnologie di sorveglianza di massa. In realtà, secondo diversi esperti e diverse organizzazioni non governative del settore, il progetto di legge non proibisce tutti gli usi inaccettabili dell’IA e in particolare tutte le forme di sorveglianza biometrica di massa, permettendo un margine troppo ampio di autoregolamentazione da parte delle aziende che usano queste tecnologie per profitto.
Leggi l'articolo su the submarine
L'annuncio è arrivato proprio all’ultima curva. Perché il primo giugno scadeva la data di un’altra moratoria, che era stata decisa nelle drammatiche settimane che seguirono l’assassinio di George Floyd
Il gruppo ha deciso di prolungare – senza una data di scadenza – la moratoria per la vendita alla polizia americana e alle polizie locali della sua tecnologia per il riconoscimento facciale.
Un “prodotto” che proprio nella primavera e nell’estate scorsa, nel pieno delle tensioni seguite all’assassinio da parte dell’agente Derek Chauvin, si scoprì essere in dotazione a tanta parte dell’apparato di sicurezza statunitense. E che tanti drammi ha causato. Ai neri, alle donne, ai trans. Ai migranti.
Leggi l'articolo sul sito de "Il Manifesto"
La contestata Clearview Ai, che offre tecnologie di sorveglianza a forze dell'ordine e aziende private, ha tredici foto di Luca Zorloni nel database con cui allena i suoi algoritmi.
Per addestrare i meccanismi di riconoscimento facciale, Clearview Ai, che vende in tutto il mondo tecnologia per il riconoscimento facciale, ha pensato bene di avvalersi dei miliardi di immagini di volti disponibili su internet. Fotografie pubbliche, delle decine in cui potete imbattervi se consultate il programma di un festival, per esempio, o gli albi dei docenti di un’università, online per tutt’altro scopo che aiutare un algoritmo a distinguere un paio di baffi o familiarizzare con il taglio degli occhi.
Leggi l'articolo completo su Wired.
L'identificazione e il controllo biometrico di massa sono incompatibili con una democrazia rispettosa dei diritti umani?
Il Progetto Winston Smith e l'Hermes Center for Transparency and Digital Human Rights stanno organizzando l'edizione primaverile di e-privacy, che si terrà (solo in videoconferenza) il 21 e il 22 maggio 2021, con streaming pubblico su Youtube.
Si parlerà di una società in cui una sorveglianza di massa viene considerata "accettabile" da una maggioranza della popolazione, spaventata da criminalità e pandemia. Siamo nelle migliori condizioni per riscrivere le più fosche pagine dei libri di storia e della letteratura distopica.
Finanziato dall’Europa, il sistema SARI dovrebbe monitorare le operazioni di sbarco e tutte le varie attività correlate. In altri Stati questa tecnologia è stata già giudicata illegale
Mentre in tutto il mondo si discute dei rischi etici del riconoscimento facciale, della necessità di sospendere queste tecnologie fino a quando non saranno correttamente regolate, o persino di introdurre dei divieti totali al loro utilizzo, la Direzione Centrale Anticrimine della Polizia di Stato ha invece l’esigenza di potenziare le due componenti del Sistema Automatico Riconoscimento Immagini (SARI) acquistato nel 2017: SARI Enterprise e SARI Real-Time.
Cina. Sotto la spinta dell’opinione pubblica cinese, per la prima volta una metropoli ha presentato una bozza di legge per arginare il riconoscimento facciale all’interno dei complessi residenziali. Spesso in Occidente rimaniamo impressionati dalla facilità con la quale la tecnologia è entrata nella vita quotidiana dei cinesi. Certi aspetti di questo tema, per altro, ci riguardano da vicino e faremmo bene a osservare cosa accade in un posto così lontano, ma pur sempre inserito – sebbene con le proprie «caratteristiche» – all’interno di un contesto globale.
Uno degli aspetti più rilevanti è senza dubbio quello del riconoscimento facciale, ormai utilizzato in molte attività e luoghi anche in Occidente, spesso senza neanche il consenso, o quanto meno un parere, della cittadinanza.
Leggi l'articolo completo di Simone Pieranni su il Manifesto