Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

In seguito a una sentenza, la società non venderà più il suo database ad aziende private

Clearview AI, oltre a essere un’azienda che punta a raccogliere un database di 100 miliardi di foto di volti utilizzando di fatto il riconoscimento biometrico per mappare pressoché tutta la popolazione mondiale, è un grande tema etico. Su questa linea, a quanto pare, si sta giocando una nuova partita e si sta aprendo un nuovo fronte, in seguito a un accordo giuridico in attesa di una conferma da pate di un tribunale in Illinois. American Civil Liberties Union, una associazione che si occupa della tutela dei diritti fondamentali, ha vinto la sua battaglia contro Clearview AI: l’azienda ha accettato di non vendere i suoi prodotti, i suoi database a società private.

Leggi l'articolo completo

Riporto una parte della newsletter di dataninja del 6 maggio 2022, perché il tema è particolarmente caldo.

E soprattutto: facciamo davvero abbastanza perché cresca la consapevolezza su questo argomento? Ma i nostri dati biometrici sono al sicuro?

Nelle ultime ore si è parlato moltissimo di dati sanitari. La UE ha annunciato che ci sarà una banca dati sanitaria unica dal 2025, ma appena prima qui in Italia abbiamo assistito a un attacco informatico che ha fatto saltare i sistemi informativi di alcuni ospedali a Milano. Mentre sul caso milanese c'è ancora molto da capire, sul caso dell'Ulss Euganea ha scritto tempo fa Guerre di Rete, facendo anche una cronistoria dei precedenti attacchi informatici. Una fonte dice in questo articolo: «In ogni caso, adesso i sistemi che utilizziamo hanno ogni tipo di blocco, anche se quella che manca davvero è la formazione del personale sui temi della cybersicurezza».

Questa questione di essere "formati" o comunque "preparati" è fondamentale, ma è anche fondamentale avere manager consapevoli che sanno ciò che fanno. Per carità non sarà un problema solo italiano, ma pare che dalle nostre parti le discussioni sulla cybersicurezza siano sempre abbastanza farsesche, come giustamente fa notare qualcuno, perché capita spesso che chi comanda non solo non ha competenze di cybersicurezza ma non sente neanche il bisogno di aumentare la propria consapevolezza sugli strumenti digitali e relativi rischi/opportunità.

Ma chi ce l'ha davvero una consapevolezza? Se compri un'auto, tra i cento fogli che firmi potrebbero chiederti di poter analizzare i tuoi dati biometrici, ma appena ci sali sopra e la guidi ti chiedi: come li raccolgono? Dove sono i sensori? Boh! La cittadinanza si sta mobilitando per chiedere regolamentazioni grazie al sostegno delle (ancora molto poche in Europa) organizzazioni della società civile che si battono per i diritti digitali. Per esempio la campagna Reclaim Your Face raccoglie firme contro la "sorveglianza biometrica di massa".

Quello che forse dovremmo chiederci noi che lavoriamo nel contesto digitale è: ma stiamo facendo abbastanza perché si diffonda una consapevolezza sul problema?

P.s.: il 10 maggio se ne è parlato a Milano in un evento al MEET Digital Culture Center (info qui)

Se vuoi iscriverti alla newsletter di Dataninja, puoi andare sul loro sito.

Meta è alla ricerca di titoli di giornale che dimostrino il suo impegno per la privacy — ma la storia della cancellazione dei dati biometrici su Facebook è più complessa.

In un post sul blog aziendale, il vicepresidente all’intelligenza artificiale Jerome Pesenti spiega che Facebook vuole limitare il proprio uso di tecnologie di riconoscimento facciale su larga scala, perché “anche nei molti casi in cui il riconoscimento facciale può essere utile, bisogna confrontarsi con le crescenti preoccupazioni della società sull’uso della tecnologia stessa.”

Il post non menziona, tuttavia, la cancellazione di DeepFace, l’algoritmo di riconoscimento facciale che Facebook ha allenato proprio sulle foto dei propri utenti, e che l’azienda quindi potrebbe utilizzare in qualsiasi momento in prodotti futuri.

La redazione di Dataninja ha intervistato Ivana Bartoletti, Technical Director – Privacy in Deloitte e Co-Founder di Women Leading in AI Network.

Tra le altre cose Bartoletti dice: "Siamo abituati alla neutralità dei dati, all’idea – sbagliata – che i dati siano oggettivi e che, pertanto, ci informino sul mondo. E che quando dati in pasto agli algoritmi possono produrre predizioni e decisioni obiettive. Non c’è nulla di più sbagliato. I dati sono lo specchio della società e ne rappresentano le gerarchie e disuguaglianze. Lo stesso esercizio di raccogliere dati e di tralasciarne altri è il prodotto di un giudizio e una scelta che io definerei politica."

Leggi tutta l'intervista nel magazine di Dataninja

Torino, Como e Udine hanno già approvato i progetti, nonostante i rischi e il fatto che al momento non siano tecnicamente legali

Raggiungere il centro di Udine a piedi, partendo dalla stazione ferroviaria, è piuttosto semplice: Google Maps consiglia di camminare in via Roma, una strada a senso unico con molti negozi, qualche dehors, e due file di magnolie che danno il nome al quartiere. Come in tutte le zone vicino alle stazioni, anche nel quartiere delle Magnolie si possono incontrare persone con problemi di alcol o senza una casa. Negli ultimi anni ci sono stati alcuni arresti legati allo spaccio di droga e chi abita qui ha chiesto più volte al comune di intervenire per garantire più sicurezza.

La soluzione trovata coinvolgerà chiunque camminerà in via Roma e in tante altre strade di Udine: tutti saranno osservati, seguiti e identificati dalle telecamere per il riconoscimento facciale, che il comune vuole attivare nei prossimi mesi. Potenzialmente si potranno acquisire i dati biometrici – le caratteristiche fisiche che consentono di identificare una faccia – di migliaia di persone ogni giorno: secondo il Garante della privacy, che ha già fermato un progetto simile, questa tecnologia rappresenta una premessa per la sorveglianza di massa.

Leggi l'articolo completo su Il post.

La proposta lascia spazio all’uso ostile delle tecnologie da parte delle forze dell’ordine, e lascia troppe libertà alle aziende che le usano per profitto, minacciando il futuro dei diritti di tutti i cittadini

Da quando la presidente della Commissione europea Ursula Von Der Leyen ha promesso di consegnare un regolamento per l’intelligenza artificiale “all’avanguardia, ma affidabile” nei suoi primi 100 giorni di mandato, i riflettori della politica tecnologica globale sono stati puntati sulla risposta dell’Ue. E mercoledì è stato finalmente presentato dalla Commissione il progetto di regolamento UE sull’IA.

Ad una prima lettura il regolamento sembra incentrato sulla tutela dei diritti fondamentali e sul divieto di utilizzo di tecnologie di sorveglianza di massa. In realtà, secondo diversi esperti e diverse organizzazioni non governative del settore, il progetto di legge non proibisce tutti gli usi inaccettabili dell’IA e in particolare tutte le forme di sorveglianza biometrica di massa, permettendo un margine troppo ampio di autoregolamentazione da parte delle aziende che usano queste tecnologie per profitto.

Leggi l'articolo su the submarine

Image: lavoratori Amazon lavoratori Amazon protestano

L'annuncio è arrivato proprio all’ultima curva. Perché il primo giugno scadeva la data di un’altra moratoria, che era stata decisa nelle drammatiche settimane che seguirono l’assassinio di George Floyd

Il gruppo ha deciso di prolungare – senza una data di scadenza – la moratoria per la vendita alla polizia americana e alle polizie locali della sua tecnologia per il riconoscimento facciale.

Un “prodotto” che proprio nella primavera e nell’estate scorsa, nel pieno delle tensioni seguite all’assassinio da parte dell’agente Derek Chauvin, si scoprì essere in dotazione a tanta parte dell’apparato di sicurezza statunitense. E che tanti drammi ha causato. Ai neri, alle donne, ai trans. Ai migranti.

Leggi l'articolo sul sito de "Il Manifesto"

La contestata Clearview Ai, che offre tecnologie di sorveglianza a forze dell'ordine e aziende private, ha tredici foto di Luca Zorloni nel database con cui allena i suoi algoritmi.

Per addestrare i meccanismi di riconoscimento facciale, Clearview Ai, che vende in tutto il mondo tecnologia per il riconoscimento facciale, ha pensato bene di avvalersi dei miliardi di immagini di volti disponibili su internet. Fotografie pubbliche, delle decine in cui potete imbattervi se consultate il programma di un festival, per esempio, o gli albi dei docenti di un’università, online per tutt’altro scopo che aiutare un algoritmo a distinguere un paio di baffi o familiarizzare con il taglio degli occhi.

Leggi l'articolo completo su Wired.

L'identificazione e il controllo biometrico di massa sono incompatibili con una democrazia rispettosa dei diritti umani?

Il Progetto Winston Smith e l'Hermes Center for Transparency and Digital Human Rights stanno organizzando l'edizione primaverile di e-privacy, che si terrà (solo in videoconferenza) il 21 e il 22 maggio 2021, con streaming pubblico su Youtube.

Si parlerà di una società in cui una sorveglianza di massa viene considerata "accettabile" da una maggioranza della popolazione, spaventata da criminalità e pandemia. Siamo nelle migliori condizioni per riscrivere le più fosche pagine dei libri di storia e della letteratura distopica.

Leggi l'articolo completo su ZEUS News

Finanziato dall’Europa, il sistema SARI dovrebbe monitorare le operazioni di sbarco e tutte le varie attività correlate. In altri Stati questa tecnologia è stata già giudicata illegale

Mentre in tutto il mondo si discute dei rischi etici del riconoscimento facciale, della necessità di sospendere queste tecnologie fino a quando non saranno correttamente regolate, o persino di introdurre dei divieti totali al loro utilizzo, la Direzione Centrale Anticrimine della Polizia di Stato ha invece l’esigenza di potenziare le due componenti del Sistema Automatico Riconoscimento Immagini (SARI) acquistato nel 2017: SARI Enterprise e SARI Real-Time.

Leggi l'inchiesta di IRPI Media

Cina. Sotto la spinta dell’opinione pubblica cinese, per la prima volta una metropoli ha presentato una bozza di legge per arginare il riconoscimento facciale all’interno dei complessi residenziali. Spesso in Occidente rimaniamo impressionati dalla facilità con la quale la tecnologia è entrata nella vita quotidiana dei cinesi. Certi aspetti di questo tema, per altro, ci riguardano da vicino e faremmo bene a osservare cosa accade in un posto così lontano, ma pur sempre inserito – sebbene con le proprie «caratteristiche» – all’interno di un contesto globale.

Uno degli aspetti più rilevanti è senza dubbio quello del riconoscimento facciale, ormai utilizzato in molte attività e luoghi anche in Occidente, spesso senza neanche il consenso, o quanto meno un parere, della cittadinanza.

Leggi l'articolo completo di Simone Pieranni su il Manifesto