Un webinar di Elena Pesaresi, Funzionario del Garante per la protezione dei dati personali.
Senza nominarle esplicitamente Pratesi mette in guardia sull'uso di piattaforme per la didattica a distanza, per le videoconferenze, per gli esami a distanza che non sono conformi al GDPR e costituiscono una violazione del diritto alla privacy degli studenti e dei lavoratori di scuole e università, oltre che essere un problema per la libertà di insegnamento. Il video dura circa un'ora.
A partire dalle note vicendi dell'aggressione a alla stazione ferroviaria di Roma Termini avvenuta il 31 dicembre, parliamo del riconoscimento facciale.
Facciamo anzitutto una breve cronistoria del riconoscimento facciale, distinguendolo dalla "mera" videosorveglianza.
Uno sguardo alla situazione legale in Italia e andiamo ad indagare le basi del riconoscimento facciale, gli effetti che produce nei luoghi in cui è già utilizzato, i motivi profondi per cui è discriminatorio.
Non solo il riconoscimento facciale non funziona bene come ci vogliono dire. Gli errori che questi sistemi producono sono in maniera schiacciante più pesanti per i gruppi marginalizzati (in particolare le donne nere). Questi errori hanno delle ripercussioni reali sulla vita di queste persone. La ragione profonda di questi errori non è il caso ma esattamente la loro condizione di marginalizzazione. Sono quindi sistemi che riproducono ed amplificano le oppressioni già esistenti.
Cerchiamo di tenere uno sguardo sull'automazione, dato che la creazione di un dibattito consapevole su questo tema non è più rimandabile.
Ascolta la registrazione sul sito di Radio Onda Rossa
Che cosa decide se la tecnologia contribuisce al nostro benessere, ai diritti umani e alla democrazia o se li deteriora? Cosa distingue la buona tecnologia dalla cattiva tecnologia? E visto che ci siamo, cosa distingue il telescopio di Galileo e le lenti a contatto da Google e Facebook? E perché è importante se consideriamo o no noi stessi come dei cyborg ?
Tutti dobbiamo cercare di capire le risposte a queste domande. Altrimenti il prezzo per non averlo fatto potrebbe essere davvero molto alto. Queste non sono domande solo sulla tecnologia. Sono domande fondamentali su ciò che significa essere umani nell’era del digitale e delle connessioni in rete. Il modo in cui scegliamo di rispondere a queste domande ha conseguenze fondamentali per il nostro benessere, sia personale che sociale. Le risposte che scegliamo determineranno il carattere delle nostre società e, a lungo termine, potrebbero anche avere un impatto sulla sopravvivenza della nostra specie.
Leggi l'articolo completo tradotto da Nilocram
Puntata fiume per rimediare alla vacanza di 2 settimane fa.Parliamo di tracciamento, che sia fatto di stati o di aziende.
Riprende la nuova stagione delle dita nella presa, ripartendo da social network, sorveglianza, smartphone...
Ascolta l'audio sul sito di Radio Onda Rossa
WFH - Watched from Home: Office 365 and workplace surveillance creep
da Etica Digitale: Microsoft: l'azienda consente al datore di lavoro di monitorare tutte le attività legate ai prodotti Office 365, e di leggere i contenuti delle chat e delle mail tramite Teams e Outlook.
Attraverso il "Microsoft Office 365 Admin Center" un amministratore può selezionare specifici utenti e leggere diverse informazioni sui dipendenti, tra cui: quanto tempo hanno passato in chiamate, quanti messaggi hanno scambiato, a quante riunioni hanno partecipato e quali dispositivi hanno usato. È anche possibile accedere a documenti, e-mail e messaggi delle persone su Teams.
Questo aspetto è in verità specificato nell'informativa sulla privacy dell'azienda, tuttavia è così seppellito nel testo che è pressoché impossibile notarlo. A prescindere, i dipendenti spesso non hanno altra scelta che acconsentire all'utilizzo di tali programmi.
Stati uniti. Nebraska, incriminate una madre e la figlia adolescente. Dalle conversazioni su Messenger emerge che la ragazza ha preso un farmaco abortivo
Messaggi privati, registrazioni audio e video, immagini: un totale di 300 megabyte di dati relativi agli account di una madre e sua figlia adolescente – Jessica e Celeste Burgess – consegnati da Facebook alle forze dell’ordine del Nebraska in un caso di presunto aborto.
La puntata è dedicata principalmente all'intelligenza artificiale, partendo dalla notizia del licenziamento di Blake Lemoine, dipendente di Google che aveva dichiarato che un chatbot basato su IA poteva essere considerato senziente. Evidentemente, Google non apprezza affermazioni esagerate sulle IA che sviluppa e preferisce avere un profilo più basso. Come spiegare, altrimenti, la collaborazione tra Google e il governo israeliano in tema di sorveglianza basata su intelligenza artificiale?
Diamo anche alcune altre notizie - di serietà variabile - riguardanti gli sviluppi dell'intelligenza artificiale.
Ma esiste anche una sorveglianza "stupida": niente IA, ma tanto cloud, dall'uso della domotica al prelevamento del DNA alla nascita, tutto fa brodo.
Infine alcune notiziole: ancora problemi per Google dal GDPR; i giudici americani fanno ricerche come gli studenti delle superiori (su wikipedia); il trenino "Termini-Centocelle", grazie ai lavori di ammodernamento, viaggerà su un futuristico binario unico per 1,5km; ma soprattutto, pare che stavolta il copyright per Topolino scada sul serio!
Ascolta il podcast sul sito di Radio Onda Rossa
Le smart tv comunicano e inviano dati anche a destinatari terzi. Un traffico, che secondo uno studio dell’Imperial college e della Northeastern university, non è necessario a fornire il servizio. È quello che emerge dalla nuova inchiesta di Report in onda su Rai 3 il lunedì 27 dicembre alle ore 21:20
Non siamo solo noi a guardare la tv, ora è la tv che guarda noi. Grazie agli esperimenti condotti dai ricercatori dell’Imperial College e della Northeastern University, è emerso che tra gli elettrodomestici intelligenti, le smart tv sono quelle che più di tutti contattano terze parti, cioè servizi di profilazione, pubblicità, tracking e destinazioni non richieste per fornire il servizio.
leggi l'articolo completo su Domani
Investigative Reporting Project Italy ha realizzato un'inchiesta sulla filiera dell’industria in Italia, tra attori emergenti, testimonial della politica ed ex appartenenti a forze armate e forze dell’ordine.
Il software più famoso si chiama Pegasus e l’ha prodotto una società israeliana, NSO. È stato utilizzato per spiare giornalisti, oppositori politici, attivisti. Lo scopo che ci si aspetta dai sistemi di sorveglianza è proteggere. Invece, a volte, i prodotti possono essere “offensivi”. Data la sensibilità delle materie che riguardano la sicurezza, spesso le informazioni sono poche e parziali. NSO è uno dei principali attori di questa industria e ha già attraversato una lunga serie di scandali.
[...]
Anche l’Italia ha attori di primo piano in questo settore, che spesso si intrecciano in vari modi a Leonardo, azienda le cui azioni appartengono per il 30% al Ministero delle finanze. E l’industria esiste anche grazie a un sistema di fondazioni e think tank che creano una rete di scambio di opinioni idee, e tecnologie con gli Stati. Un vero e proprio micelio sotterraneo di cui è spesso difficile comprendere l’estensione.
Questa serie indaga sulle diverse sfaccettature dell’industria della sorveglianza e della sua filiera, sui canali usati per espandere il controllo della propria fetta di mercato e sui prodotti che le aziende italiane cercano di introdurre per sfidare i competitor mondiali.
Leggi tutte le puntate dell'inchiesta sul sito di IRPI
La proposta lascia spazio all’uso ostile delle tecnologie da parte delle forze dell’ordine, e lascia troppe libertà alle aziende che le usano per profitto, minacciando il futuro dei diritti di tutti i cittadini
Da quando la presidente della Commissione europea Ursula Von Der Leyen ha promesso di consegnare un regolamento per l’intelligenza artificiale “all’avanguardia, ma affidabile” nei suoi primi 100 giorni di mandato, i riflettori della politica tecnologica globale sono stati puntati sulla risposta dell’Ue. E mercoledì è stato finalmente presentato dalla Commissione il progetto di regolamento UE sull’IA.
Ad una prima lettura il regolamento sembra incentrato sulla tutela dei diritti fondamentali e sul divieto di utilizzo di tecnologie di sorveglianza di massa. In realtà, secondo diversi esperti e diverse organizzazioni non governative del settore, il progetto di legge non proibisce tutti gli usi inaccettabili dell’IA e in particolare tutte le forme di sorveglianza biometrica di massa, permettendo un margine troppo ampio di autoregolamentazione da parte delle aziende che usano queste tecnologie per profitto.
Leggi l'articolo su the submarine
La contestata Clearview Ai, che offre tecnologie di sorveglianza a forze dell'ordine e aziende private, ha tredici foto di Luca Zorloni nel database con cui allena i suoi algoritmi.
Per addestrare i meccanismi di riconoscimento facciale, Clearview Ai, che vende in tutto il mondo tecnologia per il riconoscimento facciale, ha pensato bene di avvalersi dei miliardi di immagini di volti disponibili su internet. Fotografie pubbliche, delle decine in cui potete imbattervi se consultate il programma di un festival, per esempio, o gli albi dei docenti di un’università, online per tutt’altro scopo che aiutare un algoritmo a distinguere un paio di baffi o familiarizzare con il taglio degli occhi.
Leggi l'articolo completo su Wired.
L'identificazione e il controllo biometrico di massa sono incompatibili con una democrazia rispettosa dei diritti umani?
Il Progetto Winston Smith e l'Hermes Center for Transparency and Digital Human Rights stanno organizzando l'edizione primaverile di e-privacy, che si terrà (solo in videoconferenza) il 21 e il 22 maggio 2021, con streaming pubblico su Youtube.
Si parlerà di una società in cui una sorveglianza di massa viene considerata "accettabile" da una maggioranza della popolazione, spaventata da criminalità e pandemia. Siamo nelle migliori condizioni per riscrivere le più fosche pagine dei libri di storia e della letteratura distopica.
La guerra dei dati . Palantir, il colosso dello spionaggio Usa, entra in Gaia X, il consorzio europeo che gestirà i dati nel nostro continente. Attivisti e associazioni per i diritti civili preoccupati.
Un nome – arrivato alle cronache qualche anno fa, quando Snowden denunciò che era uno degli strumenti della Cia per spiare il mondo – che ha spaventato tanti, tantissimi. Da Marietje Schaake, direttrice del Cyber Peace Insititute dell’Eff, una delle più autorevoli organizzazioni internazionali per i diritti digitali. Passando per molti, molti altri. Fino ad arrivare a un’interrogazione all’europarlamento di Strasburgo di Cornelia Ernst, deputata della Die Linke tedesca – interrogazione numero E-000173/2020 – che imporrebbe una risposta scritta da parte della commissione. Risposta mai arrivata.
Leggi l'articolo completo di Stefano Bocconetti su "Il Manifesto"
Gli oltre 300mila lavoratori del comparto sono spesso definiti gli operai del nuovo millennio, ma senza rappresentanti sindacali, né un contratto nazionale di riferimento: sono infatti inquadrati come metalmeccanici, addetti alle telecomunicazioni o al commercio. Questo, sommato alla frammentazione del settore, rende di fatto complicato organizzarsi in azienda e anche solo pensare a uno sciopero. «Il problema di fondo, in realtà, è che molti di noi si sentono già privilegiati per avere un lavoro e uno stipendio, così accettano di sottomettersi alla violazione dei propri diritti e a pratiche illegali, come il body rental», spiegano da TWC - Italia.
Continua a leggere su L'Espresso
===
Puntata dedicata a 3 casi piuttosto diversi, di interazione tra grandi aziende teconogiche e lavoratori:
Ascolta il podcast sul sito di Radio Onda Rossa
“All’inizio c’era l’idea che la tecnologia potesse risolvere i problemi”, dice nel video Andrew G. Ferguson, saggista e docente di diritto statunitense. “Offriva alle forze dell’ordine la possibilità di fare di più con meno risorse”.
Le attività di polizia predittiva si basano sull’uso di metodi statistici per anticipare e quindi evitare la commissione di reati, come nel film di Steven Spielberg Minority Report. Negli ultimi anni questa tecnologia è diventata sempre più sofisticata e in varie città statunitensi sono stati sperimentati dei software che, attraverso la combinazione di diversi tipi di dati, avrebbero dovuto individuare i soggetti più inclini a commettere un crimine violento. Il loro uso ha scatenato polemiche e preoccupazioni per la tutela dei diritti umani.
I sostenitori di questi sistemi sostengono che questi software, escludendo la valutazione umana con i suoi pregiudizi, permetterebbero alle forze di polizia di agire in maniera più equa. Ma anche su questo sono stati sollevati dei dubbi: “Se nei dati inseriti è presente un pregiudizio razziale, anche i risultati conterranno lo stesso pregiudizio”, spiega Ferguson.
Guarda il video della Thomson Reuters Foundation sul sito di Internazionale.
Da Microsoft a ActivTrak: secondo uno studio Usa, il settore del monitoraggio crescerà a dismisura. Sono le “sentinelle dello smart worker”, quelle che controllano - col fucile spianato dall’altra parte dello schermo - che il lavoratore da remoto sia costantemente produttivo. Si tratta delle app per il controllo a distanza dei dipendenti e negli Stati Uniti sono sempre di più: si va da quelle che comunicano ai capi dati sui siti web consultati a quelle che fanno gli screenshot delle schermate. E ora ci si mette anche Microsoft: un nuovo tool, chiamato Productivity Score, annunciato durante la conferenza annuale degli sviluppatori, mostra ai datori di lavoro come i propri dipendenti utilizzano i servizi di Microsoft 365 come Outlook, Teams, SharePoint e OneDrive.
Ma può esistere uno smart working senza controllo sulla vita delle persone? Secondo Michel Martone, giurista e accademico, autore del libro “Il lavoro da remoto - Per una riforma dello smart working oltre l’emergenza”, sì: “Il datore di lavoro ha bisogno di controllare - spiega ad HuffPost - ma dovrebbe controllare i risultati del lavoro, non la persona”.
Leggi l'articolo completo di Di Ilaria Betti
Amazon Ring e non solo: coi nuovi ritrovati della “casa intelligente” ci stiamo costruendo da soli un network di sorveglianza a uso e consumo delle forze dell'ordine
A Jackson, Mississippi – secondo il racconto della Electronic Frontier Foundation, no profit in difesa della privacy – “il centro controllo della polizia condurrà un programma pilota di 45 giorni per visualizzare in streaming ciò che viene ripreso dalle videocamere dei negozi e delle casa, comprese quelle di Amazon Ring, che partecipano al programma”. Leggi tutto su Wired
Cina. Sotto la spinta dell’opinione pubblica cinese, per la prima volta una metropoli ha presentato una bozza di legge per arginare il riconoscimento facciale all’interno dei complessi residenziali. Spesso in Occidente rimaniamo impressionati dalla facilità con la quale la tecnologia è entrata nella vita quotidiana dei cinesi. Certi aspetti di questo tema, per altro, ci riguardano da vicino e faremmo bene a osservare cosa accade in un posto così lontano, ma pur sempre inserito – sebbene con le proprie «caratteristiche» – all’interno di un contesto globale.
Uno degli aspetti più rilevanti è senza dubbio quello del riconoscimento facciale, ormai utilizzato in molte attività e luoghi anche in Occidente, spesso senza neanche il consenso, o quanto meno un parere, della cittadinanza.
Leggi l'articolo completo di Simone Pieranni su il Manifesto