Critiche da ogni parte, anche in seno all’Europa. Schrems ha annunciato ricorso. Tutto ciò, inevitabilmente, solleva grossi dubbi riguardo alla consistenza e alla lunga durata di un accordo che è stato gestito in modo affrettato dalla Commissione e che potrebbe quindi essere impugnato e nuovamente invalidato dalla Corte di Giustizia
La recente approvazione da parte della Commissione Europea del “EU-US Data Privacy Framework”, accordo sul trasferimento dei dati tra l’Unione Europea e gli Stati Uniti, ha suscitato reazioni contrastanti e sollevato quesiti sulla sua autentica validità e capacità di garantire la protezione dei dati personali dei cittadini europei.
Ricordiamo che secondo il comunicato stampa della Commissione europea, la decisione stabilisce che gli Stati Uniti garantiscono un livello di protezione adeguato – paragonabile a quello dell’Unione europea – per i dati personali trasferiti dall’UE alle società statunitensi nell’ambito del nuovo quadro normativo”.
Il parere di Max Schrems, watchdog delle politiche europee sul trattamento dati sul Data Privacy Framework, è impietoso
L’attività di monitoraggio di Max Schrems e del suo NOYB prosegue da tempo e il Data Privacy Framework non fa eccezione. Maximilian Schrems è noto, in particolar modo, per essere l’attivista avvocato che ha battagliato contro Facebook per i suoi numerosi atti di violazione della privacy – a partire dalle leggi europee sul trasferimento di dati personali alla NSA Usa. Una delle critiche maggiormente fatte a questo nuovo accordo, in sostanza, è quella di essere un Safe Harbor 3.0 o un Privacy Shield 2.0 – un copia-incolla degli accordi precedenti che, alla fine, non cambia le carte in tavola quanto dice di fare -. Considerate le criticità già individuate anche dall’EDPB (Comitato europeo per la Protezione dei Dati, composto dalle autorità garanti dei Paesi membri), tutto quello che abbiamo finora sembrerebbe essere il ritardo del blocco del trasferimento dati in Usa che porterebbe i cittadini Ue a non poter usare servizi come quelli forniti da Big Tech.
In vigore dall'11 luglio, dopo che i due precedenti trattati sono stanti invalidati. Per gli attivisti per i diritti digitali di Noyb però è una copia dei regolamenti precedenti e si preparano a fare ricorso
La Commissione europea ha adottato il nuovo accordo sul trasferimento dei dati tra l’Unione europea e gli Stati uniti. Il Data privacy framework arriva dopo l’annullamento degli accordi precedenti da parte della Corte di giustizia europea, a causa dell’assenza di tutele adeguate da parte degli Stati Uniti. Tuttavia, l’organizzazione per i diritti digitali Noyb si prepara a portare anche questo accordo davanti alla Corte, perché sembrerebbe una copia dei vecchi regolamenti.
[...]
L’accordo cerca poi di risolvere il problema dell’accesso incondizionato ai dati personali da parte delle agenzie di intelligence statunitensi, che nel quadro del nuovo framework dovrebbero avere solamente un accesso limitato e proporzionato a queste informazioni. Inoltre, istituisce un organo speciale, la Data protection review court (Dprc), a cui i cittadini europei potranno rivolgersi in caso di violazione delle nuove garanzie, che potrà ordinare la cancellazione dei dati ottenuti o trattati illegalmente.
Le critiche di Noyb
Il nuovo regolamento non ha convinto il gruppo per la difesa dei diritti digitali Noyb, guidato dall’attivista e avvocato Max Schrems. Per l’organizzazione, infatti, gli Stati Uniti attribuiranno alla parola “proporzionato” un significato diverso da quello della Corte di giustizia, così da assicurare alle agenzie di intelligence la possibilità di continuare a usare i dati personali europei più o meno come vogliono...
L'argomento del giorno è sicuramente il lancio, ormai prossimo, di Threads, la nuova applicazione di Meta (la stessa di Whatsapp, Facebook e Instagram) che punta a fare concorrenza a Twitter. Cos'ha di diverso? Dovrebbe integrarsi nel fediverso (ma non subito). Cosa ha Meta da guadagnarci? E il mondo del fediverso, dovrebbe gioire?
Venendo all'unione europea, invece, vediamo che l'AI Act (per ora ancora una bozza) includerà delle limitazioni sia sulle AI generative sia sull'uso di AI all'interno della sorveglianza biometrica. Decisamente meno positivo quel che si muove in Francia, dove il governo vuole rispondere alle fortissime proteste che contestano la violenza della polizia con maggiori dispositivi di sorveglianza, repressione e censura.
A seguire, un po' di notiziole.
Secondo la valutazione della privacy policy e dei termini di servizio svolta da PrivacySpy e ToS;DR, Telegram è messo meglio, non peggio, di Signal, WhatsApp, Element (istanza ufficiale) e altri.
PrivacySpy: Telegram 8.8, Signal 8, Element 7.2, WhatsApp 4.7
ToS;DR: Element B, Signal B, Telegram B, WhatsApp C
Penso che siamo tutti d'accordo in teoria: Telegram è peggiore degli altri in quanto ha la crittografia e2e solo nelle chat 1:1 e non di default ed il server closed source, con client e protocollo aperti e build riproducibili. In pratica, bisogna considerare come funzionano i protocolli e le implementazioni.
WhatsApp è closed source con binari offuscati e nessuno è in grado di verificare cosa faccia effettivamente l'applicazione. La fiducia richiesta in meta è massima.
Signal, considerato da molti il miglior protocollo per le applicazioni di comunicazione, ha alcuni problemi abbastanza gravi:
La migliore alternativa per le applicazioni di messaggistica è Element/Matrix poiché è completamente open source ed e2ee, ma soprattutto federato e quindi favorisce la decentralizzazione del sistema distribuendo il potere nelle mani degli utenti. Inoltre, supporta il cross-signing che risolve il problema TOFU e il backup delle chat in modo abbastanza intuitivo.
C'è un progetto di matrix per renderlo p2p ovvero privo di qualunque server e fiducia in terze parti.
Anche qui occorre fare attenzione a non utilizzare l'istanza ufficiale di Element che non è buona dal punto di vista della privacy e della raccolta dei dati personali. Alcuni difetti di Element/matrix sono i client PC basati su electron che consumano molte risorse CPU/memoria e il maggior consumo di traffico dati oltre all'assenza di una videoconferenza integrata attualmente basata su jitsi (questo dovrebbe essere risolto a breve).
Ringrazio Emilia che ha scritto nel canale Telegram/Matrix di Monitora-Pa questo breve riassunto della situazione delle principali app di messaggistica cosidetta istantanea.
La città impone alle aziende che usano la Ai per le assunzioni di non discriminare sulla base di razza e genere
Le aziende di New York City che utilizzano dei programmi d’intelligenza artificiale per gestire le assunzioni dovranno dimostrare che il software che impiegano non segue criteri discriminatori, sessisti o razzisti. Questa nuova legge, entrata in vigore mercoledì, è la prima al mondo del suo genere, e sicuramente detterà la linea da seguire per le aziende che vogliono avvalersi dell’ausilio di intelligenze artificiali per assumere personale
Questi software, chiamati automatic employment decision tool, strumento di decisione automatica sull’occupazione, o Aedt, hanno la funzione sia di segnalare i candidati promettenti, che di scartare quelli ritenuti non idonei, aprendo così la strada a tutta una serie di preoccupazioni riguardanti i criteri di valutazione delle intelligenze artificiali. Una donna in età fertile è una candidata appetibile al pari di un uomo della stessa età? E una persona non bianca?
Fallisce l'ultimo tentativo di scollegare la Federazione russa dal Web mondiale con una rete autonoma da Vladivostok a Krasnodar. Per 4 ore nella notte del 5 luglio si è spento tutto: stazioni, aeroporti, siti pubblici e di informazione. La rete russa per i russi non ha funzionato, neanche per un minuto
Per isolarsi si sono danneggiati. Meglio: per costringere tutti i “governati” all’isolamento, si sono paralizzati. Si parla della Russia. Il 5 luglio, dalla mezzanotte alle quattro dell’alba (ora di Mosca), il paese di Putin ha provato a disconnettersi completamente da Internet, ha provato a tagliare quei deboli fili che ancora lo collegano alla rete mondiale.
I risultati sono stati disastrosi. Anche stavolta sono stati disastrosi. Sì, perché da tempo, da qualche anno prima dell’invasione dell’Ucraina, la Russia sta testando quello che Putin chiama “il sistema Internet sovrano”: una rete che parte da Krasnodar e finisce a Vladivostok e che non ha “porte” verso l’esterno. Dove ovviamente qualsiasi cosa sarebbe controllata dal Cremlino.
Certo vi sorprenderà scoprire che le cosiddette Terre Rare, un gruppo di 17 elementi chimici che prende il nome dall’inglese Rare Earth Elements, rare non lo sono affatto: il cerio è presente tanto quanto il rame e i due elementi più rari della serie (tulio e lutezio) sono 200 volte più abbondanti dell’oro. Il problema è che estrarre questi metalli tanto indispensabili alle tecnologie – fibre ottiche, auto ibride, pannelli solari, computer, touchscreen, ma anche radar militari – è un processo complesso e molto difficile.
Solo per fare un esempio, servono tremendi solventi. Tremendi per chi? Qui, come sempre, arrivano le note dolenti, anzi dolorrosissime. Ce le racconta in questo articolo, tratto da Valori, in modo molto chiaro Anna Radice Fossati. Qui anticipiamo solo che la Cina che produce circa il 60% delle terre rare mondiali, ne lavora e raffina il 90% e detiene il 37% circa delle riserve mondiali. Però ha pensato bene di “esternalizzzare” il problema a Myanmar, la terra insanguinata dai vecchi generali birmani
In questo podcast uno scambio di opinioni sull'AI Act con l'ospite speciale Alessandro Longo, direttore responsabile di agendadigitale.eu. l'AI Act è il regolamento Europeo per l'intelligenza artificiale, il primo al mondo. E' stato approvato dal Parlamento Europeo ed è l'inizio di una nuova negoziazione con le altre due istituzioni - Commissione e Consiglio. Non è ancora la versione definitiva, né è ancora in vigore.
Diversi spunti interessanti a cominciare dalla mancanza di regolamentazione delle applicazioni di intelligenza artificiale per applicazioni di tipo militare. Il secondo punto di attenzione è la questione dell'appropriazione dei dati pubblicati nel web, poiché il fatto che siano accessibili a tutti non vuol dire automaticamente che siano utilizabili per l'addestramento di AI senza consenso.
E poi c'è una questione che non è legata direttamente al regolamento: "l'intelligenza artificiale cambierà tutto in un momento in cui non siamo sicuri che quelli che rischiano di rimanere indietro siano in grado invece di avere voce in capitolo e quindi non siamo sicuri che tutta questa grande rivoluzione poi porterà benessere a tutti".
L'azienda di Zuckerberg si era rivolta alla CGUE per contestare un'indagine dell'Antitrust tedesca. Ma i giudici hanno scoperchiato un vaso di Pandora
Sono tempi difficili per Mark Zuckerberg in Europa. In attesa dell’inizio dei controlli ai sensi del Digital Service Act -che partiranno il prossimo 25 agosto – la CGUE (Corte di Giustizia Europea) è andata contro un ricorso presentato da Meta nei confronti di un’indagine avviata dall’Antitrust tedesca. Tutto era partito da un’inchiesta per “abuso di posizione dominante” avviata dalla Bundeskartellamt, con Menlo Park che aveva contestato la legittimità delle autorità nazionali di intervenire su questi ambiti. E la risposta ha deluso le aspettative della holding che controlla Instagram, Facebook e Whatsapp.
I garanti della privacy di Italia, Austria e Francia avevano confermato che Google Analytics non rispetta il GDPR (Regolamento generale sulla protezione dei dati). L’autorità svedese ha invece deciso di sanzionare due aziende locali.
Il garante svedese ha esaminato i casi di CDON, Coop, Dagens Industri e Tele2. Dato che le misure tecniche implementate dalle quattro aziende non garantiscono un sufficiente livello di protezione dei dati inviati negli Stati Uniti, l’autorità ha ordinato di non usare più Google Analytics. Tele2 ha già rispettato l’ordine, ma dovrà pagare una multa di 12 milioni di corone (circa un milione di euro). Una sanzione di 300.000 corone (circa 25.400 euro) è stata invece inflitta a CDON.
Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori.
Quando sono stati annunciati pubblicamente i primi software di intelligenza artificiale capaci di generare immagini e testi, per molti imprenditori la reazione istintiva è stata un entusiasmo sconfinato di fronte all’idea di poter tagliare i costi di produzione dei contenuti mettendo al lavoro questi nuovi servitori digitali al posto delle persone. Ma per molti altri, anche non esperti di informatica, la reazione è stata ben diversa. Paura, pura e semplice. Paura per il proprio posto di lavoro e paura per i possibili abusi, facilmente prevedibili, di questa tecnologia.
Questa è la storia di come quella paura del possibile è oggi diventata reale, raccontata attraverso tre casi recenti che sono un campanello d’allarme urgente. Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori. La politica nazionale e internazionale si china su queste questioni con i suoi tempi inevitabilmente lunghi, ma nel frattempo i danni personali e sociali sono già gravi e tangibili, ed è decisamente il momento di chiedersi se si possa fare qualcosa di più di un coro tedioso di meritatissimi “Ve l’avevamo detto”.
Benvenuti alla puntata del 30 giugno 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane – e questa settimana inquietanti – dell’informatica. Io sono Paolo Attivissimo.
In caso di mancato rispetto della previsione dell’articolo 4 co. 1 dello Statuto dei lavoratori si profilano due responsabilità di diversa natura: penale del datore di lavoro, inteso quale rappresentante legale della Società, e amministrativa dell’ente derivante dalla violazione della normativa privacy. Facciamo chiarezza
Esistono importanti rischi sanzionatori collegati alla violazione dell’art. 4 co. 1 dello Statuto dei Lavoratori relativo al controllo a distanza dei lavoratori.
In caso di mancato rispetto della previsione normativa, infatti, possono profilarsi due responsabilità di diversa natura. La prima riguarda la responsabilità penale del datore di lavoro, inteso quale rappresentante legale della Società.
La seconda riguarda la responsabilità amministrativa dell’ente derivante dalla violazione della normativa sulla protezione dei dati personali (Codice Privacy e GDPR).
Analizziamo le norme per fare un po’ di chiarezza.
La lotta. Le alternative a Google Classroom. Inchiesta sul Progetto Fuss avviato fin dal 2005 dalla Provincia Autonoma di Bolzano. Parla Graffio, collaboratore del centro C.I.R.C.E.: "Le scuole sono spinte ad adottare software che hanno un modo loro di funzionare che non è quello delle relazioni umane. Così rischia di venire meno quindi la relazione tra i compagni di classe e tra gli insegnanti"
La digitalizzazione nella scuola può anche essere guidata e non imposta. Lo pensano alcuni gruppi di pensatori informatici che hanno avviato incontri in tutto il paese per aiutare i docenti a capire cosa significa, soprattutto nella didattica, lavorare con il modello del software libero e perché scegliere tra grandi gruppi e piattaforme non-profit.
Non è una scelta tecnica ma del tutto politica e riguarda la condivisione del sapere, la libertà di accesso alle informazioni e l’idea di scuola come una comunità in cui tutte le sue componenti partecipano attivamente al processo di costruzione della conoscenza.
Leggi l'articolo su C.I.R.C.E.
Nella stessa pagina anche un'intervista a Renata Puleo (ALAS) dal titolo "«Oltre il Pnrr, a scuola con un’idea cooperativa della tecnologia»". Parla Renata Puleo, già dirigente scolastica e oggi socia dell'Associazione lavoratori scuola (Alas) che partecipa alla mobilitazione contro la digitalizzazione imposta dal piano nazionale di ripresa e resilienza (Pnrr): "Serve una critica all’uso capitalistico delle piattaforme digitali impiegate anche nella didattica in funzione di una loro concezione democratica, solidale e conviviale"
Come temevamo i nodi relativi al nudging (spinta gentile) verso l'accettazione delle "decisioni" dell'Intelligenza Artificiale in campo medico stanno venendo al pettine.
Il WSJ racconta del caso di una esperta infermiera specializzata in oncologia che si è trovata di fronte a una diagnosi, secondo lei sbagliata, fatta da una IA. La diagnosi era di sepsi. L'allarme dell'algoritmo ha messo in relazione un elevato numero di globuli bianchi con un'infezione settica. A quanto pare l'IA non avrebbe tenuto conto che il paziente fosse affetto da leucemia, che può causare valori di globuli bianchi simili. L'algoritmo attiva l'allarme quando rileva modelli che corrispondono a precedenti pazienti con sepsi. Peraltro il sistema non ha spiegato la sua decisione.
Le regole dell'ospedale in questione prevedono che gli infermieri seguano il protocollo quando c'è una segnalazione di setticemia a meno che non ricevano un'approvazione da parte del medico responsabile. Secondo l'infermiera, Melissa Beebe, però anche con l'autorizzazione, in caso di errore rischia un procedimento disciplinare.
Risultato: l'infermiera ha eseguito gli ordini e ha effettuato il prelievo di sangue mettendo a rischio il malato. Alla fine la diagnosi dell'algoritmo si è rivelata sbagliata, come sosteneva l'infermiera.
Certamente l'uso di Intelligenza Artificiale, sempre più usata nella diagnosi medica, costituisce un grande aiuto per la cura della salute dei pazienti. Allo stesso tempo sta sollevando un grande interrogativo: chi prende le decisioni in caso di emergenza: gli umani o il software?
Temiamo che per un/una medico o un/una infermiere sarà sempre più difficile assumersi la responsabilità di contraddire la diagnosi di una Intelligenza Artificiale. Speriamo di sbagliarci, ma le avvisaglie sembrano andare in questa direzione.
Leggi la storia sul sito del WSJ o nella newsletter "Guerre di Rete"
La newsletter del 25 giugno di Carola Frediani
In questo numero:
Un testo del sociologo Antonio Casilli che è interventuo alla giornata di dibattito presso il Monk di Roma dal titolo «C’è vita oltre il lavoro», organizzata da Tlon
Angelica, giovane donna di 27 anni, vive a Tambaú, a nord della megalopoli di San Paolo. Il suo lavoro: «addestrare» robot aspirapolvere, piccoli elettrodomestici dotati di telecamere intelligenti che riconoscono e evitano ostacoli. Anche i più inattesi, come gli escrementi degli animali domestici. Angelica è retribuita per scattare foto delle deiezioni del suo cane. Le sue immagini, etichettate e catalogate, vengono pagate solo pochi reais su una delle cinquantaquattro piattaforme di micro-lavoro attive in Brasile. L’esempio di Angelica è tratto dal rapporto Micro-lavoro in Brasile. I lavoratori dietro l’IA? pubblicato il 19 giugno dal centro Latraps (Brasile), in collaborazione con il mio gruppo di ricerca DiPLab (Francia). Per anni, con i miei colleghi e studenti ho condotto inchieste come questa in diciannove paesi in Europa, Africa e America Latina. Alla domanda: «Dove viene prodotta l’intelligenza artificiale?», oggi noi diamo una risposta originale: non nella Silicon Valley o in grandi centri tecnologici dei paesi del Nord. I dati, ingredienti fondamentali dell’IA, vengono prodotti nei paesi emergenti e in via di sviluppo.
Presentazione del libro di Alessandro Delfanti, Il magazzino.
“Amazon si vanta di essere relentless, ovvero implacabile, inarrestabile. È un termine che ricorre con estrema frequenza tanto nella sua storia quanto nei discorsi di Bezos e nelle lettere annuali agli investitori. In un primo momento doveva addirittura essere il nome dell’azienda: ecco perché, se digitate «relentless.com» nel vostro browser, verrete reindirizzati sul sito di Amazon. Ancora oggi Bezos è titolare del dominio.”
La brutale realtà lavorativa dei magazzini di Amazon, fatta di ritmi insostenibili, tattiche antisindacali aggressive e sorveglianza digitale, non è più un mistero, come testimoniato da numerose inchieste giornalistiche. Queste, per quanto necessarie, non restituiscono però la portata storica di quello che sta succedendo nei centri logistici del colosso di Seattle sparsi in mezzo mondo. Oggi sono loro, infatti, gli avamposti del capitalismo, come negli anni Sessanta e Settanta del Novecento lo furono le fabbriche del Nord Italia che alimentarono il boom economico. Ed è proprio tra le mura dei magazzini di Amazon che si sta ridefinendo il nuovo rapporto, conflittuale, tra capitale e lavoro.
Alessandro Delfanti li ha visitati, questi magazzini, e ha intervistato decine di dipendenti ed ex dipendenti. Il racconto che emerge dalle pagine del suo libro diventa l’innesco per una riflessione che arriva al cuore del capitalismo digitale.
Ascolta la trasmissione radiofonica del 21 giugno 2023 sul sito di Radio Blackout.. Se volete andare dritte al punto, ascoltate dal minuto 17:20
Sono ormai mesi che l'Unione Europea è al lavoro sul ritorno delle batterie rimovibili in smartphone e cellulari, possibilità che consentirebbe di allungare la vita utile dei dispositivi e ridurre i rifiuti elettronici.
Un nuovo passo in questa direzione è stato fatto pochi giorni fa, quando il Parlamento Europeo ha approvato - con 587 voti a favore, 9 contrari e 20 astenuti - la revisione delle regole sulle batterie.
All'interno del testo approvato, accanto a varie imposizioni ideate per ridurre le possibilità di inquinamento, è chiaramente elencata l'introduzione dell'obbligo di «progettare le batterie portatili nei dispositivi in maniera tale da consentire agli utenti di rimuoverle e sostituirle da sé con facilità».
Sarà valido fino a fine 2025, e non era scontato visto che piacciono molto al ministro dell'Interno, Matteo Piantedosi
La Camera ha approvato decreto-legge 51 del 2023 che tra le altre cose contiene l’estensione della moratoria sui sistemi di riconoscimento facciale in scadenza alla fine dell’anno. Fino al 31 dicembre 2025, e non più fino al 31 dicembre 2023, le autorità pubbliche e i privati non potranno installare impianti di videosorveglianza con sistemi di riconoscimento facciale in luoghi pubblici e aperti al pubblico. L’emendamento che ha confermato il divieto in scadenza era stato presentato da Marianna Madia, Lia Quartapelle e Filiberto Zaratti del Partito Democratico, e approvato la scorsa settimana in commissione.
La conferma della moratoria non era scontata perché alla fine di aprile il ministro dell’Interno, Matteo Piantedosi, aveva sostenuto la necessità di installare sistemi di riconoscimento facciale nelle stazioni, negli ospedali e nelle zone commerciali delle grandi città per garantire più sicurezza. «La videosorveglianza è uno strumento ormai unanimemente riconosciuto come fondamentale», aveva detto Piantedosi, intervistato dal Quotidiano Nazionale. «La sua progressiva estensione è obiettivo condiviso con tutti i sindaci. Il riconoscimento facciale dà ulteriori e significative possibilità di prevenzione e indagine». L’estensione del divieto fino al 2025 non era scontata anche perché negli ultimi anni molti sindaci, soprattutto di centrodestra, avevano cercato di installare telecamere a riconoscimento facciale: tutti i tentativi fatti finora erano stati bloccati dal Garante della privacy.