Lo stop richiesto dal Garante irlandese dopo la denuncia di una associazione
Meta non lancerà per il momento i suoi modelli di Intelligenza artificiale in Europa dopo che l'autorità irlandese di regolamentazione della privacy ha chiesto di ritardare il suo piano per usare i dati degli utenti di Facebook e Instagram.
La mossa del colosso tecnologico è arrivata dopo le denunce e un appello del gruppo 'Noyb' alle autorità per la protezione dei dati di Austria, Belgio, Francia, Germania, Grecia, Italia, Irlanda, Paesi Bassi, Norvegia, Polonia e Spagna ad agire contro l'azienda.
L'articolo dei ricercatori del Politecnico di Zurigo, disponibile presso Usenix.org, spiega il metodo usato per documentare con i dati quello che molti utenti sospettano da tempo: i ricercatori hanno adoperato il machine learning, una particolare branca dell'intelligenza artificiale, per automatizzare il processo di interazione con queste richieste di cookie dei siti. Questo ha permesso di estendere la ricerca a ben 97.000 siti fra i più popolari, scelti fra quelli che si rivolgono principalmente a utenti dell'Unione Europea, includendo siti scritti in ben undici lingue dell'Unione.
[...]
I risultati, però, sono sconsolanti: oltre il 90% dei siti visitati con il software scritto dai ricercatori contiene almeno una violazione della privacy. Ci sono violazioni particolarmente vistose, come la mancanza totale di un avviso per i cookie nei siti che usano i cookie per la profilazione dei visitatori, che secondo i ricercatori si verifica in quasi un sito su tre, ossia il 32%.
L'organizzazione Human Rights Watch ha lanciato un allarme sui rischi per la privacy dei bambini, le cui foto sono state usate per addestrare l'IA. Le fotografie sono state prese e utilizzate senza consenso per addestrare alcuni strumenti di intelligenza artificiale come alcuni popolari generatori di immagini come Stable Diffusion.
Queste immagini sono state estratte da LAION-5B, un database costruito da snapshot di Common Crawl del web pubblico che racchiude immagini e testi derivati da 5,85 miliardi di immagini e didascalie online dal 2008. Secondo HRW, molte delle identità dei bambini brasiliani erano facilmente rintracciabili poiché i loro nomi e le località erano inclusi nelle didascalie delle immagini utilizzate per costruire il dataset.
Le foto analizzate coprono periodi estesi della vita dei minori, documentando momenti intimi come nascite, compleanni o la quotidianità domestica e scolastica. "I bambini non dovrebbero vivere nella paura che le loro foto possano essere rubate e usate come armi contro di loro", ha detto ancora Hye Jung Han , ricercatrice occupata nella difesa dei diritti dei bambini e della tecnologia presso Human Rights Watch. “Il governo dovrebbe adottare urgentemente politiche per proteggere i dati dei bambini dall’uso improprio alimentato dall’intelligenza artificiale”.
Sulla scia della pandemia, le scuole dell'Unione Europea hanno iniziato a implementare sempre più servizi digitali per l'apprendimento online. Se da un lato questi sforzi di modernizzazione sono uno sviluppo apprezzabile, dall'altro un piccolo numero di grandi aziende tecnologiche ha immediatamente cercato di dominare lo spazio, spesso con l'intenzione di abituare i bambini ai loro sistemi e creare una nuova generazione di futuri clienti "fedeli". Una di queste è Microsoft, i cui servizi 365 Education violano i diritti di protezione dei dati dei bambini. Quando gli studenti vogliono esercitare i loro diritti GDPR, Microsoft afferma che le scuole sono il "responsabile del trattamento" dei loro dati. Tuttavia, le scuole non hanno alcun controllo sui sistemi.
Spostamento di responsabilità tra Big Tech e scuole locali. I fornitori di software come Microsoft hanno un enorme potere di mercato, che consente loro di dettare i termini e le condizioni dei contratti con chiunque voglia utilizzare i loro prodotti. Allo stesso tempo, questi fornitori di software cercano di eludere le responsabilità insistendo sul fatto che quasi tutto ricade sulle autorità locali o sulle scuole. In realtà, nessuno dei due ha il potere di influenzare il modo in cui Microsoft tratta i dati degli utenti. Al contrario, si trovano di fronte a una situazione di "prendere o lasciare" in cui tutto il potere decisionale e i profitti spettano a Microsoft, mentre le scuole devono sopportare la maggior parte dei rischi. Le scuole non hanno alcuna possibilità realistica di negoziare o modificare i termini.
Il Comitato dei Garanti europei (Edpb) ha approvato a larga maggioranza il 17 aprile l’attesa opinione sul modello di business “Pay Or Ok”, che alcune piattaforme hanno adottato negli ultimi mesi. Si tratta dell’opzione offerta all’utente, nel caso in cui questi non voglia essere profilato con pubblicità personalizzata, di poter pagare un prezzo mensile e usufruire del servizio senza vedere pubblicità.
Con grande sorpresa di assolutamente nessuno, l'opinione del Comitato Europeo dei Garanti è che se le piattaforme offrono solo una scelta binaria fra essere profilati e pagare, la scelta non è conforme al GDPR. Un altro chiodo nella bara della pubblicità profilata, e di chiodo in chiodo la seppelliremo. Un barlume di speranza in questi tempi tetri: l'Europa è ancora un posto dove i principi contano qualcosa. Teniamolo a mente.
Ascolta il podcast di "DataKnightmare: L'algoritmico è politico"
Inizio di puntata con la segnalazione di una interessante ricerca di Citizen Lab riguardo alle tastiere per l'inserimento del Cinese che utilizzano funzionalità "cloud": non solo questo tipo di applicazione ha una invasione della privacy intrinseca, ma difetti software facevano sì che i problemi di sicurezza fossero ancora peggiori di quanto si potesse pensare.
Ci spostiamo poi negli Stati Uniti, seguendo le vicende di TikTok (che non sta facendo molto per salvarsi dalle mire del Congresso) nonché Amazon e Google, che da una parte hanno gli occhi dell'antitrust puntati su di loro, dall'altra non pare proprio ci sia un forte interesse governativo ad ostacolarle. Nel frattempo, Amazon prende appunti di autodifesa digitale e utilizza sistemi per la cancellazione delle prove.
La carrellata di notiziole darà grande spazio alla cosiddetta intelligenza artificiale, in particolare approfondendo l'uso dell'intelligenza artificiale per "scoprire" nuovi materiali (o meglio, per brevettarli) e per dotare l'hardware di nuove funzionalità.
Non manchiamo di festeggiare il rilascio in software libero di una delle versioni più buggate di MS-DOS (la 4.0).
Il paese viola tutti gli standard stabiliti dal Gdpr. Le associazioni per i diritti digitali chiedono all’Europa di rivedere la sua decisione
Israele potrà trasferire nel suo paese i dati dei cittadini europei. Come se niente fosse, come non ci fosse un genocidio, come se fosse un paese sicuro dal punto di vista della privacy. Come se sulla sorveglianza di massa non avesse costruito gli strumenti per le stragi a Gaza. La notizia è di qualche tempo fa, ma si è saputa solo ora: la Commissione di Bruxelles ha dato via libera alla possibilità del trasferimento dei dati da e verso Israele. Dati dei cittadini del vecchio continente. Che ora potrebbero essere profilati, controllati, spiati da Tel Aviv.
In Europa, come sanno tutti, la materia è regolata da una serie di leggi, racchiuse nel Gdpr.
"A breve il Comitato Europeo dei Garanti esprimerà la propria decisione incolante sula legittimità del "Pay or OK", che preferisco chiamare "stacce o paga", ossia l'idea che si possa "pagare con i propri dati" un bene o un servizio, proprio come ci chiedono di fare molte testate italiane.
Io vedo due problemi:
Immaginate il padrone di casa che dice "ti installo una webcam nelle doccia, ma se non sei d'accordo puoi pagarmi il doppio dell'affitto".
È una vera scelta? È un consenso libero?"
Nel caso dell'utilizzo di Google Workspace nelle scuole primarie e secondarie inferiori, l'Agenzia danese per la protezione dei dati ritiene che non vi sia una base giuridica che legittimi l'invio dei dati personali a Google per tutti gli scopi per cui vengono attualmente divulgati. Pertanto, l'Agenzia danese per la protezione dei dati emette ora un ordine ai comuni per rendere il trattamento conforme alle norme e indica vari modi per farlo.
Secondo Stefano Quintarelli l’ingiunzione è particolarmente interessante perché prescinde dai trasferimenti transatlantici e dalla normativa USA e dipende esclusivamente dai ToS e dalle Privacy Policy dichiarate da Google.
Google infatti dichiara esplicitamente di utilizzare i dati degli studenti (e dei dipendenti) della propria suite educational per finalità proprie non tecnicamente necessarie all’erogazione del servizio, e tali trattamenti non sono compatibili con il GDPR.”
Cassandra Crossing/ Le false IA commerciali che usiamo oggi sono così ambigue che non si riesce a usarle senza correre continui rischi. Anche quando si parla in confidenza.
Proprio nel giorno di San Valentino, Cassandra si è imbattuta su Gizmodo in un articolo, citato anche da Slashdot, che parlava di evidenti e gravi problemi di privacy presenti negli accordi di licenza dei "chatbot romantici".