L’app di messaggistica Telegram consegnerà alle autorità giudiziarie gli indirizzi IP delle connessioni per risalire all’identità delle persone e i numeri di telefono degli utenti nel caso di procedimenti legali nei loro confronti. Lo ha annunciato il fondatore di Telegram, Pavel Durov, in un post sul proprio canale certificando la capitolazione di fronte alle pressioni delle autorità francesi.
Durov, cittadino russo ma con cittadinanza francese ed emiratina era stato arrestatolo scorso 24 agosto al suo arrivo a Parigi. Accusato, in quanto fondatore insieme al fratello e amministratore delegato di Telegram, di complicità per i traffici illegale, ovvero distribuzione di materiale pedopornografico, droghe illegali e software di hacking, che si appoggiano alla piattaforma. Durov è stato poi rimesso in libertà sotto cauzione con il divieto di lasciare il territorio francese e l’obbligo di presentarsi due volte alla settimana alla polizia. Un precedente che molto aveva fatto discutere.
L'azienda Cox Media Group afferma di ascoltare le conversazioni degli utenti tramite smartphone e altri dispositivi per proporre annunci personalizzati.
I telefoni ci ascoltano, ci spiano: è qualcosa che si sente dire da tempo e che secondo l’azienda Cox Media Group (CMG) è vero. In questo caso però non si tratta di un report o di una ricerca che cerca di sostenere la tesi, bensì della strategia di marketing di CMG, che afferma di poter “origliare” le conversazioni tramite i microfoni di smartphone, tablet, smart TV e altri dispositivi.
CMG la chiama “Active Listening” e secondo i materiali marketing, esaminati da 404 Media, promette di analizzare le conversazioni in tempo reale per trovare potenziali clienti. CMG afferma che questo servizio è già disponibile: le aziende che decideranno di sfruttarlo potranno scegliere un territorio entro un raggio di 10 o 20 miglia, dove Active Listening ascolterà le conversazioni sfruttando i microfoni dei dispositivi.
Vinted, la nota piattaforma online di abbigliamento di seconda mano con oltre 100 milioni di utenti in tutto il mondo avrebbe violato il Gdpr, e per questo è stata condannata a pagare una multa di € 2.385.276.
Le autorità avevano denunciato delle “difficoltà incontrate da parte degli interessati nell’esercizio del loro diritto alla cancellazione dei dati", a cui Vinted avrebbe omesso di dare seguito senza fornire specifiche motivazioni, e senza chiarire perché in certi ambiti il trattamento dei dati degli utenti sarebbe proseguito anche dopo la loro richiesta di cancellazione.
In Italia Vinted era stata già sanzionata nel 2022 dall’Antitrust con una multa di 1,5 milioni di euro per aver dato informazioni “ingannevoli e scorrette” agli utenti.
Lo stop richiesto dal Garante irlandese dopo la denuncia di una associazione
Meta non lancerà per il momento i suoi modelli di Intelligenza artificiale in Europa dopo che l'autorità irlandese di regolamentazione della privacy ha chiesto di ritardare il suo piano per usare i dati degli utenti di Facebook e Instagram.
La mossa del colosso tecnologico è arrivata dopo le denunce e un appello del gruppo 'Noyb' alle autorità per la protezione dei dati di Austria, Belgio, Francia, Germania, Grecia, Italia, Irlanda, Paesi Bassi, Norvegia, Polonia e Spagna ad agire contro l'azienda.
L'articolo dei ricercatori del Politecnico di Zurigo, disponibile presso Usenix.org, spiega il metodo usato per documentare con i dati quello che molti utenti sospettano da tempo: i ricercatori hanno adoperato il machine learning, una particolare branca dell'intelligenza artificiale, per automatizzare il processo di interazione con queste richieste di cookie dei siti. Questo ha permesso di estendere la ricerca a ben 97.000 siti fra i più popolari, scelti fra quelli che si rivolgono principalmente a utenti dell'Unione Europea, includendo siti scritti in ben undici lingue dell'Unione.
[...]
I risultati, però, sono sconsolanti: oltre il 90% dei siti visitati con il software scritto dai ricercatori contiene almeno una violazione della privacy. Ci sono violazioni particolarmente vistose, come la mancanza totale di un avviso per i cookie nei siti che usano i cookie per la profilazione dei visitatori, che secondo i ricercatori si verifica in quasi un sito su tre, ossia il 32%.
L'organizzazione Human Rights Watch ha lanciato un allarme sui rischi per la privacy dei bambini, le cui foto sono state usate per addestrare l'IA. Le fotografie sono state prese e utilizzate senza consenso per addestrare alcuni strumenti di intelligenza artificiale come alcuni popolari generatori di immagini come Stable Diffusion.
Queste immagini sono state estratte da LAION-5B, un database costruito da snapshot di Common Crawl del web pubblico che racchiude immagini e testi derivati da 5,85 miliardi di immagini e didascalie online dal 2008. Secondo HRW, molte delle identità dei bambini brasiliani erano facilmente rintracciabili poiché i loro nomi e le località erano inclusi nelle didascalie delle immagini utilizzate per costruire il dataset.
Le foto analizzate coprono periodi estesi della vita dei minori, documentando momenti intimi come nascite, compleanni o la quotidianità domestica e scolastica. "I bambini non dovrebbero vivere nella paura che le loro foto possano essere rubate e usate come armi contro di loro", ha detto ancora Hye Jung Han , ricercatrice occupata nella difesa dei diritti dei bambini e della tecnologia presso Human Rights Watch. “Il governo dovrebbe adottare urgentemente politiche per proteggere i dati dei bambini dall’uso improprio alimentato dall’intelligenza artificiale”.
Sulla scia della pandemia, le scuole dell'Unione Europea hanno iniziato a implementare sempre più servizi digitali per l'apprendimento online. Se da un lato questi sforzi di modernizzazione sono uno sviluppo apprezzabile, dall'altro un piccolo numero di grandi aziende tecnologiche ha immediatamente cercato di dominare lo spazio, spesso con l'intenzione di abituare i bambini ai loro sistemi e creare una nuova generazione di futuri clienti "fedeli". Una di queste è Microsoft, i cui servizi 365 Education violano i diritti di protezione dei dati dei bambini. Quando gli studenti vogliono esercitare i loro diritti GDPR, Microsoft afferma che le scuole sono il "responsabile del trattamento" dei loro dati. Tuttavia, le scuole non hanno alcun controllo sui sistemi.
Spostamento di responsabilità tra Big Tech e scuole locali. I fornitori di software come Microsoft hanno un enorme potere di mercato, che consente loro di dettare i termini e le condizioni dei contratti con chiunque voglia utilizzare i loro prodotti. Allo stesso tempo, questi fornitori di software cercano di eludere le responsabilità insistendo sul fatto che quasi tutto ricade sulle autorità locali o sulle scuole. In realtà, nessuno dei due ha il potere di influenzare il modo in cui Microsoft tratta i dati degli utenti. Al contrario, si trovano di fronte a una situazione di "prendere o lasciare" in cui tutto il potere decisionale e i profitti spettano a Microsoft, mentre le scuole devono sopportare la maggior parte dei rischi. Le scuole non hanno alcuna possibilità realistica di negoziare o modificare i termini.
Il Comitato dei Garanti europei (Edpb) ha approvato a larga maggioranza il 17 aprile l’attesa opinione sul modello di business “Pay Or Ok”, che alcune piattaforme hanno adottato negli ultimi mesi. Si tratta dell’opzione offerta all’utente, nel caso in cui questi non voglia essere profilato con pubblicità personalizzata, di poter pagare un prezzo mensile e usufruire del servizio senza vedere pubblicità.
Con grande sorpresa di assolutamente nessuno, l'opinione del Comitato Europeo dei Garanti è che se le piattaforme offrono solo una scelta binaria fra essere profilati e pagare, la scelta non è conforme al GDPR. Un altro chiodo nella bara della pubblicità profilata, e di chiodo in chiodo la seppelliremo. Un barlume di speranza in questi tempi tetri: l'Europa è ancora un posto dove i principi contano qualcosa. Teniamolo a mente.
Ascolta il podcast di "DataKnightmare: L'algoritmico è politico"
Inizio di puntata con la segnalazione di una interessante ricerca di Citizen Lab riguardo alle tastiere per l'inserimento del Cinese che utilizzano funzionalità "cloud": non solo questo tipo di applicazione ha una invasione della privacy intrinseca, ma difetti software facevano sì che i problemi di sicurezza fossero ancora peggiori di quanto si potesse pensare.
Ci spostiamo poi negli Stati Uniti, seguendo le vicende di TikTok (che non sta facendo molto per salvarsi dalle mire del Congresso) nonché Amazon e Google, che da una parte hanno gli occhi dell'antitrust puntati su di loro, dall'altra non pare proprio ci sia un forte interesse governativo ad ostacolarle. Nel frattempo, Amazon prende appunti di autodifesa digitale e utilizza sistemi per la cancellazione delle prove.
La carrellata di notiziole darà grande spazio alla cosiddetta intelligenza artificiale, in particolare approfondendo l'uso dell'intelligenza artificiale per "scoprire" nuovi materiali (o meglio, per brevettarli) e per dotare l'hardware di nuove funzionalità.
Non manchiamo di festeggiare il rilascio in software libero di una delle versioni più buggate di MS-DOS (la 4.0).
Il paese viola tutti gli standard stabiliti dal Gdpr. Le associazioni per i diritti digitali chiedono all’Europa di rivedere la sua decisione
Israele potrà trasferire nel suo paese i dati dei cittadini europei. Come se niente fosse, come non ci fosse un genocidio, come se fosse un paese sicuro dal punto di vista della privacy. Come se sulla sorveglianza di massa non avesse costruito gli strumenti per le stragi a Gaza. La notizia è di qualche tempo fa, ma si è saputa solo ora: la Commissione di Bruxelles ha dato via libera alla possibilità del trasferimento dei dati da e verso Israele. Dati dei cittadini del vecchio continente. Che ora potrebbero essere profilati, controllati, spiati da Tel Aviv.
In Europa, come sanno tutti, la materia è regolata da una serie di leggi, racchiuse nel Gdpr.