E se il potere del capitalismo della sorveglianza fosse sopravvalutato?
Se la vera minaccia per i diritti e la privacy di ciascuno di noi fosse molto più a valle e la tecnologia c’entrasse solo fino a un certo punto? Prima di tutto, facciamo un passo indietro: con “capitalismo della sorveglianza” – termine reso celebre dalla sociologa Shoshana Zuboff tramite il suo omonimo saggio, pubblicato in Italia da Luiss University Press – si intende quel sistema tecnologico che permette di estrarre dati relativi alle azioni che compiamo sui vari social network, motori di ricerca, piattaforme di streaming, siti di e-commerce e molto altro.
Secondo Corey Doctorow, Zuboff attribuisce un peso eccessivo e ingiustificato al potere di persuasione delle tecniche di influenza basate sulla sorveglianza dei cittadini”. “La maggior parte di queste tecniche non funziona granché bene, e quelle che funzionano non durano a lungo. Al contrario, Zuboff è piuttosto serena riguardo a quarant’anni di pratiche antitrust permissive che hanno consentito a una manciata di aziende di dominare internet”.
TECNOLOGIE DEL POTERE E TECNOLOGIE CONVIVIALI. NON DIPENDE (SOLO) DA TE. Il 25 giugno 2024 alle 19 presso Vivero, luogo di quartiere a via Antonio Raimondi 37, Roma (zona pigneto)
All'interno di un ciclo di 3 appuntamenti, si svolgerà l'incontro "Tecnologie del potere e tecnologie conviviali. Non dipende (solo) da te"
Israele ha utilizzato gli algoritmi cosiddetti di Intelligenza Artificiale per selezionare e localizzare le persone da colpire deresponsabilizzando le scelte degli umani.
Quali sono le relazioni tra l'apparato militare e l'industria del digitale?
E' possibile utilizzare le tecnologie digitali delle Big tech per fini diversi da quelli per cui sono state progettate?
Esistono tecnologie conviviali progettate per un uso sociale e comunitario?
Parliamo di Lavender e degli alberi della rete a Gaza con Dario Guarascio, docente di Economia e Diritto presso l’Università degli Studi La Sapienza di Roma, Manolo Lupichini e Graffio

Lo stop richiesto dal Garante irlandese dopo la denuncia di una associazione
Meta non lancerà per il momento i suoi modelli di Intelligenza artificiale in Europa dopo che l'autorità irlandese di regolamentazione della privacy ha chiesto di ritardare il suo piano per usare i dati degli utenti di Facebook e Instagram.
La mossa del colosso tecnologico è arrivata dopo le denunce e un appello del gruppo 'Noyb' alle autorità per la protezione dei dati di Austria, Belgio, Francia, Germania, Grecia, Italia, Irlanda, Paesi Bassi, Norvegia, Polonia e Spagna ad agire contro l'azienda.
In questo numero della newsletter Guerre di rete:
L'articolo dei ricercatori del Politecnico di Zurigo, disponibile presso Usenix.org, spiega il metodo usato per documentare con i dati quello che molti utenti sospettano da tempo: i ricercatori hanno adoperato il machine learning, una particolare branca dell'intelligenza artificiale, per automatizzare il processo di interazione con queste richieste di cookie dei siti. Questo ha permesso di estendere la ricerca a ben 97.000 siti fra i più popolari, scelti fra quelli che si rivolgono principalmente a utenti dell'Unione Europea, includendo siti scritti in ben undici lingue dell'Unione.
[...]
I risultati, però, sono sconsolanti: oltre il 90% dei siti visitati con il software scritto dai ricercatori contiene almeno una violazione della privacy. Ci sono violazioni particolarmente vistose, come la mancanza totale di un avviso per i cookie nei siti che usano i cookie per la profilazione dei visitatori, che secondo i ricercatori si verifica in quasi un sito su tre, ossia il 32%.
Disinvestimenti e crisi economica. 20% di posti di lavoro che l’industria hi-tech israeliana e le start-up temono di perdere per la fuga all’estero dei dipendenti attuali. 28mila professionisti dell’hi-tech israeliano che hanno prestato servizio come riservisti dal 7 ottobre a fine gennaio. A febbraio il numero è sceso a 12mila
La partnership con la Intel è sempre stata strettissima. E le autorità israeliane spesso sottolineano quanto la collaborazione con l’azienda americana – il più grande datore di lavoro tecnologico in Israele – sia un’altra evidente dimostrazione dei livelli di vertice raggiunti dallo Stato ebraico nell’hi-tech. Così quando nei giorni scorsi i fornitori hanno ricevuto la comunicazione della risoluzione dei contratti relativi alla costruzione del nuovo stabilimento della Intel in Israele, un progetto annunciato appena qualche mese fa, la notizia ha fatto in pochi attimi il giro del mondo.
Il 13 giugno Webinar del Gruppo di studio sulle tecnologie dell’informazione nelle biblioteche e biblioteche digitali (TBID) dedicato al software libero e open source.
Il Gruppo di studio sulle tecnologie dell’informazione nelle biblioteche e biblioteche digitali (TBID) vi invita al webinar dedicato al tema software libero e open source.
Tutte le info sul sito dell'Associazione Italiana Biblioteche
L'organizzazione Human Rights Watch ha lanciato un allarme sui rischi per la privacy dei bambini, le cui foto sono state usate per addestrare l'IA. Le fotografie sono state prese e utilizzate senza consenso per addestrare alcuni strumenti di intelligenza artificiale come alcuni popolari generatori di immagini come Stable Diffusion.
Queste immagini sono state estratte da LAION-5B, un database costruito da snapshot di Common Crawl del web pubblico che racchiude immagini e testi derivati da 5,85 miliardi di immagini e didascalie online dal 2008. Secondo HRW, molte delle identità dei bambini brasiliani erano facilmente rintracciabili poiché i loro nomi e le località erano inclusi nelle didascalie delle immagini utilizzate per costruire il dataset.
Le foto analizzate coprono periodi estesi della vita dei minori, documentando momenti intimi come nascite, compleanni o la quotidianità domestica e scolastica. "I bambini non dovrebbero vivere nella paura che le loro foto possano essere rubate e usate come armi contro di loro", ha detto ancora Hye Jung Han , ricercatrice occupata nella difesa dei diritti dei bambini e della tecnologia presso Human Rights Watch. “Il governo dovrebbe adottare urgentemente politiche per proteggere i dati dei bambini dall’uso improprio alimentato dall’intelligenza artificiale”.
Cassandra Crossing/ Quanto è probabile un collasso totale di Internet? E magari non solo di Internet. Perché diavolo la situazione non è migliorata dagli anni '90?
Gli anni '90 erano ancora una novità quando una allora inesperta Cassandra lesse un articolo molto interessante sulla fragilità dell'infrastruttura tecnologica di Internet.
L'articolo in effetti non distingueva tra fragilità e inaffidabilità, confondendo i due termini, che sono in realtà diversi. Ma andiamo con ordine. Si narrava del «Nodo più importante di Internet», oggi lo chiameremmo un MIX; cioè un punto in cui i vari provider di connettività geografica (non di connessioni ultimo miglio) avevano trovato conveniente installare un loro router, connesso con tutti gli altri, in modo da smistare con la massima efficienza i pacchetti da un provider all'altro.
Sulla scia della pandemia, le scuole dell'Unione Europea hanno iniziato a implementare sempre più servizi digitali per l'apprendimento online. Se da un lato questi sforzi di modernizzazione sono uno sviluppo apprezzabile, dall'altro un piccolo numero di grandi aziende tecnologiche ha immediatamente cercato di dominare lo spazio, spesso con l'intenzione di abituare i bambini ai loro sistemi e creare una nuova generazione di futuri clienti "fedeli". Una di queste è Microsoft, i cui servizi 365 Education violano i diritti di protezione dei dati dei bambini. Quando gli studenti vogliono esercitare i loro diritti GDPR, Microsoft afferma che le scuole sono il "responsabile del trattamento" dei loro dati. Tuttavia, le scuole non hanno alcun controllo sui sistemi.
Spostamento di responsabilità tra Big Tech e scuole locali. I fornitori di software come Microsoft hanno un enorme potere di mercato, che consente loro di dettare i termini e le condizioni dei contratti con chiunque voglia utilizzare i loro prodotti. Allo stesso tempo, questi fornitori di software cercano di eludere le responsabilità insistendo sul fatto che quasi tutto ricade sulle autorità locali o sulle scuole. In realtà, nessuno dei due ha il potere di influenzare il modo in cui Microsoft tratta i dati degli utenti. Al contrario, si trovano di fronte a una situazione di "prendere o lasciare" in cui tutto il potere decisionale e i profitti spettano a Microsoft, mentre le scuole devono sopportare la maggior parte dei rischi. Le scuole non hanno alcuna possibilità realistica di negoziare o modificare i termini.