Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Lunga puntata dedicata ad un racconto, attraverso molti report di 7amleh - centro di ricerca arabo sui social media - e non solo, dell'uso della tecnologia da parte di Israele come strumento di oppressione e di genocidio.

Il primo frammento di audio è dedicato al tema della distruzione dell'infrastruttura di rete; e alle difficoltà di comunicazione delle persone palestinesi in un contesto di censura che, in più, richiede a chi subisce un genocidio di performare il ruolo della vittima nei modi richiesti dai social media.

Proseguiamo con una rassegna delle tecnologie militari che non sarebbero possibili senza il coinvolgimento delle solite grandi imprese.

Infine, risultati delle campagne di boicottaggio e lotte per fermare i rapporti tra queste aziende e Israele.

Ascolta l'audio nel sito di Radio Onda Rossa

Presentato durante il DIG Festival di Modena, racconta l'inquietante dietro le quinte di chi sostiene interi sistemi tecnologici. Ne abbiamo parlato con il regista, Henri Poulain

L’intelligenza artificiale occupa uno spazio sempre maggiore nel dibattito contemporaneo. Soprattutto al cinema dove è diventato il prisma attraverso cui si riflettono le nostre paure, le nostre speranze e le domande più radicali sull’identità umana, sul controllo della tecnologia e sul futuro della società. L’AI è diventata un vero campo di battaglia politico e sociale, dove si incontrano, e si scontrano, questioni economiche, ambientali e legate ai diritti dei lavoratori. Ancora una volta è il cinema a investigare questo rapporto complesso, mostrando cosa si nasconde dietro dati, cloud e reti digitali, grazie al prezioso documentario In the Belly of AI, diretto da Henri Poulain, presentato durante il DIG Festival di Modena.

Un’opera che smonta l’illusione di un’intelligenza artificiale immateriale e trascendente, rivelando invece quale prezzo paghiamo quotidianamente per sostenere interi sistemi tecnologici, infrastrutture che consumano e dilapidano energia, risorse naturali e vite umane. In the Belly of AI parte proprio da questo per raccontare la vita lavorativa dei data worker che, secondo un rapporto della World Bank pubblicato lo scorso anno, si stima che nel mondo siano tra i 150 e i 430 milioni, e che il loro numero sia cresciuto in modo esponenziale nell’ultimo decennio.

Leggi l'articolo

Domenica 5 ottobre alle ore 16,30 C.I.R.C.E. condurrà il laboratorio di Pedagogia Hacker "Giocare o essere giocati" all'interno del Festival Interferenze Costruttive a Roma.

Molti videogiochi catturano la nostra attenzione al punto da creare forme di abitudine e assuefazione costruite magistralmente sulle vulnerabilità comuni a tutti gli umani. In maniera analoga siamo chiamati a partecipare e a contribuire instancabilmente alle “comunità” digitali, costruite seguendo tecniche di gamificazione.

Su Instagram, TikTok, Facebook, ogni esperienza di interazione sociale si trasforma in una complicata gara, con un sacco di punti e classifiche, livelli e campioni. Conosciamo per esperienza diretta le regole di questi “giochi”: se ci comportiamo bene, otteniamo molti “like”, strike, notifiche, cioè caramelle sintetiche per i nostri cervelli (sotto forma di dopamina); se siamo scarsi rimaniamo a bocca asciutta. Di certo, “vincere” non è mai abbastanza: dobbiamo sempre lavorare di più, perché il “gioco” non finisce mai…

Durante questo laboratorio analizzeremo le interfacce dei social media per osservare come ci fanno sentire, ragioneremo sulla differenza tra social media e social network. Metteremo le mani in pasta per scoprire strumenti FLOSS progettati per fare rete a partire dai desideri di comunità reali.

3-4-5 ottobre 2025: prima edizione del festival culturale di Radio Onda Rossa "Interferenze Costruttive" presso il CSOA La Torre, a via Bertero 13, Roma.

Per conoscere il programma delle tre giornate visitare il sito di radio onda rossa

L’azienda Usa è privata ma lavora per i governi.
Il potere, militare e non, oggi parla in codice. Palantir, la società fondata vent’anni fa a Palo Alto, è diventata la piattaforma che governi e eserciti usano per mettere ordine nel caos dei dati. Non produce armamenti, ma costruisce il software che li guida, nelle missioni e nelle decisioni. Ma soprattutto è lo strumento attraverso cui Peter Thiel, imprenditore e investitore, allarga la sua influenza sulla politica di Washington e sulla nuova amministrazione Trump.

Un unicum diventato imprescindibile per ogni esercito. I prodotti principali di Palantir hanno nomi evocativi, funzionali per far comprendere in fretta la loro utilità marginale. Gotham, usato da intelligence e forze armate, integra basi dati classificate e scenari operativi. Foundry, pensato per imprese e amministrazioni civili, costruisce copie digitali dei processi per ottimizzare logistica, forniture, ospedali. Apollo gestisce la distribuzione del software anche su reti isolate e ambienti critici. L’ultima evoluzione è AIP, la piattaforma che incapsula modelli di intelligenza artificiale nei contesti più sensibili, evitando fughe di dati e garantendo tracciabilità. L’obiettivo è ridurre la distanza tra analisi e decisione, riducendo i rischi collaterali.

Leggi l'articolo

L'intervento a Radio Onda Rossa di un collaboratore di C.I.R.C.E. a proposito dell'uso dell'intelligenza artificiale nella scuola a partire dalle linee guida recentemente emanate dal Ministero dell'Istruzione evidenziandone contraddizioni, limiti e speculazioni e sottolineando l'ennesimo trasferimento di fondi pubblici ai privati, i soliti big tech.

Molto in sistesi: l'Intelligenza Artificiale delle multinazionali tecnologiche, in particolare i Large Language Model, non andrebbe usata perché è insostenibile dal punto di vista ambientale, replica discriminazioni e stereotipi della società, standardizza scrittura e pensiero.

Ascolta l'audio dell'intervento

Seconda parte del bignamino di Quatrociocchi sugli LLM spiegati senza supercazzole.

Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente.

Riporto di seguito i concetti. L'originale si può leggere su Linkedin

Walter Quattrociocchi ha pubblicato un bignamino di concetti base degli LLM. (ovvero: capire in 90 secondi un LLM e sembrare competenti a cena senza coprire l’abisso delle proprie lacune con il pensiero circolare e le supercazzole pop-filosofiche sull’etica dei termosifoni col cimurro)

Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente.

Riporto di seguito i concetti. L'originale si può leggere su Linkedin

L’Europa continua a confondere addestramento con cultura digitale. La colonizzazione tecnologica americana prosegue indisturbata, mentre di sovranità non resta che qualche slogan buono per i convegni

Ci stiamo avvicinando a passi da gigante a quella che Gibson chiama “la singolarità dell’idiozia“, in inglese Singularity of Stupid. Da una parte ci sono quelli che vogliono menare i russi trent’anni dopo il crollo dell’Unione Sovietica, e dall’altra ci sono gli Stati Uniti che non sanno decidere se preferiscono una dittatura o una guerra civile, con una crescente possibilità di ottenere entrambe.

In mezzo, c’è una dozzina di tipi oscenamente ricchi e fantasticamente stupidi, che si diverte a bruciare centinaia di miliardi in un culto millenaristico chiamato Intelligenza Artificiale.

E poi ci siamo noi delle colonie, sempre pronti a correre dietro all’ultima moda che viene da oltreoceano.

Tra i temi affrontati da Vannini nell'articolo, segnaliamo:

  • ChatControl: quando la sicurezza minaccia la privacy
  • L’illusione della sicurezza senza privacy
  • Il grande errore del cloud computing
  • L’America di Trump: una nuova realtà geopolitica
  • L’assenza di sistemi operativi europei
  • L’addestramento mascherato da digitalizzazione
  • L’illusione dell’intelligenza artificiale

Leggi l'articolo completo

Oppure ascolta il podcast

I problemi delle linee guida per l’adozione dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione: tra clamorose assenze, contraddizioni e ossimori. L’ennesima riforma calata dall’alto. Ma un’altra strada è possibile

Al rientro a scuola, studenti, famiglie e docenti hanno trovato l’ennesima sorpresa: un dettagliato libriccino contenente le linee guida per una rapida adozione – naturalmente consapevole, responsabile e senza ulteriori oneri a carico del bilancio – dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione.

A una prima analisi, le linee guida sembrano proseguire nella spinta verso l'adozione di tecnologie digitali non facilmente controllabili dagli attori della scuola, con un forte rischio che si riproponga lo scenario già visto con i progetti PNRR Scuola 4.0: una corsa a spendere fondi per introdurre hardware e software, senza possibilità di scelta consapevole da parte delle scuole, terminata in un sostanziale trasferimento di fondi pubblici al privato. L'enfasi sull'innovazione tecnologica e sulla transizione digitale delle scuole raramente tiene conto delle esigenze didattiche della comunità scolastica, per puntare l'obiettivo su un mero accumulo di tecnologie che si rivelano ingestibili dalle scuole, vuoi per incapacità, vuoi perché le tecnologie adottate sono spesso opache, o anche perché delegate completamente a imprese private. 

L'articolo di Mazzoneschi e Barale (C.I.R.C.E.) è uscito nel quotidiano Domani.

Qui per leggere la versione integrale

Vivere le tecnologie come se fossero qualcosa che cade dall’alto ci rende passivi e ci limita a considerare “cosa fanno” senza concentrarci sul “perché lo fanno”. È il tema centrale del libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, scritto dal ricercatore americano Jathan Sadowski, i cui studi si concentrano sulle dinamiche di potere e profitto connesse all’innovazione tecnologica.

“Le nuove tecnologie possono catturare quantità di dati così vaste da risultare incomprensibili, ma quei dati sul mondo resteranno sempre incompleti. Nessun sensore o sistema di scraping può assorbire e registrare dati su tutto. Ogni sensore, invece, è progettato per raccogliere dati su aspetti iper-specifici. Ciò può sembrare banale, come un termometro che può restituire un numero sulla temperatura, ma non può dirti che cosa si provi davvero con quel clima. Oppure può essere più significativo, come un algoritmo di riconoscimento facciale che può identificare la geometria di un volto, ma non può cogliere l’umanità soggettiva e il contesto sociale della persona. I dati non potranno mai rappresentare ogni fibra dell’essere di un individuo, né rendere conto di ogni sfumatura della sua vita complessa.

Ma non è questo lo scopo né il valore dei dati. Il punto è trasformare soggetti umani integrati in oggetti di dati frammentati. Infatti, ci sono sistemi che hanno l’obiettivo di conoscerci in modo inquietante e invasivo, di assemblare questi dati e usarli per alimentare algoritmi di targeting iper-personalizzati. Se questi sistemi non stanno cercando di comporre un nostro profilo completo e accurato possibile, allora qual è lo scopo?

Ecco però un punto importante: chi estrae dati non si interessa a noi come individui isolati, ma come collettivi relazionali. I nostri modi di pensare la raccolta e l’analisi dei dati tendono a basarsi su idee molto dirette e individualistiche di sorveglianza e informazione.

Ma oggi dobbiamo aggiornare il nostro modo di pensare la datificazione – e le possibili forme di intervento sociopolitico in questi sistemi guidati dai dati – per includere ciò che la giurista Salomé Viljoen chiama ‘relazioni “orizzontali’, che non si collocano a livello individuale, ma a scala di popolazione. Si tratta di flussi di dati che collegano molte persone, scorrono attraverso le reti in modi tali che le fonti, i raccoglitori, gli utilizzatori e le conseguenze dei dati si mescolano in forme impossibili da tracciare se continuiamo a ragionare in termini di relazioni più dirette e individualistiche.

Leggi l'intervista completa , che ha molti altri spunti interessanti, sul sito di Guerre di rete