Domenica 5 ottobre alle ore 16,30 C.I.R.C.E. condurrà il laboratorio di Pedagogia Hacker "Giocare o essere giocati" all'interno del Festival Interferenze Costruttive a Roma.
Molti videogiochi catturano la nostra attenzione al punto da creare forme di abitudine e assuefazione costruite magistralmente sulle vulnerabilità comuni a tutti gli umani. In maniera analoga siamo chiamati a partecipare e a contribuire instancabilmente alle “comunità” digitali, costruite seguendo tecniche di gamificazione.
Su Instagram, TikTok, Facebook, ogni esperienza di interazione sociale si trasforma in una complicata gara, con un sacco di punti e classifiche, livelli e campioni. Conosciamo per esperienza diretta le regole di questi “giochi”: se ci comportiamo bene, otteniamo molti “like”, strike, notifiche, cioè caramelle sintetiche per i nostri cervelli (sotto forma di dopamina); se siamo scarsi rimaniamo a bocca asciutta. Di certo, “vincere” non è mai abbastanza: dobbiamo sempre lavorare di più, perché il “gioco” non finisce mai…
Durante questo laboratorio analizzeremo le interfacce dei social media per osservare come ci fanno sentire, ragioneremo sulla differenza tra social media e social network. Metteremo le mani in pasta per scoprire strumenti FLOSS progettati per fare rete a partire dai desideri di comunità reali.
3-4-5 ottobre 2025: prima edizione del festival culturale di Radio Onda Rossa "Interferenze Costruttive" presso il CSOA La Torre, a via Bertero 13, Roma.
Per conoscere il programma delle tre giornate visitare il sito di radio onda rossa
L’azienda Usa è privata ma lavora per i governi.
Il potere, militare e non, oggi parla in codice. Palantir, la società fondata vent’anni fa a Palo Alto, è diventata la piattaforma che governi e eserciti usano per mettere ordine nel caos dei dati. Non produce armamenti, ma costruisce il software che li guida, nelle missioni e nelle decisioni. Ma soprattutto è lo strumento attraverso cui Peter Thiel, imprenditore e investitore, allarga la sua influenza sulla politica di Washington e sulla nuova amministrazione Trump.
Un unicum diventato imprescindibile per ogni esercito. I prodotti principali di Palantir hanno nomi evocativi, funzionali per far comprendere in fretta la loro utilità marginale. Gotham, usato da intelligence e forze armate, integra basi dati classificate e scenari operativi. Foundry, pensato per imprese e amministrazioni civili, costruisce copie digitali dei processi per ottimizzare logistica, forniture, ospedali. Apollo gestisce la distribuzione del software anche su reti isolate e ambienti critici. L’ultima evoluzione è AIP, la piattaforma che incapsula modelli di intelligenza artificiale nei contesti più sensibili, evitando fughe di dati e garantendo tracciabilità. L’obiettivo è ridurre la distanza tra analisi e decisione, riducendo i rischi collaterali.
L'intervento a Radio Onda Rossa di un collaboratore di C.I.R.C.E. a proposito dell'uso dell'intelligenza artificiale nella scuola a partire dalle linee guida recentemente emanate dal Ministero dell'Istruzione evidenziandone contraddizioni, limiti e speculazioni e sottolineando l'ennesimo trasferimento di fondi pubblici ai privati, i soliti big tech.
Molto in sistesi: l'Intelligenza Artificiale delle multinazionali tecnologiche, in particolare i Large Language Model, non andrebbe usata perché è insostenibile dal punto di vista ambientale, replica discriminazioni e stereotipi della società, standardizza scrittura e pensiero.
Seconda parte del bignamino di Quatrociocchi sugli LLM spiegati senza supercazzole.
Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente.
Riporto di seguito i concetti. L'originale si può leggere su Linkedin
Walter Quattrociocchi ha pubblicato un bignamino di concetti base degli LLM. (ovvero: capire in 90 secondi un LLM e sembrare competenti a cena senza coprire l’abisso delle proprie lacune con il pensiero circolare e le supercazzole pop-filosofiche sull’etica dei termosifoni col cimurro)
Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente.
Riporto di seguito i concetti. L'originale si può leggere su Linkedin
L’Europa continua a confondere addestramento con cultura digitale. La colonizzazione tecnologica americana prosegue indisturbata, mentre di sovranità non resta che qualche slogan buono per i convegni
Ci stiamo avvicinando a passi da gigante a quella che Gibson chiama “la singolarità dell’idiozia“, in inglese Singularity of Stupid. Da una parte ci sono quelli che vogliono menare i russi trent’anni dopo il crollo dell’Unione Sovietica, e dall’altra ci sono gli Stati Uniti che non sanno decidere se preferiscono una dittatura o una guerra civile, con una crescente possibilità di ottenere entrambe.
In mezzo, c’è una dozzina di tipi oscenamente ricchi e fantasticamente stupidi, che si diverte a bruciare centinaia di miliardi in un culto millenaristico chiamato Intelligenza Artificiale.
E poi ci siamo noi delle colonie, sempre pronti a correre dietro all’ultima moda che viene da oltreoceano.
Tra i temi affrontati da Vannini nell'articolo, segnaliamo:
I problemi delle linee guida per l’adozione dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione: tra clamorose assenze, contraddizioni e ossimori. L’ennesima riforma calata dall’alto. Ma un’altra strada è possibile
Al rientro a scuola, studenti, famiglie e docenti hanno trovato l’ennesima sorpresa: un dettagliato libriccino contenente le linee guida per una rapida adozione – naturalmente consapevole, responsabile e senza ulteriori oneri a carico del bilancio – dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione.
A una prima analisi, le linee guida sembrano proseguire nella spinta verso l'adozione di tecnologie digitali non facilmente controllabili dagli attori della scuola, con un forte rischio che si riproponga lo scenario già visto con i progetti PNRR Scuola 4.0: una corsa a spendere fondi per introdurre hardware e software, senza possibilità di scelta consapevole da parte delle scuole, terminata in un sostanziale trasferimento di fondi pubblici al privato. L'enfasi sull'innovazione tecnologica e sulla transizione digitale delle scuole raramente tiene conto delle esigenze didattiche della comunità scolastica, per puntare l'obiettivo su un mero accumulo di tecnologie che si rivelano ingestibili dalle scuole, vuoi per incapacità, vuoi perché le tecnologie adottate sono spesso opache, o anche perché delegate completamente a imprese private.
L'articolo di Mazzoneschi e Barale (C.I.R.C.E.) è uscito nel quotidiano Domani.
Vivere le tecnologie come se fossero qualcosa che cade dall’alto ci rende passivi e ci limita a considerare “cosa fanno” senza concentrarci sul “perché lo fanno”. È il tema centrale del libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, scritto dal ricercatore americano Jathan Sadowski, i cui studi si concentrano sulle dinamiche di potere e profitto connesse all’innovazione tecnologica.
“Le nuove tecnologie possono catturare quantità di dati così vaste da risultare incomprensibili, ma quei dati sul mondo resteranno sempre incompleti. Nessun sensore o sistema di scraping può assorbire e registrare dati su tutto. Ogni sensore, invece, è progettato per raccogliere dati su aspetti iper-specifici. Ciò può sembrare banale, come un termometro che può restituire un numero sulla temperatura, ma non può dirti che cosa si provi davvero con quel clima. Oppure può essere più significativo, come un algoritmo di riconoscimento facciale che può identificare la geometria di un volto, ma non può cogliere l’umanità soggettiva e il contesto sociale della persona. I dati non potranno mai rappresentare ogni fibra dell’essere di un individuo, né rendere conto di ogni sfumatura della sua vita complessa.
Ma non è questo lo scopo né il valore dei dati. Il punto è trasformare soggetti umani integrati in oggetti di dati frammentati. Infatti, ci sono sistemi che hanno l’obiettivo di conoscerci in modo inquietante e invasivo, di assemblare questi dati e usarli per alimentare algoritmi di targeting iper-personalizzati. Se questi sistemi non stanno cercando di comporre un nostro profilo completo e accurato possibile, allora qual è lo scopo?
Ecco però un punto importante: chi estrae dati non si interessa a noi come individui isolati, ma come collettivi relazionali. I nostri modi di pensare la raccolta e l’analisi dei dati tendono a basarsi su idee molto dirette e individualistiche di sorveglianza e informazione.
Ma oggi dobbiamo aggiornare il nostro modo di pensare la datificazione – e le possibili forme di intervento sociopolitico in questi sistemi guidati dai dati – per includere ciò che la giurista Salomé Viljoen chiama ‘relazioni “orizzontali’, che non si collocano a livello individuale, ma a scala di popolazione. Si tratta di flussi di dati che collegano molte persone, scorrono attraverso le reti in modi tali che le fonti, i raccoglitori, gli utilizzatori e le conseguenze dei dati si mescolano in forme impossibili da tracciare se continuiamo a ragionare in termini di relazioni più dirette e individualistiche.
Leggi l'intervista completa , che ha molti altri spunti interessanti, sul sito di Guerre di rete
Venerdì 10 ottobre a Bologna C.I.R.C.E. condurrà un laboratorio sul digitale nell'ambito del convegno nazionale CESP sulla scuola che si concentrerà sulle nuove linee guida per produrre saperi e conflitto.
Nel laboratorio sul digitale che conduciamo a Bologna il 10 ottobre 2025 dalle 14.40 alle 16.30, indirizzato ai docenti, utilizzeremo il metodo della Pedagogia Hacker per focalizzarci sulla questione dell'analisi dìinterfaccia e della gamificazione: osservare il modo in cui sono progettati e come si presentano i principali dispositivi digitali adottati dalle scuole e smantellare l'idea che le tecnologie siano neutre. Verso quali comportamenti veniamo "gentilmente spinti"? Cosa resta della libertà d'insegnamento?
Il laboratorio si svolge all'interno del Convegno Nazionale di Formazione CESP
Le piattaforme spingono consapevolmente i post cospirazionisti sulla disinformazione climatica per i loro interessi economici e politici
Quando a inizio di luglio le inondazioni in Texas hanno ucciso centotrenta persone, tra cui oltre venti ragazze in un campo estivo, i social network hanno dimostrato il loro immenso e nefasto potere nel campo della disinformazione climatica. Non solo hanno diffuso false informazioni, mettendo a rischio diverse vite umane e ostacolando il lavoro dei soccorritori. Ma tra fake news, assurde cospirazioni e improbabili teorie del complotto, le grandi piattaforme come Meta (Facebook e Instagram), X e YouTube si sono rivelate ancora una volta il peggior megafono del negazionismo climatico.
Il tutto per qualche milione di click. Ovvero, per un pugno di dollari da guadagnare attraverso pubblicità e raccolta di dati. Per evidenti ragioni politiche, visto che i loro Ceo si sono tutti affrettati a celebrare l’elezione presidenziale di Donald Trump e a sostenerlo economicamente con donazioni spaventose. E per qualche buon affare con le multinazionali del fossile che da sempre le sostengono. E con le quali condividono diversi fondi d’investimento nelle loro ragioni sociali.