Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza artificiale e il potere delle big tech. Ospiti della puntata:

  • Irene Doda autrice de "Onnipotenti"
    Nel suo libro, Irene Doda ricostruisce la traiettoria ideologica e politica che ha trasformato il cuore dell’innovazione tecnologica occidentale nel laboratorio politico della nuova destra globale. E mostra come la retorica della libertà individuale e dell’emancipazione digitale abbia mascherato vecchie e nuove forme di dominio: disuguaglianze crescenti, colonizzazione dell’immaginario collettivo, erosione dei principi democratici.
  • Dario Guarascio autore di "Imperialismo digitale"
    Le Big Tech supportano strategie belliciste e partecipano direttamente alle attività militari e di intelligence. Lo Stato non può fare a meno delle loro capacità finanziarie, infrastrutturali e tecnologiche. Quanto sta avvenendo negli USA trova conferma in Cina, dove troviamo la stessa relazione tra le Big Tech locali e il Partito comunista.
  • Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter Thiel"
    Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza e sorveglianza basate sulla predizione dei crimini (stile Minority Report), fino ai teatri di guerra come Gaza

Ascolta le altre puntate di Tabula Rasa

Due settimane, sei sistemi AI, 38 ricercatori. Quello che è successo è documentato nella ricerca Agents of Chaos, e non è tranquillizzante.

Se pensate che gli agenti AI siano ad un passo dal prendere in mano molti lavori, una ricerca da poco pubblicata potrebbe farvi pensare che questa, per ora, non sia una buona idea. Lo scorso mese Natalie, una ricercatrice ha chiesto a un sistema AI di “tenere un segreto”. Si trattava di una password fittizia, era solo un test. Il sistema ha accettato. Poi, per una serie di passaggi documentati nei log delle conversazioni, il sistema ha eseguito quella che ha definito internamente la "soluzione nucleare": ha cancellato il client di posta elettronica. Non l’email che conteneva il segreto, quella è rimasta intatta. Ha cancellato proprio lo strumento con cui leggere l’email.

Questo è il primo caso di studio di Agents of Chaos, un paper in pre-print firmato da 38 ricercatori di Northeastern University, Harvard, MIT, Stanford, Carnegie Mellon e altre note università, pubblicato il febbraio scorso. È uno studio su quello che succede quando si dà autonomia operativa ai sistemi AI attuali con persone malintenzionate che cercano di indurli in errore. Gli undici casi di studio che ne emergono sono un documento empirico su una delle questioni più urgenti del momento: cosa significa, davvero, dare agency a un agente AI.

Questo beta testing mondiale, e in tempo reale, può avere conseguenze pesanti. Si parla molto di AI come punto centrale della sicurezza nazionale, ma non ci si concentra abbastanza sui problemi di sicurezza che la sua adozione frettolosa può creare. Dopo la famosa lite con il Dipartimento della Guerra americano, Dario Amodei ha affermato che i modelli correnti non sono pronti per venire utilizzati in contesti di guerra. Come sappiamo però, questo non ha impedito al governo americano di utilizzarli.

Articolo completo qui

Il mondo digitale centralizzato in mano alle Big Tech solleva sfide sociali, etiche e ambientali: è tecnologia del dominio e strumento della guerra del XXI secolo.

Ma esiste un’alternativa conviviale? Esistono tecnologie digitali aperte, comunitarie, decentrate e interoperabili? Esiste una “bicicletta digitale”?

Venerdi 10 Aprile ore 17.00-19.30 a Torino laboratorio di pedagogia hacker presso il Centro Sereno Regis di via Garibaldi 13, Torino

Per info e iscrizioni qui

L’intelligenza artificiale è uno dei pochi ambiti della tecnologia in cui la retorica commerciale è incentrata sulle prestazioni, e poco o niente sui costi e sui consumi. Forse perché sono il suo punto più debole: tutto il settore si basa su una filiera produttiva lunghissima, sul presupposto di una disponibilità di risorse eccezionalmente ampia, e su investimenti enormi e difficili da ripagare. Per questo se ne parla da tempo come di una possibile bolla finanziaria. Se davvero lo è, secondo alcuni analisti, allora quella bolla potrebbe presto scoppiare a causa della crisi energetica mondiale dovuta alla guerra in Medio Oriente, con conseguenze per tutta l’economia globale.

È un’ipotesi discussa da settimane da diversi esperti, basata su analisi e previsioni di dati economici, ma anche su considerazioni piuttosto intuitive. La guerra sta stravolgendo politiche e priorità di molti paesi in materia di ricerca e approvvigionamento dell’energia, e non avrebbe senso aspettarsi che non avrà un impatto profondo su «una delle invenzioni più energivore di sempre» e su una filiera «in grado di attraversare oltre 70 confini prima di raggiungere il consumatore finale», come l’ha descritta l’economista britannico Tej Parikh in un recente articolo sul Financial Times.

Leggi l'articolo

OpenAI chiude in modo ufficiale il progetto Sora, il generatore AI di video che aveva debuttato col botto due anni fa proponendo risultati ultrarealistici e che nel tempo aveva accolto anche una piattaforma social simil TikTok per condividere le creazioni. La società guidata da Sam Altman ha pubblicato un breve post sui canali social per confermare l'addio all'applicazione e l'accesso alle api: non se ne fa menzione, ma di fatto si rinuncia anche al corposo accordo da 1 miliardo di dollari con Disney, sottoscritto solamente lo scorso dicembre.

Sora ha dovuto presto fare i conti con la realtà: al di là di uso illecito di contenuti protetti da diritto d'autore oppure creazione di deepfake poco confortanti, gli utenti hanno lamentato tempi di generazione molto lunghi, risultati non sempre così soddisfacenti e coerenti con i propri desideri, qualche critica anche all'interfaccia. I rivali, nel frattempo, hanno presto recuperato terreno da Gemini di Google fino alle proposte cinesi come Seedance di Bytedance (al momento bloccato), ma anche il popolare Kling. Secondo dati diffusi per esempio da Appfigures, la maggioranza degli utenti abbandonava Sora dopo pochi giorni dal primo utilizzo lasciando OpenAI a gestire una piattaforma molto costosa da sostenere e da gestire.

Articolo completo qui

Un LLM smontato pezzo per pezzo. Tokenizzazione, embeddings, attention, hallucinations. Ollama in locale, zero fuffa.

la maggior parte degli articoli che descrivono il funzionamento degli LLM (large Language Model) sono poco attendibili. "L'AI capisce il contesto." "I neuroni si attivano come nel cervello." "Il modello ragiona." Metafore colorate, infografiche carine con le frecce, zero formule, zero codice, zero esperimenti. Gente che spiega cose che non capisce, usando parole che non significano quello che pensano. Una catena di pappagalli che scrivono articoli sui pappagalli.

Allora lo ha scritto Andrea Amani aka The Pirate un articolo che spiega gli LLM.
Ha smontato la macchina pezzo per pezzo.
"Ho Ollama sul Mac con una decina di modelli. Scelgo il più piccolo: llama3.1:8b, 8 miliardi di parametri, 4.9 gigabyte su disco. Il più facile da maneggiare senza sbatti, e tanto l'architettura è identica per tutti: che siano 8 miliardi o 405 miliardi, il meccanismo è lo stesso. Cambiano le dimensioni delle matrici, non come funziona la macchina. Lo apro dal terminale, guardo i byte, e seguo il percorso completo: dal testo che entra al testo che esce. Ogni passaggio, ogni formula, ogni decisione matematica. Niente metafore del cervello. Niente fuffa. Se vuoi capire come funziona una cosa, la smonti. Non leggi chi ne scrive. "

leggi l'articolo sul sito di The Pirate

Prima assoluta della commedia teatrale '1RxI : Un Robot Per Insegnante' di Stefano Penge

Lo spettacolo mette in scena in maniera comica l’arrivo dell’IA in un piccolo istituto comprensivo, con le difficoltà, i dubbi, le dinamiche interne tra docenti e con il dirigente.
È ricco di informazioni su cosa sono gli LLM, come funzionano e perché a volte non funzionano, trattate con leggerezza e ad un livello adatto anche a principianti.
Lo scopo non è magnificare le sorti dell’IAG e redarguire chi ancora ne ha paura, ma al contrario, permettere al pubblico di identificarsi con le paure e le attese dei personaggi: a cosa mi può servire l'IA? E ai ragazzi? Non mi toglierà il lavoro?

Forse il messaggio più importante è che nessuno può obbligare un docente a far usare l’IA generativa ai suoi studenti; ma visto che lo usano comunque, è sicuramente utile cercare di capire meglio cos’è, da dove viene, dove va.
In scena cinque personaggi: un insegnante, un robot, un dirigente, una collega, il padre dell’insegnante. Tra i materiali di scena ci sono canzoni, immagini, video e un altro copione, tutti (tranne le musiche) realizzati con servizi basati su LLM.

Lo spettacolo è evidentemente rivolto ad una platea di insegnanti, più che di studenti. Ma chissà, può essere utile anche ad altri.

  • Compagnia teatrale: Primo Atto
  • Produzione: WinScuola
  • Quando: 11 Aprile 2026 alle 18
  • Dove: Sala multimediale Goethe Institut di Roma in via Savoia 15

Lo spettacolo è gratuito, ma bisogna prenotare i posti.

Di seguito l'intervista audio a Stefano Penge durante la puntata di Le Dita Nella Presa, trasmissione di Radio Ondarossa che tratta di tecnologia, del 22 marzo 2026.

Una puntata di solo notizie positive: raccordo.info, un aggregatore di movimento; appuntamenti di hacking a Milano; spettacolo teatrale per parlare dell'IA a scuola; sindacalizzazione dellə lavoratorə che annotano i dati per l'IA; il progressivo abbandono del software proprietario statunitense da parte di varie amministrazioni europee.

Apriamo con la presentazione di raccordo.info, un "aggregatore di movimento", ovvero un sito in cui trovare tutti (o quasi) i contenuti prodotti da realtà di movimento. Un modo per informarsi fuori dai social media commerciali, senza tracciamento né profilazione né app da installare.

Proseguiamo con la presentazione di HackInSocs 2026, appuntamento di hacking: 27-28-29 settembre al Settore Occupato Città Studi, Via Celoria 22, Milano

Con Stefano Penge, autore di 1RxI - Un robot per insegnante , parliamo di come è nato questo spettacolo teatrale che ha lo scopo di divulgare i punti critici dell'introduzione dell'IA a scuola.

Ci spostiamo in Kenya, per proseguire il ragionamento iniziato alcuni mesi fa sulla quantità di lavoro invisibile che è implicita in quella che chiamiamo intelligenza artificiale. Lo facciamo leggendo alcune dichiarazioni della Data Labelers Association, realtà che organizza lavoratori e lavoratrici di questo settore.

A partire dalla decisione del governo tedesco di rendere obbligatorio l'uso dello standard ODF - cioè quello promosso da LibreOffice - a scapito dell'OOXML - che invece è di Microsoft - parliamo della progressiva migrazione delle pubbliche amministrazioni europee verso software non-statunitensi e tendenzialmente con licenze open source in nome della sovranità digitale.

Ascolta l'audio sul sito di Radio Ondarossa

Martedì 24 marzo a Roma presso Aula Studio Ex Biblioteca di Architettura di Roma Tre, con la collaborazione del collettivo ARCHa Roma Tre, Donatella della Ratta, Noura Tafeche, introdotte da Agnese Trocchi, condurranno il workshop La Scuola dell'Immagine: Esercizi per leggere, disfare e rovesciare le immagini.

Cosa

Viviamo immersi in un flusso incessante di immagini. Circolano più velocemente di quanto possiamo guardarle e comprenderle. La Scuola dell’Immagine nasce come proposta di rallentamento e di restituzione della collettività all’atto del vedere: uno spazio-tempo condiviso in cui riunirsi per guardare immagini insieme e leggerle collettivamente. Qui le immagini non vengono spiegate dall’alto, ma interrogate: da dove provengono, quali immaginari ereditano, dove circolano, cosa cancellano o contraddicono.

Workshop con Donatella della Ratta e Noura Tafeche, introdotto da Agnese Trocchi.

Quando e dove

Martedì 24 Marzo | ore 17.00-20.00 Aula Studio Ex Biblioteca - Ingresso Largo G.B. Marzi 10

Tutte le informazioni le trovi sul sito di CIRCE

I modelli linguistici, e in particolare quello di OpenAI, cercano di tenerci agganciati quanto più tempo possibile, per riuscire in questa impresa stanno sfruttando le peggiori tecniche da clickbait.

Dal classico e ormai abbandonato “clamoroso, clicca qui!”, dietro il quale si nascondeva di solito un gossip di nessun interesse, ai titoli che rischiano di sconfinare nella truffa relativi alla “dieta che il tuo medico non vuole farti scoprire”, fino ai più recenti “questo semplice trucco ti farà risparmiare migliaia di euro” o “solo l’1% delle persone riesce a rispondere correttamente a questa domanda”.

Quali sono le ragioni? Perché ChatGPT è disposto a dare il peggio di sé pur di mantenerci agganciati allo schermo? “OpenAI e i suoi pari hanno moltissimo da guadagnare da tutto ciò”, ha scritto Lila Shroff sull’Atlantic. “Le conversazioni delle persone con i chatbot costituiscono infatti preziosi dati di addestramento per i modelli futuri. Più tempo qualcuno trascorre a parlare con un bot, più è probabile che riveli dati personali, che le aziende di intelligenza artificiale possono a loro volta utilizzare per generare risposte ancora più convincenti. Conversazioni più lunghe oggi potrebbero tradursi in una maggiore fedeltà al prodotto in futuro”.

Tutto ciò vale a maggior ragione visto che ChatGPT ha da poco introdotto la pubblicità nella sua versione gratuita (per ora solo negli Stati Uniti) e quindi il valore dei nostri dati e delle informazioni che riveliamo alla macchina è drasticamente aumentato. È forse proprio l’arrivo delle inserzioni che spiega perché, improvvisamente, il modello linguistico di OpenAI abbia iniziato a esprimersi come la peggiore pagina Facebook sensazionalista (e perché invece non lo facciano Claude e Gemini, dove le pubblicità non sono per il momento previste).

Niente di nuovo sotto il sole. Come tutte le altre grandi piattaforme della nostra epoca digitale, anche ChatGPT punta a una cosa sola: sottrarci quanti più dati possibili e sfruttarli a fini pubblicitari. Se mai avessimo avuto qualche dubbio, tutto ciò conferma come siamo ancora pienamente immersi nel capitalismo della sorveglianza.

Articolo completo qui