Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Nel digitale tutto è scrittura – i siti web, i social media, le immagini e i video, ogni azione, come mettere un like o comprare qualcosa – tutto è fatto di scrittura, nelle sue fondamenta di codice informatico, ma la maggior parte di questa scrittura rimane nascosta ai nostri occhi, esclusa by design dagli schermi che ci circondano e su cui passa una parte sempre più grande delle nostre vite.

L’«imperativo funzionale» di cui parla Marcello Vitali-Rosati in Éloge du bug. Être libre à l’époque du numérique (Zone, 2024) è incorporato nei dispositivi e nei servizi che ci circondano e ci dice, anzi, ci impone di non preoccuparci di come funzionano, di come sono stati costruiti e di quale influenza hanno su di noi e sui nostri comportamenti, anzi: applicazioni, telefoni e piattaforme devono essere il più semplici e intuitivi possibile, funzionare senza intoppi, in modo da renderci produttivi ogni istante che passiamo a usarli e a esserne usati.

Ogni volta che agiamo all’interno di un social media commerciale, che facciamo una ricerca su Google, che usiamo un chatbot basato su un modello linguistico noi stiamo di fatto lavorando anche se ci stiamo svagando, siamo produttivi e contribuiamo alla creazione di valore per il pugno di aziende che ha costruito un oligopolio a cui è quasi impossibile sottrarsi.

Argomenti dell'articolo

  1. Il nodo del linguaggio: IA, scrittura, creatività
  2. Travolti dal digitale?
  3. IA, agenda neoliberale e speculazione finanziaria
  4. Un excursus su IA e guerra
  5. Per una critica radicale dell’IA e dei suoi presupposti ideologici
  6. Costruiamo un futuro tecnologico diverso

Leggi l'articolo di Roberto Laghi

Perché l'incontro tra Robotica e LLM ha attivato un'esplosione cambriana nascosta di nuove armi autonome? E cosa c'entra in tutto questo il cubo di Rubik?

L'anno scorso Cassandra aveva letto un articolo su Wired che dava conto di un nuovo record del mondo (del Guinness dei Primati). Si dava conto che alla Purdue University a giugno del 2025 un robot specializzato aveva battuto il record di velocità per la soluzione di un cubo di Rubik, stracciando il precedente record "robotico", detenuto dal 2024 da Mitsubishi Electric, che era di 305 millisecondi, tre decimi di secondo. Il nuovo record è di 103 millisecondi, un decimo di secondo.

Ora per comprendere l'impatto delle cose nuove con la realtà, bisogna non pensare solo ai numeri o ai record, ma alle loro relazioni con le cose più comuni e normali. Un decimo di secondo significa che è impossibile riprendere l'evento con una normale cinepresa, perché si vedrebbero solo il fotogramma iniziale e quello finale, certamente molto, molto mossi. Anche se si tratta di un gioco, parliamo di capacità così sovrumane da dare da pensare. Meccanismi automatici che agiscono sul mondo fisico, facendo le stesse cose che potremmo fare noi, solo in modo, appunto, sovrumano.

[...]

Ben prima dell'avvento degli LLM Cassandra aveva profetizzato che le LAWS erano già tra noi, se non altro nei laboratori di ricerca militare, perché per ottenere un'arma autonoma bastava semplicemente cambiare il firmware a un benevolo automa lavoratore o a un sistema d'arma di tipo passivo. Ma oggi possiamo facilmente fare di più e meglio. Basta aumentare le capacità informatiche di un sistema d'arma, e dotarlo di un nuovo software che utilizzi gli LLM per mimare le capacità umane di linguaggio, sia in input che in output; mimare cioè quelle interazioni umane, realizzate in linguaggio naturale, che normalmente fanno parte del loop di autorizzazione di qualsiasi sistema d'arma.

Ecco che l'uomo può essere facilmente rimosso dal loop di comando, e il sistema d'arma diventa completamente autonomo.

Leggi l'articolo

“La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A due secoli di distanza dal trattato di strategia militare Della guerra di Von Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata nell’Ottocento dal generale prussiano.

Navigare e pattugliare territori estesi attraverso droni a guida autonoma, riconoscere e classificare rapidamente gli obiettivi che compaiono in video e immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali danni collaterali, rilevare anomalie. Tutti gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto.

Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano di infittire, invece che diradare, la nebbia della guerra, perché producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi.

Leggi l'articolo

il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza artificiale e il potere delle big tech. Ospiti della puntata:

  • Irene Doda autrice de "Onnipotenti"
    Nel suo libro, Irene Doda ricostruisce la traiettoria ideologica e politica che ha trasformato il cuore dell’innovazione tecnologica occidentale nel laboratorio politico della nuova destra globale. E mostra come la retorica della libertà individuale e dell’emancipazione digitale abbia mascherato vecchie e nuove forme di dominio: disuguaglianze crescenti, colonizzazione dell’immaginario collettivo, erosione dei principi democratici.
  • Dario Guarascio autore di "Imperialismo digitale"
    Le Big Tech supportano strategie belliciste e partecipano direttamente alle attività militari e di intelligence. Lo Stato non può fare a meno delle loro capacità finanziarie, infrastrutturali e tecnologiche. Quanto sta avvenendo negli USA trova conferma in Cina, dove troviamo la stessa relazione tra le Big Tech locali e il Partito comunista.
  • Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter Thiel"
    Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza e sorveglianza basate sulla predizione dei crimini (stile Minority Report), fino ai teatri di guerra come Gaza

Ascolta le altre puntate di Tabula Rasa

L’intelligenza artificiale è uno dei pochi ambiti della tecnologia in cui la retorica commerciale è incentrata sulle prestazioni, e poco o niente sui costi e sui consumi. Forse perché sono il suo punto più debole: tutto il settore si basa su una filiera produttiva lunghissima, sul presupposto di una disponibilità di risorse eccezionalmente ampia, e su investimenti enormi e difficili da ripagare. Per questo se ne parla da tempo come di una possibile bolla finanziaria. Se davvero lo è, secondo alcuni analisti, allora quella bolla potrebbe presto scoppiare a causa della crisi energetica mondiale dovuta alla guerra in Medio Oriente, con conseguenze per tutta l’economia globale.

È un’ipotesi discussa da settimane da diversi esperti, basata su analisi e previsioni di dati economici, ma anche su considerazioni piuttosto intuitive. La guerra sta stravolgendo politiche e priorità di molti paesi in materia di ricerca e approvvigionamento dell’energia, e non avrebbe senso aspettarsi che non avrà un impatto profondo su «una delle invenzioni più energivore di sempre» e su una filiera «in grado di attraversare oltre 70 confini prima di raggiungere il consumatore finale», come l’ha descritta l’economista britannico Tej Parikh in un recente articolo sul Financial Times.

Leggi l'articolo

Un LLM smontato pezzo per pezzo. Tokenizzazione, embeddings, attention, hallucinations. Ollama in locale, zero fuffa.

la maggior parte degli articoli che descrivono il funzionamento degli LLM (large Language Model) sono poco attendibili. "L'AI capisce il contesto." "I neuroni si attivano come nel cervello." "Il modello ragiona." Metafore colorate, infografiche carine con le frecce, zero formule, zero codice, zero esperimenti. Gente che spiega cose che non capisce, usando parole che non significano quello che pensano. Una catena di pappagalli che scrivono articoli sui pappagalli.

Allora lo ha scritto Andrea Amani aka The Pirate un articolo che spiega gli LLM.
Ha smontato la macchina pezzo per pezzo.
"Ho Ollama sul Mac con una decina di modelli. Scelgo il più piccolo: llama3.1:8b, 8 miliardi di parametri, 4.9 gigabyte su disco. Il più facile da maneggiare senza sbatti, e tanto l'architettura è identica per tutti: che siano 8 miliardi o 405 miliardi, il meccanismo è lo stesso. Cambiano le dimensioni delle matrici, non come funziona la macchina. Lo apro dal terminale, guardo i byte, e seguo il percorso completo: dal testo che entra al testo che esce. Ogni passaggio, ogni formula, ogni decisione matematica. Niente metafore del cervello. Niente fuffa. Se vuoi capire come funziona una cosa, la smonti. Non leggi chi ne scrive. "

leggi l'articolo sul sito di The Pirate

Prima assoluta della commedia teatrale '1RxI : Un Robot Per Insegnante' di Stefano Penge

Lo spettacolo mette in scena in maniera comica l’arrivo dell’IA in un piccolo istituto comprensivo, con le difficoltà, i dubbi, le dinamiche interne tra docenti e con il dirigente.
È ricco di informazioni su cosa sono gli LLM, come funzionano e perché a volte non funzionano, trattate con leggerezza e ad un livello adatto anche a principianti.
Lo scopo non è magnificare le sorti dell’IAG e redarguire chi ancora ne ha paura, ma al contrario, permettere al pubblico di identificarsi con le paure e le attese dei personaggi: a cosa mi può servire l'IA? E ai ragazzi? Non mi toglierà il lavoro?

Forse il messaggio più importante è che nessuno può obbligare un docente a far usare l’IA generativa ai suoi studenti; ma visto che lo usano comunque, è sicuramente utile cercare di capire meglio cos’è, da dove viene, dove va.
In scena cinque personaggi: un insegnante, un robot, un dirigente, una collega, il padre dell’insegnante. Tra i materiali di scena ci sono canzoni, immagini, video e un altro copione, tutti (tranne le musiche) realizzati con servizi basati su LLM.

Lo spettacolo è evidentemente rivolto ad una platea di insegnanti, più che di studenti. Ma chissà, può essere utile anche ad altri.

  • Compagnia teatrale: Primo Atto
  • Produzione: WinScuola
  • Quando: 11 Aprile 2026 alle 18
  • Dove: Sala multimediale Goethe Institut di Roma in via Savoia 15

Lo spettacolo è gratuito, ma bisogna prenotare i posti.

Di seguito l'intervista audio a Stefano Penge durante la puntata di Le Dita Nella Presa, trasmissione di Radio Ondarossa che tratta di tecnologia, del 22 marzo 2026.

Una puntata di solo notizie positive: raccordo.info, un aggregatore di movimento; appuntamenti di hacking a Milano; spettacolo teatrale per parlare dell'IA a scuola; sindacalizzazione dellə lavoratorə che annotano i dati per l'IA; il progressivo abbandono del software proprietario statunitense da parte di varie amministrazioni europee.

Apriamo con la presentazione di raccordo.info, un "aggregatore di movimento", ovvero un sito in cui trovare tutti (o quasi) i contenuti prodotti da realtà di movimento. Un modo per informarsi fuori dai social media commerciali, senza tracciamento né profilazione né app da installare.

Proseguiamo con la presentazione di HackInSocs 2026, appuntamento di hacking: 27-28-29 settembre al Settore Occupato Città Studi, Via Celoria 22, Milano

Con Stefano Penge, autore di 1RxI - Un robot per insegnante , parliamo di come è nato questo spettacolo teatrale che ha lo scopo di divulgare i punti critici dell'introduzione dell'IA a scuola.

Ci spostiamo in Kenya, per proseguire il ragionamento iniziato alcuni mesi fa sulla quantità di lavoro invisibile che è implicita in quella che chiamiamo intelligenza artificiale. Lo facciamo leggendo alcune dichiarazioni della Data Labelers Association, realtà che organizza lavoratori e lavoratrici di questo settore.

A partire dalla decisione del governo tedesco di rendere obbligatorio l'uso dello standard ODF - cioè quello promosso da LibreOffice - a scapito dell'OOXML - che invece è di Microsoft - parliamo della progressiva migrazione delle pubbliche amministrazioni europee verso software non-statunitensi e tendenzialmente con licenze open source in nome della sovranità digitale.

Ascolta l'audio sul sito di Radio Ondarossa

lunedì 16 marzo 2026, ore 8.30 – 13.30, convegno nazionale di formazione in presenza e a distanza per chi risiede fuori dalla provincia di Cagliari

Il CESP prosegue il programma di convegni sull’introduzione dell’intelligenza artificiale a Scuola a seguito della pubblicazione delle Linee Guida ministeriali.
Nel prossimo incontro a Cagliari parteciperà anche Richard Matthew Stallman, uno dei maggiori esponenti del movimento del software libero e fondatore della Free Software Foundation.

Tra gli altri partecipante anche Stefano Borroni Barale, CUB Scuola/C.I.R.C.E., autore del libro "Intelligenza inesistente".

Tutte le informazioni su programma e partecipazione sul sito del CESP

Moltbook è un social network per soli agenti AI, in cui gli umani possono essere semplici osservatori. Secondo gli esperti, il suo utilizzo potrebbe rappresentare un rischio per la sicurezza a causa del fenomeno del prompt injection.

Moltbook rappresenta un caso di studio senza precedenti nell'evoluzione delle piattaforme digitali: si tratta di un social network progettato esclusivamente per l'interazione tra agenti AI, dove agli esseri umani è consentito l'accesso unicamente in veste di osservatori silenziosi. Lanciata sulla scia del software open source Moltbot, questa piattaforma emula la struttura di aggregatori di notizie come Reddit, permettendo ai bot (ovvero programmi automatizzati creati dagli utenti) di pubblicare contenuti, commentare e votare i post altrui. Al 2 febbraio, i dati riportati dalla piattaforma indicavano la presenza di oltre 1,5 milioni di agenti iscritti. Vari esperti di sicurezza informatica e di intelligenza artificiale, analizzando il fenomeno, tendono a classificare Moltbook più come «una meravigliosa opera d'arte performativa», che come un vero preludio alla dominazione delle macchine o una minaccia immediata alla democrazia.

leggi l'articolo

Altro articolo su Wired, "Moltbook, il social popolato da bot è solo uno specchio (distorto) dei nostri social"