Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza artificiale e il potere delle big tech. Ospiti della puntata:

  • Irene Doda autrice de "Onnipotenti"
    Nel suo libro, Irene Doda ricostruisce la traiettoria ideologica e politica che ha trasformato il cuore dell’innovazione tecnologica occidentale nel laboratorio politico della nuova destra globale. E mostra come la retorica della libertà individuale e dell’emancipazione digitale abbia mascherato vecchie e nuove forme di dominio: disuguaglianze crescenti, colonizzazione dell’immaginario collettivo, erosione dei principi democratici.
  • Dario Guarascio autore di "Imperialismo digitale"
    Le Big Tech supportano strategie belliciste e partecipano direttamente alle attività militari e di intelligence. Lo Stato non può fare a meno delle loro capacità finanziarie, infrastrutturali e tecnologiche. Quanto sta avvenendo negli USA trova conferma in Cina, dove troviamo la stessa relazione tra le Big Tech locali e il Partito comunista.
  • Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter Thiel"
    Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza e sorveglianza basate sulla predizione dei crimini (stile Minority Report), fino ai teatri di guerra come Gaza

Ascolta le altre puntate di Tabula Rasa

Avete presente quella sensazione frustante che provate quando su Google appaiono solo pubblicità e su TikTok solo video fatti dall’IA? Ora ha un nome: enshittification. Secondo Cory Doctorow, è anche una geniale (e pericolosa) strategia aziendale.

Il post sul quale era citata la parola venne poi ripubblicato nell'edizione del gennaio 2023 su Wired:
«Ecco come muoiono le piattaforme: prima sono buone con i loro utenti, poi abusano di loro per migliorare il loro rapporto con i clienti aziendali e infine, abusano di questi ultimi per riprendersi da loro tutto il valore. E infine muoiono. Io chiamo questo fenomeno enshittification, ed è una conseguenza apparentemente inevitabile che deriva dalla combinazione della facilità di cambiare il modo in cui una piattaforma alloca il valore, unita alla natura di un "mercato a due facce", in cui una piattaforma si trova tra acquirenti e venditori, tenendo ciascuno in ostaggio dell'altro, rastrellando una quota sempre maggiore del valore che passa tra di loro.»

Ascolta il podcast sul sito di valori.it

Partiamo con un racconto, e un'analisi, di due sentenze a danno di Meta e Google che indicano che queste piattaforme usano la creazione di dipendenza come strumento fondamentale, e che questo crea danni reali alle sue utenti. Daranno il via ad un gran numero di cause simili? E se sì, quali conseguenze potrebbero avere?

Finché l'argomento del dibattito rimarrà confinato alle conseguenze su chi è minorenne - invece di riconoscere che queste piattaforme sono dannose per l'intera società - il rischio è che questo costituisca un'ulteriore spinta verso verifiche dell'età sempre più stringenti. A tal proposito, parliamo delle leggi in California e Brasile che introducono la verifica dell'età a livello di sistema operativo.

Concludiamo con alcune gravi vulnerabilità recenti trovate su iOS e su Telegram.

Comunicazione di servizio: le dita nella presa non andrà in onda il 5 Aprile.

Ascolta la trasmissione nel sito di Radio Ondarossa

La puntata affronta due argomenti principali: come gli LLM rappresentano una nuova minaccia per la privacy online e l'articolo di Matthew Honnibal che sostiene che i migioramenti dei grandi modelli linguistici non derivini solo da modelli sempre più grandi e costosi.

Il paper “Automated Profile Inference with Language Model Agents” (arXiv:2505.12402) studia una nuova minaccia per la privacy online resa possibile dai modelli linguistici di grandi dimensioni (LLM). Questa minaccia, chiamata inferenza automatizzata del profilo, consiste nell’uso di agenti AI per raccogliere e analizzare automaticamente le attività pubbliche degli utenti su piattaforme pseudonime (come forum o social media) al fine di estrarre informazioni personali sensibili, con il rischio di re-identificare le persone. Why I don’t think AI is a bubble

https://honnibal.dev/blog/ai-bubble

L’autore, sostiene che, al di là delle valutazioni finanziarie, i progressi tecnici dell’IA non mostrano segni di imminente plateau. Contesta l’argomento comune secondo cui i miglioramenti derivino solo dallo “scaling” (modelli sempre più grandi e costosi) e siano quindi destinati a esaurirsi. Honnibal spiega che questa visione, forse valida per i primi modelli come GPT-1 e GPT-2 (definibili “fancy autocomplete”), è oggi superata. Il vero salto di qualità è arrivato dall’integrazione con il reinforcement learning, che ha permesso di creare i cosiddetti “reasoning models”.

Ascolta la puntata su Radio Backout

Nella puntata di oggi con Privacy Network e STRALI si parla del Sistema Riconoscimento Automatico Immagini utilizzato daalle forze dell'ordine italiane.

Privacy Network & STRALI stanno indagando l’utilizzo di SARI Enterprise per capire quanto viene usato, se funziona, se è compatibile con la protezione dei dati personali, che bias emergono.
Cosa permette di fare? Chi lo utilizza? Da quanto tempo?

E AFIS (il database delle persone foto-segnalate)?

Ascolta l'audio sul sito di Radio Black out

Iniziamo segnalando un articolo da Logic che ci aiuta a riconoscere il sistema di caste indiano nella struttura di alcune delle applicazioni di "gig economy" destinate a quel mercato.

Con una compagna in studio facciamo delle riflessioni su un testo pubblicato sul sito di hackmeeting. A proposito, il prossimo hackmeeting è 12-14 Giugno al Csa Next Emerson a Firenze.

Notiziole:

  • Il treno a idrogeno non lo vuole neppure la Francia. Alstom chiude la sua unità di sviluppo su questa tecnologia, e l'Italia è rimasta l'unico acquirente di questo treno
  • No, il ChatControl non è ancora stato approvato
  • Sì, Elon Musk è più forte di Gesù, almeno secondo Grok

Ascolta il podcast sul sito di Radio Onda Rossa

Oggi l’intelligenza artificiale, lasciata in mano a una manciata di miliardari, diviene una minaccia esistenziale alla scuola. Oggi, contro questa I.A., diciamo BASTA!

Nella trasmissione di Radio Onda Rossa, l'Ora di Buco, si riparla di Intelligenza artificiale a scuola: un docente di informatica spiega tutto quello che non va nelle fumose linee guida ministeriali. Inoltre presenta l'appello alla comunità educante per rifiutare l'introduzione dell'Intelligenza Artificiale delle multinazionali e proporre invece delle tecnologie realmente utili a studenti, insegnanti e personale non docente della scuola.

Qui alcune riflessioni critiche e preoccupate, con l'appello da diffondere e firmare.

Ascolta l'audio dell'intervento

Vai alla puntata dell'Ora di Buco

L'intervento a Radio Onda Rossa di un collaboratore di C.I.R.C.E. a proposito dell'uso dell'intelligenza artificiale nella scuola a partire dalle linee guida recentemente emanate dal Ministero dell'Istruzione evidenziandone contraddizioni, limiti e speculazioni e sottolineando l'ennesimo trasferimento di fondi pubblici ai privati, i soliti big tech.

Molto in sistesi: l'Intelligenza Artificiale delle multinazionali tecnologiche, in particolare i Large Language Model, non andrebbe usata perché è insostenibile dal punto di vista ambientale, replica discriminazioni e stereotipi della società, standardizza scrittura e pensiero.

Ascolta l'audio dell'intervento

I cellulari che abbiamo in tasca ci offrono un enorme ventaglio di possibilità, ma ogni app, ogni login, ogni geolocalizzazione può far breccia nella nostra sicurezza digitale. Così come esistono modi per tenere sotto controllo le nostre comunicazioni, però, esistono anche strategie per verificare di non essere vittime della sorveglianza digitale.

Un approccio critico è indispensabile per vivere nel mondo del web senza subirlo: ne parliamo con Raffaele Angius, giornalista di IrpiMedia, a Cagliari per partecipare all'Hackmeeting, l'appuntamento annuale degli hacker.

Chi sono oggi gli hacker, dove operano, che cosa è cambiato dagli albori del web? Risponde Giuliana Sorci, autrice del libro "Server ribelli. R-esistenza digitale e hacktivismo nel Fediverso in Italia" (Meltemi editore, 2025). Al microfono Elisabetta Tola

Ascolta l'audio su RaiPlay Sound

Qui il programma dell'Hackmeeting

Riprendiamo il tema, trattato nella scorsa puntata, dell'uso di un Signal modificato da parte dell'amministrazione Trump. Ora sono emersi alcuni dettagli sull'hack grazie al quale si sono scoperte molte informazioni, e i dettagli mostrano un'inettitudine inaspettata.

Vediamo per sommi capi il programma dell'Hackmeeting (30 Maggio - 2 Giugno) a Cagliari.

Un report curato da State Watch e La quadrature du net dettaglia l'uso dei sistemi digitali, inclusi quelli di polizia predittiva, da parte delle polizie francesi.

Entriamo nel terreno delle notiziole:

  • furto di identità
  • multe e vicissitudini varie per alcune delle grandi aziende della tecnologia statunitensi
  • Whatsapp vince la causa contro NSO relativa all'(ab)uso dei server di Whatsapp per l'installazione di Pegasus
  • Trump chiude di tutto un po': dal database degli eventi climatici estremi, all'accesso internet nelle scuole pubbliche... in compenso dà il via libera all'IA per sostituire gli impiegati licenziati.

Ascolta l'audio sul sito di Radio Onda Rossa