Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Il 30 aprile la puntata di Fahrenheit ha ospitato Agnese Trocchi, ricercatrice di CIRCE e autrice del libro Internet Mon Amour (Altraeconomia) e Leonardo Bianchi, giornalista e scrittore, curatore di Complotti!, una newsletter di Internazionale sul complottismo.

Da Gesù al mafioso: Trump il banalizzatore. Partendo da qui hanno parlato della propaganda nelle piattaforme digitali, del funzionamento dei social media commerciali, delle tecnologie conviviali e naturalmente di Internet Mon Amour: il pentamerone hacker, sci-fi, femminista di cui è autrice Agnese Trocchi.

Ascolta l'audio

Su Raiplay Play Sound si può ascoltare la puntata completa

In questa puntata di Hackordie, in onda un martedì si e uno no su Radio Città Fujiko:

  • che cosa vuol dire autonomia e indipendenza tecnologica soprattutto a livello di uso istituzionale.
  • Alcuni strumenti per liberarsi o comunque per rendersi più indipendenti in attività che possono essere lavorative ma non necessariamente,

C'è una tendenza, c'è un movimento che sta prendendo abbastanza forza per liberarsi del monopolio della tecnologia prodotta dalla Silicon Valley.

Quando sosteniamo che la tecnologia non è mai neutra e anzi è politica, una delle risposte che più spesso ci viene rivolte, una delle obiezioni più comuni, è che gli strumenti sono neutri ma dipende dall'uso che ne facciamo.
È interessante notare però come al cambiare della situazione politica internazionale cambino anche gli approcci alla tecnologia e ciò conferma che la tecnologia, non solo non è neutra, ma è anche pienamente politica.

L'esempio più importante e più significativo degli ultimi anni è il fatto che i governi europei, l'Unione Europea stessa, stiano iniziando dei percorsi in modo variato, magari un po' precario, ma comunque stiano iniziando dei percorsi per rendersi indipendenti dalle tecnologie americane, dalle tecnologie prodotte nella Silicon Valley.

Nella seconda parte di puntats si parla della suite drive di Cryptpad ospitata su Disroot.org

Ascolta la puntata

il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza artificiale e il potere delle big tech. Ospiti della puntata:

  • Irene Doda autrice de "Onnipotenti"
    Nel suo libro, Irene Doda ricostruisce la traiettoria ideologica e politica che ha trasformato il cuore dell’innovazione tecnologica occidentale nel laboratorio politico della nuova destra globale. E mostra come la retorica della libertà individuale e dell’emancipazione digitale abbia mascherato vecchie e nuove forme di dominio: disuguaglianze crescenti, colonizzazione dell’immaginario collettivo, erosione dei principi democratici.
  • Dario Guarascio autore di "Imperialismo digitale"
    Le Big Tech supportano strategie belliciste e partecipano direttamente alle attività militari e di intelligence. Lo Stato non può fare a meno delle loro capacità finanziarie, infrastrutturali e tecnologiche. Quanto sta avvenendo negli USA trova conferma in Cina, dove troviamo la stessa relazione tra le Big Tech locali e il Partito comunista.
  • Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter Thiel"
    Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza e sorveglianza basate sulla predizione dei crimini (stile Minority Report), fino ai teatri di guerra come Gaza

Ascolta le altre puntate di Tabula Rasa

Avete presente quella sensazione frustante che provate quando su Google appaiono solo pubblicità e su TikTok solo video fatti dall’IA? Ora ha un nome: enshittification. Secondo Cory Doctorow, è anche una geniale (e pericolosa) strategia aziendale.

Il post sul quale era citata la parola venne poi ripubblicato nell'edizione del gennaio 2023 su Wired:
«Ecco come muoiono le piattaforme: prima sono buone con i loro utenti, poi abusano di loro per migliorare il loro rapporto con i clienti aziendali e infine, abusano di questi ultimi per riprendersi da loro tutto il valore. E infine muoiono. Io chiamo questo fenomeno enshittification, ed è una conseguenza apparentemente inevitabile che deriva dalla combinazione della facilità di cambiare il modo in cui una piattaforma alloca il valore, unita alla natura di un "mercato a due facce", in cui una piattaforma si trova tra acquirenti e venditori, tenendo ciascuno in ostaggio dell'altro, rastrellando una quota sempre maggiore del valore che passa tra di loro.»

Ascolta il podcast sul sito di valori.it

Partiamo con un racconto, e un'analisi, di due sentenze a danno di Meta e Google che indicano che queste piattaforme usano la creazione di dipendenza come strumento fondamentale, e che questo crea danni reali alle sue utenti. Daranno il via ad un gran numero di cause simili? E se sì, quali conseguenze potrebbero avere?

Finché l'argomento del dibattito rimarrà confinato alle conseguenze su chi è minorenne - invece di riconoscere che queste piattaforme sono dannose per l'intera società - il rischio è che questo costituisca un'ulteriore spinta verso verifiche dell'età sempre più stringenti. A tal proposito, parliamo delle leggi in California e Brasile che introducono la verifica dell'età a livello di sistema operativo.

Concludiamo con alcune gravi vulnerabilità recenti trovate su iOS e su Telegram.

Comunicazione di servizio: le dita nella presa non andrà in onda il 5 Aprile.

Ascolta la trasmissione nel sito di Radio Ondarossa

La puntata affronta due argomenti principali: come gli LLM rappresentano una nuova minaccia per la privacy online e l'articolo di Matthew Honnibal che sostiene che i migioramenti dei grandi modelli linguistici non derivini solo da modelli sempre più grandi e costosi.

Il paper “Automated Profile Inference with Language Model Agents” (arXiv:2505.12402) studia una nuova minaccia per la privacy online resa possibile dai modelli linguistici di grandi dimensioni (LLM). Questa minaccia, chiamata inferenza automatizzata del profilo, consiste nell’uso di agenti AI per raccogliere e analizzare automaticamente le attività pubbliche degli utenti su piattaforme pseudonime (come forum o social media) al fine di estrarre informazioni personali sensibili, con il rischio di re-identificare le persone. Why I don’t think AI is a bubble

https://honnibal.dev/blog/ai-bubble

L’autore, sostiene che, al di là delle valutazioni finanziarie, i progressi tecnici dell’IA non mostrano segni di imminente plateau. Contesta l’argomento comune secondo cui i miglioramenti derivino solo dallo “scaling” (modelli sempre più grandi e costosi) e siano quindi destinati a esaurirsi. Honnibal spiega che questa visione, forse valida per i primi modelli come GPT-1 e GPT-2 (definibili “fancy autocomplete”), è oggi superata. Il vero salto di qualità è arrivato dall’integrazione con il reinforcement learning, che ha permesso di creare i cosiddetti “reasoning models”.

Ascolta la puntata su Radio Backout

Nella puntata di oggi con Privacy Network e STRALI si parla del Sistema Riconoscimento Automatico Immagini utilizzato daalle forze dell'ordine italiane.

Privacy Network & STRALI stanno indagando l’utilizzo di SARI Enterprise per capire quanto viene usato, se funziona, se è compatibile con la protezione dei dati personali, che bias emergono.
Cosa permette di fare? Chi lo utilizza? Da quanto tempo?

E AFIS (il database delle persone foto-segnalate)?

Ascolta l'audio sul sito di Radio Black out

Iniziamo segnalando un articolo da Logic che ci aiuta a riconoscere il sistema di caste indiano nella struttura di alcune delle applicazioni di "gig economy" destinate a quel mercato.

Con una compagna in studio facciamo delle riflessioni su un testo pubblicato sul sito di hackmeeting. A proposito, il prossimo hackmeeting è 12-14 Giugno al Csa Next Emerson a Firenze.

Notiziole:

  • Il treno a idrogeno non lo vuole neppure la Francia. Alstom chiude la sua unità di sviluppo su questa tecnologia, e l'Italia è rimasta l'unico acquirente di questo treno
  • No, il ChatControl non è ancora stato approvato
  • Sì, Elon Musk è più forte di Gesù, almeno secondo Grok

Ascolta il podcast sul sito di Radio Onda Rossa

Oggi l’intelligenza artificiale, lasciata in mano a una manciata di miliardari, diviene una minaccia esistenziale alla scuola. Oggi, contro questa I.A., diciamo BASTA!

Nella trasmissione di Radio Onda Rossa, l'Ora di Buco, si riparla di Intelligenza artificiale a scuola: un docente di informatica spiega tutto quello che non va nelle fumose linee guida ministeriali. Inoltre presenta l'appello alla comunità educante per rifiutare l'introduzione dell'Intelligenza Artificiale delle multinazionali e proporre invece delle tecnologie realmente utili a studenti, insegnanti e personale non docente della scuola.

Qui alcune riflessioni critiche e preoccupate, con l'appello da diffondere e firmare.

Ascolta l'audio dell'intervento

Vai alla puntata dell'Ora di Buco

L'intervento a Radio Onda Rossa di un collaboratore di C.I.R.C.E. a proposito dell'uso dell'intelligenza artificiale nella scuola a partire dalle linee guida recentemente emanate dal Ministero dell'Istruzione evidenziandone contraddizioni, limiti e speculazioni e sottolineando l'ennesimo trasferimento di fondi pubblici ai privati, i soliti big tech.

Molto in sistesi: l'Intelligenza Artificiale delle multinazionali tecnologiche, in particolare i Large Language Model, non andrebbe usata perché è insostenibile dal punto di vista ambientale, replica discriminazioni e stereotipi della società, standardizza scrittura e pensiero.

Ascolta l'audio dell'intervento