Il 30 aprile la puntata di Fahrenheit ha ospitato Agnese Trocchi, ricercatrice di CIRCE e autrice del libro Internet Mon Amour (Altraeconomia) e Leonardo Bianchi, giornalista e scrittore, curatore di Complotti!, una newsletter di Internazionale sul complottismo.
Da Gesù al mafioso: Trump il banalizzatore. Partendo da qui hanno parlato della propaganda nelle piattaforme digitali, del funzionamento dei social media commerciali, delle tecnologie conviviali e naturalmente di Internet Mon Amour: il pentamerone hacker, sci-fi, femminista di cui è autrice Agnese Trocchi.
Ascolta l'audio
In questa puntata di Hackordie, in onda un martedì si e uno no su Radio Città Fujiko:
C'è una tendenza, c'è un movimento che sta prendendo abbastanza forza per liberarsi del monopolio della tecnologia prodotta dalla Silicon Valley.
Quando sosteniamo che la tecnologia non è mai neutra e anzi è politica, una delle risposte che più spesso ci viene rivolte, una delle obiezioni più comuni, è che gli strumenti sono neutri ma dipende dall'uso che ne facciamo.
È interessante notare però come al cambiare della situazione politica internazionale cambino anche gli approcci alla tecnologia e ciò conferma che la tecnologia, non solo non è neutra, ma è anche pienamente politica.
L'esempio più importante e più significativo degli ultimi anni è il fatto che i governi europei, l'Unione Europea stessa, stiano iniziando dei percorsi in modo variato, magari un po' precario, ma comunque stiano iniziando dei percorsi per rendersi indipendenti dalle tecnologie americane, dalle tecnologie prodotte nella Silicon Valley.
Nella seconda parte di puntats si parla della suite drive di Cryptpad ospitata su Disroot.org
il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza artificiale e il potere delle big tech. Ospiti della puntata:
Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter Thiel"
Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza e sorveglianza basate sulla predizione dei crimini (stile Minority Report), fino ai teatri di guerra come Gaza
Avete presente quella sensazione frustante che provate quando su Google appaiono solo pubblicità e su TikTok solo video fatti dall’IA? Ora ha un nome: enshittification. Secondo Cory Doctorow, è anche una geniale (e pericolosa) strategia aziendale.
Il post sul quale era citata la parola venne poi ripubblicato nell'edizione del gennaio 2023 su Wired:
«Ecco come muoiono le piattaforme: prima sono buone con i loro utenti, poi abusano di loro per migliorare il loro rapporto con i clienti aziendali e infine, abusano di questi ultimi per riprendersi da loro tutto il valore. E infine muoiono. Io chiamo questo fenomeno enshittification, ed è una conseguenza apparentemente inevitabile che deriva dalla combinazione della facilità di cambiare il modo in cui una piattaforma alloca il valore, unita alla natura di un "mercato a due facce", in cui una piattaforma si trova tra acquirenti e venditori, tenendo ciascuno in ostaggio dell'altro, rastrellando una quota sempre maggiore del valore che passa tra di loro.»
Partiamo con un racconto, e un'analisi, di due sentenze a danno di Meta e Google che indicano che queste piattaforme usano la creazione di dipendenza come strumento fondamentale, e che questo crea danni reali alle sue utenti. Daranno il via ad un gran numero di cause simili? E se sì, quali conseguenze potrebbero avere?
Finché l'argomento del dibattito rimarrà confinato alle conseguenze su chi è minorenne - invece di riconoscere che queste piattaforme sono dannose per l'intera società - il rischio è che questo costituisca un'ulteriore spinta verso verifiche dell'età sempre più stringenti. A tal proposito, parliamo delle leggi in California e Brasile che introducono la verifica dell'età a livello di sistema operativo.
Concludiamo con alcune gravi vulnerabilità recenti trovate su iOS e su Telegram.
Comunicazione di servizio: le dita nella presa non andrà in onda il 5 Aprile.
La puntata affronta due argomenti principali: come gli LLM rappresentano una nuova minaccia per la privacy online e l'articolo di Matthew Honnibal che sostiene che i migioramenti dei grandi modelli linguistici non derivini solo da modelli sempre più grandi e costosi.
Il paper “Automated Profile Inference with Language Model Agents” (arXiv:2505.12402) studia una nuova minaccia per la privacy online resa possibile dai modelli linguistici di grandi dimensioni (LLM). Questa minaccia, chiamata inferenza automatizzata del profilo, consiste nell’uso di agenti AI per raccogliere e analizzare automaticamente le attività pubbliche degli utenti su piattaforme pseudonime (come forum o social media) al fine di estrarre informazioni personali sensibili, con il rischio di re-identificare le persone. Why I don’t think AI is a bubble
https://honnibal.dev/blog/ai-bubble
L’autore, sostiene che, al di là delle valutazioni finanziarie, i progressi tecnici dell’IA non mostrano segni di imminente plateau. Contesta l’argomento comune secondo cui i miglioramenti derivino solo dallo “scaling” (modelli sempre più grandi e costosi) e siano quindi destinati a esaurirsi. Honnibal spiega che questa visione, forse valida per i primi modelli come GPT-1 e GPT-2 (definibili “fancy autocomplete”), è oggi superata. Il vero salto di qualità è arrivato dall’integrazione con il reinforcement learning, che ha permesso di creare i cosiddetti “reasoning models”.
Nella puntata di oggi con Privacy Network e STRALI si parla del Sistema Riconoscimento Automatico Immagini utilizzato daalle forze dell'ordine italiane.
Privacy Network & STRALI stanno indagando l’utilizzo di SARI Enterprise per capire quanto viene usato, se funziona, se è compatibile con la protezione dei dati personali, che bias emergono.
Cosa permette di fare? Chi lo utilizza? Da quanto tempo?
E AFIS (il database delle persone foto-segnalate)?
Iniziamo segnalando un articolo da Logic che ci aiuta a riconoscere il sistema di caste indiano nella struttura di alcune delle applicazioni di "gig economy" destinate a quel mercato.
Con una compagna in studio facciamo delle riflessioni su un testo pubblicato sul sito di hackmeeting. A proposito, il prossimo hackmeeting è 12-14 Giugno al Csa Next Emerson a Firenze.
Notiziole:
Oggi l’intelligenza artificiale, lasciata in mano a una manciata di miliardari, diviene una minaccia esistenziale alla scuola. Oggi, contro questa I.A., diciamo BASTA!
Nella trasmissione di Radio Onda Rossa, l'Ora di Buco, si riparla di Intelligenza artificiale a scuola: un docente di informatica spiega tutto quello che non va nelle fumose linee guida ministeriali. Inoltre presenta l'appello alla comunità educante per rifiutare l'introduzione dell'Intelligenza Artificiale delle multinazionali e proporre invece delle tecnologie realmente utili a studenti, insegnanti e personale non docente della scuola.
Qui alcune riflessioni critiche e preoccupate, con l'appello da diffondere e firmare.
L'intervento a Radio Onda Rossa di un collaboratore di C.I.R.C.E. a proposito dell'uso dell'intelligenza artificiale nella scuola a partire dalle linee guida recentemente emanate dal Ministero dell'Istruzione evidenziandone contraddizioni, limiti e speculazioni e sottolineando l'ennesimo trasferimento di fondi pubblici ai privati, i soliti big tech.
Molto in sistesi: l'Intelligenza Artificiale delle multinazionali tecnologiche, in particolare i Large Language Model, non andrebbe usata perché è insostenibile dal punto di vista ambientale, replica discriminazioni e stereotipi della società, standardizza scrittura e pensiero.