È una proposta di legge UE che obbligherebbe i servizi di messaggistica (come WhatsApp, Signal e Telegram) a scansionare tutti i contenuti delle chat, anche se crittografate, per cercare materiale pedopornografico noto o sconosciuto.
Quando ci sarà il prossimo passaggio chiave? Il 14 ottobre, in un incontro tra il Consiglio dell’UE e il Ministro della Giustizia europeo. Si deciderà se portare la proposta ai negoziati finali (trilogo).
Sta creando molti timori sulla privacy dei cittadini europei il disegno di legge europeo che obbligherebbe i servizi di messaggistica (come WhatsApp, Signal e Telegram) a scansionare tutti i contenuti delle chat, anche se crittografate, per cercare materiale pedopornografico noto o sconosciuto.
Ciò che è stato soprannominato “Chat Control” mira a introdurre nuovi obblighi per tutti i servizi di messaggistica operanti in Europa di scansionare le chat degli utenti, anche se crittografate, alla ricerca di materiale pedopornografico, sia noto che sconosciuto. Una misura che ha suscitato forti critiche sia tra i ranghi politici che nel settore tecnologico.
Secondo gli ultimi dati provenienti dal sito web Fight Chat Control, molti paesi hanno cambiato posizione dopo l’incontro del 12 settembre e in vista del prossimo, previsto per il 14 ottobre.
Il Garante della privacy ha emesso un provvedimento per bloccare il trattamento dei dati personali degli utenti italiani da parte della società titolare dell’app Clothoff: permetteva a chiunque di creare nudi deepfake, anche a contenuto pornografico, a partire da foto di persone reali.
La decisione del Garante
Con il provvedimento del primo ottobre 2025 il Garante "ha disposto, in via d’urgenza e con effetto immediato, la limitazione provvisoria del trattamento dei dati personali degli utenti italiani nei confronti di una società, con sede nelle Isole Vergini Britanniche, che gestisce l’app Clothoff".
La limitazione provvisoria al trattamento dei dati degli utenti italiani – si legge nel provvedimento – durerà il tempo necessario al Garante per lo svolgimento dell'istruttoria avviata nei confronti della società titolare di Clothoff.
L'amministrazione Trump vuole creare un sistema di sorveglianza di massa per scoprire gli immigrati irregolari analizzando i contenuti sui social media.
L’amministrazione Trump ha previsto di creare un team di sorveglianza che aiuterà l’ICE (Immigration and Customs Enforcement) a trovare immigrati clandestini attraverso la scansione dei contenuti pubblicati sui social media. La scorsa settimana, Apple e Google hanno rimosso dai rispettivi store alcune app che permettevano di segnalare la posizione degli agenti dell’ICE.
In base ai documenti pubblicati sulla piattaforma per gli appalti, l’agenzia federale cerca fornitori privati per un programma di sorveglianza. Un team di 28 esperti, che lavorerà nelle sedi dell’ICE in Vermont e Sud California, avrà il compito di analizzare i contenuti pubblicati su Facebook, Instagram, TikTok, Reddit, YouTube e altri social media per raccogliere informazioni utili all’individuazione di immigrati clandestini.
Ovviamente verrà anche utilizzata l’intelligenza artificiale.
Articolo qui
Lunga puntata dedicata ad un racconto, attraverso molti report di 7amleh - centro di ricerca arabo sui social media - e non solo, dell'uso della tecnologia da parte di Israele come strumento di oppressione e di genocidio.
Il primo frammento di audio è dedicato al tema della distruzione dell'infrastruttura di rete; e alle difficoltà di comunicazione delle persone palestinesi in un contesto di censura che, in più, richiede a chi subisce un genocidio di performare il ruolo della vittima nei modi richiesti dai social media.
Proseguiamo con una rassegna delle tecnologie militari che non sarebbero possibili senza il coinvolgimento delle solite grandi imprese.
Infine, risultati delle campagne di boicottaggio e lotte per fermare i rapporti tra queste aziende e Israele.
Presentato durante il DIG Festival di Modena, racconta l'inquietante dietro le quinte di chi sostiene interi sistemi tecnologici. Ne abbiamo parlato con il regista, Henri Poulain
L’intelligenza artificiale occupa uno spazio sempre maggiore nel dibattito contemporaneo. Soprattutto al cinema dove è diventato il prisma attraverso cui si riflettono le nostre paure, le nostre speranze e le domande più radicali sull’identità umana, sul controllo della tecnologia e sul futuro della società. L’AI è diventata un vero campo di battaglia politico e sociale, dove si incontrano, e si scontrano, questioni economiche, ambientali e legate ai diritti dei lavoratori. Ancora una volta è il cinema a investigare questo rapporto complesso, mostrando cosa si nasconde dietro dati, cloud e reti digitali, grazie al prezioso documentario In the Belly of AI, diretto da Henri Poulain, presentato durante il DIG Festival di Modena.
Un’opera che smonta l’illusione di un’intelligenza artificiale immateriale e trascendente, rivelando invece quale prezzo paghiamo quotidianamente per sostenere interi sistemi tecnologici, infrastrutture che consumano e dilapidano energia, risorse naturali e vite umane. In the Belly of AI parte proprio da questo per raccontare la vita lavorativa dei data worker che, secondo un rapporto della World Bank pubblicato lo scorso anno, si stima che nel mondo siano tra i 150 e i 430 milioni, e che il loro numero sia cresciuto in modo esponenziale nell’ultimo decennio.
Domenica 5 ottobre alle ore 16,30 C.I.R.C.E. condurrà il laboratorio di Pedagogia Hacker "Giocare o essere giocati" all'interno del Festival Interferenze Costruttive a Roma.
Molti videogiochi catturano la nostra attenzione al punto da creare forme di abitudine e assuefazione costruite magistralmente sulle vulnerabilità comuni a tutti gli umani. In maniera analoga siamo chiamati a partecipare e a contribuire instancabilmente alle “comunità” digitali, costruite seguendo tecniche di gamificazione.
Su Instagram, TikTok, Facebook, ogni esperienza di interazione sociale si trasforma in una complicata gara, con un sacco di punti e classifiche, livelli e campioni. Conosciamo per esperienza diretta le regole di questi “giochi”: se ci comportiamo bene, otteniamo molti “like”, strike, notifiche, cioè caramelle sintetiche per i nostri cervelli (sotto forma di dopamina); se siamo scarsi rimaniamo a bocca asciutta. Di certo, “vincere” non è mai abbastanza: dobbiamo sempre lavorare di più, perché il “gioco” non finisce mai…
Durante questo laboratorio analizzeremo le interfacce dei social media per osservare come ci fanno sentire, ragioneremo sulla differenza tra social media e social network. Metteremo le mani in pasta per scoprire strumenti FLOSS progettati per fare rete a partire dai desideri di comunità reali.
3-4-5 ottobre 2025: prima edizione del festival culturale di Radio Onda Rossa "Interferenze Costruttive" presso il CSOA La Torre, a via Bertero 13, Roma.
Per conoscere il programma delle tre giornate visitare il sito di radio onda rossa
L’azienda Usa è privata ma lavora per i governi.
Il potere, militare e non, oggi parla in codice. Palantir, la società fondata vent’anni fa a Palo Alto, è diventata la piattaforma che governi e eserciti usano per mettere ordine nel caos dei dati. Non produce armamenti, ma costruisce il software che li guida, nelle missioni e nelle decisioni. Ma soprattutto è lo strumento attraverso cui Peter Thiel, imprenditore e investitore, allarga la sua influenza sulla politica di Washington e sulla nuova amministrazione Trump.
Un unicum diventato imprescindibile per ogni esercito. I prodotti principali di Palantir hanno nomi evocativi, funzionali per far comprendere in fretta la loro utilità marginale. Gotham, usato da intelligence e forze armate, integra basi dati classificate e scenari operativi. Foundry, pensato per imprese e amministrazioni civili, costruisce copie digitali dei processi per ottimizzare logistica, forniture, ospedali. Apollo gestisce la distribuzione del software anche su reti isolate e ambienti critici. L’ultima evoluzione è AIP, la piattaforma che incapsula modelli di intelligenza artificiale nei contesti più sensibili, evitando fughe di dati e garantendo tracciabilità. L’obiettivo è ridurre la distanza tra analisi e decisione, riducendo i rischi collaterali.
L'intervento a Radio Onda Rossa di un collaboratore di C.I.R.C.E. a proposito dell'uso dell'intelligenza artificiale nella scuola a partire dalle linee guida recentemente emanate dal Ministero dell'Istruzione evidenziandone contraddizioni, limiti e speculazioni e sottolineando l'ennesimo trasferimento di fondi pubblici ai privati, i soliti big tech.
Molto in sistesi: l'Intelligenza Artificiale delle multinazionali tecnologiche, in particolare i Large Language Model, non andrebbe usata perché è insostenibile dal punto di vista ambientale, replica discriminazioni e stereotipi della società, standardizza scrittura e pensiero.
Seconda parte del bignamino di Quatrociocchi sugli LLM spiegati senza supercazzole.
Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente.
Riporto di seguito i concetti. L'originale si può leggere su Linkedin
Walter Quattrociocchi ha pubblicato un bignamino di concetti base degli LLM. (ovvero: capire in 90 secondi un LLM e sembrare competenti a cena senza coprire l’abisso delle proprie lacune con il pensiero circolare e le supercazzole pop-filosofiche sull’etica dei termosifoni col cimurro)
Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente.
Riporto di seguito i concetti. L'originale si può leggere su Linkedin