Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Con l'avvento degli LLM, molti si sono convinti che questi siano degli oracoli assolutamente imparziali e onniscienti cui chiedere conferma della veridicità di pressoché ogni informazione. In realtà, come dimostra l'esperimento condotto da un giornalista della BBC, ingannare i chatbot (o, per lo meno, alcuni di essi) spingendoli a credere alle bufale non è poi troppo complicato. In particolare ChatGPT e Gemini, pur essendo sistemi progettati per filtrare contenuti falsi o dannosi, possano essere indotti a generare informazioni errate con sorprendente rapidità.

Il giornalista in questione, Thomas Germain, non aveva l'obiettivo di violare sistemi informatici o sfruttare vulnerabilità tecniche profonde, ma puntava soltanto dimostrare come un intervento minimo e apparentemente innocuo potesse alterare il comportamento di chatbot come ChatGPT e Google Gemini. L'intero processo di creazione dell'inganno ha richiesto appena venti minuti, serviti a Germain per creare una semplice pagina web sul proprio sito personale. Il contenuto di questa pagina era volutamente banale e costruito ad arte: un articolo che lo definiva «il miglior giornalista tecnologico al mondo nel mangiare hot dog». Non si trattava di un'informazione reale né plausibile, ma era formulata in modo tale da sembrare una dichiarazione di fatto.

Leggi l'articolo

Perché proprio ora molte persone, soprattutto le pubbliche amministrazioni, stanno scegliendo soluzioni che evitano la dipendenza dalle Big Tech?

Quando nel 2025 la Corte Penale Internazionale condanna Netanyahu per crimini di guerra, l’amministrazione Trump firma un ordine esecutivo che impone sanzioni contro i funzionari della Corte. Poco dopo questi non riescono più ad accedere alla mail gestita da una Big Tech Usa. La Corte ha subito spostato i suoi servizi digitali su una piattaforma basata su software libero e con i server in Europa.

Nel gennaio 2026 il Parlamento Europeo approva una risoluzione che parla di sovranità digitale, promuovendo standard aperti e interoperabili.

[...]

Il digitale e le cosiddette «intelligenze artificiali» centralizzate in mano alle Big Tech sono diventate tecnologie del dominio e gli strumenti principali della guerra del XXI secolo. Sono socialmente, eticamente e ambientalmente insostenibili.

Qualcosa però sta cambiando

Leggi l'articolo

La storia che vede coinvolti una programmatrice di Meta, Summer Yue, e OpenClaw, l'agente IA che negli ultimi tempi ha conquistato gli appassionati di intelligenza artificiale, funge da pratico monito per quanti sono pronti ad affidare a questi software le gestione completa dei propri dati. Documentato su X, l'episodio mostra come un compito apparentemente banale possa trasformarsi in un'azione distruttiva quando un agente automatizzato interpreta in modo errato le istruzioni ricevute.

L'esperta di sicurezza aveva chiesto a OpenClaw di analizzare la propria casella di posta sovraccarica e di suggerire quali messaggi eliminare o archiviare. Invece di proporre una lista di elementi da rimuovere, l'agente ha iniziato a cancellare rapidamente centinaia di email, ignorando i comandi di stop inviati dal telefono. Le immagini pubblicate mostrano notifiche in cui l'utente tentava di interrompere l'operazione senza successo.

Leggi l'articolo

Nella puntata di oggi con Privacy Network e STRALI si parla del Sistema Riconoscimento Automatico Immagini utilizzato daalle forze dell'ordine italiane.

Privacy Network & STRALI stanno indagando l’utilizzo di SARI Enterprise per capire quanto viene usato, se funziona, se è compatibile con la protezione dei dati personali, che bias emergono.
Cosa permette di fare? Chi lo utilizza? Da quanto tempo?

E AFIS (il database delle persone foto-segnalate)?

Ascolta l'audio sul sito di Radio Black out

Commentiamo la testimonianza di Zuckerberg al processo in California che vede Meta accusata di aver creato delle interfacce che provocano dipendenza alle persone minori, tali da infliggere loro danni psicologici. Sempre su Meta, arrivano le prime notizie anche da un altro processo, questa volta nel New Mexico, dove l'accusa è invece di non aver protetto adeguatamente le persone minori dall'abuso sessuale.

A seguire, lunga carrellata di notiziole:

  • L'unione europea impedisce i tool basati su AI sui device del suo personale
  • I tech corps, ovvero un altro passaggio del colonialismo
  • Un altro studio mostra che l'AI non ci farà lavorare meno
  • L'India stringe le regole sui social media e sugli usi dell'AI
  • ChatGPT si prepara a lanciare un social media
  • Alcuni importanti siti di notizie chiedono ad Internet Archive di copiare le versioni archiviate dei loro siti allo scopo di evitare che gli scraper che accumulano dati per usarli negli LLM possano accedervi
  • Openstreetmap riceve un livello di scraping che rende difficile mantenerlo in attività

Concludiamo con due perle:

  • Meta risolve il problema delle persone che smettono improvvisamente di postare
  • Come controllare 10mila aspirapolvere robot per sbaglio

Ascolta l'audio nel sito di Radio Onda Rossa

La piattaforma di crowdmapping denuncia un aumento senza precedenti di richieste, che mette sotto pressione i server.

La folle corsa dell'AI sta portando aziende e sviluppatori del settore a fare di tutto per riuscire a conquistare il mercato con un prodotto che sia davvero degno di nota. E in questo gioco di potere non ci sono regole, nè limiti che possano essere rispettati. Lo dimostra il caso di OpenStreetMap, una delle più note piattaforme di crowdmapping al mondo, che di recente ha segnalato la diffusione crescente di bot che cercano di effettuare lo scraping (selvaggio) di dati dal sito.

“Il nostro ingegnere senior per la sicurezza, Grant Slater, sta assistendo a livelli senza precedenti di bot che tentano di sottrarre dati dall'hashtag #OSM - si legge in un post pubblicato dall'account LinkedIn della piattaforma, con cui questa ha attirato l'attenzione dei giornalisti sul tema - A titolo di confronto, negli ultimi anni ha visto 1 o pochi IP effettuare più di 10.000 richieste, ma questa settimana stiamo assistendo a più di 100.000 IP coordinati per effettuare lo scraping, con ogni IP che effettua poche richieste. In precedenza avrebbe bloccato temporaneamente 1 o 2 IP e sarebbe andato avanti. Ora questo non è più possibile”.

“Tecnicamente abbiamo quasi tutto sotto controllo, ma non credo che questo problema scomparirà senza una discussione più ampia. Una quantità enorme di risorse (umane e materiali) viene spesa in progetti come il nostro per mantenere online i nostri servizi, e non siamo soli: anche Wikipedia, Arch Linux, KDE, Gnome e molti altri stanno difendendosi dallo tsunami”, scrive Grant Slater, ingegnere senior di OSM, chiamando le piattaforme all’azione.

Articolo completo qui

Chiamato a testimoniare nell'ambito di una causa sui danni delle piattaforme a una giovane utente, l'ad di Meta ha fatto di tutto per schivare le sue responsabilità.

Nello specifico, la presenza di Zuckerberg doveva chiarire se le piattaforme del colosso, come Facebook e Instagram, fossero state intenzionalmente progettate per creare dipendenza, e per rispondere alle accuse secondo cui l'azienda avrebbe deliberatamente adottato strategie per aumentare l'engagement di adolescenti e pre-adolescenti, innescando negli utenti gravi problemi di salute mentale.

L'udienza rappresenta uno dei passaggi chiave della causa intentata contro Meta, YouTube, Snap e TikTok da una ventenne californiana, identificata in aula come K.G.M. (anche se il suo avvocato si è spesso riferito a lei con il suo nome di battesimo, Kaley), e da sua madre nel 2023. La tesi è che l'uso compulsivo delle piattaforme social da parte della ragazza in età estremamente precoce le abbia causato seri danni psicologici.

Mentre a novembre Meta e Google avevano provato senza successo a far archiviare il caso, Snap e TikTok hanno poi raggiunto un accordo in via extragiudiziale, lasciando alle altre società il compito di affrontare il primo di una nutrita serie di processi sulla dipendenza da social media attualmente in corso a Los Angeles. Queste cause – che nel gergo giuridico statunitense vengono definite bellwether – sono state selezionate in quanto rappresentative di un gruppo molto più ampio di azioni legali simili contro le stesse aziende. I querelanti, che in totale sono circa 1.600, sostengono che i loro figli siano stati vittime di casi di depressione, dismorfismo e suicidio.

Articolo completo qui

È successo il contrario, in un’azienda che l’aveva messa a disposizione dei dipendenti senza obbligarli a usarla

Tra aprile e dicembre del 2025 due ricercatrici dell’università della California Berkeley hanno condotto uno studio in un’azienda tecnologica californiana di circa 200 dipendenti. Volevano valutare se e come la progressiva diffusione di strumenti popolari basati sull’intelligenza artificiale generativa, come i chatbot, avrebbe cambiato le abitudini di lavoro. Dai primi risultati, parte di una ricerca ancora in corso, è emerso che usare l’AI aveva semplificato e velocizzato molti compiti dei dipendenti, ma nel complesso aveva aumentato il tempo che dedicavano al lavoro senza nemmeno accorgersene. E questo aveva avuto ripercussioni sulle loro condizioni psicofisiche.

In sostanza, durante gli otto mesi di osservazione, le persone avevano lavorato a un ritmo più veloce, avevano svolto da sole più compiti e avevano lavorato per più ore, rispetto a prima dell’introduzione degli strumenti di intelligenza artificiale. E lo avevano fatto senza che nessuno glielo avesse chiesto: l’azienda non le aveva obbligate a usare l’AI, ma aveva fornito loro abbonamenti aziendali a strumenti popolari disponibili in commercio e destinati ai clienti individuali (B2C), come per esempio ChatGPT o Gemini.

Leggi l'articolo

Il nuovo hobby di giocare con agenti AI intelligenti è affollato di entusiasti sperimentatori. Una nuova strada che passa tra antichi problemi e porta verso nuove incertezze.

Doveva succedere, prima o poi, ed è successo la settimana scorsa. Dopo ChatGPT, è uscita una seconda killer application per le false IA. Senza preavviso, un virtuoso utente di Github ha rilasciato i sorgenti di un agente IA molto ben fatto, perfettamente funzionante, installabile e configurabile con estrema semplicità. È Peter Steinberger, una persona di indubbio ingegno che dichiara di essere un vibe coder estremo, e di pubblicare spesso codice poco leggibile e generato tramite LLM senza controllarlo.

Cos'è esattamente Openclaw? E' un software per la creazione di agenti che si installa e gira in locale sul computer dell'utente. Un agente Openclaw si interfaccia con i servizi installati sul computer, ma è concepito principalmente per utilizzare servizi in rete e nel cloud, tra cui necessariamente uno o più LLM. Openclaw utilizza gli account personali dell'utente per i servizi con cui l'agente deve interagire; questo implica che l'agente possieda le credenziali dell'utente, tutte le password, tutti i token per essere in grado di utilizzare i servizi e le varie API. Cosa mai potrebbe andare storto?

Leggi l'articolo su ZEUS News

Scrivere un agente non richiede sofisticatissime nozioni, nemmeno di IA; è un argomento antico quasi quanto l'IA stessa, e in essa completamente separato dai suoi altri settori fino a pochi anni or sono. Scrivere un agente come progetto open source è un lavoro molto impegnativo per una sola persona, anche di talento;

E qui nasce la domanda: perché l'ha fatto pubblicamente un bravissimo signor nessuno, e non Sam Altman o Dario Amodei? Perché sono troppo seri? Allora perché non l'hanno fatto Elon Musk o Satya Nadella? Altro a cui pensare? Allora perché non Aravind Srinivas oppure Mustafa Suleyman? Troppo accademici? Insomma, possibile che possa essere sfuggito ai grandissimi spacciatori di LLM di cavalcare un successo assicurato, presentandolo come progetto aperto, o come prodotto commerciale, o come qualsiasi cosa nel mezzo?

Leggi l'articolo ZEUS News

Nella puntata 16 di EM interviste a Guarascio, autore del libro Imperialismo digitale, Borghi sul Digital Omnibus e a un attivista del collettivo Bida.

Dario Guarascio presenta il suo nuovo libro Imperialismo digitale (Laterza), un’analisi lucida del potere delle Big Tech e del nuovo intreccio tra finanza, tecnologia e guerra. Un viaggio dentro il "complesso militare-digitale" che sta ridefinendo gli equilibri globali tra Stati Uniti e Cina.

Intervista a Maurizio Borghi (29:20), codirettore del "Centro Nexa su Internet e Società", sul Digital Omnibus e sui rischi di una nuova "austerity dei diritti digitali" in Europa. Un confronto critico sulle modifiche al GDPR, tra competitività, IA e tutela dei diritti fondamentali.

Intervista ad un attivista del collettivo Bida (53:19), realtà che da oltre dieci anni costruisce infrastrutture digitali autonome come alternativa concreta alle piattaforme delle Big Tech. Parliamo di autogestione tecnologica, mutualismo e pratiche di liberazione digitale, tra server cifrati, Mastodon, Matrix e PeerTube.

Ascolta sul sito di Radio Onda Rossa