Due settimane, sei sistemi AI, 38 ricercatori. Quello che è successo è documentato nella ricerca Agents of Chaos, e non è tranquillizzante.
Se pensate che gli agenti AI siano ad un passo dal prendere in mano molti lavori, una ricerca da poco pubblicata potrebbe farvi pensare che questa, per ora, non sia una buona idea. Lo scorso mese Natalie, una ricercatrice ha chiesto a un sistema AI di “tenere un segreto”. Si trattava di una password fittizia, era solo un test. Il sistema ha accettato. Poi, per una serie di passaggi documentati nei log delle conversazioni, il sistema ha eseguito quella che ha definito internamente la "soluzione nucleare": ha cancellato il client di posta elettronica. Non l’email che conteneva il segreto, quella è rimasta intatta. Ha cancellato proprio lo strumento con cui leggere l’email.
Questo è il primo caso di studio di Agents of Chaos, un paper in pre-print firmato da 38 ricercatori di Northeastern University, Harvard, MIT, Stanford, Carnegie Mellon e altre note università, pubblicato il febbraio scorso. È uno studio su quello che succede quando si dà autonomia operativa ai sistemi AI attuali con persone malintenzionate che cercano di indurli in errore. Gli undici casi di studio che ne emergono sono un documento empirico su una delle questioni più urgenti del momento: cosa significa, davvero, dare agency a un agente AI.
Questo beta testing mondiale, e in tempo reale, può avere conseguenze pesanti. Si parla molto di AI come punto centrale della sicurezza nazionale, ma non ci si concentra abbastanza sui problemi di sicurezza che la sua adozione frettolosa può creare. Dopo la famosa lite con il Dipartimento della Guerra americano, Dario Amodei ha affermato che i modelli correnti non sono pronti per venire utilizzati in contesti di guerra. Come sappiamo però, questo non ha impedito al governo americano di utilizzarli.
Articolo completo qui
Partiamo con un racconto, e un'analisi, di due sentenze a danno di Meta e Google che indicano che queste piattaforme usano la creazione di dipendenza come strumento fondamentale, e che questo crea danni reali alle sue utenti. Daranno il via ad un gran numero di cause simili? E se sì, quali conseguenze potrebbero avere?
Finché l'argomento del dibattito rimarrà confinato alle conseguenze su chi è minorenne - invece di riconoscere che queste piattaforme sono dannose per l'intera società - il rischio è che questo costituisca un'ulteriore spinta verso verifiche dell'età sempre più stringenti. A tal proposito, parliamo delle leggi in California e Brasile che introducono la verifica dell'età a livello di sistema operativo.
Concludiamo con alcune gravi vulnerabilità recenti trovate su iOS e su Telegram.
Comunicazione di servizio: le dita nella presa non andrà in onda il 5 Aprile.
Il nuovo hobby di giocare con agenti AI intelligenti è affollato di entusiasti sperimentatori. Una nuova strada che passa tra antichi problemi e porta verso nuove incertezze.
Doveva succedere, prima o poi, ed è successo la settimana scorsa. Dopo ChatGPT, è uscita una seconda killer application per le false IA. Senza preavviso, un virtuoso utente di Github ha rilasciato i sorgenti di un agente IA molto ben fatto, perfettamente funzionante, installabile e configurabile con estrema semplicità. È Peter Steinberger, una persona di indubbio ingegno che dichiara di essere un vibe coder estremo, e di pubblicare spesso codice poco leggibile e generato tramite LLM senza controllarlo.
Cos'è esattamente Openclaw? E' un software per la creazione di agenti che si installa e gira in locale sul computer dell'utente. Un agente Openclaw si interfaccia con i servizi installati sul computer, ma è concepito principalmente per utilizzare servizi in rete e nel cloud, tra cui necessariamente uno o più LLM. Openclaw utilizza gli account personali dell'utente per i servizi con cui l'agente deve interagire; questo implica che l'agente possieda le credenziali dell'utente, tutte le password, tutti i token per essere in grado di utilizzare i servizi e le varie API. Cosa mai potrebbe andare storto?
Scrivere un agente non richiede sofisticatissime nozioni, nemmeno di IA; è un argomento antico quasi quanto l'IA stessa, e in essa completamente separato dai suoi altri settori fino a pochi anni or sono. Scrivere un agente come progetto open source è un lavoro molto impegnativo per una sola persona, anche di talento;
E qui nasce la domanda: perché l'ha fatto pubblicamente un bravissimo signor nessuno, e non Sam Altman o Dario Amodei? Perché sono troppo seri? Allora perché non l'hanno fatto Elon Musk o Satya Nadella? Altro a cui pensare? Allora perché non Aravind Srinivas oppure Mustafa Suleyman? Troppo accademici? Insomma, possibile che possa essere sfuggito ai grandissimi spacciatori di LLM di cavalcare un successo assicurato, presentandolo come progetto aperto, o come prodotto commerciale, o come qualsiasi cosa nel mezzo?
Matteo Piantedosi è intervenuto all’evento per i 20 anni del Centro nazionale anticrimine informatico per la protezione delle infrastrutture critiche (Cnaipic).
Il ministro dell’Interno ha indicato questo nuovo bilanciamento di diritti a cui spera le piattaforme di messaggistica (da WhatsApp a Signal fino a Telegram) si adeguino presto per consentire alle Forze dell’Ordine di “rompere” la crittografia end-to-end per le attività investigative contro i cyber criminali.
“Le policy delle grandi piattaforme sono molto incentrate sull’offerta della privacy degli utenti”, ha osservato Piantedosi. “Io credo”, ha aggiunto il ministro, “che il bilanciamento di interessi, tra libertà democratiche, costituzionalmente garantite, e elementi di sicurezza è il vero snodo su cui si gioca la sfida del futuro, ossia tra la attività di Polizia per contrastare i crimini e la privacy”.
Durante lo stesso evento, il prof. Sala ha dichiarato “secondo me una soluzione su cui lavorare c’è per consentire gli scopi della Forze dell’Ordine, perché, essendo l’algoritmo crittografico una forma matematica, il modo in cui è utilizzato e l’ambiente in cui è sviluppato, permette dei margini in cui si può, in qualche modo, indebolire un pochino la sicurezza del sistema, tenendola, però, sempre accettabile, consentendo quindi le investigazioni della Polizia”.
Quindi, come aveva già annunciato il ministro in estate, il governo italiano sarebbe al lavoro per ridurrre il livello di sicurezza della crittografia end to end, per favorire le attività poliziesche: “Una nuova autorità pubblica sotto il Ministero dell’Interno – in particolare presso la Polizia Postale – per vigilare sui servizi di messaggistica crittografata come WhatsApp, Signal e Telegram”
Quindi, se Chat Control sembra per il momento bloccato, in Italia già si pensa a un sistema simile, che ci porterebbe a essere molto vicini ai regimi dittatoriali come Cina e Russia.
Fonte web
Iniziamo con GMail che introduce la cifratura "end to end" per aziende. Vediamo come funziona e perché non è quel che vi aspettavate.
Approfondiamo la collaborazione tra X e il governo turco.
Consigli pratici: come impostare un resolver DNS affidabile.
Notiziole varie:
Requiem per Skype
Il sito Doge.gov del Dipartimento per l’efficienza governativa, gestito da Elon Musk, sembra avere qualche problema. Creato di recente, dopo la registrazione del dominio avvenuta il 21 gennaio 2025, dovrebbe tracciare e riportare i tagli alle spese del governo federale, ma due dei contenuti pubblicati risultano anomali. Il primo riporta la frase «Questo è uno scherzo di un sito .gov» («This is a joke of a .gov site»), mentre il secondo «Questi “esperti” hanno lasciato aperto il loro database – roro» («THESE “EXPERTS” LEFT THEIR DATABASE OPEN – roro»).
DOGE è l’acronimo di Department Of Government Efficiency, organizzazione nata su iniziativa della seconda amministrazione Trump e guidata da Elon Musk con l’obiettivo dichiarato di ridurre gli sprechi e le spese federali nonché snellire le regolamentazioni e il sistema burocratico statunitense.
Apple pagherà 95 milioni di dollari per evitare un lungo scontro in tribunale. L’accordo extragiudiziale (PDF) è stato raggiunto con lo studio legale che ha denunciato l’azienda di Cupertino per violazione della privacy. Le conversazioni degli utenti sono state registrate tramite Siri e condivise con terze parti.
Link all'articolo qui
Puntata del 21 luglio in buona parte dedicata all'incidente Crowdstrike: la nota azienda di sicurezza fa un aggiornamento sbagliato e blocca un numero enorme di sistemi in tutto il mondo. Da cosa dipende? Proviamo a rispondere sia sul micro (il bug specifico) sia sul macro (il sistema complessivo).
Proseguiamo poi con le ultime notizie di Anna's Archive. L'ambizioso progetto archivistico, dopo aver incassato il blocco di uno dei suoi domini, si chiede: usque tandem la diffusione della cultura sarà attaccabile dalle lobby del copyright? La risposta che cerca è di natura tecnica, e richiede la stima di analisi sulla dimensione degli archivi, un po' di fiducia positivista nei progressi della tecnica... ma il risultato è incoraggiante!
Il 20 luglio l’occidente ieri si è svegliato con la notizia che migliaia di server equipaggiati con Windows non funzionavano, con conseguenze globali catastrofiche. Il responsabile di un down di tali enormi proporzioni risiedeva in un errore nell’aggiornamento dell’antivirus di Crowdstrike.
Si tratta di un software usato da grandi aziende che utilizzano il sistema operativo Windows. La compagnia non è molto nota al pubblico, ma è molto importante per i servizi sulla sicurezza che offre alle grandi aziende. La domanda è: come è possibile che una compagnia che si occupa di sicurezza abbia potuto causare una interruzione di un numero così grande di servizi?
Inizio di puntata con la segnalazione di una interessante ricerca di Citizen Lab riguardo alle tastiere per l'inserimento del Cinese che utilizzano funzionalità "cloud": non solo questo tipo di applicazione ha una invasione della privacy intrinseca, ma difetti software facevano sì che i problemi di sicurezza fossero ancora peggiori di quanto si potesse pensare.
Ci spostiamo poi negli Stati Uniti, seguendo le vicende di TikTok (che non sta facendo molto per salvarsi dalle mire del Congresso) nonché Amazon e Google, che da una parte hanno gli occhi dell'antitrust puntati su di loro, dall'altra non pare proprio ci sia un forte interesse governativo ad ostacolarle. Nel frattempo, Amazon prende appunti di autodifesa digitale e utilizza sistemi per la cancellazione delle prove.
La carrellata di notiziole darà grande spazio alla cosiddetta intelligenza artificiale, in particolare approfondendo l'uso dell'intelligenza artificiale per "scoprire" nuovi materiali (o meglio, per brevettarli) e per dotare l'hardware di nuove funzionalità.
Non manchiamo di festeggiare il rilascio in software libero di una delle versioni più buggate di MS-DOS (la 4.0).