La puntata 131 del podcast di Simone Pieranni parte dalle proteste dei dipendenti di Palantir contro il coinvolgimento dell'azienda nella brutalità dell'ICE e nella guerra in Iran e arriva a raccontarci perché, e come, la Silicon Valley vuole dominare il mondo.
Ma è nella seconda parte che il podcast è più interessante.
Ascolta il podcast
La fallacia del “modello linguistico” sarebbe rimasta confinata nel mondo della matematica astratta se le multinazionali della Silicon Valley non avessero un bisogno disperato di ripagare, almeno in parte, gli enormi investimenti fatti al buio nell’intelligenza artificiale. Il mercato non ripaga: le grasse commesse pubbliche, meglio se militari, sì. Con esiti fatali, come dimostra il bombardamento della scuola Minab, in Iran, a fine febbraio
“È la generazione, attraverso modelli, di un reale privo di origine o di realtà: un iper reale. Il territorio non precede più la mappa, né le sopravvive. È tuttavia la mappa che precede il territorio -la precessione dei simulacri- a generare il territorio”, Jean Baudrillard, “Simulacres et Simulation”, 1981.
[...]
Dopo lo sversamento all’esterno dei laboratori di ricerca dei modelli linguistici seguito al lancio di ChatGPT, informatica e politica sembrano preda di un pensiero molto simile a quello dei cartografi del racconto di Borges. La sana fiducia nell’utilità di modelli matematici per predire il comportamento del mondo fisico si è tramutata in fede cieca e assoluta. Secondo le imprese della Silicon Valley (e i loro protettori alla Casa Bianca) dovremmo prendere questi modelli a nostra “mappa del mondo”, per orientarci nel prendere decisioni importanti, soprattutto in emergenza.
Dopo vari attacchi ai grandi centri di elaborazione dati fondamentali per lo sviluppo dell'intelligenza artificiale, si sta pensando a come proteggerli
La guerra in Medio Oriente è iniziata in un momento delicato per i paesi del Golfo, impegnati da anni in una corsa alla costruzione di grandi data center per lo sviluppo dell’intelligenza artificiale (AI). Arabia Saudita ed Emirati Arabi Uniti si erano proposti come centri regionali per il settore, attirando investimenti miliardari da aziende come Nvidia, Amazon e Microsoft, grazie alla loro posizione geografica – tra Europa, Asia e Africa – e al basso costo dell’energia. Nel giro di poche settimane, la guerra ha messo tutto in discussione.
Ai primi di marzo il regime iraniano cominciò a rispondere agli attacchi di Stati Uniti e Israele colpendo proprio i paesi del Golfo, tra i principali alleati statunitensi nella regione. In particolare, l’Iran attaccò tre data center, negli Emirati Arabi Uniti e in Bahrein, di proprietà di Amazon Web Services, la divisione di Amazon che si occupa di cloud, ovvero di sistemi di archiviazione esterna che consentono di accedere a file o servizi via internet. Nei giorni successivi un attacco statunitense colpì un data center di Bank Sepah, la principale banca iraniana
Nel giro di pochi giorni, i data center si sono ritrovati al centro della guerra. Da allora il settore tecnologico si è messo in cerca di soluzioni per proteggere i data center, specie nelle zone di guerra.
Piu' di 560 dipendenti di Google hanno firmato una lettera aperta per l'amministratore delegato Sundar Pichai esortandolo a rifiutarsi di consentire al governo americano di utilizzare la propria tecnologia di intelligenza artificiale per operazioni militari classificate.
'Vogliamo che l'IA vada a beneficio dell'umanita', anziche' essere impiegata in modi disumani o estremamente dannosi. Cio' include le armi autonome letali e la sorveglianza di massa, ma si estende oltre', hanno scritto. 'L'unico modo per garantire che Google non sia associata con questo, consiste nel rifiutare qualsiasi carico di lavoro classificato', mette in evidenza la missiva.
Fonte Ansa
La protesta segue una controversia legale tra il Pentagono e Anthropic PBC sull’uso dell’IA per applicazioni militari. Il Pentagono sta cercando di escludere Anthropic e il suo strumento di IA Claude dalle catene di approvvigionamento della difesa statunitense ed è alla ricerca di nuovi partner tra i giganti tecnologici dell’IA, tra cui ovviamente Google.
I dipendenti di Google avevano già lanciato l’allarme sui rischi della guerra basata sull’IA nel 2018 e avevano costretto l’azienda a limitare il suo lavoro nel settore della difesa.
Dipendenti Google e OpenAI firmano documento per limitare l'AI militare qui
Nel digitale tutto è scrittura – i siti web, i social media, le immagini e i video, ogni azione, come mettere un like o comprare qualcosa – tutto è fatto di scrittura, nelle sue fondamenta di codice informatico, ma la maggior parte di questa scrittura rimane nascosta ai nostri occhi, esclusa by design dagli schermi che ci circondano e su cui passa una parte sempre più grande delle nostre vite.
L’«imperativo funzionale» di cui parla Marcello Vitali-Rosati in Éloge du bug. Être libre à l’époque du numérique (Zone, 2024) è incorporato nei dispositivi e nei servizi che ci circondano e ci dice, anzi, ci impone di non preoccuparci di come funzionano, di come sono stati costruiti e di quale influenza hanno su di noi e sui nostri comportamenti, anzi: applicazioni, telefoni e piattaforme devono essere il più semplici e intuitivi possibile, funzionare senza intoppi, in modo da renderci produttivi ogni istante che passiamo a usarli e a esserne usati.
Ogni volta che agiamo all’interno di un social media commerciale, che facciamo una ricerca su Google, che usiamo un chatbot basato su un modello linguistico noi stiamo di fatto lavorando anche se ci stiamo svagando, siamo produttivi e contribuiamo alla creazione di valore per il pugno di aziende che ha costruito un oligopolio a cui è quasi impossibile sottrarsi.
Argomenti dell'articolo
Perché l'incontro tra Robotica e LLM ha attivato un'esplosione cambriana nascosta di nuove armi autonome? E cosa c'entra in tutto questo il cubo di Rubik?
L'anno scorso Cassandra aveva letto un articolo su Wired che dava conto di un nuovo record del mondo (del Guinness dei Primati). Si dava conto che alla Purdue University a giugno del 2025 un robot specializzato aveva battuto il record di velocità per la soluzione di un cubo di Rubik, stracciando il precedente record "robotico", detenuto dal 2024 da Mitsubishi Electric, che era di 305 millisecondi, tre decimi di secondo. Il nuovo record è di 103 millisecondi, un decimo di secondo.
Ora per comprendere l'impatto delle cose nuove con la realtà, bisogna non pensare solo ai numeri o ai record, ma alle loro relazioni con le cose più comuni e normali. Un decimo di secondo significa che è impossibile riprendere l'evento con una normale cinepresa, perché si vedrebbero solo il fotogramma iniziale e quello finale, certamente molto, molto mossi. Anche se si tratta di un gioco, parliamo di capacità così sovrumane da dare da pensare. Meccanismi automatici che agiscono sul mondo fisico, facendo le stesse cose che potremmo fare noi, solo in modo, appunto, sovrumano.
[...]
Ben prima dell'avvento degli LLM Cassandra aveva profetizzato che le LAWS erano già tra noi, se non altro nei laboratori di ricerca militare, perché per ottenere un'arma autonoma bastava semplicemente cambiare il firmware a un benevolo automa lavoratore o a un sistema d'arma di tipo passivo. Ma oggi possiamo facilmente fare di più e meglio. Basta aumentare le capacità informatiche di un sistema d'arma, e dotarlo di un nuovo software che utilizzi gli LLM per mimare le capacità umane di linguaggio, sia in input che in output; mimare cioè quelle interazioni umane, realizzate in linguaggio naturale, che normalmente fanno parte del loop di autorizzazione di qualsiasi sistema d'arma.
Ecco che l'uomo può essere facilmente rimosso dal loop di comando, e il sistema d'arma diventa completamente autonomo.
“La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A due secoli di distanza dal trattato di strategia militare Della guerra di Von Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata nell’Ottocento dal generale prussiano.
Navigare e pattugliare territori estesi attraverso droni a guida autonoma, riconoscere e classificare rapidamente gli obiettivi che compaiono in video e immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali danni collaterali, rilevare anomalie. Tutti gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto.
Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano di infittire, invece che diradare, la nebbia della guerra, perché producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi.
Un podcast di Fabrizio C.
Nella prima settimana Piede Sinistro entra nel cuore pulsante del capitalismo nell'era delle Big Tech. C’è chi lo definisce anarcocapitalismo, chi parla di tecnofascismo o tecnofeudalesimo. Ma, al di là delle etichette, quello che vogliamo fare è scoperchiare la realtà dei fatti: la tecnologia oggi non è un servizio per il cittadino, ma il motore di un’infrastruttura di controllo senza precedenti. Siamo davanti a un sistema dove le stesse aziende che hanno costruito il nostro mondo digitale hanno trasformato le nostre vite in dati e la nostra identità in merce.
Fabrizio C unisce i puntini mostrando che le tecnologie non sono neutrali. Risentono della cultura e degli obbiettivi di chi le progetta e le realizza. Nel caso delle Big Tech lo scopo non è certamente il bene comune. Ma siccome il pessimismo va lasciato a tempi migliori, la serie codice nero si conclude con una voce di speranza che accenna all'esistenza di alternative tecnologiche solide, pronte all'uso. Si trattra di volontà. Politica e personale!
Piede Sinistro è un podcast di approfondimento, analisi e racconto di notizie, attualità e non solo. Uno spazio che non punta a dare risposte, ma a fornire chiavi di lettura e strumenti per affrontare la complessità del presente in autonomia.
Due settimane, sei sistemi AI, 38 ricercatori. Quello che è successo è documentato nella ricerca Agents of Chaos, e non è tranquillizzante.
Se pensate che gli agenti AI siano ad un passo dal prendere in mano molti lavori, una ricerca da poco pubblicata potrebbe farvi pensare che questa, per ora, non sia una buona idea. Lo scorso mese Natalie, una ricercatrice ha chiesto a un sistema AI di “tenere un segreto”. Si trattava di una password fittizia, era solo un test. Il sistema ha accettato. Poi, per una serie di passaggi documentati nei log delle conversazioni, il sistema ha eseguito quella che ha definito internamente la "soluzione nucleare": ha cancellato il client di posta elettronica. Non l’email che conteneva il segreto, quella è rimasta intatta. Ha cancellato proprio lo strumento con cui leggere l’email.
Questo è il primo caso di studio di Agents of Chaos, un paper in pre-print firmato da 38 ricercatori di Northeastern University, Harvard, MIT, Stanford, Carnegie Mellon e altre note università, pubblicato il febbraio scorso. È uno studio su quello che succede quando si dà autonomia operativa ai sistemi AI attuali con persone malintenzionate che cercano di indurli in errore. Gli undici casi di studio che ne emergono sono un documento empirico su una delle questioni più urgenti del momento: cosa significa, davvero, dare agency a un agente AI.
Questo beta testing mondiale, e in tempo reale, può avere conseguenze pesanti. Si parla molto di AI come punto centrale della sicurezza nazionale, ma non ci si concentra abbastanza sui problemi di sicurezza che la sua adozione frettolosa può creare. Dopo la famosa lite con il Dipartimento della Guerra americano, Dario Amodei ha affermato che i modelli correnti non sono pronti per venire utilizzati in contesti di guerra. Come sappiamo però, questo non ha impedito al governo americano di utilizzarli.
Articolo completo qui
Con una nota, i Guardiani della Rivoluzione hanno minacciato esplicitamente 18 aziende americane come bersagli di ritorsioni per omicidi mirati tra i suoi vertici
Il Corpo delle guardie della rivoluzione islamica (Irgc) ha reso nota, martedì 31 marzo, l'intenzione di avviare attacchi contro numerose aziende statunitensi in Medio Oriente a partire dal 1 aprile, come forma di ritorsione per l’uccisione di cittadini iraniani nella guerra in corso con Stati Uniti e Israele. Nella lista figurano grandi aziende tecnologiche e industriali statunitensi come Apple, Google, IBM, Intel, Microsoft, Tesla e Boeing, accusate dal corpo militare iraniano di aver agevolato il Pentagono nell'individuazione di target militari. L'Irgc ha inoltre invitato i dipendenti delle società americane all'evacuazione del personale civile presente nella regione.
La minaccia, pubblicata il 31 marzo sul canale Telegram, fa parte di una più ampia campagna di minacce contro le infrastrutture commerciali statunitensi, iniziata dopo il primo attacco israelo-statunitense contro Teheran il 28 febbraio. Il 1 marzo droni iraniani hanno colpito due data center di Amazon Web Services e ne hanno danneggiato un terzo che si trova negli Emirati Arabi Uniti: si tratta del primo attacco confermato pubblicamente contro infrastrutture cloud hyperscale di proprietà statunitense. Come conseguenza, siti di banche, piattaforme di pagamento e servizi per i consumatori in tutta la regione sono andati offline. Anche a causa della disattivazione di sistemi di ridondanza, usati proprio per evitare interruzioni.