Piu' di 560 dipendenti di Google hanno firmato una lettera aperta per l'amministratore delegato Sundar Pichai esortandolo a rifiutarsi di consentire al governo americano di utilizzare la propria tecnologia di intelligenza artificiale per operazioni militari classificate.
'Vogliamo che l'IA vada a beneficio dell'umanita', anziche' essere impiegata in modi disumani o estremamente dannosi. Cio' include le armi autonome letali e la sorveglianza di massa, ma si estende oltre', hanno scritto. 'L'unico modo per garantire che Google non sia associata con questo, consiste nel rifiutare qualsiasi carico di lavoro classificato', mette in evidenza la missiva.
Fonte Ansa
La protesta segue una controversia legale tra il Pentagono e Anthropic PBC sull’uso dell’IA per applicazioni militari. Il Pentagono sta cercando di escludere Anthropic e il suo strumento di IA Claude dalle catene di approvvigionamento della difesa statunitense ed è alla ricerca di nuovi partner tra i giganti tecnologici dell’IA, tra cui ovviamente Google.
I dipendenti di Google avevano già lanciato l’allarme sui rischi della guerra basata sull’IA nel 2018 e avevano costretto l’azienda a limitare il suo lavoro nel settore della difesa.
Dipendenti Google e OpenAI firmano documento per limitare l'AI militare qui
"Intelligente? Artificiale? Un approccio critico alle Linee Guida del MIM" è il titolo dei corsi di formazione che si terranno martedì 5 maggio a Catania e lunedì 18 maggio 2026 a Napoli.
Proseguono i corsi di formazione con approccio critico all'introduzione dell'Intelligenza Artificiale nelle scuole secondo le linne guida del MIM. I prossimi appuntamenti saranno al sud: Catania e Napoli.
In entrambi gli appuntamenti avrà luogo un laboratorio di "Pedagogia hacker. Strumenti e rimedi contro l'alienazione digitale a scuola" a cura di Stefano Borroni Barale.
Scopo di questo gruppo di lavoro sarà dotarsi di alcuni semplici strumenti per contrastare l'alienazione di docenti e studenti rispetto al monopolio Big Tech del digitale a scuola. Con questi saremo in grado di costruire insieme un gruppo di lavoro, studio e auto-aiuto per proseguire azione e formazione sul territorio, in collegamento con la campagna "IA Basta!", dopo la giornata di formazione
A Napoli il corso sarà impreziosito dalla presenza di Richard Stallman - Fondatore Free Software Foundation e leader del progetto GNU Perché le scuole dovrebbero usare esclusivamente software libero ed evitare la “pretend intelligence”
I corsi sono gratuiti. I docenti, dirigenti e personale ATA potranno beneficiare dell'esonero dal servizio.
Nel digitale tutto è scrittura – i siti web, i social media, le immagini e i video, ogni azione, come mettere un like o comprare qualcosa – tutto è fatto di scrittura, nelle sue fondamenta di codice informatico, ma la maggior parte di questa scrittura rimane nascosta ai nostri occhi, esclusa by design dagli schermi che ci circondano e su cui passa una parte sempre più grande delle nostre vite.
L’«imperativo funzionale» di cui parla Marcello Vitali-Rosati in Éloge du bug. Être libre à l’époque du numérique (Zone, 2024) è incorporato nei dispositivi e nei servizi che ci circondano e ci dice, anzi, ci impone di non preoccuparci di come funzionano, di come sono stati costruiti e di quale influenza hanno su di noi e sui nostri comportamenti, anzi: applicazioni, telefoni e piattaforme devono essere il più semplici e intuitivi possibile, funzionare senza intoppi, in modo da renderci produttivi ogni istante che passiamo a usarli e a esserne usati.
Ogni volta che agiamo all’interno di un social media commerciale, che facciamo una ricerca su Google, che usiamo un chatbot basato su un modello linguistico noi stiamo di fatto lavorando anche se ci stiamo svagando, siamo produttivi e contribuiamo alla creazione di valore per il pugno di aziende che ha costruito un oligopolio a cui è quasi impossibile sottrarsi.
Argomenti dell'articolo
“La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A due secoli di distanza dal trattato di strategia militare Della guerra di Von Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata nell’Ottocento dal generale prussiano.
Navigare e pattugliare territori estesi attraverso droni a guida autonoma, riconoscere e classificare rapidamente gli obiettivi che compaiono in video e immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali danni collaterali, rilevare anomalie. Tutti gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto.
Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano di infittire, invece che diradare, la nebbia della guerra, perché producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi.
Un podcast di Fabrizio C.
Nella prima settimana Piede Sinistro entra nel cuore pulsante del capitalismo nell'era delle Big Tech. C’è chi lo definisce anarcocapitalismo, chi parla di tecnofascismo o tecnofeudalesimo. Ma, al di là delle etichette, quello che vogliamo fare è scoperchiare la realtà dei fatti: la tecnologia oggi non è un servizio per il cittadino, ma il motore di un’infrastruttura di controllo senza precedenti. Siamo davanti a un sistema dove le stesse aziende che hanno costruito il nostro mondo digitale hanno trasformato le nostre vite in dati e la nostra identità in merce.
Fabrizio C unisce i puntini mostrando che le tecnologie non sono neutrali. Risentono della cultura e degli obbiettivi di chi le progetta e le realizza. Nel caso delle Big Tech lo scopo non è certamente il bene comune. Ma siccome il pessimismo va lasciato a tempi migliori, la serie codice nero si conclude con una voce di speranza che accenna all'esistenza di alternative tecnologiche solide, pronte all'uso. Si trattra di volontà. Politica e personale!
Piede Sinistro è un podcast di approfondimento, analisi e racconto di notizie, attualità e non solo. Uno spazio che non punta a dare risposte, ma a fornire chiavi di lettura e strumenti per affrontare la complessità del presente in autonomia.
il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza artificiale e il potere delle big tech. Ospiti della puntata:
Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter Thiel"
Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza e sorveglianza basate sulla predizione dei crimini (stile Minority Report), fino ai teatri di guerra come Gaza
Due settimane, sei sistemi AI, 38 ricercatori. Quello che è successo è documentato nella ricerca Agents of Chaos, e non è tranquillizzante.
Se pensate che gli agenti AI siano ad un passo dal prendere in mano molti lavori, una ricerca da poco pubblicata potrebbe farvi pensare che questa, per ora, non sia una buona idea. Lo scorso mese Natalie, una ricercatrice ha chiesto a un sistema AI di “tenere un segreto”. Si trattava di una password fittizia, era solo un test. Il sistema ha accettato. Poi, per una serie di passaggi documentati nei log delle conversazioni, il sistema ha eseguito quella che ha definito internamente la "soluzione nucleare": ha cancellato il client di posta elettronica. Non l’email che conteneva il segreto, quella è rimasta intatta. Ha cancellato proprio lo strumento con cui leggere l’email.
Questo è il primo caso di studio di Agents of Chaos, un paper in pre-print firmato da 38 ricercatori di Northeastern University, Harvard, MIT, Stanford, Carnegie Mellon e altre note università, pubblicato il febbraio scorso. È uno studio su quello che succede quando si dà autonomia operativa ai sistemi AI attuali con persone malintenzionate che cercano di indurli in errore. Gli undici casi di studio che ne emergono sono un documento empirico su una delle questioni più urgenti del momento: cosa significa, davvero, dare agency a un agente AI.
Questo beta testing mondiale, e in tempo reale, può avere conseguenze pesanti. Si parla molto di AI come punto centrale della sicurezza nazionale, ma non ci si concentra abbastanza sui problemi di sicurezza che la sua adozione frettolosa può creare. Dopo la famosa lite con il Dipartimento della Guerra americano, Dario Amodei ha affermato che i modelli correnti non sono pronti per venire utilizzati in contesti di guerra. Come sappiamo però, questo non ha impedito al governo americano di utilizzarli.
Articolo completo qui
Il mondo digitale centralizzato in mano alle Big Tech solleva sfide sociali, etiche e ambientali: è tecnologia del dominio e strumento della guerra del XXI secolo.
Ma esiste un’alternativa conviviale? Esistono tecnologie digitali aperte, comunitarie, decentrate e interoperabili? Esiste una “bicicletta digitale”?
Venerdi 10 Aprile ore 17.00-19.30 a Torino laboratorio di pedagogia hacker presso il Centro Sereno Regis di via Garibaldi 13, Torino
Per info e iscrizioni qui
L’intelligenza artificiale è uno dei pochi ambiti della tecnologia in cui la retorica commerciale è incentrata sulle prestazioni, e poco o niente sui costi e sui consumi. Forse perché sono il suo punto più debole: tutto il settore si basa su una filiera produttiva lunghissima, sul presupposto di una disponibilità di risorse eccezionalmente ampia, e su investimenti enormi e difficili da ripagare. Per questo se ne parla da tempo come di una possibile bolla finanziaria. Se davvero lo è, secondo alcuni analisti, allora quella bolla potrebbe presto scoppiare a causa della crisi energetica mondiale dovuta alla guerra in Medio Oriente, con conseguenze per tutta l’economia globale.
È un’ipotesi discussa da settimane da diversi esperti, basata su analisi e previsioni di dati economici, ma anche su considerazioni piuttosto intuitive. La guerra sta stravolgendo politiche e priorità di molti paesi in materia di ricerca e approvvigionamento dell’energia, e non avrebbe senso aspettarsi che non avrà un impatto profondo su «una delle invenzioni più energivore di sempre» e su una filiera «in grado di attraversare oltre 70 confini prima di raggiungere il consumatore finale», come l’ha descritta l’economista britannico Tej Parikh in un recente articolo sul Financial Times.
OpenAI chiude in modo ufficiale il progetto Sora, il generatore AI di video che aveva debuttato col botto due anni fa proponendo risultati ultrarealistici e che nel tempo aveva accolto anche una piattaforma social simil TikTok per condividere le creazioni. La società guidata da Sam Altman ha pubblicato un breve post sui canali social per confermare l'addio all'applicazione e l'accesso alle api: non se ne fa menzione, ma di fatto si rinuncia anche al corposo accordo da 1 miliardo di dollari con Disney, sottoscritto solamente lo scorso dicembre.
Sora ha dovuto presto fare i conti con la realtà: al di là di uso illecito di contenuti protetti da diritto d'autore oppure creazione di deepfake poco confortanti, gli utenti hanno lamentato tempi di generazione molto lunghi, risultati non sempre così soddisfacenti e coerenti con i propri desideri, qualche critica anche all'interfaccia. I rivali, nel frattempo, hanno presto recuperato terreno da Gemini di Google fino alle proposte cinesi come Seedance di Bytedance (al momento bloccato), ma anche il popolare Kling. Secondo dati diffusi per esempio da Appfigures, la maggioranza degli utenti abbandonava Sora dopo pochi giorni dal primo utilizzo lasciando OpenAI a gestire una piattaforma molto costosa da sostenere e da gestire.
Articolo completo qui