Da culla del progressismo a cuore dell’industria bellica a stelle e strisce: Meta, OpenAI, Microsoft, Anduril e l’inarrestabile crescita della defence tech.
“C’è un sacco di patriottismo che è stato a lungo tenuto nascosto e che adesso sta venendo alla luce”, ha spiegato al Wall Street Journal, Andrew Bosworth, direttore tecnico di Meta.
Bosworth – assieme a Kevin Weil e Bob McGrew, rispettivamente responsabile del prodotto ed ex responsabile della ricerca di OpenAI, ai quali si aggiunge Shyam Sankar, direttore tecnico di Palantir – è infatti uno dei quattro dirigenti tech assoldati in quello che è stato ironicamente chiamato “Army Innovation Corps” - Corpo degli ingegneri degli Stati Uniti (il nome ufficiale del programma è Detachment 201).
Il clima che si respira oggi nella Silicon Valley è molto differente, la maschera progressista che le Big Tech hanno a lungo indossato è stata infine calata (come mostrato plasticamente dall’ormai storica foto che ritrae i principali “broligarchs” celebrare l’insediamento di Donald Trump), e adesso nessuno sembra più farsi scrupoli a seguire la strada tracciata dalle due più note realtà del settore “defence tech”: Palantir e Anduril, aziende fondate rispettivamente dall’eminenza grigia della tech-right Peter Thiel e dal guerrafondaio Palmer Luckey (già noto per aver fondato Oculus, poi acquistata da Meta, e per rilasciare dichiarazione come: “Vogliamo costruire tecnologie che ci diano la capacità di vincere facilmente ogni guerra”).
Riassunto: la settimana scorsa, Meta ha avvisato che Graphite, uno dei sistemi per lo spionaggio digitale prodotti da Paragon (azienda israeliana), era stato utilizzato per spiare una novantina di persone che utilizzano la sua applicazione WhatsApp, in diversi paesi del mondo, tra i quali Francesco Cancellato, direttore di Fanpage e Luca Casarini, capomissione edell’organizzazione non governativa Mediterranea. Paragon fornisce i propri servizi esclusivamente ai governi e alle loro istituzioni, offrendo per lo più sistemi che possono essere impiegati per spiare comunicazioni e altre attività sui dispositivi elettronici
Il governo italiano ha minimizzato la vicenda, affermando di aver monitorato solo sette numeri senza includere giornalistɜ o attivistɜ. Ma, in tutta risposta, la società israeliana ha reagito sospendendo il contratto con l'Italia, segnalando che il Paese ne aveva violato le condizioni.
Per capire meglio la situazione di seguito trovate alcuni aggiornamenti.
Nell’attacco informatico con lo spyware Paragon, che ha colpito attivisti e giornalisti in tutto il mondo ci sarebbe anche Luca Casarini di Mediterranea Saving Humans.
Venerdì 31 gennaio, Meta, la società proprietaria di WhatsApp, ha notificato ufficialmente a Luca Casarini, attivista e tra i fondatori di Mediterranea Saving Humans, che il suo telefono è stato violato attraverso uno spyware tra i più sofisticati al mondo. Il software utilizzato è sviluppato dalla società israeliana Paragon Solutions, che lo ha fornito a "governi alleati degli Stati Uniti", senza dare ulteriori spiegazioni. Nello stesso giorno, testate giornalistiche internazionali hanno rivelato che circa 90 persone in oltre venti Paesi sono state prese di mira, tra cui attivisti per i diritti umani e giornalisti investigativi. Tra i "target" italiani anche il cellulare del direttore di Fanpage, Francesco Cancellato.
Il prodotto di Paragon, considerato uno spyware di sorveglianza avanzato, opera in modo simile a Pegasus di NSO Group: una volta infettato il dispositivo, l'operatore ha accesso completo ai dati dell'utente, potendo leggere anche messaggi inviati su app crittografate come WhatsApp o Signal. WhatsApp ha contattato le presunte vittime in privato, senza rilasciare dettagli pubblici sull'identità degli obiettivi colpiti.
Ascolta l'intervista a Casarini sul sito di Radio Onda d'Urto
Il colosso ha rimosso dalle sue linee guida sull'intelligenza artificiale il divieto di utilizzare la tecnologia a scopi potenzialmente dannosi.
Il 4 febbraio Google ha annunciato di aver aggiornato i principi che regolano l'utilizzo della sua intelligenza artificiale e di altre tecnologie avanzate. Il colosso ha eliminato i riferimenti in cui prometteva di non perseguire "tecnologie che causano o possono causare danni", "armi o altre tecnologie il cui scopo principale o la cui implementazione causa o facilita direttamente lesioni alle persone", "tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando norme accettate a livello internazionale", e ancora "tecnologie il cui scopo contravviene a principi ampiamente accettati del diritto internazionale e dei diritti umani".
Diversi dipendenti di Google hanno espresso la loro apprensione per le novità. “È profondamente preoccupante vedere che Google abbandona il suo impegno per l'uso etico della tecnologia AI senza alcun input da parte dei suoi dipendenti o del pubblico in generale – dice Parul Koul, sviluppatore di software di Google e presidente di un sindacato che rappresenta i lavoratori di Alphabet, la holding che controlla l'azienda –, nonostante la posizione storica del personale sia che l'azienda non dovrebbe entrare nel business della guerra”.
Con l'autrice Cristina Iurissevich presentiamo "E se i troll mangiassero i cookie?" (Eris) un libro per sopravvivere nell'era digitale. Con lei ragioniamo del senso dell'autodifesa digitale con un occhio, oltre che alla sorveglianza statale e aziendale, alle relazioni con le persone a noi vicine. Parliamo quindi di sexting, di diffusione non consensuale di immagini intime, di nudifier, di fiducia nelle persone e nelle tecnologie.
Concludiamo un commento sulle recenti rivelazioni che mostrano un ruolo dello stato francese nella trasformazione dell'AI Act in una direzione che desse sempre più potere alle polizie e ai militari.
La prima parte della trasmissione è dedicata al secondo tentativo di Microsoft di lanciare un sistema di ricerca all'interno di Windows basato su intelligenza artificiale. Se il primo tentativo era stato un disastro di sicurezza, cosa possiamo dire del secondo? Indubbiamente il nuovo design sembra più solido; ma come leggere complessivamente questo progetto di accumulazione di grossi dataset in locale e di spostamento del carico computazionale sull'hardware utente?
La seconda parte della trasmissione è invece legata ad NSO e alle cause che ha con Apple e Whatsapp (avete letto bene). Benché per entrambe le aziende è chiaro che si tratti di processi il cui fine ultimo è il miglioramento della propria reputazione, rileviamo come entrambi i processi siano molto appesantiti dall'ostruzionismo e dalla copertura di Israele.
Lo sostiene uno studio dell'Università della California, che rivela come le TV LG e Samsung registrano i contenuti visualizzati e li usano per profilare gli utenti.
Molti conosceranno Shazam, l'applicazione che è in grado di riconoscere una canzone "ascoltando" pochi secondi di essa. Qualcosa del genere avviene con le Smart TV e i programmi televisivi, solo che il funzionamento è automatico e prescinde dalla volontà dell'utente.
A svelarlo è uno studio dell'Università della California, che ha analizzato i televisori di LG e Samsung nel Regno Unito e negli Stati Uniti.
L'azienda Cox Media Group afferma di ascoltare le conversazioni degli utenti tramite smartphone e altri dispositivi per proporre annunci personalizzati.
I telefoni ci ascoltano, ci spiano: è qualcosa che si sente dire da tempo e che secondo l’azienda Cox Media Group (CMG) è vero. In questo caso però non si tratta di un report o di una ricerca che cerca di sostenere la tesi, bensì della strategia di marketing di CMG, che afferma di poter “origliare” le conversazioni tramite i microfoni di smartphone, tablet, smart TV e altri dispositivi.
CMG la chiama “Active Listening” e secondo i materiali marketing, esaminati da 404 Media, promette di analizzare le conversazioni in tempo reale per trovare potenziali clienti. CMG afferma che questo servizio è già disponibile: le aziende che decideranno di sfruttarlo potranno scegliere un territorio entro un raggio di 10 o 20 miglia, dove Active Listening ascolterà le conversazioni sfruttando i microfoni dei dispositivi.
Il presidente di estrema destra del paese Javier Milei questa settimana ha creato l' Unità di intelligenza artificiale applicata alla sicurezza , che secondo la legislazione utilizzerà "algoritmi di apprendimento automatico per analizzare i dati storici sulla criminalità per prevedere crimini futuri".
Si prevede inoltre di implementare un software di riconoscimento facciale per identificare le “persone ricercate”, pattugliare i social media e analizzare i filmati delle telecamere di sicurezza in tempo reale per rilevare attività sospette.
Uno scenario alla Minority Report, tanto che Amnesty International sostiene che la mossa potrebbe violare i diritti umani.
“La sorveglianza su larga scala influisce sulla libertà di espressione perché incoraggia le persone ad autocensurarsi o ad astenersi dal condividere le proprie idee o critiche se sospettano che tutto ciò che commentano, postano o pubblicano sia monitorato dalle forze di sicurezza”, ha affermato Mariela Belski, il direttore esecutivo di Amnesty International Argentina.
Si conosce il numero di ricerche ogni mille reati, di molto maggiore rispetto ad altri Paesi europei. Avere un dibattito pubblico sull’argomento è impossibile: i dati sono incompleti
In Italia non è consentito sapere come e se funziona l’infrastruttura per il riconoscimento dei volti in uso alle forze dell’ordine. È una conclusione inevitabile, quella tratta da IrpiMedia e StraLi – associazione non profit che promuove la tutela dei diritti attraverso il sistema giudiziario – da tempo impegnate in un braccio di ferro burocratico con il ministero dell’Interno, restio a fornire dati e informazioni richieste tramite l’accesso agli atti generalizzato. Questo strumento dovrebbe garantire ai cittadini la possibilità di accedere a documenti e informazioni in possesso della pubblica amministrazione.
Tuttavia a dire del Viminale, oggi retto dal ministro Matteo Piantedosi, ne sarebbero escluse le statistiche relative all’efficacia del riconoscimento facciale: informazioni aggregate che non possono certo minare l’andamento delle indagini in corso. Dall’altra, proprio queste informazioni sono tasselli indispensabili a ricostruire lo sfaccettato puzzle delle tecnologie di cui fa uso la sorveglianza di Stato in Italia e che per ora è destinato a rimanere incompleto. Leggi la storia