Nell’attacco informatico con lo spyware Paragon, che ha colpito attivisti e giornalisti in tutto il mondo ci sarebbe anche Luca Casarini di Mediterranea Saving Humans.
Venerdì 31 gennaio, Meta, la società proprietaria di WhatsApp, ha notificato ufficialmente a Luca Casarini, attivista e tra i fondatori di Mediterranea Saving Humans, che il suo telefono è stato violato attraverso uno spyware tra i più sofisticati al mondo. Il software utilizzato è sviluppato dalla società israeliana Paragon Solutions, che lo ha fornito a "governi alleati degli Stati Uniti", senza dare ulteriori spiegazioni. Nello stesso giorno, testate giornalistiche internazionali hanno rivelato che circa 90 persone in oltre venti Paesi sono state prese di mira, tra cui attivisti per i diritti umani e giornalisti investigativi. Tra i "target" italiani anche il cellulare del direttore di Fanpage, Francesco Cancellato.
Il prodotto di Paragon, considerato uno spyware di sorveglianza avanzato, opera in modo simile a Pegasus di NSO Group: una volta infettato il dispositivo, l'operatore ha accesso completo ai dati dell'utente, potendo leggere anche messaggi inviati su app crittografate come WhatsApp o Signal. WhatsApp ha contattato le presunte vittime in privato, senza rilasciare dettagli pubblici sull'identità degli obiettivi colpiti.
Ascolta l'intervista a Casarini sul sito di Radio Onda d'Urto
Il colosso ha rimosso dalle sue linee guida sull'intelligenza artificiale il divieto di utilizzare la tecnologia a scopi potenzialmente dannosi.
Il 4 febbraio Google ha annunciato di aver aggiornato i principi che regolano l'utilizzo della sua intelligenza artificiale e di altre tecnologie avanzate. Il colosso ha eliminato i riferimenti in cui prometteva di non perseguire "tecnologie che causano o possono causare danni", "armi o altre tecnologie il cui scopo principale o la cui implementazione causa o facilita direttamente lesioni alle persone", "tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando norme accettate a livello internazionale", e ancora "tecnologie il cui scopo contravviene a principi ampiamente accettati del diritto internazionale e dei diritti umani".
Diversi dipendenti di Google hanno espresso la loro apprensione per le novità. “È profondamente preoccupante vedere che Google abbandona il suo impegno per l'uso etico della tecnologia AI senza alcun input da parte dei suoi dipendenti o del pubblico in generale – dice Parul Koul, sviluppatore di software di Google e presidente di un sindacato che rappresenta i lavoratori di Alphabet, la holding che controlla l'azienda –, nonostante la posizione storica del personale sia che l'azienda non dovrebbe entrare nel business della guerra”.
Apriamo la puntata parlando delle ultime svolte in maniera di Intelligenza Artificiale, in particolare facendo il quadro dell'ingresso delle industrie cinese nel mercato dei Large Language Models e provando a discutere dei risultati del CHIPS Act: è servito, o i recenti sviluppi mostrano che era ormai troppo tardi?
Ci spostiamo poi al mondo dei social media, segnalando la decisione di ValigiaBlu di uscire, oltre che da X, anche dalle piattaforme di Meta. Evidentemente il video di Zuckerberg che si inchina a Trump ha segnato un precedente, per quanto ci sembra che le principali criticità fossero già insite.
Nuovo caso di Malware sviluppato da aziende israeliane, e diffuso tramite Whatsapp. Molte le persone coinvolte, in decine di paesi, tra cui l'Italia. L'unico nome che conosciamo è proprio quello di un giornalista italiano, Francesco Cancellato, direttore di Fanpage.it.
Notiziole varie: dall'impatto delle sanzioni sul software libero, a come battere il boss finale della Nintendo, passando per l'utilizzo dell'Intelligenza Artificiale nelle indagini.
La reputazione liberale del settore è fuorviante. Le sue tendenze reazionarie, che celebrano ricchezza, potere e mascolinità tradizionale, sono state chiare sin dalla mania delle dotcom degli anni Novanta.
Questo crescente "tecnofascismo", come lo avevano chiamato i critici dell'epoca, fu temporaneamente scongiurato dal crollo del mercato azionario delle dotcom del 2000. [...] Elon Musk , Peter Thiel e altri avevano assorbito le lezioni degli anni '90. All'inizio del nuovo millennio, erano pronti a lasciare il segno sul futuro, guidati dai sogni reazionari del passato.
I titani della Silicon Valley del 2025 stanno seguendo lo stesso schema. La scorsa settimana, Mark Zuckerberg ha annunciato che Meta avrebbe terminato i suoi programmi DEI (sulla diversità e identità di genere) e modificato le sue policy di piattaforma per consentire post più discriminatori e molesti. Nel podcast di Joe Rogan, Zuckerberg ha chiarito le sue motivazioni: ha affermato che la cultura aziendale si era allontanata dall'"energia maschile" e aveva bisogno di ripristinarla dopo essere stata "castrata".
Elon Musk ha rimodellato Twitter in X, una piattaforma che opera in gran parte come risposta alle affermazioni di un "virus del woke", l'ultima iterazione del "politicamente corretto". E lo stesso Marc Andreessen, il "bambino genio" degli anni '90, ha tratto sempre più ispirazione dai futuristi italiani, un movimento di artisti fascisti all'inizio del XX secolo che glorificavano la tecnologia mentre cercavano di "demolire" il femminismo.
Ma la storia della valle suggerisce che non si tratta di un glitch o di un'anomalia. È un crescendo di forze centrali per l'industria tecnologica, e l'attuale ondata di titani della tecnologia di destra sta costruendo sulle fondamenta della Silicon Valley.
Primo di una serie di articoli di CIRCE sulla rivista Gli Asini.
Il secondo mandato presidenziale di Donald Trump è un nuovo capitolo della saga “Tecnologie e politica”. Un uomo anziano, miliardario, bianco, plurindagato e pluricondannato, un autocrate violento e vendicativo, si circonda di suoi simili per governare gli Stati Uniti d’America, un paese che appare sempre più lacerato e sempre meno affidabile anche per i suoi alleati storici in Europa. Fra gli alleati di Trump, spiccano alcuni fra i più ricchi e potenti manager e investitori delle cosiddette nuove tecnologie. Il più in vista è il padrone di Tesla, di SpaceX e di X (ex Twitter), il controverso Elon Musk. Molti altri si contendono il fronte del palco trumpiano: si pensi al vicepresidente J.D. Vance, ma anche al padrone di Amazon nonché proprietario del Washington Post, Jeff Bezos, che ha interferito con la decisione del consiglio di redazione del giornale di sostenere la candidata democratica Kamala Harris, provocando le dimissioni indignate di alcuni giornalisti e la cancellazione di decine di migliaia di abbonamenti.
L’argomento è vasto e complesso. Anche al nostro interno abbiamo opinioni diverse, che non trovano una sintesi unitaria. Ci limiteremo quindi a presentare alcuni elementi della nostra discussione, tuttora in corso.
Il punto d’avvio, che ritorna in tanti dibattiti, può essere sintetizzato così: qual è la relazione fra governi eletti e multinazionali della tecnologia digitale? Sono queste ultime a essere strumenti dei primi, o viceversa? Come stanno cambiando forma, influenzandosi reciprocamente? Qualcosa è cambiato? Studiamo da decenni l’impatto delle tecnologie su individui e società (in particolare delle tecnologie digitali) ma i social media sono un caso a parte. Non è la prima volta che rileviamo uno stretto rapporto fra chi si presenta come innovatore a livello tecnologico, bisognoso di avere le mani libere rispetto a una legislazione percepita come ostacolo all’innovazione, e programmi politici che si raccontano come stravolgimenti dello status quo e rottamatori dell’inefficienza burocratico-statale.
Dal 2 febbraio entrano in vigore i divieti per l’utilizzo di sistemi di identificazione in tempo reale negli spazi pubblici, ma secondo numerose ong le eccezioni previste per le forze dell’ordine rischiano di portare ad abusi.
Dal 2 febbraio 2025 si applicheranno negli stati membri il Capitolo I e il Capitolo II del regolamento, che includono le proibizioni sui sistemi di AI a rischio inaccettabile.
Vietati d’ora in poi i sistemi di intelligenza artificiale che potrebbero indurre le persone a compiere scelte attraverso tecniche manipolatorie; inutilizzabili i sistemi che sfruttano vulnerabilità di persone o gruppi di persone (come ad esempio la condizione di disabilità, o quella economica); vietati i sistemi di polizia predittiva, e quelli che si basano su pregiudizi etnici o comportamentali.
Il capo di OpenAI ha annunciato a inizio anno che il suo nuovo modello di intelligenza artificiale avrebbe ottenuto risultati simili a quelli umani in una sorta di test del quoziente intellettivo. Un esito ottenuto però facendo allenare la macchina sulle stesse domande e in modo poco trasparente, con costi ecologici ed economici fuori scala. È ora di disertare questa agenda, fatta di macchine mangia-soldi e mangia-risorse.
Il 2025 si apre con fuochi d’artificio superiori a quelli a cui ci eravamo abituati sul fronte della propaganda attorno all’intelligenza artificiale (Ai).
Il nuovo modello prodotto da OpenAI avrebbe infatti raggiunto risultati comparabili con gli esseri umani nel risolvere il test ARC-AGI. Il video qui sopra contiene un esempio delle domande contenute in tale test, che ricorda molto da vicino i test del quoziente intellettivo (Qi) utilizzati in psicologia per “misurare l’intelligenza” degli esseri umani. Sorvoleremo in questa sede su due fatti chiave che richiederebbero invece una seria analisi: non esiste un consenso scientifico su che cosa sia l’intelligenza umana e animale, ossia una definizione condivisa e, anche fingendo di aver raggiunto un consenso, misurarla resterebbe tutta un’altra faccenda. Dal punto di vista “teorico” ci limiteremo a richiamare l’etimologia: “inter” più “ligere”, “leggere tra (le cose)”, leggere in profondità.
Sam Altman (più in generale l’intero comparto dell’Ai) ci ha abituato a trucchi degni degli artisti della truffa che giravano il suo Paese a inizi Ottocento, usati a supporto di affermazioni-bomba come quella appena citata (e immediatamente seguita da affermazioni ancora più esplosive sulla “Superintelligenza”). Ricordiamo, a titolo d’esempio non esaustivo, la figuraccia di Google alla presentazione del suo Gemini, quando i suoi padroni raccontarono che il modello in questione sapeva riconoscere il gioco della morra cinese al primo colpo (zero-shot), mentre -guardando il video completo- si scopriva che la verità era molto diversa (e i dettagli, in questo campo, sono molto importanti).
Potenziamenti in vista per la piattaforma nazionale anti-pirateria a un anno dal lancio: nuove sanzioni, stop ai limiti dei domini bloccati e guai a diffondere informazioni sulla tecnologia.
Prime televisive, trasmissioni esclusive, forse anche le serie: non è chiaro quale sia l’orizzonte che Piracy Shield vorrebbe raggiungere. Ma è chiara la preoccupazione degli internet service provider, che sono stati convocati in una serie di tavoli tecnici a gennaio di quest’anno per una presentazione delle novità in arrivo.
Tra queste l’eliminazione del limite alla quantità di risorse web che possono essere bloccate, stabilita originariamente proprio a tutela degli internet service provider più piccoli, per i quali tutta l’operazione è un costo vivo che non porta alcun guadagno. Un altro punto all’ordine del giorno è il reindirizzamento degli indirizzi Ip verso una pagina che informa l’utente che il sito richiesto offre contenuti illegali ed è per questa ragione bloccato. Come vedremo, si tratta di una misura tecnicamente irrealizzabile. Infine, la grande novità sarà l’introduzione di sanzioni nei confronti degli stessi internet service provider.
Con l'autrice Cristina Iurissevich presentiamo "E se i troll mangiassero i cookie?" (Eris) un libro per sopravvivere nell'era digitale. Con lei ragioniamo del senso dell'autodifesa digitale con un occhio, oltre che alla sorveglianza statale e aziendale, alle relazioni con le persone a noi vicine. Parliamo quindi di sexting, di diffusione non consensuale di immagini intime, di nudifier, di fiducia nelle persone e nelle tecnologie.
Concludiamo un commento sulle recenti rivelazioni che mostrano un ruolo dello stato francese nella trasformazione dell'AI Act in una direzione che desse sempre più potere alle polizie e ai militari.
L’authority italiana chiede alle società cinesi una risposta entro 20 giorni.
Il Garante per la protezione dei dati personali ha inviato una richiesta di informazioni a Hangzhou DeepSeek Artificial Intelligence e a Beijing DeepSeek Artificial Intelligence, le società che forniscono il servizio di chatbot DeepSeek, sia su piattaforma web che su App. E’ quanto si legge in una nota dell’autorità che ha valutato «l’eventuale alto rischio per i dati di milioni di persone in Italia».
Il Garante «ha chiesto alle due società e alle loro affiliate di confermare quali siano i dati personali raccolti, da quali fonti, per quali finalità, quale sia la base giuridica del trattamento, e se siano conservati su server collocati in Cina».