Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Builder.AI è una startup londinese nata nel 2016 con la promessa di offrire un assistente AI in grado di sviluppare app e software in pochi secondi e in modo quasi completamente automatizzato. Oggi è in bancarotta per aver gonfiato i bilanci, oltre a essere stata accusata di sfruttare il lavoro umano molto più di quanto abbia mai ammesso.

Le bugie hanno le gambe corte, anche quando sei una startup quotata 1,5 miliardi di dollari. In questi giorni ha fatto il giro del mondo la notizia del fallimento di Builder.AI, un'azienda tech con base a Londra, che dopo aver ricevuto per anni milioni di investimenti, anche da colossi come Microsoft, ha dovuto fare i conti con la verità.

Builder.AI è stata fondata nel 2016 come una startup innovativa nel settore dell'intelligenza artificiale. Il suo fiore all'occhiello era "Natasha", un assistente AI in grado di sviluppare software e app in modo del tutto automatizzato. O almeno, questo era quello che prometteva.

Leggi l'articolo

Meta, colosso tech fondato da Mark Zuckerberg, e Anduril, la società di tecnologie per la difesa di Palmer Luckey (fondatore di Oculus acquisita da Facebook), stanno collaborando su una gamma di prodotti XR integrati, progettati specificamente per i soldati americani.

Il ceo di Anduril, Palmer Luckey, ha elogiato la partnership come una spinta tecnologica necessaria per le forze armate. “Di tutti i settori in cui la tecnologia a duplice uso può fare la differenza per l’America, questo è quello che mi entusiasma di più”, ha affermato Luckey. “La mia missione è da tempo quella di trasformare i combattenti in tecnomanti, e i prodotti che stiamo sviluppando con Meta fanno proprio questo”.

Da parte sua Zuckerberg ha dichiarato nella nota che “Meta ha trascorso l’ultimo decennio a sviluppare intelligenza artificiale e realtà aumentata per abilitare la piattaforma informatica del futuro”. “Siamo orgogliosi di collaborare con Anduril per contribuire a portare queste tecnologie ai militari americani che proteggono i nostri interessi in patria e all’estero” ha aggiunto il numero uno di Meta.

Non va dimenticato che solo lo scorso novembre Meta ha cambiato politica per aprire Llama al governo degli Stati Uniti per “applicazioni di sicurezza nazionale”. Tra gli appaltatori governativi a cui Meta stava aprendo Llama ci sono Amazon Web Services, Lockheed Martin, Microsoft, Palantir e appunto Anduril.

Articolo qui

Lo annuncia il fondatore dell'app di messaggistica Pavel Durov, la partnership è da 300 milioni di dollari

Con un messaggio sul proprio canale ufficiale di Telegram, il fondatore Pavel Durov ha ufficializzato l'accordo con Elon Musk che porterà quest'estate tutte le funzionalità di intelligenza artificiale basate su Grok a bordo dell'app di messaggistica. Secondo le informazioni diffuse, si tratta di una partnership da 300 milioni di dollari, che potrà dare un bel boost al servizio multipiattaforma per cerare di pareggiare i conti con gli eterni rivali di WhatsApp con la loro soluzione proprietaria basata su Meta AI.

L'accordo avrà una durata di un anno e le funzionalità riguarderanno la platea globale degli utilizzatori di Telegram, stimata in circa un miliardo di utenti. Già da qualche tempo Grok era disponibile per gli abbonati a Telegram Premium, ma presto sarà sfruttabile anche gratuitamente.

Durov specifica come Telegram riceverà la somma di 300 milioni in dollari e azioni di xAI e otterrà anche il 50% dei ricavi dagli abbonamenti a xAI che saranno sottoscritti dagli utenti che arrivano appunto dall'app.

Leggi l'articolo

Un’inchiesta del New York Times parte da un rapporto Wood MacKenzie e dagli aumenti dei prezzi degli ultimi anni: privati e piccole imprese potrebbero caricarsi ulteriormente sulle spalle gli oneri degli aggiornamenti della rete necessari a Big tech.

Famiglie e piccole imprese statunitensi stanno pagando l’energia a prezzi maggiorati, negli ultimi anni, ma le tariffe elettriche a loro carico potrebbero aumentare ulteriormente, a breve. E la ragione non è in quel che consumano loro, ma in quel che consuma il settore Big tech per mandare avanti datacenter e servizi di Intelligenza artificiale (Artificial intelligence, AI).

Secondo i dati citati dal NYT si prevede che la domanda di elettricità in alcune parti degli Stati Uniti aumenterà fino al 15% solo nei prossimi quattro anni. «Il rapido aumento dei datacenter, che utilizzano l'elettricità per alimentare i server di computer e mantenerli freschi, ha messo a dura prova molte utility», scrive il quotidiano statunitense. Oltre a investire per soddisfare la domanda, i servizi pubblici stanno spendendo miliardi di dollari per rendere i loro sistemi più sicuri contro incendi, uragani, ondate di calore, tempeste invernali e altre condizioni meteorologiche estreme: «I disastri naturali, molti dei quali sono legati al cambiamento climatico, hanno reso le reti elettriche più inaffidabili degli Stati Uniti. Questa spesa è uno dei motivi principali per cui le tariffe dell'elettricità sono aumentate negli ultimi anni».

Negli Stati Uniti e in Europa tali costi vengono al momento “socializzati” e redistribuiti sulle bollette di tutti gli utenti. Un approccio comprensibile se l’obiettivo è un bene comune (per esempio la decarbonizzazione grazie al passaggio alle rinnovabili). Ma se invece gli investimenti in infrastrutture energetiche servono a facilitare i già colossi guadagni dei giganti digitali, è giusto che a pagare siano le famiglie e le piccole imprese?

Articolo completo qui

Meta ha usato anche LibGen, un database illegale online, per allenare la sua AI, scavalcando così il diritto d'autore e il lavoro di chi fa ricerca, che finisce sfruttato due volte. Ma il copyright non è la soluzione.

Notizia di queste settimane è quella relativa all’utilizzo da parte di Meta di LibGen, un archivio online di materiali, anche accademici, piratati, per aiutare ad addestrare i suoi modelli linguistici di intelligenza artificiale generativa. La notizia è un paradosso, soprattutto, in particolare se letta dalla prospettiva della ricerca accademica. Chi scrive è l’opposto di un sostenitore del copyright: è un sistema che offre pochissima autonomia e un lievissimo sostegno ai piccoli, e dona, invece, un enorme potere ai grandi gruppi editoriali, oltre a essere un ostacolo alla libera circolazione della conoscenza e della cultura. [...]

La razzia spregiudicata di questi contenuti è predatoria perché omette completamente l’esistenza di chi quei contenuti li ha creati, e non perché non ne rispetta il copyright, ma perché avanza una pretesa di possesso su quei contenuti come se non esista alcun livello ulteriore. È predatoria perché si rivolge, senza alcun ragionamento culturale, alla pirateria, che è stata creata per indebolire un sistema iniquo. Così facendo Meta crea un livello di sfruttamento ulteriore su quei contenuti, facendosi gioco di una strategia di resistenza, di fatto svuotandola. Il fatto che Meta si sia rivolta a un database illegale per questa operazione dimostra due cose: che il copyright è finito e non serve assolutamente a nulla (ma questo lo sapevamo già da molto) e, allo stesso tempo, che non esiste limite alcuno all’azione delle aziende tecnologiche e alle loro dinamiche estrattive. Non vi erano limiti all’estrazione di dati per la pubblicità targetizzata, perché dovrebbero esistere per l’AI generativa?

Credere che questo contribuirà a indebolire il copyright o a finalmente mandarlo in soffitta è una favola che può funzionare solo in qualche narrazione determinista dove l’AI è un agente neutro, inevitabile e irrefrenabile, cui non è possibile, né giusto, porre limiti. È una narrazione tossica e di comodo, e molto pericolosa, ed è la stessa da decenni. La risposta non può certamente essere il copyright, ma nemmeno la resa incondizionata a questo pensiero che mischia linguaggio corporate a filosofia spiccia. Non abbiamo fatto e sostenuto le battaglie per la Rete libera, il fair use, le licenze creative commons e per la memoria di Aaron Swartz per fare finta che finire sfruttati da Meta una volta in più sia una cosa di cui essere contenti.

Articolo completo qui

YouTube sta modificanda le sue strategie pubblicitarie e l'intelligenza artificiale è al centro di questa evoluzione.

Stando alle indiscrezioni, la piattaforma sta sperimentando un sistema basato sull'IA per inserire annunci nei momenti in cui gli utenti sono più propensi a notarli, spesso durante le pause naturali dei video. L'obiettivo è chiaro: massimizzare l'impatto delle pubblicità, anche se un approccio come questo ha l'aria di essere essere un po' troppo invasivo.

L'IA analizza il contenuto dei video per identificare i punti in cui l'attenzione dell'utente è al massimo, come la fine di una scena intensa o un momento di silenzio. Questi istanti, che l'algoritmo considera ideali, diventano il bersaglio perfetto per gli annunci.

Se da un lato questo può (almeno inizialmente) aumentare l'efficacia delle campagne pubblicitarie, dall'altro rischia di interrompere l'esperienza di visione in modo più evidente, suscitando frustrazione negli spettatori.

Articolo completo qui

Newsletter N. 205 - 11 maggio 2025

Numero centrato soprattuto su AI, lavoratori e rapporti di potere

Dopo l’ondata di attenzione e infatuazione mediatica che ha accompagnato il lancio di ChatGPT e di molti altri strumenti di intelligenza artificiale generativa, dopo che per molti mesi si è parlato di vantaggi per la produttività, o di sostituzione del lavoro (soprattutto delle mansioni noiose e ripetitive) con l’AI, siamo arrivati a un punto dove si intravedono più che altro le prime sostituzioni di lavoratori. E ciò sebbene la promessa crescita di produttività lasci ancora molto a desiderare (non parliamo della sostituzione di ruoli).

Mentre gli stessi lavoratori del settore tech (un’elite che per anni ha viaggiato in prima classe anche nelle peggiori fluttuazioni del mercato del lavoro) si sono resi conto di trovarsi in una situazione piuttosto scomoda: più licenziabili, da un lato, e più esposti ai dilemmi etici di lavorare per aziende che hanno abbandonato precedenti remore per contratti di tipo militare, dall’altro.

Partiamo proprio dalla guerra.
Una parte di dipendenti di Google DeepMind (l’unità di Alphabet che lavora sull’intelligenza artificiale e tra le altre cose ha rilasciato Gemini, la famiglia di modelli linguistici di grandi dimensioni) stanno cercando di sindacalizzarsi per contestare la decisione dell'azienda di vendere le sue tecnologie ai militari, e a gruppi legati al governo israeliano. ...

Leggi la newsletter completa

Il chatbot era velocissimo, ma impersonale e impreciso.

Nella corsa frenetica a sostituire i dipendenti umani con la IA che sembra coinvolgere ogni azienda, si è verificata una piccola inversione di tendenza.

Klarna, l'azienda svedese di servizi finanziari specializzata in pagamenti rateizzati, dopo aver sostituito 700 dipendenti con un chatbot AI nel 2024, ora sta tornando ad assumere personale umano per il servizio clienti.

La decisione arriva dopo che un sondaggio interno ha rivelato che soltanto un progetto AI su 4 ha portato un ritorno sull'investimento atteso. Il sondaggio ha evidenziato i limiti dell'automazione in un settore che, a causa dell'interazione con i clienti, non richiede soltanto efficienza ma empatia e flessibilità.

Leggi l'articolo su ZEUS News

Il proliferare delle intelligenze artificiale non farebbe altro che danneggiare i creatori di contenuti e i siti indipendenti.

Matthew Prince, CEO di Cloudflare (una delle CDN più grandi al mondo), ha lanciato un allarme sul futuro del web durante un'intervista al Council on Foreign Relations: l'intelligenza artificiale starebbe distruggendo il modello di business che ha sostenuto il web per oltre 15 anni.

«L'AI cambierà radicalmente il modello di business del web» ha affermato. «Negli ultimi 15 anni, tutto è stato guidato dalla ricerca online» ma ora le cose stanno cambiando: se un tempo la ricerca su Google portava traffico ai siti tramite i famosi «10 link blu», oggi quella stessa ricerca è fatta per tenere gli utenti sulla piattaforma, fornendo risposte e contenuti tramite la IA.

Dieci anni fa, per ogni due pagine indicizzate, Google rimandava un visitatore al sito; ora, secondo Prince, servono sei pagine per un solo visitatore, con un calo del 200% nel valore restituito ai creatori di contenuti.

Leggi l'articolo su ZEUS News

È possibile impedire che l'intelligenza artificiale usi per l'addestramento ciò che abbiamo pubblicato sui social network. Ecco come

L’annuncio è arrivato lo scorso 14 aprile: Meta comincerà ad addestrare il suo modello di intelligenza artificiale Meta AI con i dati pubblicati dagli utenti di Facebook e Instagram anche in Europa. La mossa dell’azienda di Mark Zuckerberg ha immediatamente provocato un vero tsunami di reazioni (prevedibilmente) negative e la maggiore preoccupazione degli utilizzatori dei social network targati Meta, al momento, è quella di sapere come impedire l’utilizzo dei loro contenuti per foraggiare l’algoritmo.

L’azienda ha annunciato la possibilità di opporsi all’uso delle informazioni pubblicate, ma le cose non sono semplici come potrebbe sembrare. Nell’addestramento del modello, infatti, potremmo finirci anche se ci opponiamo all’utilizzo dei nostri dati.

Come anticipato da Wired, Meta AI verrà addestrata usando i “contenuti pubblici condivisi da utenti adulti”. Sono esclusi, quindi, i post e i commenti pubblicati da utenti minori di 18 anni e i messaggi privati scambiati con altri contatti. Il riferimento ai commenti pubblici escluderebbe, almeno in teoria, tutti i contenuti che vengono pubblicati con restrizioni di visualizzazione. Se abbiamo cioè impostato l’account di Facebook per consentire l’accesso ai post solo ai nostri contatti o usiamo un account Instagram privato, questi dovrebbero essere esclusi dall’addestramento di Meta AI. Vi rientrerebbero, comunque, il nome, l’immagine profilo e altri contenuti come i commenti a post pubblici, le valutazioni o recensioni su Marketplace e su un account Instagram pubblico.

leggi l'articolo

Link diretto Facebook per opporsi

Link diretto Instagram per opporsi

Dopo lo stop dello scorso anno, Meta inzierà presto ad addestrare i suoi modelli di intelligenza artificiale in Europa sulla base dei post e dei commenti pubblici degli utenti maggiorenni. L'obiettivo è insegnare all'IA a "comprendere e riflettere meglio culture, lingue e storie" per "consentire di supportare meglio milioni di persone e aziende in Europa", sottolinea la società di Mark Zuckerberg.

Si può scegliere di opporsi compilando un modulo. Con tale modulo non si disattiverà Meta AI (in molti in queste ore vorrebbero eliminarlo da WhatsApp o dalle chat di Instagram e Facebook, ma non sembra possibile). Semplicemente aderendo, i propri dati non dovrebbero più confluire tra quelli usati dall’algoritmo per apprendere e migliorarsi.

C’è però un discrimine importante, come avverte Facebook: “Potremmo comunque trattare le informazioni che ti riguardano per sviluppare e migliorare l’IA su Meta, anche se ti opponi o non usi i nostri Prodotti. Ad esempio, questo potrebbe accadere se tu o le tue informazioni: apparite in un’immagine condivisa con tutti sui nostri Prodotti da qualcuno che li usa; siete menzionati nei post o nelle didascalie che qualcun altro condivide sui nostri Prodotti”. Una deroga che potrebbe aprire un nuovo fronte tra Meta e le autorità europee.

Approfondimenti qui e qui

Il crepitio dei tasti di un programmatore che scrive codice per comporre un programma è probabilmente uno dei suoni più caratteristici dell'informatica. Da decenni, saper programmare significa avere pieno potere, avere la facoltà di far fare quello che si vuole al computer o tablet o telefono che sia, poter creare app, senza dover dipendere da nessuno.

Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di programmazione, ciascuno con una sintassi e delle regole differenti, e per molte persone questo non è facile o è semplicemente impossibile. Programmare resta così un'arte praticata da pochi e ammirata a rispettosa distanza dai più.

Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di diventare programmatori o sviluppatori, o se siete genitori e pensate che far studiare gli arcani incantesimi della programmazione sia la strada maestra per una carriera informatica garantita per i vostri figli, ci sono due parole che vi conviene conoscere: vibe coding.

[...]

  1. Vibe coding: creare programmi senza saper programmare
  2. Abbandonarsi alle vibrazioni e programmare senza toccare la tastiera
  3. Si riducono tempi e costi, e tutto sembra funzionare
  4. Se ci sono errori o vulnerabilità, sono guai seri
  5. Tutti sono entusiasti. Cosa mai potrebbe andare storto?

Leggi l'articolo di Paolo Attivissimo

Meta AI è comparsa su WhatsApp senza preavviso, generando polemiche e preoccupazioni sulla privacy. Inoltre, l’assistente virtuale introdotto forzatamente dal gruppo Zuckerberg non può essere disattivato e fornisce istruzioni fuorvianti per la rimozione.

Avete notato quel pulsantino bianco con un cerchio blu comparso di recente nella schermata di Whatsapp sul vostro smartphone? Si tratta dell’icona di Meta AI, l’intelligenza artificiale sviluppata dal gruppo di Mark Zuckerberg. Il sistema, progettato per essere semplice e intuitivo, garantisce un accesso immediato alla chatbot, la finestra di conversazione alimentata da Llama 3.2, la versione più avanzata di AI di Meta, dotata di capacità multimodali.

Violazione della privacy?
Nulla di male, in apparenza. Il problema è che Meta AI è entrato a far parte della nostra quotidianità, su milioni di schermi, senza alcuna notifica preventiva, né esplicito consenso.

Leggi l'articolo

Puntata monografica quella del 2 aprile, in cui abbiamo intervistato Giorgia, una ricercatrice in linguistica riguardo alla definizione, applicazione e limiti dei modelli linguistici nell’ambito dell’intelligenza artificiale.

  • Come definiamo una lingua,
  • Cosa vuol dire un modello linguistico,
  • Come avviene la costruzione di questi mitici modelli linguistici,
  • Come definiamo l'addestramento su una lingua.
  • E' ancora valida la definizione di pappagalli stocastici per gli LLM (Large Language Model)?
  • Cosa è cambiato negli ultimi anni?

Ascolta il podcast della trasmissione sul sito di Radio Blackout

"Qualche giorno fa, su LinkedIn, un recruiter dichiarava di scartare tutti i candidati che non indicano competenze sull’intelligenza artificiale. Secondo lui, chi oggi non sa usare (o non dichiara di usare) l’AI non è più “occupabile”. Mi sono chiesto: cosa scriverei io, dopo trent’anni passati a lavorare con le informazioni, a progettare conoscenza, senso, orientamento? Sono forse meno competente solo perché non ho scritto “AI” nel curriculum? E allora ho provato a rispondere. Non con uno slogan. Ma con un saggio. Un saggio che parla di incertezza, di etica, di design cognitivo, di consapevolezza come forma di libertà. Un saggio che collega filosofia, teoria dell’informazione, architettura digitale e intelligenza artificiale. Perché non è l’AI che definisce la competenza, ma la capacità di dare forma al sapere. Anche — e soprattutto — quando è incerto.

Introduzione — Il valore euristico dell’incertezza

L’incertezza, lungi dall’essere un accidente della conoscenza, ne costituisce la matrice originaria. Fin dalle prime speculazioni epistemologiche, dalla aporia socratica alla sospensione del giudizio pirroniano, l’incertezza ha accompagnato la riflessione umana come segno di vitalità del pensiero e non della sua debolezza. In tempi più recenti, la filosofia della scienza ha sancito definitivamente il primato del dubbio sull’assoluto, riconoscendo nella fallibilità e nella revisione continua dei modelli conoscitivi l’unica via percorribile per l’accesso alla verità, sempre provvisoria. In questo scenario, l’informazione e le sue architetture assumono un ruolo cruciale, non tanto come dispositivi di certezza, quanto come sistemi di orientamento nell’incertezza."

Leggi l'articolo

Il ragionamento è l’abilità dell’intelletto di elaborare informazioni, stabilire relazioni tra esse e giungere a conclusioni coerenti e giustificate. Esso consiste nel processo mediante il quale si formulano inferenze a partire da un insieme di premesse o dati. In altre parole, si tratta di un meccanismo formale, cioè esplicitabile, che consente di transitare dal già noto al non ancora noto, dalla specificità alla generalità, o viceversa, assicurando coerenza e validità in ciascuna tappa del percorso. Dunque potremmo dire ‘ragioni!‘ a chiunque (o qualsiasi cosa) si mostri in grado di compiere tragitti di questo tipo.

Leggi l'articolo

Il luddismo, l'agire di quelle operaie e di quegli operai che agli inizi del 1800 prendevano a martellate o a zoccolate le macchine che toglievano loro lavoro, è comunemente giudicato atteggiamento retrogrado ed infantile. Ad uno sguardo più attento, il luddismo appare invece il primo passo, del tutto comprensibile ed anzi necessario, di reazione ad una novità. L'energia inizialmente indirizzata verso l'inutile attacco alla macchina trova negli anni immediatamente successivi una destinazione costruttiva. Nascono così le mutue, i sindacati, i partiti dei lavoratori. Oggi ci troviamo esattamente nella stessa situazione: seguire i luddisti nel non subire passivamente, trovare vie per rispondere costruttivamente. Questo articolo è stato rifiutato nel 2017 dalla rivista 'Prometeo'. Il motivo: è pessimista, fosco. Ma come scrivo nella conclusione "Credo che ci convenga essere turbati, spaventati, come lo erano i luddisti". Il turbamento è il necessario passaggio iniziale verso una presa di coscienza che si traduce in azione. Ripubblico qui l'articolo senza cambiare una virgola.

Leggi l'articolo di Francesco Varanini

Secondo Meta, l'uso di Torrent per scaricare copie pirata dei libri non è illegale, se non vengono distribuite tramite seeding dopo il download.

Emergono nuovi dettagli relativi al processo che vede Meta sul banco degli imputati. L’azienda di Menlo Park, accusata di violazione del copyright da diversi autori per aver addestrato i modelli Llama con copie digitali pirata di numerosi libri, ha dichiarato che il torrenting senza seeding non è illegale.

I documenti depositati in tribunale hanno confermato che i dipendenti di Meta sono stati autorizzati a scaricare circa 82 TB di dati tramite Torrent dal sito Anna’s Archive. Le copie pirata dei libri sono state utilizzate per il training dei modelli Llama. L’azienda californiana sostiene che il “fair use” è consentito dalla legge.

Articolo completo qui

Il colosso ha rimosso dalle sue linee guida sull'intelligenza artificiale il divieto di utilizzare la tecnologia a scopi potenzialmente dannosi.

Il 4 febbraio Google ha annunciato di aver aggiornato i principi che regolano l'utilizzo della sua intelligenza artificiale e di altre tecnologie avanzate. Il colosso ha eliminato i riferimenti in cui prometteva di non perseguire "tecnologie che causano o possono causare danni", "armi o altre tecnologie il cui scopo principale o la cui implementazione causa o facilita direttamente lesioni alle persone", "tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando norme accettate a livello internazionale", e ancora "tecnologie il cui scopo contravviene a principi ampiamente accettati del diritto internazionale e dei diritti umani".

Diversi dipendenti di Google hanno espresso la loro apprensione per le novità. “È profondamente preoccupante vedere che Google abbandona il suo impegno per l'uso etico della tecnologia AI senza alcun input da parte dei suoi dipendenti o del pubblico in generale – dice Parul Koul, sviluppatore di software di Google e presidente di un sindacato che rappresenta i lavoratori di Alphabet, la holding che controlla l'azienda –, nonostante la posizione storica del personale sia che l'azienda non dovrebbe entrare nel business della guerra”.

Link all'articolo qui

Apriamo la puntata parlando delle ultime svolte in maniera di Intelligenza Artificiale, in particolare facendo il quadro dell'ingresso delle industrie cinese nel mercato dei Large Language Models e provando a discutere dei risultati del CHIPS Act: è servito, o i recenti sviluppi mostrano che era ormai troppo tardi?

Ci spostiamo poi al mondo dei social media, segnalando la decisione di ValigiaBlu di uscire, oltre che da X, anche dalle piattaforme di Meta. Evidentemente il video di Zuckerberg che si inchina a Trump ha segnato un precedente, per quanto ci sembra che le principali criticità fossero già insite.

Nuovo caso di Malware sviluppato da aziende israeliane, e diffuso tramite Whatsapp. Molte le persone coinvolte, in decine di paesi, tra cui l'Italia. L'unico nome che conosciamo è proprio quello di un giornalista italiano, Francesco Cancellato, direttore di Fanpage.it.

Notiziole varie: dall'impatto delle sanzioni sul software libero, a come battere il boss finale della Nintendo, passando per l'utilizzo dell'Intelligenza Artificiale nelle indagini.

Ascolta la puntata sul sito di Radio Onda Rossa