Uno sguardo al "report sostenibilità" di Google e alle sue molte bugie; il meglio di hackmeeting 2025; Zona Warpa 4-5 Luglio al CSOA Forte Prenestino; notiziole dal Medio Oriente.
A Giugno è uscito, come ogni anno, il report sostenibilità di Google. A leggerlo, sembra che sia possibile fare il miracolo: continuare a consumare sempre più energia, eppure far diminuire l'impatto ambientale. Vediamo insieme alcuni dei trucchi utilizzati (da Google, ma non solo) per far quadrare i conti.
L'Hackmeeting 2025 è stato un mese fa, vi raccontiamo alcuni dei contenuti che ci sono piaciuti... avremmo voluto farlo in modo più esteso, ma ci siamo resi conto che si stava facendo tardi e abbiamo tagliato, non ce ne voglia chi ha curato altri dei momenti interessanti!
Al telefono con Kenobit parliamo di Zona Warpa - La festa del videogioco ribelle itinerante. Il mondo del videogioco è infatti troppo spesso depoliticizzato, e questo festival mira a fare da ponte tra chi gioca e chi fa videogiochi, in una cornice consapevole. Questo weekend è il turno del Forte Prenestino, qui potete vedere alcuni video di edizioni passate per farvi un'idea.
Chiudiamo con delle notiziole dal Medio Oriente:
I costi energetici di migliaia di server che effettuano miliardi di calcoli al secondo e i rischi per i cittadini
Bollette più alte e nuove centrali a gas per soddisfare la fame d’energia di Meta, il colosso tech di Mark Zuckerberg. La multinazionale sta costruendo un gigantesco data center in Louisiana, nelle campagne di Holly Ridge (una vasta area rurale nel nord-est dello stato). Sono infrastrutture strategiche per Big Tech: i data center contengono migliaia di server che, a loro volta, effettuano miliardi di calcoli al secondo, lavorando senza sosta. È il “cervello” dell’intelligenza artificiale, che se ne serve per eseguire i compiti che gli vengono commissionati o, più banalmente, per fornirci le risposte richieste. Ma proprio perché i computer lavorano ininterrottamente in condizioni normali si surriscalderebbero; dunque, per evitare guasti tecnici, vanno raffreddati artificialmente (ad esempio, tramite aria condizionata industriale ad alta potenza). Bisogna poi alimentare la potenza di calcolo e sostenere i costi energetici relativi ai sistemi d’illuminazione o di sicurezza dell’infrastruttura. In definitiva, il fabbisogno complessivo di energia dei data center è già di per sé molto elevato.
Ma Zuckerberg vuole costruire un arcipelago informatico che si estenderà su 370.000 metri quadrati (a grandi linee, un’area coperta da cinquantadue campi di calcio regolamentari). E secondo le stime di una Ong locale, Alliance for Affordable Energy, avrà bisogno del doppio dell’energia di cui vive New Orleans, una città che conta quasi quattrocentomila abitanti.
La famiglia di un bambino argentino di 12 anni affetto da autismo ha denunciato il presidente Javier Milei per vessazione nei confronti del figlio intimandogli di cancellare una pubblicazione sui social dove lo addita come un oppositore.
Secondo quanto riportato da fonti locali e dal quotidiano La Nación, il ragazzo ha presentato un esposto alla giustizia argentina nel quale accusa Milei di aver condiviso un messaggio di un influencer vicino al governo che lo calunnia, definendo lui e la sua famiglia “persone cattive” e legate all’opposizione politica, accusandoli di agire contro l’esecutivo.
La famiglia denuncia che tale comportamento costituisce una forma di violenza simbolica, discorsiva e digitale, che viola i diritti del minore e lede la sua dignità, soprattutto considerata la sua condizione di bambino autistico.
Aggiornamenti di attualità sul caso Paragon: le analisi smentiscono la difesa del Copasir; letture sul tema del linguaggio che evoca lo schiavismo nell'elettronica e informatica; Google usa le sue piattaforme per ostacolare le alternative aperte.
Il 5 Giugno, il Copasir ha pubblicato la sua relazione sul Caso Paragon: tra le altre cose, ci dice che Citizen Lab potrebbe averla sparata un po' grossa, e che Francesco Cancellato potrebbe non esser mai stato intercettato. Peccato che una settimana dopo esca un nuovo report di Citizen Lab, che indica che altri due giornalistə europei sono stati attaccati con malware Paragon, e che uno di questi lavora proprio a Fanpage, la testata diretta proprio da Cancellato.
Abbiamo già parlato di linguaggio escludente nell'informatica, continuiamo a farlo ripercorrendo uno studio sull'origine dell'espressione master-slave (padrone-schiavo). Un'espressione più recente di quanto potrebbe sembrare, e abbastanza specifica di elettronica e informatica. Attraverso vari esempi, vediamo che anche se è difficile dare una ricostruzione certa della sua genesi, questa espressione non deriva dall'essere una metafora espressiva - per quanto problematica - di un meccanismo tecnico, ma da una specifica concezione della divisione del lavoro che prevede sempre l'esistenza di un dualismo tra volontà/intelletto e forza bruta.
Nextcloud denuncia che Google, attraverso il Play Store, ha artificialmente limitato le possibilità della sua applicazione per Android, rendendo più difficile (ma non impossibile) l'utilizzo di alternative libere.
Chiudiamo con il ruolo italiano nei bombardamenti statunitensi contro l'Iran.
Una segnalazione di lettura della Stultiferanavis: un paper pubblicato con accesso libero su Arxiv.org dal titolo Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
In modo disomogeneo e non così diffuso come molti raccontano, un numero crescente di persone e di aziende fa ricorso ogni giorno a strumenti di IA generative e ai modelli LLM. Interrogarsi su benefici ed effetti di questi comportamenti può risultare utile, forse anche interessante.
E’ ciò che ha fatto un gruppo di ricercatori con lo studio “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task”, pubblicato su Arxiv.org.
Lo studio si è concentrato sull’individuazione del costo cognitivo derivante dall’utilizzo di un LLM on un contesto particolare, quello legato alla scrittura di un saggio.
Leggi l'articolo di Carlo Mazzucchelli
Se siete fra gli utenti delle app di Meta, come Facebook, Instagram o WhatsApp, fate attenzione alle domande che rivolgete a Meta AI, l’assistente basato sull’intelligenza artificiale integrato da qualche tempo in queste app e simboleggiato dall’onnipresente cerchietto blu. Moltissimi utenti, infatti, non si rendono conto che le richieste fatte a Meta AI non sempre sono private. Anzi, può capitare che vengano addirittura pubblicate online e rese leggibili a chiunque. Come quella che avete appena sentito.
E sta capitando a molti. Tanta gente sta usando quest’intelligenza artificiale di Meta per chiedere cose estremamente personali e le sta affidando indirizzi, situazioni mediche, atti legali e altro ancora, senza rendersi conto che sta pubblicando tutto quanto, con conseguenze disastrose per la privacy e la protezione dei dati personali: non solo i propri, ma anche quelli degli altri.
Questa è la storia di Meta AI, di come mai i dati personali degli utenti finiscono per essere pubblicati da quest’app e di come evitare che tutto questo accada.
Benvenuti alla puntata del 16 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica.
Ascolta il podcast o leggi la trascrizione della puntata di Paolo Attivissimo
Chat sicure? Non per la Casa Bianca... e forse nemmeno in Europa. Parliamo di Trump, della nuova edizione di Chat Control, di cavi elettrici e, naturalmente, di treni.
Iniziamo con l'ultimo episodio della saga TeleMessage: l'ennesimo bug permette la raccolta di un database di messaggi inviati sul finto-Signal utilizzato dalla casa bianca.
L'Europa rinomina Chat Control in Protect EU (finalmente non abbiamo più bisogno dei bambini per giustificarlo!) ma la musica rimane la stessa, in particolare la pretesa di avere un sistema contemporaneamente con una cifratura forte ma accessibile alle forze dell'ordine.
I grandi progetti sottomarini nel mondo dell'elettricità nei prossimi 15 anni dovrebbero raddoppiare i collegamenti tra le reti elettriche mondiali, inclusa quella italiana. Vediamo quali sono i progetti in corso, quali gli impedimenti tecnici, e soprattutto il perché.
Il nuovo contratto di servizio di ATAC prevede fulgidi miglioramenti nell'operatività del servizio pubblico, in particolare nella Metro C. Sarà vero? Già che ci siamo, facciamo una retrospettiva su 15 anni di bigliettazione: l'aumento del biglietto, che avrebbe dovuto portare maggiori ricavi, è stato inefficace, e ha invece portato ad un calo nell'utilizzo del trasporto pubblico.
L’esperta di tecnologia ha pubblicato un libro - Empire of AI | Inside the reckless race for total domination - che descrive un nuovo imperialismo in cui poche aziende tech si arricchiscono sfruttando dati comuni e risorse naturali
“L’intelligenza artificiale è come un impero dove il potere è accentrato nelle mani di pochi che si arricchiscono sfruttando le risorse delle comunità più vulnerabili. Il rischio più grande di permettere a questi imperi di IA di continuare ad operare è una completa perdita di potere di autodeterminazione del nostro futuro. In quel mondo la democrazia non può sopravvivere”. Karen Hao è un’esperta di tecnologia (ex direttrice della rivista MIT Tech Review e corrispondente tech da Hong Kong per il Wall Street Journal) ed è arrivata a questa conclusione dopo essere stata embedded per tre giorni dentro OpenAI e aver condotto 300 interviste a personaggi che gravitano attorno al suo fondatore Sam Altman, oltre ad ex dirigenti ed impiegati di Meta, Microsoft, Google, DeepMind e Anthropic. Gli imperatori.
Apple pubblica uno studio che smaschera i limiti dell’intelligenza artificiale: i modelli di AI non “pensano”, ma collassano di fronte a problemi complessi. La corsa verso la vera AGI sembra più lontana che mai.
Negli ultimi giorni, Apple ha scosso il mondo della tecnologia con la pubblicazione di un whitepaper che mette in discussione le fondamenta stesse dell’intelligenza artificiale moderna. Il documento, dal titolo provocatorio “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity” ossia ''L’illusione del pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento attraverso la lente della complessità dei problemi'', rappresenta una vera e propria bomba sganciata sul settore AI. Dietro la facciata: l’AI non ragiona, imita
Il cuore della ricerca è semplice ma devastante: i Large Language Model (LLM), quei sistemi che oggi chiamiamo “AI” e che aziende come OpenAI, Google e Meta sbandierano come capaci di “pensare”, in realtà non ragionano affatto. Sono semplicemente eccezionali nel riconoscere pattern e riprodurre risposte plausibili, ma quando si tratta di affrontare problemi complessi, la loro presunta intelligenza si sbriciola.
La Danimarca ha scelto di ammainare le bandiere di Windows e 365, per issare quelle di Linux e LibreOffice: una scelta economica, ma anche politico-strategica.
La Ministra della Digitalizzazione danese Caroline Stage ha annunciato una decisione storica: la Danimarca abbandonerà gradualmente i prodotti Microsoft Windows e Office per adottare soluzioni open source come Linux e LibreOffice.
Questa mossa segna un passo significativo verso una maggiore autonomia tecnologica per il paese scandinavo, che intende ridurre la dipendenza dai giganti tecnologici statunitensi. La strategia si inserisce in un più ampio dibattito europeo sulla sovranità digitale, con altre nazioni che stanno considerando percorsi simili per proteggere le proprie infrastrutture digitali.