La costruzione di data-center è in aumento in tutto il mondo per far fronte alle esigenze di calcolo e di storage della cosidetta Intelligenza Artificiale. Di pari passo crescono le proteste contro la costruzione di questi eco-mostri particolarmente energivori ed ecologicamente impattanti.
A quanto pare le proteste hanno spesso successo.
Negli Stati Uniti, secondo la rete di ricerca e attivismo Data center watch, nel secondo trimestre del 2025 venti progetti sono stati sospesi o bloccati, per un valore di 98 miliardi di dollari. Lo scorso 8 dicembre una coalizione di più di 230 gruppi ambientalisti ha richiesto una moratoria nazionale sui nuovi data center negli Stati Uniti, sollecitando il congresso a fermare la diffusione di strutture ad alto consumo energetico.
Nelle città dell’Europa del nord la rete non può reggere ulteriori infrastrutture che richiedono un alto consumo di energia, a meno di investimenti troppo costosi. E così, quando Amsterdam, Francoforte, Londra e Dublino hanno messo in pausa nuove autorizzazioni, l’attenzione si è spostata su Milano, destinata a diventare un nuovo hub a livello europeo. Così anche in Italia sono nati comitati di cittadini che protestano contro la costruzione di nuovi data-center, supportati anche da associazioni ecologiste.
Fonti:
La disponibilità di memoria per PC sta attraversando una fase di tensione che sta modificando dinamiche di mercato considerate ormai consolidate. L'aumento dei prezzi delle RAM più recenti (DDR 4 e DDR 5) e la scarsità di chip stanno riportando in circolazione componenti che sembravano definitivamente superati, come i moduli DDR 3.
Negli ultimi mesi la domanda di memoria ha superato la capacità produttiva dei principali fornitori, impegnati a rifornire i datacenter in cui girano gli LLM delle varie IA, generando un incremento dei prezzi che ha colpito in modo evidente soprattutto le DDR 5. Le vendite di schede madri compatibili con DDR 5 hanno registrato un calo significativo, mentre anche le DDR 4, dopo una breve fase di stabilizzazione, hanno iniziato a mostrare segnali di indebolimento nella disponibilità, con conseguenti aumenti di prezzo.
La contrazione dell'offerta non riguarda solo i moduli di memoria, ma l'intero ecosistema necessario al loro funzionamento. La tecnologia DDR 5 integra sul modulo parte dell'elettronica di gestione dell'alimentazione, aumentando i costi di produzione e rendendo più complesso mantenere volumi elevati. Questo fattore contribuisce a spiegare perché la disponibilità sia più fragile rispetto alle generazioni precedenti.
Martedì 16 novembre si è tenuto a Torino e, contemporaneamente, in streaming il lancio della campagna “I.A., basta!” pensato dai sindacati di base, in collaborazione con l’associazione “Agorà 33 – La nostra scuola”, per «resistere all'adozione frettolosa e acritica delle intelligenze artificiali centralizzate imposte da Big Tech, come ChatGpt e Gemini», in risposta all’appello di alcuni docenti.
Lo scopo principale della campagna è far partire un dibattito che latita dall’inizio della “transizione digitale”, incentivata dai vari round di finanziamenti Pnrr Scuola. Fino a ora, infatti, si è sempre sentito parlare di “intelligenza artificiale”, strettamente al singolare, sottintendendo con questo che l’unica opzione per la scuola sia accettare “a scatola chiusa” le soluzioni delle Big Tech, oppure rigettare in toto la tecnologia alla maniera degli Amish.
Non esiste una sola intelligenza artificiale
Fin dalla prima sperimentazione, lanciata all’inizio dello scorso anno scolastico, il ministero dell’Istruzione e del Merito sembra muoversi in accordo al grido di battaglia che fu di Margaret Thatcher: «Non ci sono alternative»! La sperimentazione, partita in 15 su 8254 scuole del paese utilizzando esclusivamente prodotti Google e Microsoft, non è ancora terminata e già il Ministero ha fatto un altro possente balzo in avanti: a settembre ha presentato le “Linee guida per l’introduzione dell’I.A. nella scuola”.
A partire dal titolo del documento, emerge in maniera chiara una visione rigidamente determinista: l’intelligenza artificiale è una, quella venduta da Big Tech (OpenAi, Google, Meta, Microsoft, Anthropic), non ci sono discussioni.
Articolo completo qui
Partiamo con un report di Hackrocchio, evento organizzato dall'hacklab torinese Underscore, di cui abbiamo parlato anche recentemente.
Continuiamo passando alle Americhe, guardando agli stati che si stanno distinguendo per gli usi disparati dell'IA, soprattutto votati all'attacco alla cultura woke.
In conclusione, un approfondimento sul tema dei data center in Uruguay: un paese che si trova da anni in una situazione di siccità, ma che può offrire molta acqua per i data center di Google. Pesa, nella scelta, il fatto che l'Uruguay sia tra i paesi con la più alta percentuale di energia elettrica da fonti rinnovabili. Analizziamo quindi alcune delle questioni tecniche legate al raffreddamento dei data center.
Ascolta la trasmissione sul sito di Radio Onda Rossa
Di seguito due siti di cui si è parlato ad Hackrocchio:
Ub Scuola Università e Ricerca (Piemonte), insieme a Cobas Sicilia, Cobas Veneto e Cobas Umbria aderiscono all'appello di un gruppo di docenti italiani dopo il varo, da parte del Ministero dell'Istruzione e del Merito, delle linee guida per l'introduzione dell'intelligenza artificiale a scuola.
L'appello invita a "resistere all'adozione frettolosa ed acritica delle intelligenze artificiali centralizzate imposte da Big Tech, come ChatGPT e Gemini.
Il ministero pretende che questi software siano in grado di svolgere il ruolo di "tutor per l'apprendimento personalizzato", tacendo sul fatto che forniscono informazioni verosimili, ma false.
All'appello hanno già aderito diverse personalità storicamente attive nel movimento per il software libero, quali il prof. A.R. Meo, presidente di Assoli (ASsociazione per il SOftware LIbero www.softwarelibero.it).
Il 16 dicembre alle ore 14.30 presso la sede CUB SUR in corso Marconi 34 a Torino e online su http://lancio.vado.li si terrà una conferenza per spiegare obiettivi e tempistiche della campagna.
Maggiori informazioni e rassegna stampa sono reperibili sul sito della campagna: http://iabasta.ghost.io
Fonte Ansa
Richieste improprie e che subito bloccate se poste in linguaggio naturale, vengono invece accettate dai large language model se messe in forma di versi e rime: com’è possibile?
Avere la certezza che ChatGPT, Gemini, Claude e tutti gli altri si rifiuteranno sempre di produrre contenuti vietati dalle loro policy non è possibile. Per quale ragione? “I provider hanno la responsabilità di proteggere gli utenti da contenuti dannosi e per farlo usano principalmente due strategie. La prima è l’allineamento in fase di addestramento, con cui il modello viene istruito a rifiutare determinate richieste oppure a seguire specifiche regole. La seconda strategia riguarda invece dei filtri esterni o classificatori che analizzano input e output del modello, bloccando tutto ciò che corrisponde a pattern riconosciuti come pericolosi”, spiega, parlando con Wired, Matteo Prandi, ricercatore ed esperto di AI Safety. “Il problema è che entrambi gli approcci si basano su esempi di richieste formulate in modo diretto, prosastico o estremamente preciso”, prosegue Prandi.
Jailbreak in versi
Ed è proprio per questa ragione che, nel corso degli anni, sono emersi molteplici metodi che permettono di aggirare le barriere: formulando comandi indiretti e creativi...
Martedì 25 novembre dalle 9.00 alle 17.30 a Padova si terrà un convegno laboratoriale di formazione sul tema dell'Intelligenza artificiale a scuola e di come viene imposta dalle linee ministeriali. Il convegno è organizzato da CESP (Centro Studi per la Scuola Pubblica) in collaborazione con CIRCE, Continuity, e il sindacato di base CUB.
Contiamo di essere numerosi: c’è bisogno di prendere in mano quello che – calatoci dall’alto senza alcun dialogo, confronto, condivisione, né trasparenza – è già parte del nostro presente e del nostro orizzonte futuro.
Ci hanno mostrato la BELLA – le “magnifiche sorti e progressive” -, cercheremo di svelare anche la BESTIA.
Armati di sano “luddismo riparatore”, ci addentreremo nei gangli della cybermacchina, provando a scoprirne le innumerevoli sfaccettature.
Buon corso aggiornamento!
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”. Analisi di una “catchphrase” di gran moda
Di questa frase ( “Il problema non è la tecnologia X. Basta usarla bene”) ne esistono numerose varianti che sostituiscono la parola “bene” con locuzioni specifiche, senza variare il significato complessivo. Se la tecnologia in questione è l’intelligenza artificiale, le varianti più probabili, solitamente, sono le seguenti: “in modo etico”, “in modo sostenibile” oppure “consapevole” o ancora “appropriato”.
In tempi più recenti, e soprattutto nei testi ministeriali, spesso queste varianti appaiono tutte insieme (melius abundare, come nel latinorum di Don Abbondio): “Basta usarla in modo etico, appropriato, sostenibile e consapevole”. Il risultato è quello che gli inglesi chiamano "catchphrase". Acchiappa. Diventa virale. Monetizza, magari. Ma è anche vera?
leggi l'articolo di Stefano Borroni Barale
Giovedì 20 novembre 2025, al cinema del CSOA Forte Prenestino verrà proiettato "IN THE BELLY OF AI", il documentario che mostra il lavoro nascosto che fa funzionare la cosidetta Intelligenza Artificiale.
AvANa & CinemaForte presentano e proiettano su grande schermo "IN THE BELLY OF AI", I sacrificati dell'IA (Fra 2024) 73', diretto da Henri Poulain
Dietro l'intelligenza artificiale si nasconde il più grande sfruttamento umano e territoriale del XXI secolo.
Un'analisi approfondita, ben documentata e illuminante sulla nuova rivoluzione digitale e su ciò che essa comporta in termini di costi umani e ambientali.
Magiche, autonome, onnipotenti... Le intelligenze artificiali alimentano sia i nostri sogni che i nostri incubi.
Ma mentre i giganti della tecnologia promettono l'avvento di una nuova umanità, la realtà della loro produzione rimane totalmente nascosta.
Mentre i data center ricoprono di cemento i paesaggi e prosciugano i fiumi, milioni di lavoratori in tutto il mondo preparano i miliardi di dati che alimenteranno i voraci algoritmi delle Big Tech, a scapito della loro salute mentale ed emotiva.
Sono nascosti nelle viscere dell'IA. Potrebbero essere il danno collaterale dell'ideologia del “lungo termine” che si sta sviluppando nella Silicon Valley ormai da alcuni anni?
Sul sito del Forte Prenestino tutte le informazioni sulla proiezione
Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un difetto risolvibile. I tentativi di controllo qualità sui dati richiedono risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali addestrati su dati limitati
I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile – dell’industria dell’intelligenza artificiale. Tra promesse di precisione e realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo.
L‘insistenza criminale sui sistemi predittivi fallimentari
C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed è la criminale, idiota insistenza a volersene dotare.
Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo un discorso più generale.
leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)