Il 4-5-6 febbraio CIRCE partecipa alla quarta edizione del festival sulle arti inclusive #InclusiveArts2026 che investiga le pratiche di #MachineLearning nel campo dell’inclusive design e dell’accessibilità delle piattaforme digitali.
In occasione dell'evento iNCLUSIVE aRTS 2026 organizzato dal Prof. Enrico Bisenzi presso l'Accademia di Belle Arti di Roma, CIRCE è stata invitata a partecipare in modo trasversale nelle tre giornate per contribuire con uno sguardo critico ad analizzare l'impatto dell'Intelligenza Artificiale nel campo dell'Inclusive Design. Nella prima giornata, avrà luogo un laboratorio di S/gamificazione dal titolo Automazione industriale VS Intelligenza Artigianale in collaborazione con Betterpress Lab
Automazione industriale VS intelligenza artigianale: “Giocare o essere giocate” (a cura di Agnese Trocchi e Betterpress Lab)
Analisi d’interfaccia: un percorso a ritroso dal digitale all’analogico
Ogni giorno nelle nostre attività personali, di studio o di lavoro, siamo costantemente esposte a piattaforme digitali che influenzano il nostro modo di comunicare e di vivere le relazioni. Attraverso l’analisi emotiva d’interfaccia comprendiamo i meccanismi che influenzano il modo in cui viviamo le interazioni digitali, in particolare con i chatbot conversazionali. Senza accorgercene automatizziamo i nostri comportamenti per interagire con le intelligenze artificiali su cui proiettiamo caratteristiche umane. Esplorando la “zona della macchina” in cui siamo quotidianamente immerse, realizzeremo due tipi di intervento: la mattina analizzeremo le interfacce digitali di videogiochi, social media, app di messaggistica e chatbot per comprendere cosa è la gamificazione utilizzando il metodo della Pedagogia Hacker; il pomeriggio ricostruiremo in modo analogico le interfacce che più sono presenti nelle nostre vite utilizzando gli strumenti della stampa a caratteri mobili.
Tutte le informazioni sul sito di CIRCE e su quello del Prof. Enrico Bisenzi, organizzatore dell'evento.
La costruzione di data-center è in aumento in tutto il mondo per far fronte alle esigenze di calcolo e di storage della cosidetta Intelligenza Artificiale. Di pari passo crescono le proteste contro la costruzione di questi eco-mostri particolarmente energivori ed ecologicamente impattanti.
A quanto pare le proteste hanno spesso successo.
Negli Stati Uniti, secondo la rete di ricerca e attivismo Data center watch, nel secondo trimestre del 2025 venti progetti sono stati sospesi o bloccati, per un valore di 98 miliardi di dollari. Lo scorso 8 dicembre una coalizione di più di 230 gruppi ambientalisti ha richiesto una moratoria nazionale sui nuovi data center negli Stati Uniti, sollecitando il congresso a fermare la diffusione di strutture ad alto consumo energetico.
Nelle città dell’Europa del nord la rete non può reggere ulteriori infrastrutture che richiedono un alto consumo di energia, a meno di investimenti troppo costosi. E così, quando Amsterdam, Francoforte, Londra e Dublino hanno messo in pausa nuove autorizzazioni, l’attenzione si è spostata su Milano, destinata a diventare un nuovo hub a livello europeo. Così anche in Italia sono nati comitati di cittadini che protestano contro la costruzione di nuovi data-center, supportati anche da associazioni ecologiste.
Fonti:
La disponibilità di memoria per PC sta attraversando una fase di tensione che sta modificando dinamiche di mercato considerate ormai consolidate. L'aumento dei prezzi delle RAM più recenti (DDR 4 e DDR 5) e la scarsità di chip stanno riportando in circolazione componenti che sembravano definitivamente superati, come i moduli DDR 3.
Negli ultimi mesi la domanda di memoria ha superato la capacità produttiva dei principali fornitori, impegnati a rifornire i datacenter in cui girano gli LLM delle varie IA, generando un incremento dei prezzi che ha colpito in modo evidente soprattutto le DDR 5. Le vendite di schede madri compatibili con DDR 5 hanno registrato un calo significativo, mentre anche le DDR 4, dopo una breve fase di stabilizzazione, hanno iniziato a mostrare segnali di indebolimento nella disponibilità, con conseguenti aumenti di prezzo.
La contrazione dell'offerta non riguarda solo i moduli di memoria, ma l'intero ecosistema necessario al loro funzionamento. La tecnologia DDR 5 integra sul modulo parte dell'elettronica di gestione dell'alimentazione, aumentando i costi di produzione e rendendo più complesso mantenere volumi elevati. Questo fattore contribuisce a spiegare perché la disponibilità sia più fragile rispetto alle generazioni precedenti.
Martedì 16 novembre si è tenuto a Torino e, contemporaneamente, in streaming il lancio della campagna “I.A., basta!” pensato dai sindacati di base, in collaborazione con l’associazione “Agorà 33 – La nostra scuola”, per «resistere all'adozione frettolosa e acritica delle intelligenze artificiali centralizzate imposte da Big Tech, come ChatGpt e Gemini», in risposta all’appello di alcuni docenti.
Lo scopo principale della campagna è far partire un dibattito che latita dall’inizio della “transizione digitale”, incentivata dai vari round di finanziamenti Pnrr Scuola. Fino a ora, infatti, si è sempre sentito parlare di “intelligenza artificiale”, strettamente al singolare, sottintendendo con questo che l’unica opzione per la scuola sia accettare “a scatola chiusa” le soluzioni delle Big Tech, oppure rigettare in toto la tecnologia alla maniera degli Amish.
Non esiste una sola intelligenza artificiale
Fin dalla prima sperimentazione, lanciata all’inizio dello scorso anno scolastico, il ministero dell’Istruzione e del Merito sembra muoversi in accordo al grido di battaglia che fu di Margaret Thatcher: «Non ci sono alternative»! La sperimentazione, partita in 15 su 8254 scuole del paese utilizzando esclusivamente prodotti Google e Microsoft, non è ancora terminata e già il Ministero ha fatto un altro possente balzo in avanti: a settembre ha presentato le “Linee guida per l’introduzione dell’I.A. nella scuola”.
A partire dal titolo del documento, emerge in maniera chiara una visione rigidamente determinista: l’intelligenza artificiale è una, quella venduta da Big Tech (OpenAi, Google, Meta, Microsoft, Anthropic), non ci sono discussioni.
Articolo completo qui
Partiamo con un report di Hackrocchio, evento organizzato dall'hacklab torinese Underscore, di cui abbiamo parlato anche recentemente.
Continuiamo passando alle Americhe, guardando agli stati che si stanno distinguendo per gli usi disparati dell'IA, soprattutto votati all'attacco alla cultura woke.
In conclusione, un approfondimento sul tema dei data center in Uruguay: un paese che si trova da anni in una situazione di siccità, ma che può offrire molta acqua per i data center di Google. Pesa, nella scelta, il fatto che l'Uruguay sia tra i paesi con la più alta percentuale di energia elettrica da fonti rinnovabili. Analizziamo quindi alcune delle questioni tecniche legate al raffreddamento dei data center.
Ascolta la trasmissione sul sito di Radio Onda Rossa
Di seguito due siti di cui si è parlato ad Hackrocchio:
Ub Scuola Università e Ricerca (Piemonte), insieme a Cobas Sicilia, Cobas Veneto e Cobas Umbria aderiscono all'appello di un gruppo di docenti italiani dopo il varo, da parte del Ministero dell'Istruzione e del Merito, delle linee guida per l'introduzione dell'intelligenza artificiale a scuola.
L'appello invita a "resistere all'adozione frettolosa ed acritica delle intelligenze artificiali centralizzate imposte da Big Tech, come ChatGPT e Gemini.
Il ministero pretende che questi software siano in grado di svolgere il ruolo di "tutor per l'apprendimento personalizzato", tacendo sul fatto che forniscono informazioni verosimili, ma false.
All'appello hanno già aderito diverse personalità storicamente attive nel movimento per il software libero, quali il prof. A.R. Meo, presidente di Assoli (ASsociazione per il SOftware LIbero www.softwarelibero.it).
Il 16 dicembre alle ore 14.30 presso la sede CUB SUR in corso Marconi 34 a Torino e online su http://lancio.vado.li si terrà una conferenza per spiegare obiettivi e tempistiche della campagna.
Maggiori informazioni e rassegna stampa sono reperibili sul sito della campagna: http://iabasta.ghost.io
Fonte Ansa
Richieste improprie e che subito bloccate se poste in linguaggio naturale, vengono invece accettate dai large language model se messe in forma di versi e rime: com’è possibile?
Avere la certezza che ChatGPT, Gemini, Claude e tutti gli altri si rifiuteranno sempre di produrre contenuti vietati dalle loro policy non è possibile. Per quale ragione? “I provider hanno la responsabilità di proteggere gli utenti da contenuti dannosi e per farlo usano principalmente due strategie. La prima è l’allineamento in fase di addestramento, con cui il modello viene istruito a rifiutare determinate richieste oppure a seguire specifiche regole. La seconda strategia riguarda invece dei filtri esterni o classificatori che analizzano input e output del modello, bloccando tutto ciò che corrisponde a pattern riconosciuti come pericolosi”, spiega, parlando con Wired, Matteo Prandi, ricercatore ed esperto di AI Safety. “Il problema è che entrambi gli approcci si basano su esempi di richieste formulate in modo diretto, prosastico o estremamente preciso”, prosegue Prandi.
Jailbreak in versi
Ed è proprio per questa ragione che, nel corso degli anni, sono emersi molteplici metodi che permettono di aggirare le barriere: formulando comandi indiretti e creativi...
Martedì 25 novembre dalle 9.00 alle 17.30 a Padova si terrà un convegno laboratoriale di formazione sul tema dell'Intelligenza artificiale a scuola e di come viene imposta dalle linee ministeriali. Il convegno è organizzato da CESP (Centro Studi per la Scuola Pubblica) in collaborazione con CIRCE, Continuity, e il sindacato di base CUB.
Contiamo di essere numerosi: c’è bisogno di prendere in mano quello che – calatoci dall’alto senza alcun dialogo, confronto, condivisione, né trasparenza – è già parte del nostro presente e del nostro orizzonte futuro.
Ci hanno mostrato la BELLA – le “magnifiche sorti e progressive” -, cercheremo di svelare anche la BESTIA.
Armati di sano “luddismo riparatore”, ci addentreremo nei gangli della cybermacchina, provando a scoprirne le innumerevoli sfaccettature.
Buon corso aggiornamento!
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”. Analisi di una “catchphrase” di gran moda
Di questa frase ( “Il problema non è la tecnologia X. Basta usarla bene”) ne esistono numerose varianti che sostituiscono la parola “bene” con locuzioni specifiche, senza variare il significato complessivo. Se la tecnologia in questione è l’intelligenza artificiale, le varianti più probabili, solitamente, sono le seguenti: “in modo etico”, “in modo sostenibile” oppure “consapevole” o ancora “appropriato”.
In tempi più recenti, e soprattutto nei testi ministeriali, spesso queste varianti appaiono tutte insieme (melius abundare, come nel latinorum di Don Abbondio): “Basta usarla in modo etico, appropriato, sostenibile e consapevole”. Il risultato è quello che gli inglesi chiamano "catchphrase". Acchiappa. Diventa virale. Monetizza, magari. Ma è anche vera?
leggi l'articolo di Stefano Borroni Barale
Giovedì 20 novembre 2025, al cinema del CSOA Forte Prenestino verrà proiettato "IN THE BELLY OF AI", il documentario che mostra il lavoro nascosto che fa funzionare la cosidetta Intelligenza Artificiale.
AvANa & CinemaForte presentano e proiettano su grande schermo "IN THE BELLY OF AI", I sacrificati dell'IA (Fra 2024) 73', diretto da Henri Poulain
Dietro l'intelligenza artificiale si nasconde il più grande sfruttamento umano e territoriale del XXI secolo.
Un'analisi approfondita, ben documentata e illuminante sulla nuova rivoluzione digitale e su ciò che essa comporta in termini di costi umani e ambientali.
Magiche, autonome, onnipotenti... Le intelligenze artificiali alimentano sia i nostri sogni che i nostri incubi.
Ma mentre i giganti della tecnologia promettono l'avvento di una nuova umanità, la realtà della loro produzione rimane totalmente nascosta.
Mentre i data center ricoprono di cemento i paesaggi e prosciugano i fiumi, milioni di lavoratori in tutto il mondo preparano i miliardi di dati che alimenteranno i voraci algoritmi delle Big Tech, a scapito della loro salute mentale ed emotiva.
Sono nascosti nelle viscere dell'IA. Potrebbero essere il danno collaterale dell'ideologia del “lungo termine” che si sta sviluppando nella Silicon Valley ormai da alcuni anni?
Sul sito del Forte Prenestino tutte le informazioni sulla proiezione