Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Ub Scuola Università e Ricerca (Piemonte), insieme a Cobas Sicilia, Cobas Veneto e Cobas Umbria aderiscono all'appello di un gruppo di docenti italiani dopo il varo, da parte del Ministero dell'Istruzione e del Merito, delle linee guida per l'introduzione dell'intelligenza artificiale a scuola.

L'appello invita a "resistere all'adozione frettolosa ed acritica delle intelligenze artificiali centralizzate imposte da Big Tech, come ChatGPT e Gemini.

Il ministero pretende che questi software siano in grado di svolgere il ruolo di "tutor per l'apprendimento personalizzato", tacendo sul fatto che forniscono informazioni verosimili, ma false.

All'appello hanno già aderito diverse personalità storicamente attive nel movimento per il software libero, quali il prof. A.R. Meo, presidente di Assoli (ASsociazione per il SOftware LIbero www.softwarelibero.it).

Il 16 dicembre alle ore 14.30 presso la sede CUB SUR in corso Marconi 34 a Torino e online su http://lancio.vado.li si terrà una conferenza per spiegare obiettivi e tempistiche della campagna.

Maggiori informazioni e rassegna stampa sono reperibili sul sito della campagna: http://iabasta.ghost.io

Fonte Ansa

Richieste improprie e che subito bloccate se poste in linguaggio naturale, vengono invece accettate dai large language model se messe in forma di versi e rime: com’è possibile?

Avere la certezza che ChatGPT, Gemini, Claude e tutti gli altri si rifiuteranno sempre di produrre contenuti vietati dalle loro policy non è possibile. Per quale ragione? “I provider hanno la responsabilità di proteggere gli utenti da contenuti dannosi e per farlo usano principalmente due strategie. La prima è l’allineamento in fase di addestramento, con cui il modello viene istruito a rifiutare determinate richieste oppure a seguire specifiche regole. La seconda strategia riguarda invece dei filtri esterni o classificatori che analizzano input e output del modello, bloccando tutto ciò che corrisponde a pattern riconosciuti come pericolosi”, spiega, parlando con Wired, Matteo Prandi, ricercatore ed esperto di AI Safety. “Il problema è che entrambi gli approcci si basano su esempi di richieste formulate in modo diretto, prosastico o estremamente preciso”, prosegue Prandi.

Jailbreak in versi

Ed è proprio per questa ragione che, nel corso degli anni, sono emersi molteplici metodi che permettono di aggirare le barriere: formulando comandi indiretti e creativi...

Continua a leggere

Martedì 25 novembre dalle 9.00 alle 17.30 a Padova si terrà un convegno laboratoriale di formazione sul tema dell'Intelligenza artificiale a scuola e di come viene imposta dalle linee ministeriali. Il convegno è organizzato da CESP (Centro Studi per la Scuola Pubblica) in collaborazione con CIRCE, Continuity, e il sindacato di base CUB.

Contiamo di essere numerosi: c’è bisogno di prendere in mano quello che – calatoci dall’alto senza alcun dialogo, confronto, condivisione, né trasparenza – è già parte del nostro presente e del nostro orizzonte futuro.

Ci hanno mostrato la BELLA – le “magnifiche sorti e progressive” -, cercheremo di svelare anche la BESTIA.

Armati di sano “luddismo riparatore”, ci addentreremo nei gangli della cybermacchina, provando a scoprirne le innumerevoli sfaccettature.

Buon corso aggiornamento!

Più informazioni qui e qui

Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”. Analisi di una “catchphrase” di gran moda

Di questa frase ( “Il problema non è la tecnologia X. Basta usarla bene”) ne esistono numerose varianti che sostituiscono la parola “bene” con locuzioni specifiche, senza variare il significato complessivo. Se la tecnologia in questione è l’intelligenza artificiale, le varianti più probabili, solitamente, sono le seguenti: “in modo etico”, “in modo sostenibile” oppure “consapevole” o ancora “appropriato”.

In tempi più recenti, e soprattutto nei testi ministeriali, spesso queste varianti appaiono tutte insieme (melius abundare, come nel latinorum di Don Abbondio): “Basta usarla in modo etico, appropriato, sostenibile e consapevole”. Il risultato è quello che gli inglesi chiamano "catchphrase". Acchiappa. Diventa virale. Monetizza, magari. Ma è anche vera?

leggi l'articolo di Stefano Borroni Barale

Giovedì 20 novembre 2025, al cinema del CSOA Forte Prenestino verrà proiettato "IN THE BELLY OF AI", il documentario che mostra il lavoro nascosto che fa funzionare la cosidetta Intelligenza Artificiale.

AvANa & CinemaForte presentano e proiettano su grande schermo "IN THE BELLY OF AI", I sacrificati dell'IA (Fra 2024) 73', diretto da Henri Poulain

Dietro l'intelligenza artificiale si nasconde il più grande sfruttamento umano e territoriale del XXI secolo.

Un'analisi approfondita, ben documentata e illuminante sulla nuova rivoluzione digitale e su ciò che essa comporta in termini di costi umani e ambientali.

Magiche, autonome, onnipotenti... Le intelligenze artificiali alimentano sia i nostri sogni che i nostri incubi.
Ma mentre i giganti della tecnologia promettono l'avvento di una nuova umanità, la realtà della loro produzione rimane totalmente nascosta.

Mentre i data center ricoprono di cemento i paesaggi e prosciugano i fiumi, milioni di lavoratori in tutto il mondo preparano i miliardi di dati che alimenteranno i voraci algoritmi delle Big Tech, a scapito della loro salute mentale ed emotiva.
Sono nascosti nelle viscere dell'IA. Potrebbero essere il danno collaterale dell'ideologia del “lungo termine” che si sta sviluppando nella Silicon Valley ormai da alcuni anni?

Sul sito del Forte Prenestino tutte le informazioni sulla proiezione

Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un difetto risolvibile. I tentativi di controllo qualità sui dati richiedono risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali addestrati su dati limitati

I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile – dell’industria dell’intelligenza artificiale. Tra promesse di precisione e realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo.

L‘insistenza criminale sui sistemi predittivi fallimentari

C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed è la criminale, idiota insistenza a volersene dotare.

Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo un discorso più generale.

leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)

L'industria nucleare sta vivendo una rinascita, spinta da un'enorme crescita della domanda di energia, mentre le grandi aziende tecnologiche cercano fonti di energia pulita per alimentare i loro data center.

Google ha annunciato di aver raggiunto accordo con il gruppo americano NextEra Energy che prevede la rimessa in funzione all'inizio del 2029 della centrale nucleare Duane Arnold, nell'Iowa, per lo sviluppo delle infrastrutture di intelligenza artificiale (IA) del gigante californiano.

Si tratta del terzo progetto di riapertura di una centrale nucleare annunciato di recente, dopo quelli relativi ai siti di Palisades (Michigan) nel 2023 e Three Mile Island (Pennsylvania) nel 2024, segno della ripresa dell'industria nucleare dopo decenni senza investimenti significativi negli Stati Uniti.

Link articolo qui

L’IA entra in finanza e moltiplica i rischi di bolle e instabilità. Algoritmi simili, pochi attori dominanti e un mercato sempre più irrazionale

«Ehi, ChatGPT, che azioni mi compro?» Potrebbe sembrare una domanda fatta per gioco, tanto per vedere che risposte si ottengono. Invece, secondo un articolo che riprende una ricerca svolta in 13 Paesi su 10mila investitori, uno su dieci si rivolge a una qualche intelligenza artificiale. Molti tra questi prenderebbero in considerazione l’idea di lasciare direttamente nelle mani dell’IA la scelta su quali transazioni finanziarie eseguire. Dalla ricerca, sembra che le risposte dei chatbot siano ragionevoli e prudenti, insistendo sul fatto che è impossibile predire l’andamento dei mercati, in ragione della complessità e della quantità di fattori che possono influenzarli.

[...]

Riassumendo: un oligopolio di imprese tecnologiche fornisce algoritmi che guidano gli investimenti sui mercati, mercati dominati da un oligopolio di investitori istituzionali, che sono i loro maggiori azionisti. Cosa potrebbe mai andare storto?

Leggi l'articolo

Oggi l’intelligenza artificiale, lasciata in mano a una manciata di miliardari, diviene una minaccia esistenziale alla scuola. Oggi, contro questa I.A., diciamo BASTA!

Nella trasmissione di Radio Onda Rossa, l'Ora di Buco, si riparla di Intelligenza artificiale a scuola: un docente di informatica spiega tutto quello che non va nelle fumose linee guida ministeriali. Inoltre presenta l'appello alla comunità educante per rifiutare l'introduzione dell'Intelligenza Artificiale delle multinazionali e proporre invece delle tecnologie realmente utili a studenti, insegnanti e personale non docente della scuola.

Qui alcune riflessioni critiche e preoccupate, con l'appello da diffondere e firmare.

Ascolta l'audio dell'intervento

Vai alla puntata dell'Ora di Buco

Le aziende tecnologiche americane stanno installando motori jet dismessi da Boeing e Airbus come generatori d'emergenza per alimentare i data center AI, a causa di tempi d'attesa superiori ai cinque anni per nuovi allacciamenti alla rete elettrica.

Il progetto Stargate di OpenAI in Texas utilizza quasi 30 turbine aeroderivative che generano complessivamente oltre 1000 megawatt, creando di fatto una centrale elettrica temporanea in attesa del potenziamento delle infrastrutture tradizionali.

Questa soluzione costosa e inquinante rivela un paradosso critico: le stesse aziende che promuovono la sostenibilità sono costrette ad adottare tecnologie a gas per non perdere la corsa competitiva nell'intelligenza artificiale.

Va precisato che l'uso di turbine derivate dall'aviazione non rappresenta una novità assoluta nel panorama industriale. Per decenni, queste soluzioni sono state impiegate in ambito militare e nelle piattaforme di trivellazione offshore, dove la necessità di energia portatile e affidabile è sempre stata prioritaria. Tuttavia, la loro comparsa massiccia nei data center segna un momento storico e rivela quanto sia diventata critica la carenza di energia negli Stati Uniti. Si tratta di un segnale inequivocabile: quando giganti tecnologici con bilanci da decine di miliardi di dollari ricorrono a soluzioni definite "di transizione", significa che il problema è strutturale.

Amazon dal canto suo punta sul nucleare, con il progetto Cascade Advanced Energy Facility nello stato di Washington, un campus nucleare basato su reattori modulari SMR per alimentare i propri data center con energia carbon-free. Il progetto utilizza la tecnologia Xe-100 e punta ad avviare la produzione elettrica negli anni '30, rappresentando il primo impegno concreto di una Big Tech nella costruzione di nuova capacità nucleare.

Articoli completi qui e qui