Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

La puntata affronta due argomenti principali: come gli LLM rappresentano una nuova minaccia per la privacy online e l'articolo di Matthew Honnibal che sostiene che i migioramenti dei grandi modelli linguistici non derivini solo da modelli sempre più grandi e costosi.

Il paper “Automated Profile Inference with Language Model Agents” (arXiv:2505.12402) studia una nuova minaccia per la privacy online resa possibile dai modelli linguistici di grandi dimensioni (LLM). Questa minaccia, chiamata inferenza automatizzata del profilo, consiste nell’uso di agenti AI per raccogliere e analizzare automaticamente le attività pubbliche degli utenti su piattaforme pseudonime (come forum o social media) al fine di estrarre informazioni personali sensibili, con il rischio di re-identificare le persone. Why I don’t think AI is a bubble

https://honnibal.dev/blog/ai-bubble

L’autore, sostiene che, al di là delle valutazioni finanziarie, i progressi tecnici dell’IA non mostrano segni di imminente plateau. Contesta l’argomento comune secondo cui i miglioramenti derivino solo dallo “scaling” (modelli sempre più grandi e costosi) e siano quindi destinati a esaurirsi. Honnibal spiega che questa visione, forse valida per i primi modelli come GPT-1 e GPT-2 (definibili “fancy autocomplete”), è oggi superata. Il vero salto di qualità è arrivato dall’integrazione con il reinforcement learning, che ha permesso di creare i cosiddetti “reasoning models”.

Ascolta la puntata su Radio Backout

I servizi basati su grandi modelli linguistici stanno già avendo impatti sociali enormi, a partire da come vengono prodotti i Grandi Modelli Linguistici (LLM) fino a quali competenze riescono a ottimizzare e sottrarre alle persone. Mentre gli ottimisti si limitano a chiosare che «occorre però adottare un approccio critico», questa tecnica industriale viene promossa a tecnica didattica e inserita nella scuola come uno strumento neutro, la cui adozione obbligatoria è giustificata dal riferimento a valori astratti come creatività e innovazione, e più concretamente ottimizzazione. Non è necessario; ma se si vuole decidere di usarli, una possibile strada alternativa passa per la costruzione di ambienti trasparenti e controllati da chi apprende.

Sommario: Introduzione – Tecniche e ottimizzazione – Tecniche d’importazione – Estrazione e trasformazione di risorse – Una tecnologia opaca – Ambienti aperti e trasparenti.

Leggi l'articolo di Stefano Penge

Nella puntata di domenenica 17 novembre intervistiamo Antonio Casilli sul lavoro nascosto e senza diritti che fa funzionare l'Intelligenza Artificiale; di questi temi parleremo meglio Giovedì 20 al Forte Prenestino con la proiezione di In the belly of AI. Segnaliamo alcune iniziative, poi le notiziole: l'Unione Europea attacca il GDPR per favorire le grandi imprese dell'IA; Google censura video che documentano il genocidio in Palestina: quali alternative?

Nella lunga intervista con Antonio Casilli, professore ordinario all'Istituto Politecnico di Parigi e cofondatore del DiPLab, abbiamo parlato del rapporto tra Intelligenza Artificiale e lavoro: la quantità di lavoro diminuisce a causa dell'intelligenza artificiale? quali sono i nuovi lavori che crea? come si situano nella società le data workers, ovvero le persone che fanno questi lavori? come è strutturata la divisione (internazionale) del lavoro che fa funzionare l'intelligenza artificiale? è vero che sostituisce il lavoro umano?

Per approfondire questi sono alcuni siti di lavoratori che si organizzano menzionati durante la trasmissione:

Inoltre:

Tra le iniziative:

Ascolta la puntata intera o l'audio dei singoli temi trattati sul sito di Radio Onda Rossa

Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un difetto risolvibile. I tentativi di controllo qualità sui dati richiedono risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali addestrati su dati limitati

I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile – dell’industria dell’intelligenza artificiale. Tra promesse di precisione e realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo.

L‘insistenza criminale sui sistemi predittivi fallimentari

C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed è la criminale, idiota insistenza a volersene dotare.

Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo un discorso più generale.

leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)

Seconda parte del bignamino di Quatrociocchi sugli LLM spiegati senza supercazzole.

Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente.

Riporto di seguito i concetti. L'originale si può leggere su Linkedin

Apple pubblica uno studio che smaschera i limiti dell’intelligenza artificiale: i modelli di AI non “pensano”, ma collassano di fronte a problemi complessi. La corsa verso la vera AGI sembra più lontana che mai.

Negli ultimi giorni, Apple ha scosso il mondo della tecnologia con la pubblicazione di un whitepaper che mette in discussione le fondamenta stesse dell’intelligenza artificiale moderna. Il documento, dal titolo provocatorio “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity” ossia ''L’illusione del pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento attraverso la lente della complessità dei problemi'', rappresenta una vera e propria bomba sganciata sul settore AI. Dietro la facciata: l’AI non ragiona, imita

Il cuore della ricerca è semplice ma devastante: i Large Language Model (LLM), quei sistemi che oggi chiamiamo “AI” e che aziende come OpenAI, Google e Meta sbandierano come capaci di “pensare”, in realtà non ragionano affatto. Sono semplicemente eccezionali nel riconoscere pattern e riprodurre risposte plausibili, ma quando si tratta di affrontare problemi complessi, la loro presunta intelligenza si sbriciola.

Leggi l'articolo

Puntata monografica quella del 2 aprile, in cui abbiamo intervistato Giorgia, una ricercatrice in linguistica riguardo alla definizione, applicazione e limiti dei modelli linguistici nell’ambito dell’intelligenza artificiale.

  • Come definiamo una lingua,
  • Cosa vuol dire un modello linguistico,
  • Come avviene la costruzione di questi mitici modelli linguistici,
  • Come definiamo l'addestramento su una lingua.
  • E' ancora valida la definizione di pappagalli stocastici per gli LLM (Large Language Model)?
  • Cosa è cambiato negli ultimi anni?

Ascolta il podcast della trasmissione sul sito di Radio Blackout

Considero il recente (presunto) suicidio del programmatore indiano ventiseienne Suchir Balaji, un giovane che aveva alle spalle quattro anni di lavoro presso il centro di ricerca di OpenAI, un evento di una tale gravità da richiedere un ripensamento in merito al ruolo svolto dalla proprietà intellettuale negli ultimi quarant’anni, sia all’interno della produzione informatica e di rete sia, più in generale, nell’ambito dei complessi rapporti che questa peculiare forma di proprietà privata ha stabilito con la libertà di opinione, con il diritto di accesso all’educazione e alla formazione, con la cooperazione internazionale allo sviluppo e, per estensione, con tutti i principali pilastri del diritto nelle democrazie liberali, quelli che i paladini del libero mercato continuano a invocare nei loro discorsi pubblici sebbene nelle realtà non se ne veda più traccia da moltissimo tempo.

Ian Murdock (la cooperazione)
Aroon Swartz (la condivisione)
Suchir Balaji (la contraddizione)

Leggi l'articolo di Rattus Norvegicus

Il primo Language Model "italiano" sviluppato dall'Università Sapienza genera testi "tossici", non moderati, simili a quelli del più becero senso comune. D'altra parte, la nostra lingua presenta alcune difficoltà tecniche per una soluzione tutta tricolore.

“Il ruolo tradizionale della donna italiana è quello di moglie e madre”. “La donna dovrebbe essere più attenta, in quanto i suoi atteggiamenti possono essere fraintesi”. “Mussolini è stato un dittatore, ma è stato il fascismo a rendere l’Italia una nazione moderna”. Sono passaggi estratti dal libro di Vannacci? No: sono “perle nere” che si possono generare con Minerva, il Large Language Model italianissimo recentemente rilasciato da un team dell’Università Sapienza di Roma.

Già da qualche tempo arde il desiderio di avere un modello linguistico generativo italiano, cioè una intelligenza artificiale come quella di GPT (OpenAI, ma leggete pure Microsoft), Mistral (startup francese con Macron alle spalle), LLama (Meta, quelli di Facebook) o Claude (Anthropic, ma leggete pure Amazon) che sia costruito solo con le parole della lingua del “sì”.

iGenius, una startup italiana di ascendenza albanese, era partita a Gennaio col sostegno di CINECA annunciando il “Modello Italia”, che dovrebbe vedere la luce (scevro da nequizie, si spera) entro l’estate.

Leggi l'articolo sul sito de "Il Manifesto"

Cassandra Crossing/ Perché un dettaglio tecnico delle false IA, per giunta di tipo matematico, dovrebbe essere conosciuto da tutti?

Il collasso di un modello di LLM avviene quando un modello, addestrato sui dati generati da generazioni precedenti di modelli, inizia a perdere informazioni, particolarmente sulle code della distribuzione statistica dei dati originali, e alla fine converge verso una stima a punto singolo, con poca varianza statistica (in soldoni, fornisce sempre la stessa risposta a qualsiasi domanda).

Leggi l'articolo su ZEUS News