Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Il testo normativo più avanzato al mondo sull’intelligenza artificiale è stato approvato dal Parlamento ed entra così nella fase finale della negoziazione europea. Ma solo l’applicazione pratica dirà quanto il testo sarà rispettoso del “mondo libero” di cui ci fregiamo di far parte

Le pratiche di AI vietate

Il Regolamento prosegue con le pratiche di AI vietate, cui è dedicato il Titolo II; nella relazione della Bozza si legge che “Il titolo II stabilisce un elenco di pratiche di IA vietate. Il regolamento segue un approccio basato sul rischio, differenziando tra gli usi dell’IA che creano: i) un rischio inaccettabile; ii) un rischio alto; iii) un rischio basso o minimo. L’elenco delle pratiche vietate di cui al titolo II comprende tutti i sistemi di IA il cui uso è considerato inaccettabile in quanto contrario ai valori dell’Unione, ad esempio perché viola i diritti fondamentali.

Vietati:

  • Sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
  • sistemi di identificazione biometrica a distanza “a posteriori”, con l’unica eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
  • sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, sesso, razza, etnia, cittadinanza, religione, orientamento politico);
  • sistemi di polizia predittiva (basati su profili, ubicazione o comportamenti criminali passati);
  • sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni scolastiche; e
  • lo scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

Leggi l'intero articolo

Si sa ancora poco di Giove, il nuovo sistema di polizia predittiva italiano che il Ministero dell’Interno vorrebbe dare in dotazione a tutte le questure d’Italia.

Sviluppato dentro il Dipartimento di pubblica sicurezza del Ministero dell’Interno – sulla base delle sperimentazioni portate avanti dal 2008 dalla questura di Milano con il software KeyCrime – Giove si presenta come “un sistema di elaborazione e analisi automatizzata per l’ausilio delle attività di polizia”, come riporta Il Sole 24Ore, e sarebbe in grado di predire dove e quando i reati di maggior impatto sociale, come molestie sessuali, furti in abitazione e truffe agli anziani, potrebbero verificarsi nuovamente.

Uno scenario che richiama la fantascienza e che solleva dubbi e perplessità tra gli addetti ai lavori, soprattutto per la comprovata incapacità attuale di questi sistemi di trovare corrispondenze con la realtà e per la loro tendenza a discriminare le persone in base all’etnia e alla provenienza geografica. Non solo, ad aumentare la preoccupazione è il fatto che nulla sia ancora stato detto circa alcuni aspetti fondamentali, come quali banche dati e dati verranno usati per addestrare l’algoritmo, chi sarà il responsabile del trattamento dei dati e se l’uso del sistema comporterà o meno arresti preventivi. Domande che hanno spinto alcuni senatori a depositare, qualche giorno fa, un’interrogazione parlamentare dedicata.

Uno scenario inquietante, insomma, che potrebbe materializzarsi se il sistema otterrà il parere positivo del Garante della privacy.
Ne parliamo con Jacopo, parte del gruppo di ricerca C.I.R.C.E

Ascolta l'audio dell'intervento di Jacopo sul sito di Radio Onda D'Urto

Esperimenti e allucinazioni di e con ChatGPT

Si potrebbe continuare così per molte pagine. Palmiro Togliatti è stato assassinato nel 1964 da un membro di un gruppo neofascista, gli scioperi a rovescio “sono una forma di protesta in cui i lavoratori continuano a lavorare nonostante sia stato proclamato uno sciopero”, nella lista degli appartenenti alla loggia massonica P2 figura anche Renzo Arbore, e così via

Non si tratta, però, degli errori commessi da una macchina allo stadio iniziale dell’“apprendimento”, ma di quelle che nel gergo tecnico vengono definite “allucinazioni”, risposte completamente inventate prodotte di frequente dagli strumenti di intelligenza artificiale

leggi l'articolo sul sito de "Gli Asini"

Sarebbe in grado di prevedere crimini futuri, ma alcuni parlamentari chiedono al ministero dell'Interno più informazioni su privacy e algoritmo utilizzati

È stata depositata in Senato un'interrogazione parlamentare sul sistema Giove, il software italiano di “polizia predittiva” annunciato ieri dal Dipartimento di pubblica sicurezza del ministero dell'Interno e che sarebbe destinato a tutte le questure italiane.

Il testo, che vede come primo firmatario il senatore dem Filippo Sensi (già attivo nella precedente legislatura sul tema delle intelligenze artificiali), chiede al ministero dell'Interno delucidazioni in merito alla “capacità di previsione di una serie di reati in base allo sviluppo di un algoritmo di intelligenza artificiale - sulla carta controllato e gestito da operatori della Polizia di Stato - come supporto alle indagini preliminari” e di chiarire “quali interventi intenda mettere in atto per introdurre il sistema Giove in Italia, se esistono altri software di questo tipo già in uso o dei quali si prospetta l'utilizzo, quali aziende siano state coinvolte nella definizione di questa tecnologia, della sua implementazione e del suo sviluppo”.

Un software, Giove, che dovrebbe essere in grado infatti di “prevedere” i cosiddetti crimini predatori, che molto spesso sono esemplificati dal furto e dalla rapina...

Leggi l'articolo

Prosegue il dibattito sull'AI.

Nella Newsletter del 28 maggio si parla di:

  • AI, copilota o dirottatore?
  • Bengio sui rischi e la sicurezza nell’AI
  • Spyware, GDPR e altro

Microsoft ha annunciato che nei prossimi mesi integrerà Copilot, il suo assistente AI, in Windows 11. Sarà quindi possibile, fra le altre cose, chiedere all'assistente di "regolare le impostazioni" o di eseguire altre azioni su un computer (The Verge). “Stiamo introducendo Windows Copilot, rendendo Windows 11 la prima piattaforma per computer ad annunciare un’assistenza AI centralizzata per aiutare le persone a intervenire facilmente e a realizzare le cose”, scrive Microsoft nel suo blog...

leggi la newsletter nel sito di Guerre di Rete

I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani: funzioni quali la traduzione di testi, il riconoscimento facciale, la ricerca per immagini o l’identificazione di contenuti musicali, non trattabili con l’intelligenza artificiale simbolica, sono affrontate con crescente successo dai sistemi di apprendimento automatico (machine learning).

Questi sistemi, di natura sostanzialmente statistica, consentono infatti di costruire modelli a partire da esempi, purché si abbiano a disposizione potenti infrastrutture di calcolo e enormi quantità di dati. Le grandi aziende tecnologiche che, intorno al 2010, in virtù di un modello di business fondato sulla sorveglianza, detenevano già l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati, hanno potuto perciò raggiungere, con l’applicazione di algoritmi in gran parte noti da decenni, traguardi sorprendenti1.

Nella generale euforia per i genuini progressi, le imprese del settore hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti», ben oltre l’effettivo stadio di sviluppo della tecnologia. Con la formula di marketing «intelligenza artificiale», hanno diffuso e messo in commercio sistemi di apprendimento automatico per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono

  • le auto a guida autonoma,
  • i sistemi di ottimizzazione predittiva,
  • i generatori di linguaggio naturale.

Leggi l'articolo completo di Daniela Tafani

Grazie alla AI, non è più possibile fermare il processo di autocostruzione dell’automa globale. Missione conclusa per il genere umano?

[...]

L’attuale stadio di sviluppo dell’AI sta probabilmente portandoci sulla soglia di un salto alla dimensione che definirei Automa cognitivo globale pervasivo. L’automa non è un analogo dell’organismo umano, ma la convergenza di innumerevoli dispositivi generati da intelligenze artificiali disseminate.

[...]

Questa superiorità (o piuttosto irriducibilità alla computazione) del pensiero umano è una magra consolazione, perché essa non serve a molto quando si tratta di interagire con dispositivi di generazione (e di distruzione) basati sul calcolo.

[...]

Il progetto di inserire regole etiche nella macchina generativa è una vecchia utopia della fantascienza, su cui per primo scrisse Isaac Asimov, quando formulò le tre leggi fondamentali della robotica. Lo stesso Asimov dimostra narrativamente che queste leggi non funzionano.

Leggi l'articolo completo di Bifo sul sito di Nero edizioni

Le macchine estraggono modelli statistici dalle grandi basi dati di testi e immagini costruite da noi. Basterebbe proibirgli di usare i nostri contenuti per addestrarsi

[...]

Hinton si iscrive nella lista degli scienziati pentiti dopo aver contribuito allo sviluppo dell’intelligenza artificiale, di cui viene considerato addirittura il ‘padrino’. Si consola pensando che comunque qualcun altro lo avrebbe fatto al posto suo. È importante mantenere uno sguardo critico nei confronti di questi atteggiamenti dei grandi esperti di tecnologia. Il rimedio potrebbe essere peggiore del male.

[...]

Leggi l'articolo di Teresa Numerico sul sito de "Il Manifesto"

Per il ciclo di incontri “i Nexa Lunch Seminar” - 106° Nexa Lunch Seminar incontro il 24 maggio con Daniela Tafani, autrice di "L’«etica» come specchietto per le allodole Sistemi di intelligenza artificiale e violazioni dei diritti".

Mercoledì 24 maggio 2023, ore 13.00 (termine: ore 14.00)
L'INCONTRO SI TERRÀ IN PRESENZA E ONLINE SEDE FISICA:
Centro Nexa su Internet e Società, Politecnico di Torino, Via Boggio 65/a, Torino (1° piano) Suonare al citofono Portineria - Seguire le indicazioni segnalate dai cartelli lungo il percorso

STANZA VIRTUALE: https://didattica.polito.it/VClass/NexaEvent

leggi tutte le informazioni sul sito di nexa

Nel corso dell’evento ASU+GSV tenutosi a San Diego, Bill Gates ha affrontato un interrogativo posto da alcuni partecipanti riguardo alla possibilità che, in futuro, ChatGPT possa sostituire i docenti.

Leggi l'articolo completo su orizzonte scuola

La newsletter di Carola Frediani questa settimana tratta principalmente temi legati all'IA N.159 - 7 maggio 2023

In questo numero:

  • Geoff Hinton è uscito dal gruppo
  • Samsung vieta l'uso di ChatGPT
  • ChatGPT e i servizi di "tutoraggio" online
  • Moderatori di contenuti uniti
  • La storia dell'hacking è ancora da scrivere
  • E altro

Leggi la newsletter sul sito di Guerre di rete

Il lancio precipitoso di chatbot AI da parte delle Big Tech ha una fortissima probabilità di degradare l'ecosistema informativo della rete. Molte voci chiedono nuove regole per arginare un'imminente invasione di artefatti prodotti da reti generative sempre più precise che renderà potenzialmente impossibile distinguere il vero dal falso.

Nel suo breve racconto Agnese Trocchi immagina un mondo futuro dove questo è già accaduto...

Leggi il racconto sul sito di CIRCE

Giudizi e decisioni che hanno effetti rilevanti sulle vite delle persone sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. Tali malfunzionamenti non sono occasionali e non sono scongiurabili con interventi tecnici: essi rivelano, anzi, il funzionamento ordinario dei sistemi di apprendimento automatico, utilizzati impropriamente per compiti che non è loro possibile svolgere o che sono impossibili tout court.

Le decisioni basate su tali sistemi sono costitutivamente discriminatorie, e dunque, in alcuni ambiti, infallibilmente lesive di diritti giuridicamente tutelati, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.

Alla vasta documentazione degli esiti ingiusti, nocivi e assurdi di tali decisioni, le grandi aziende tecnologiche – paventando un divieto generalizzato – hanno risposto, in evidente conflitto di interessi, con un discorso sull'etica: è nata così, come operazione di cattura culturale, con l'obiettivo di rendere plausibile un regime di mera autoregolazione, l'«etica dell'intelligenza artificiale». Si tratta di una narrazione che le aziende commissionano e acquistano perché è loro utile come capitale reputazionale, che genera un vantaggio competitivo; è cioè un discorso, rispetto al quale le università hanno il ruolo, e l'autonomia, di un megafono; è «un'esca per catturare la fiducia» dei cittadini: un discorso pubblicitario che, in quanto declamato da altri, non appare neppure come tale.

La funzione di tale discorso è quella di tutelare, legittimandolo, un modello di business – fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali – il cui nucleo consiste nella vendita, alle agenzie pubblicitarie, della promessa di un microtargeting fondato sulla profilazione algoritmica.

Negli ultimi anni, l'opera di demistificazione della natura meramente discorsiva e del carattere strumentale dell'«etica dell'intelligenza artificiale», che trasforma l'etica nella questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici, è stata così efficace da indurre molti a liquidare come inutile o dannosa – in quanto disarmata alternativa al diritto o vuota retorica aziendale – l'intera filosofia morale.

Al dissolversi della narrazione sull'etica dell'intelligenza artificiale, compare il convitato di pietra ch'essa aveva lo scopo di tenere alla larga: si sostiene infatti ora, da più parti, l'urgenza che ad intervenire, in modo drastico, sia il diritto. L'adozione di sistemi di apprendimento automatico a fini decisionali, in ambiti rilevanti per la vita delle persone, quali il settore giudiziario, educativo o dell'assistenza sociale, equivale infatti alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani».

A chi, in nome dell'inarrestabilità dell'innovazione tecnologica, deplori gli interventi giuridici, giova ricordare che il contrasto non è, in realtà, tra il rispetto dei diritti umani e un generico principio di innovazione, ma tra il rispetto dei diritti umani e il modello di business dei grandi monopoli del capitalismo intellettuale.

Leggi l'articolo completo

La quantità è una parte importante dei ragionamenti; a volte diventa qualità, diceva un tale. Cose piccole sono trattabili, cose grandi meno. I computer (in generale le macchine) servono a rendere trattabili cose troppo grandi per noi. Ma anche loro hanno dei limiti, pratici o teorici.

Per esempio GPT-3 (la cosa che sta dietro ChatGPT, ma anche dietro DALLE-E, per quanto si faccia fatica a capire cosa c'entrano l'una con l'altra ed entrambe col T9) è una cosa grossa assai. GPT significa Generative Pre-trained Transformer. Grosso modo, per quel che anche un ignorante come me capisce, è un modello linguistico con un sacco di parametri che è stato costruito nel 2020 a partire da diverse sorgenti utilizzare come dati di partenza una "copia di internet, Wikipedia, archivi di immagini, etc." Un oggetto "molto, molto grande".

Quanti parametri, cioè quanti possibili modi di configurare il modello? Dicono 175 miliardi. Un numero talmente grande che solo un altro software è in grado di enumerarli o verificarli.

Leggi l'articolo completo sul sito di Stefano Penge

Cassandra Crossing/ Esiste una scuola di pensiero che ritiene possibile l'evoluzione "spontanea" dei modelli linguistici in "vera" intelligenza artificiale. Di che cosa si parla esattamente?

È un concetto interessante in cui Cassandra non si era mai imbattuta. Ha invece scoperto che l'ipotesi è, pur in un ambiente molto ristretto, oggetto di dibattito filosofico e anche scientifico. Molto interessante, e vediamo di spiegare il perché.

Perdonate però la vostra profetessa preferita, perché sono necessarie un bel po' di premesse. Speriamo che almeno i 24 indomiti lettori mi seguano senza esitare.

Leggi l'articolo su ZEUS News

Intervista ad Antonio Casilli, autore di «Schiavi del Clic»: «Dietro questa tecnologia c'è un'enorme quantità di lavoro sui dati fatto da grandi masse di persone. C'è un filo rosso che lega chi allena ChatGpt e i suoi utilizzatori»

Nel comunicato del garante della Privacy che blocca l’assistente virtuale ChatGpt c’è un passaggio illuminante in cui si osserva che l’illecita raccolta dei dati personali avviene in mancanza di una «base giuridica» e «allo scopo di addestrare gli algoritmi sottesi al funzionamento della piattaforma».

L’«addestramento» è stato effettuato dagli utenti di questo software che, stimolati dalla stupefacente operazione di marketing basata sull’immaginario apocalittico della sostituzione del lavoro, e persino degli esseri umani, da parte dei robot nelle ultime settimane hanno lavorato gratuitamente, e probabilmente inconsapevolmente, allo sviluppo di ChatGpt bombardandolo con le richieste più singolari e divertenti. Ciò ha permesso alla società OpenAI che ha lanciato anche ChatGpt, fondata a San Francisco nel 2015, di raccogliere fondi da decine di miliardi di dollari, e investimenti cospicui da parte di Microsoft.

Leggi l'intervista sul sito de "Il Manifesto"

Mondo digitale ha pubblicato un bel articolo di Carlo Milani e Vivien García. Di seguito potete leggere il sommario mentre l'articolo completo è sul sito di Mondo Digitale

"L'IA affascina e spaventa. Uno spauracchio si aggira per il mondo: il timore che esseri tecnologici intelligenti sostituiranno gli esseri umani in (quasi) tutte le loro attività, a partire dal lavoro. L'IA se ne occuperebbe automaticamente, agendo come un aiutante magico, capace di svolgere qualsiasi compito assegnato.

Attingendo alla prospettiva di Gilbert Simondon sull'alienazione tecnica,sosterremo che l'automazione è in realtà il livello più basso possibile di interazione uomo-macchina. L'analisi di Simondon offre un metodo per prendere le distanze sia dalla tecnofobia che dalla tecnofilia, promuovendo una cultura tecnica capace di sviluppare "macchine aperte", caratterizzate da un certo livello di variabilità nel loro funzionamento reciproco con gli umani.
Ricordando alcune tappe fondamentali nella storia dell'IA, sosterremo che le cosiddette macchine digitali "intelligenti", basate su algoritmi di riduzione dei dati, sono caratterizzate da una modellazione statistica che talvolta tende, a prescindere dall’intenzione degli esseri umani coinvolti, a incorporarne alcuni presupposti ideologici, credenze e valori. Usando la nostra analisi dell'interazione umana con i motori di ricerca potenziati dall'IA, mostreremo come i sistemi automatizzati stiano diffondendo il condizionamento reciproco tra umani e macchine. Più gli esseri umani si rivolgono a queste macchine in modo meccanicamente semplice e non ambiguo, più esse agiscono "automaticamente" e sembrano "intelligenti".

Infine analizzeremo lo sfruttamento di questi sistemi di condizionamento reciproco in una miriade di micro-attività digitali a scopo di lucro. L'IA in questo contesto si manifesta come un essere tecnico di formazione antropologica e manipolazione comportamentale, molto lontano dall'ideale di "macchina aperta" proposto da Simondon."

Leggi l'articolo completo su Mondo Digitale

Puntata di Doppio Click su Radio Popolare Milano interamente dedicata all'Intelligenza Artificiale con ospite Carlo Milani.

Prima parte di trasmissione dedicata alla limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGPT, disposta dal Garante per la protezione dei dati personali.

La seconda parte approfondisce i temi generali dell'Intelligenza Artificiale con l'aiuto di Carlo Milani, autore insieme a Vivien García di un importante articolo, pubblicato su Mondo Digitale, dal titolo: "L'evoluzione dell'Intelligenza Artificiale: dall'automazione del lavoro al condizionamento reciproco".

Ascolta la puntata di Doppio Click sul sito di Radio Popolare Milano

Leggi l'articolo su Mondo Digitale

La lettera di Musk&Co. è stata fortemente criticata dalla scienziata Timnit Gebru, diventata famosa per essere stata licenziata da Google accusata da lei di sviluppare un'IA con pregiudizi.

La ricercatrice sostiene che GPT-4 sia solo come "un pappagallo stocastico" ripete il meglio che trova sul web, senza averne comprensione. No Panic, quindi. Per Gebru non serve ascoltare i firmatari dell'appello, ma sviluppare da subito un'IA che "funzioni per noi".

leggi l'articolo completo

Walter Vannini offre uno sguardo all'economia politica di chatGPT e disruption assortite. La forza del marketing nel vendere fuffa.

Ma in ogni caso: quali saranno le conseguenze sul lavoro delle persone delle tecnologie definite Intelligenza Artificiale e in particolare quelle basate sul Natural Language Processing, come ChatGPT? Chi guadagnerà dall'impatto di queste tecnologie (Spoiler: i datori di lavoro)?

Ascolta il podcast