Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

La newsletter di Carola Frediani questa settimana tratta principalmente temi legati all'IA N.159 - 7 maggio 2023

In questo numero:

  • Geoff Hinton è uscito dal gruppo
  • Samsung vieta l'uso di ChatGPT
  • ChatGPT e i servizi di "tutoraggio" online
  • Moderatori di contenuti uniti
  • La storia dell'hacking è ancora da scrivere
  • E altro

Leggi la newsletter sul sito di Guerre di rete

Il lancio precipitoso di chatbot AI da parte delle Big Tech ha una fortissima probabilità di degradare l'ecosistema informativo della rete. Molte voci chiedono nuove regole per arginare un'imminente invasione di artefatti prodotti da reti generative sempre più precise che renderà potenzialmente impossibile distinguere il vero dal falso.

Nel suo breve racconto Agnese Trocchi immagina un mondo futuro dove questo è già accaduto...

Leggi il racconto sul sito di CIRCE

Giudizi e decisioni che hanno effetti rilevanti sulle vite delle persone sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. Tali malfunzionamenti non sono occasionali e non sono scongiurabili con interventi tecnici: essi rivelano, anzi, il funzionamento ordinario dei sistemi di apprendimento automatico, utilizzati impropriamente per compiti che non è loro possibile svolgere o che sono impossibili tout court.

Le decisioni basate su tali sistemi sono costitutivamente discriminatorie, e dunque, in alcuni ambiti, infallibilmente lesive di diritti giuridicamente tutelati, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.

Alla vasta documentazione degli esiti ingiusti, nocivi e assurdi di tali decisioni, le grandi aziende tecnologiche – paventando un divieto generalizzato – hanno risposto, in evidente conflitto di interessi, con un discorso sull'etica: è nata così, come operazione di cattura culturale, con l'obiettivo di rendere plausibile un regime di mera autoregolazione, l'«etica dell'intelligenza artificiale». Si tratta di una narrazione che le aziende commissionano e acquistano perché è loro utile come capitale reputazionale, che genera un vantaggio competitivo; è cioè un discorso, rispetto al quale le università hanno il ruolo, e l'autonomia, di un megafono; è «un'esca per catturare la fiducia» dei cittadini: un discorso pubblicitario che, in quanto declamato da altri, non appare neppure come tale.

La funzione di tale discorso è quella di tutelare, legittimandolo, un modello di business – fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali – il cui nucleo consiste nella vendita, alle agenzie pubblicitarie, della promessa di un microtargeting fondato sulla profilazione algoritmica.

Negli ultimi anni, l'opera di demistificazione della natura meramente discorsiva e del carattere strumentale dell'«etica dell'intelligenza artificiale», che trasforma l'etica nella questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici, è stata così efficace da indurre molti a liquidare come inutile o dannosa – in quanto disarmata alternativa al diritto o vuota retorica aziendale – l'intera filosofia morale.

Al dissolversi della narrazione sull'etica dell'intelligenza artificiale, compare il convitato di pietra ch'essa aveva lo scopo di tenere alla larga: si sostiene infatti ora, da più parti, l'urgenza che ad intervenire, in modo drastico, sia il diritto. L'adozione di sistemi di apprendimento automatico a fini decisionali, in ambiti rilevanti per la vita delle persone, quali il settore giudiziario, educativo o dell'assistenza sociale, equivale infatti alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani».

A chi, in nome dell'inarrestabilità dell'innovazione tecnologica, deplori gli interventi giuridici, giova ricordare che il contrasto non è, in realtà, tra il rispetto dei diritti umani e un generico principio di innovazione, ma tra il rispetto dei diritti umani e il modello di business dei grandi monopoli del capitalismo intellettuale.

Leggi l'articolo completo

La quantità è una parte importante dei ragionamenti; a volte diventa qualità, diceva un tale. Cose piccole sono trattabili, cose grandi meno. I computer (in generale le macchine) servono a rendere trattabili cose troppo grandi per noi. Ma anche loro hanno dei limiti, pratici o teorici.

Per esempio GPT-3 (la cosa che sta dietro ChatGPT, ma anche dietro DALLE-E, per quanto si faccia fatica a capire cosa c'entrano l'una con l'altra ed entrambe col T9) è una cosa grossa assai. GPT significa Generative Pre-trained Transformer. Grosso modo, per quel che anche un ignorante come me capisce, è un modello linguistico con un sacco di parametri che è stato costruito nel 2020 a partire da diverse sorgenti utilizzare come dati di partenza una "copia di internet, Wikipedia, archivi di immagini, etc." Un oggetto "molto, molto grande".

Quanti parametri, cioè quanti possibili modi di configurare il modello? Dicono 175 miliardi. Un numero talmente grande che solo un altro software è in grado di enumerarli o verificarli.

Leggi l'articolo completo sul sito di Stefano Penge

Cassandra Crossing/ Esiste una scuola di pensiero che ritiene possibile l'evoluzione "spontanea" dei modelli linguistici in "vera" intelligenza artificiale. Di che cosa si parla esattamente?

È un concetto interessante in cui Cassandra non si era mai imbattuta. Ha invece scoperto che l'ipotesi è, pur in un ambiente molto ristretto, oggetto di dibattito filosofico e anche scientifico. Molto interessante, e vediamo di spiegare il perché.

Perdonate però la vostra profetessa preferita, perché sono necessarie un bel po' di premesse. Speriamo che almeno i 24 indomiti lettori mi seguano senza esitare.

Leggi l'articolo su ZEUS News

Intervista ad Antonio Casilli, autore di «Schiavi del Clic»: «Dietro questa tecnologia c'è un'enorme quantità di lavoro sui dati fatto da grandi masse di persone. C'è un filo rosso che lega chi allena ChatGpt e i suoi utilizzatori»

Nel comunicato del garante della Privacy che blocca l’assistente virtuale ChatGpt c’è un passaggio illuminante in cui si osserva che l’illecita raccolta dei dati personali avviene in mancanza di una «base giuridica» e «allo scopo di addestrare gli algoritmi sottesi al funzionamento della piattaforma».

L’«addestramento» è stato effettuato dagli utenti di questo software che, stimolati dalla stupefacente operazione di marketing basata sull’immaginario apocalittico della sostituzione del lavoro, e persino degli esseri umani, da parte dei robot nelle ultime settimane hanno lavorato gratuitamente, e probabilmente inconsapevolmente, allo sviluppo di ChatGpt bombardandolo con le richieste più singolari e divertenti. Ciò ha permesso alla società OpenAI che ha lanciato anche ChatGpt, fondata a San Francisco nel 2015, di raccogliere fondi da decine di miliardi di dollari, e investimenti cospicui da parte di Microsoft.

Leggi l'intervista sul sito de "Il Manifesto"

Mondo digitale ha pubblicato un bel articolo di Carlo Milani e Vivien García. Di seguito potete leggere il sommario mentre l'articolo completo è sul sito di Mondo Digitale

"L'IA affascina e spaventa. Uno spauracchio si aggira per il mondo: il timore che esseri tecnologici intelligenti sostituiranno gli esseri umani in (quasi) tutte le loro attività, a partire dal lavoro. L'IA se ne occuperebbe automaticamente, agendo come un aiutante magico, capace di svolgere qualsiasi compito assegnato.

Attingendo alla prospettiva di Gilbert Simondon sull'alienazione tecnica,sosterremo che l'automazione è in realtà il livello più basso possibile di interazione uomo-macchina. L'analisi di Simondon offre un metodo per prendere le distanze sia dalla tecnofobia che dalla tecnofilia, promuovendo una cultura tecnica capace di sviluppare "macchine aperte", caratterizzate da un certo livello di variabilità nel loro funzionamento reciproco con gli umani.
Ricordando alcune tappe fondamentali nella storia dell'IA, sosterremo che le cosiddette macchine digitali "intelligenti", basate su algoritmi di riduzione dei dati, sono caratterizzate da una modellazione statistica che talvolta tende, a prescindere dall’intenzione degli esseri umani coinvolti, a incorporarne alcuni presupposti ideologici, credenze e valori. Usando la nostra analisi dell'interazione umana con i motori di ricerca potenziati dall'IA, mostreremo come i sistemi automatizzati stiano diffondendo il condizionamento reciproco tra umani e macchine. Più gli esseri umani si rivolgono a queste macchine in modo meccanicamente semplice e non ambiguo, più esse agiscono "automaticamente" e sembrano "intelligenti".

Infine analizzeremo lo sfruttamento di questi sistemi di condizionamento reciproco in una miriade di micro-attività digitali a scopo di lucro. L'IA in questo contesto si manifesta come un essere tecnico di formazione antropologica e manipolazione comportamentale, molto lontano dall'ideale di "macchina aperta" proposto da Simondon."

Leggi l'articolo completo su Mondo Digitale

Puntata di Doppio Click su Radio Popolare Milano interamente dedicata all'Intelligenza Artificiale con ospite Carlo Milani.

Prima parte di trasmissione dedicata alla limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGPT, disposta dal Garante per la protezione dei dati personali.

La seconda parte approfondisce i temi generali dell'Intelligenza Artificiale con l'aiuto di Carlo Milani, autore insieme a Vivien García di un importante articolo, pubblicato su Mondo Digitale, dal titolo: "L'evoluzione dell'Intelligenza Artificiale: dall'automazione del lavoro al condizionamento reciproco".

Ascolta la puntata di Doppio Click sul sito di Radio Popolare Milano

Leggi l'articolo su Mondo Digitale

La lettera di Musk&Co. è stata fortemente criticata dalla scienziata Timnit Gebru, diventata famosa per essere stata licenziata da Google accusata da lei di sviluppare un'IA con pregiudizi.

La ricercatrice sostiene che GPT-4 sia solo come "un pappagallo stocastico" ripete il meglio che trova sul web, senza averne comprensione. No Panic, quindi. Per Gebru non serve ascoltare i firmatari dell'appello, ma sviluppare da subito un'IA che "funzioni per noi".

leggi l'articolo completo

Walter Vannini offre uno sguardo all'economia politica di chatGPT e disruption assortite. La forza del marketing nel vendere fuffa.

Ma in ogni caso: quali saranno le conseguenze sul lavoro delle persone delle tecnologie definite Intelligenza Artificiale e in particolare quelle basate sul Natural Language Processing, come ChatGPT? Chi guadagnerà dall'impatto di queste tecnologie (Spoiler: i datori di lavoro)?

Ascolta il podcast

GPT-4/ChatGPT fa parte di una delle più vaste e pericolose campagne di marketing che il mondo dell'informatica abbia mai visto. È una campagna volta a incentivare l'adozione, più vasta e meno controllata possibile, di un nuovo prodotto, delle tecnologie di falsa Intelligenza Artificiale basate sul Deep Learning.

La non-intelligenza delle false "Intelligenze Artificiali" basate sulle tecnologie di Deep Learning, fatto totalmente assodato e condiviso ma volutamente sempre nascosto, la cui conoscenza è vitale, può e deve essere ripetuto instancabilmente, in forma semplice e completamente comprensibile. Un'ottima formulazione è apparsa recentemente sulla mailing list "Nexa" a opera del professor Enrico Nardelli, che qui ringrazio. In sintesi è:

GPT4/ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo. Purtroppo, questo è un problema nostro di grande rilevanza sul piano sociale, poiché ciò che fa lo fa bene, esprimendosi in una forma bella e sofisticata che per noi assume un significato. Questo avviene però solo in quanto noi "proiettiamo" su di essa un significato che è in noi stessi.

Leggi l'articolo completo su ZEUS News

Non fraintendiamoci, i sistemi di intelligenza artificiale come ChatGPT possono essere di enorme aiuto per l’umanità ma l’innovazione e lo sviluppo economico vanno sempre coniugati con il rispetto dei diritti umani fondamentali e la salvaguardia del benessere sociale. L’analisi del professore Enrico Nardelli dell’università di Roma “Tor Vergata”, presidente di “Informatics Europe” e direttore del Laboratorio Nazionale “Informatica e Scuola” del CINI

Prendo lo spunto da un tweet di Tristan Harris a proposito di una delle ultime “prodezze” di ChatGPT, un generatore di testi basato sull’intelligenza artificiale di cui tutti parlano nelle ultime settimane. Tristan Harris è uno dei co-fondatori del Center for Humane Technology, che ha come missione di far sì che la tecnologia sia sviluppata a favore delle persone e del benessere sociale.

Nel suo tweet riporta una “conversazione” avvenuta tra un utente che si identifica come una ragazza di 13 anni e ChatGPT. In sintesi, l’utente dice di aver incontrato sulla rete un amico più anziano di lei di 18 anni che gli sembra simpatico e che l’ha invitata ad una gita fuori porta proprio per i giorni in cui ci sarà il suo compleanno. ChatGPT nelle sue “risposte” si “rallegra” per questa possibilità che sarà sicuramente molto divertente per lei, aggiungendo delle indicazioni su come rendere “la prima volta” un evento indimenticabile. Harris conclude dicendo che i nostri figli non possono essere soggetti ad esperimenti di laboratorio.

Leggi l'articolo completo di Enrico Nardelli

Tornano gli incontri di Etica Digitale!

Martedì 21 marzo - ore 21:30 - https://blue.meet.garr.it/b/dan-vzz-hud-dii

Conduce l'incontro: Daniela Tafani, ricercatrice presso l'Università di Pisa

Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunità; e quando invece sono "intrinsecamente politici", cioè quando la loro stessa esistenza presuppone o promuove una determinata visione politica della società.

A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, «L'intelligenza artificiale è una tecnologia politica, nella sua esistenza materiale e nei suoi effetti», che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.

L'incontro avverrà online sulla piattaforma BigBlueButton ospitata dal GARR senza necessità di registrarsi.

Con l'aiuto di esempi e semplificazioni scopriamo il significato e il funzionamento del Machine Learning (ML): uno dei concetti più nominati e contemporaneamente più misteriosi dei nostri giorni. Scopriremo inoltre quali problemi risolve e il rapporto con l'AI e con il Deep Learning.

Nell'articolo Alessio Pomaro spiega:

  • cos'è e come funziona il Machine Learning,
  • come si colloca nei confronti dell'Intelligenza Artificiale,
  • che genere di problemi permette di risolvere con relativi esempi,
  • le tipologie di apprendimento,
  • una mini introduzione al Deep Learning.

Leggi l'articolo completo

Né intelligente né artificiale. La nostra tentazione di vedere il senso nella macchina. Dovremo scegliere un modo per conviverci che non stravolga la sfera cognitiva umana

[...]

Le parole per noi non hanno solo una dimensione sintattica rituale e probabilistica, stanno per qualcosa che le trascende. Le scegliamo consapevoli della loro inadeguatezza nel rappresentare cose, emozioni, eventi e concetti. Ogni tentativo di limitarsi al piano della sintassi ha condotto la logica nei vicoli ciechi dei risultati negativi. Il dispositivo ChatGpt non conosce altro che la probabilità delle frequenze relative delle parole e il sistema di addestramento non riconosce alcuna esternalità.

Leggi l'articolo su "il Manifesto"

Con l'arrivo sulla scena di ChatGPT, la necessità di riconoscere se un testo è stato scritto da un'intelligenza artificiale o meno ha già invaso l'ambito scolastico.

La città di New York e la città di Los Angeles hanno deciso di impedire l’accesso al chatbot sviluppato da OpenAI dalle reti e dai dispositivi scolastici. La preoccupazione è che l’abuso dello strumento possa rendere più facile per gli studenti imbrogliare sui compiti. O che il suo utilizzo possa diffondere informazioni inesatte.

Leggi l'articolo sul sito di "guerre di rete" dove potrai leggere anche l'ultima newsletter di Carola Frediani.

Il Garante della privacy ferma “Replika”. Il chatbot, dotato di una interfaccia scritta e vocale che basandosi sull’intelligenza artificiale genera un “amico virtuale”, per il momento non potrà usare i dati personali degli utenti italiani. Il Garante della privacy ha infatti disposto con effetto immediato, nei confronti della società statunitense che sviluppa e gestisce l’applicazione, la limitazione provvisoria del trattamento dei dati.

[...]

“Replika” viola il Regolamento europeo sulla privacy, non rispetta il principio di trasparenza ed effettua un trattamento di dati personali illecito, in quanto non può essere basato, anche solo implicitamente, su un contratto che il minorenne è incapace di concludere.

Leggi l'articolo completo sul sito del Garante Italiano per la Protezione dei Dati Personali

Una palaquium gutta matura poteva produrre circa 300 grammi di lattice. Ma nel 1857, il primo cavo transatlantico era lungo circa 3000 km e pesava 2000 tonnellate – richiedeva quindi circa 250 tonnellate di guttaperca. Per produrre una sola tonnellata di questo materiale erano necessari circa 900.000 tronchi d'albero. Le giungle della Malesia e di Singapore furono spogliate, e all'inizio del 1880 la palaquium gutta si estinse.

Questa è una delle storie più interessanti che racconta il libro della studiosa di media digitali Kate Crawford, Né artificiale né intelligente. Il lato oscuro dell’IA (Il Mulino, 2021, 312 pp., versione italiana dell’originale inglese Atlas of AI. Power, Politics and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021).

Ma cosa c’entra il disastro ambientale vittoriano della guttaperca con l’intelligenza artificiale?

È proprio questo il merito del libro della Crawford, unire i puntini che legano la storia dello sviluppo tecnologico con il nostro presente. La storia di come si estinse l’albero di palaquium gutta è un’eco giunta fino a noi dalle origini della società dell’informazione globale, per mostrarci come siano intrecciate le relazioni tra la tecnologia e la sua materialità, l’ambiente e le diverse forme di sfruttamento.

[...]

Crawford costruisce una visione dell’IA non come una semplice tecnologia o un insieme di scoperte tecnologiche, ma come un apparato socio-tecnico, o socio-materiale, animato da una complessa rete di attori, istituzioni e tecnologie. L’IA per Crawford è “un’idea, un’infrastruttura, un’industria, una forma di esercizio del potere; è anche una manifestazione di un capitale altamente organizzato, sostenuto da vasti sistemi di estrazione e logistica, con catene di approvvigionamento che avviluppano l’intero pianeta” (p. 25).

Leggi l'articolo intero di Tiziano Bonini sul sito di DOPPIOZERO

Nella quarta puntata del ciclo "Estrattivismo dei dati", focus su Intelligenza Artificiale con Daniela Tafani, docente di filosofia politica presso il Dipartimento di Scienze Politiche dell'Università di Pisa.

Nella prima parte Tafani introduce l'Intelligenza Artificiale. Cosa è; le distorsioni con cui viene volutamente presentata; cos'è l'apprendimento automatico e gli ingredienti tecnologici fondamentali: dati, potenza di calcolo e algoritmi.

Nella seconda parte: come vengano occultati i costi ambientali, estrattivistici ed energetici dei sistemi di IA; come viene in realtà sfruttato massicciamente il lavoro umano, sottopagato e delocalizzato.

Nella terza parte: i rischi delle decisioni automatizzate prese attraverso i sistemi di Intelligenza Artificiale, con la convinzione che siano capaci di prevedere il comportamento di singoli individui. Perché si parla di bolla giuridica e perché si propone l’illegalità di default dei sistemi di IA.

Ascolta la registrazione sul sito di Radio Onda Rossa

Numero molto interessante della newsletter di Carola Frediani, dedicata in larga misura all'hype (tradotto da wordreference con battage publicitario) sull'Intelligenza Artificiale

L'indice del numero N.150 - 21 gennaio 2023

  • Il 2023 sarà l’anno della corsa all’AI?
  • Il forte lascito di Aaron
  • Il difficile rapporto tra Ue, media e piattaforme
  • I politici finanziati da FTX
  • E altro

Leggi la newsletter sul sito.

Riporto una definizione di ChatGPT frutto del dibattito nella mailing-list pubblica del Centro NEXA su Internet & Società del Politecnico di Torino (Dipartimento di Automatica e Informatica):

"ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili a quelle presenti nei testi scelti dai programmatori."