Per il ciclo di incontri “i Nexa Lunch Seminar” - 106° Nexa Lunch Seminar incontro il 24 maggio con Daniela Tafani, autrice di "L’«etica» come specchietto per le allodole Sistemi di intelligenza artificiale e violazioni dei diritti".
Mercoledì 24 maggio 2023, ore 13.00 (termine: ore 14.00)
L'INCONTRO SI TERRÀ IN PRESENZA E ONLINE SEDE FISICA:
Centro Nexa su Internet e Società, Politecnico di Torino, Via Boggio 65/a, Torino (1° piano) Suonare al citofono Portineria - Seguire le indicazioni segnalate dai cartelli lungo il percorso
STANZA VIRTUALE: https://didattica.polito.it/VClass/NexaEvent
La visione di un “inarrestabile” parente militare di Metalhead che emerge dalle acque disturba anche voi?
Metalhead è stato oggetto delle attenzioni di Cassandra fin dalla sua "nascita" come personaggio, 5 anni orsono; lo trovate in questo video, e in questi due articoli: "Robot assassini crescono" e "E spot perse il fucile".
Da tempo Cassandra prediceva che Metalhead altri non era che un parente strettissimo del robocane danzante e cantante Spot di Boston Dynamics, fuffoso e utile.
Un parente impermeabile e irrobustito, semplicemente arruolato da un esercito, aggiornato con un diverso software, che lo trasformi in un'arma, letale o meno non ha molta importanza.
Oggi, Cassandra ha visitato il sito di Ghost Robotics Corporation, un produttore di robot anfibi che, anche nelle informazioni sulla compagnia, ama distaccarsi da chi produce "solo" robot commerciali.
Nel corso dell’evento ASU+GSV tenutosi a San Diego, Bill Gates ha affrontato un interrogativo posto da alcuni partecipanti riguardo alla possibilità che, in futuro, ChatGPT possa sostituire i docenti.
La newsletter di Carola Frediani questa settimana tratta principalmente temi legati all'IA N.159 - 7 maggio 2023
In questo numero:
Il lancio precipitoso di chatbot AI da parte delle Big Tech ha una fortissima probabilità di degradare l'ecosistema informativo della rete. Molte voci chiedono nuove regole per arginare un'imminente invasione di artefatti prodotti da reti generative sempre più precise che renderà potenzialmente impossibile distinguere il vero dal falso.
Nel suo breve racconto Agnese Trocchi immagina un mondo futuro dove questo è già accaduto...
Giudizi e decisioni che hanno effetti rilevanti sulle vite delle persone sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. Tali malfunzionamenti non sono occasionali e non sono scongiurabili con interventi tecnici: essi rivelano, anzi, il funzionamento ordinario dei sistemi di apprendimento automatico, utilizzati impropriamente per compiti che non è loro possibile svolgere o che sono impossibili tout court.
Le decisioni basate su tali sistemi sono costitutivamente discriminatorie, e dunque, in alcuni ambiti, infallibilmente lesive di diritti giuridicamente tutelati, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.
Alla vasta documentazione degli esiti ingiusti, nocivi e assurdi di tali decisioni, le grandi aziende tecnologiche – paventando un divieto generalizzato – hanno risposto, in evidente conflitto di interessi, con un discorso sull'etica: è nata così, come operazione di cattura culturale, con l'obiettivo di rendere plausibile un regime di mera autoregolazione, l'«etica dell'intelligenza artificiale». Si tratta di una narrazione che le aziende commissionano e acquistano perché è loro utile come capitale reputazionale, che genera un vantaggio competitivo; è cioè un discorso, rispetto al quale le università hanno il ruolo, e l'autonomia, di un megafono; è «un'esca per catturare la fiducia» dei cittadini: un discorso pubblicitario che, in quanto declamato da altri, non appare neppure come tale.
La funzione di tale discorso è quella di tutelare, legittimandolo, un modello di business – fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali – il cui nucleo consiste nella vendita, alle agenzie pubblicitarie, della promessa di un microtargeting fondato sulla profilazione algoritmica.
Negli ultimi anni, l'opera di demistificazione della natura meramente discorsiva e del carattere strumentale dell'«etica dell'intelligenza artificiale», che trasforma l'etica nella questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici, è stata così efficace da indurre molti a liquidare come inutile o dannosa – in quanto disarmata alternativa al diritto o vuota retorica aziendale – l'intera filosofia morale.
Al dissolversi della narrazione sull'etica dell'intelligenza artificiale, compare il convitato di pietra ch'essa aveva lo scopo di tenere alla larga: si sostiene infatti ora, da più parti, l'urgenza che ad intervenire, in modo drastico, sia il diritto. L'adozione di sistemi di apprendimento automatico a fini decisionali, in ambiti rilevanti per la vita delle persone, quali il settore giudiziario, educativo o dell'assistenza sociale, equivale infatti alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani».
A chi, in nome dell'inarrestabilità dell'innovazione tecnologica, deplori gli interventi giuridici, giova ricordare che il contrasto non è, in realtà, tra il rispetto dei diritti umani e un generico principio di innovazione, ma tra il rispetto dei diritti umani e il modello di business dei grandi monopoli del capitalismo intellettuale.
Grandi e piccole imprese digitali pagano il prezzo della crisi finanziaria. Ma il ciclo tecnologico è pronto a ripartire con le prime applicazioni su larga scala delle tecnologie di intelligenza artificiale. Sarà la regolamentazione, figlia di una politica che inizia a occuparsi del digitale, a far capire che la crescita non è infinita.
Intervista con l'imprenditore e informatico Stefano Quintarelli
La quantità è una parte importante dei ragionamenti; a volte diventa qualità, diceva un tale. Cose piccole sono trattabili, cose grandi meno. I computer (in generale le macchine) servono a rendere trattabili cose troppo grandi per noi. Ma anche loro hanno dei limiti, pratici o teorici.
Per esempio GPT-3 (la cosa che sta dietro ChatGPT, ma anche dietro DALLE-E, per quanto si faccia fatica a capire cosa c'entrano l'una con l'altra ed entrambe col T9) è una cosa grossa assai. GPT significa Generative Pre-trained Transformer. Grosso modo, per quel che anche un ignorante come me capisce, è un modello linguistico con un sacco di parametri che è stato costruito nel 2020 a partire da diverse sorgenti utilizzare come dati di partenza una "copia di internet, Wikipedia, archivi di immagini, etc." Un oggetto "molto, molto grande".
Quanti parametri, cioè quanti possibili modi di configurare il modello? Dicono 175 miliardi. Un numero talmente grande che solo un altro software è in grado di enumerarli o verificarli.
Nella puntata di Le Dita Nella Presa del 16 Aprile 2023 si è parlato di:
Cassandra Crossing/ Esiste una scuola di pensiero che ritiene possibile l'evoluzione "spontanea" dei modelli linguistici in "vera" intelligenza artificiale. Di che cosa si parla esattamente?
È un concetto interessante in cui Cassandra non si era mai imbattuta. Ha invece scoperto che l'ipotesi è, pur in un ambiente molto ristretto, oggetto di dibattito filosofico e anche scientifico. Molto interessante, e vediamo di spiegare il perché.
Perdonate però la vostra profetessa preferita, perché sono necessarie un bel po' di premesse. Speriamo che almeno i 24 indomiti lettori mi seguano senza esitare.