Pillole di informazione digitale - numero 0 dedicato all'Intelligenza Artificiale


Pillole di Informazione Digitale è una raccolta di segnalazioni relative alla tecnologia digitale con approccio critico.

Questa è la prima newsletter. E' inviata ad un numero ristretto di persone. Siete stati selezionati tra le persone che, credo, non si scocceranno nel ricevere questa mail :) . In caso contrario potete cancellarvi Altrimenti potete segnalarla a chi pensate che possa essere interessat*.

Trovate le segnalazioni sul sito delle Pillole


Entropia massima, Intelligenza Artificiale: cos'è, costi ambientali, distorsioni, rischi

Nella quarta puntata del ciclo "Estrattivismo dei dati", focus su Intelligenza Artificiale con Daniela Tafani, docente di filosofia politica presso il Dipartimento di Scienze Politiche dell'Università di Pisa.

Nella prima parte Tafani introduce l'Intelligenza Artificiale. Cosa è; le distorsioni con cui viene volutamente presentata; cos'è l'apprendimento automatico e gli ingredienti tecnologici fondamentali: dati, potenza di calcolo e algoritmi.

Nella seconda parte: come vengano occultati i costi ambientali, estrattivistici ed energetici dei sistemi di IA; come viene in realtà sfruttato massicciamente il lavoro umano, sottopagato e delocalizzato.

Nella terza parte: i rischi delle decisioni automatizzate prese attraverso i sistemi di Intelligenza Artificiale, con la convinzione che siano capaci di prevedere il comportamento di singoli individui. Perché si parla di bolla giuridica e perché si propone l’illegalità di default dei sistemi di IA.

Ascolta la registrazione sul sito di Radio Onda Rossa


Una palaquium gutta matura poteva produrre circa 300 grammi di lattice. Ma nel 1857, il primo cavo transatlantico era lungo circa 3000 km e pesava 2000 tonnellate – richiedeva quindi circa 250 tonnellate di guttaperca. Per produrre una sola tonnellata di questo materiale erano necessari circa 900.000 tronchi d'albero. Le giungle della Malesia e di Singapore furono spogliate, e all'inizio del 1880 la palaquium gutta si estinse.

 

Questa è una delle storie più interessanti che racconta il libro della studiosa di media digitali Kate Crawford, Né artificiale né intelligente. Il lato oscuro dell’IA (Il Mulino, 2021, 312 pp., versione italiana dell’originale inglese Atlas of AI. Power, Politics and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021).

Ma cosa c’entra il disastro ambientale vittoriano della guttaperca con l’intelligenza artificiale?

È proprio questo il merito del libro della Crawford, unire i puntini che legano la storia dello sviluppo tecnologico con il nostro presente. La storia di come si estinse l’albero di palaquium gutta è un’eco giunta fino a noi dalle origini della società dell’informazione globale, per mostrarci come siano intrecciate le relazioni tra la tecnologia e la sua materialità, l’ambiente e le diverse forme di sfruttamento.

[...]

Crawford costruisce una visione dell’IA non come una semplice tecnologia o un insieme di scoperte tecnologiche, ma come un apparato socio-tecnico, o socio-materiale, animato da una complessa rete di attori, istituzioni e tecnologie. L’IA per Crawford è “un’idea, un’infrastruttura, un’industria, una forma di esercizio del potere; è anche una manifestazione di un capitale altamente organizzato, sostenuto da vasti sistemi di estrazione e logistica, con catene di approvvigionamento che avviluppano l’intero pianeta” (p. 25).

Leggi l'articolo intero di Tiziano Bonini sul sito di DOPPIOZERO


 Numero molto interessante della newsletter di Carola Frediani, dedicata in larga misura all'hype (tradotto da wordreference con battage publicitario) sull'Intelligenza Artificiale

 

Leggi la newsletter sul sito.

Bonus - Riporto una definizione di ChatGPT frutto del dibattito nella mailing-list pubblica del Centro NEXA su Internet & Società del Politecnico di Torino (Dipartimento di Automatica e Informatica):

"ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili a quelle presenti nei testi scelti dai programmatori."


A partire dalle note vicende dell'aggressione alla stazione ferroviaria di Roma Termini avvenuta il 31 dicembre, la puntata è dedicata al riconoscimento facciale.

Anzitutto una breve cronistoria del riconoscimento facciale, distinguendolo dalla "mera" videosorveglianza.

Dopo aver dato uno sguardo alla situazione legale in Italia andiamo ad indagare le basi del riconoscimento facciale, gli effetti che produce nei luoghi in cui è già utilizzato, i motivi profondi per cui è discriminatorio.

Non solo: il riconoscimento facciale non funziona bene come ci vogliono far credere. Gli errori che questi sistemi producono sono in maniera schiacciante più pesanti per i gruppi marginalizzati (in particolare le donne nere). Questi errori hanno delle ripercussioni reali sulla vita di queste persone. La ragione profonda di questi errori non è il caso ma esattamente la loro condizione di marginalizzazione. Sono quindi sistemi che riproducono ed amplificano le oppressioni già esistenti.

Cerchiamo di tenere uno sguardo sull'automazione, dato che la creazione di un dibattito consapevole su questo tema non è più rimandabile.

Ascolta la registrazione sul sito di Radio Onda Rossa


Un esperimento di Dan Savage, che tiene una rubrica di consigli sessuali e di coppia pubblicata su The Stranger, con ChatGPT. Savage ha chiesto al chatBOT di rispondere ad alcune lettere che arrivano alla sua rubrica. Ha poi reso pubbliche le sue risposte e quelle di ChatGPT invitando i suoi lettori a capire quali fossero scritte dall'IA e quali dall'autore.

"ChatGpt è un chatbot basato sull’intelligenza artificiale e creato dalla fondazione OpenAi che può produrre saggi, romanzi, sceneggiature – qualsiasi tipo di testo scritto -–più velocemente di quanto degli esseri umani viventi/respiranti/digitanti/rivedenti/correggenti potrebbero mai fare. Non solo: inserendo il nome di qualsiasi scrittore, vivente o defunto, nel giro di pochi secondi ChatGpt può tirare fuori un saggio, una sceneggiatura o un editoriale nello stile di quell’autore.

O una rubrica di consigli nello stile di un certo rubrichista di consigli.

Ho preso una lettera dalla posta in arrivo a Savage Love – una cosa semplice, innocua e abastanza generica – sono andato sul sito di ChatGpt e ho chiesto a ChatGpt di “rispondere a questa domanda nello stile della rubrica di consigli di Dan Savage”. Forse che il chatbot basato sull’intelligenza artificiale ChatGpt è in grado di fornire consigli sessuali migliori dei miei? Lo scopriremo a breve. Ecco la domanda che ho scelto."

Leggi tutto sul sito di Internazionale.


Nella puntata si parla di scienza e intelligenza artificale.

Meta ha rilasciato da poco (e subito ritirato) Galactica, un'intelligenza artificiale che analizza e produce review scientifiche in maniera automatica. Si è ragionato delle motivazioni dietro questo strumento, dei problemi che Meta ha creato, e dei problemi che invece sono strutturali e complessi da affrontare in ogni caso.

Poi avanti con le notiziole: dal "rinnovo" di Twitter, alle politiche antisindacali della Apple, al tracciamento contro la volontà degli utenti sempre da parte di Apple, ad alcune notizie sulla sorveglianza biometrica.

Ascolta il podcast sul sito di Radio Onda Rossa


L’Intelligenza artificiale è spesso al servizio di progetti autoritari che accrescono le disuguaglianze e mettono a rischio la democrazia. Parla lo studioso Dan McQuillan

Serve «un approccio antifascista all’intelligenza artificiale», scrive Dan McQuillan nel suo recente volume intitolato “Resisting Ai” (Bristol University Press). Non perché l’Ia sia di per sé fascista, ragiona il docente di Computing sociale e creativo al Goldsmiths College dell’università di Londra, ma in quanto motore di dinamiche congruenti, e in modo strutturale, con politiche fasciste. Lungi dall’essere una mera tecnologia, l’Ia è infatti un “apparato” che somma tecnica, istituzioni e ideologia. E se ne comprendiamo le “operazioni di base”, e le situiamo nell’attuale momento storico, è impossibile ignorare che il cambiamento di paradigma sociale portato dall’Ia «non farà che amplificare politiche di austerity e sviluppi autoritari», si legge nel testo, agile ma durissimo di McQuillan.

[...] Per l’autore, che vanta un dottorato in fisica delle particelle e un passato come direttore delle comunicazioni digitali di Amnesty, il legame tra fascismi e Ia si salda prima, all’incrocio tra le crescenti richieste di efficienza e risparmi nella gestione della cosa pubblica e l’ideologia che fa dell’intelligenza artificiale la panacea, infallibile e oggettiva, di ogni male. È il cosiddetto “soluzionismo”, che riduce problemi sociali complessi - la pandemia, l’emergenza climatica, la questione energetica - a questioni tecnologiche, risolvibili tramite Ia. Tutto diventa materia di “ottimizzazione” statistica. E, in fondo, questo è l’Ia secondo McQuillan: non “intelligenza” - l’autore sembra fare sua la fortunata espressione della ricercatrice Kate Crawford, per cui l’Ia «non è né intelligente né artificiale» - ma «elaborate congetture statistiche», informate da una visione «astrattamente utilitarista» che finisce per insieme nascondere, riprodurre e amplificare ingiustizie e storture sociali, automatizzandole.

Leggi l'articolo di Fabio Chiusi sul sito dell'Espresso


--

powered by phpList 3.6.14, © phpList ltd