Tornano gli incontri di Etica Digitale!
Martedì 21 marzo - ore 21:30 - https://blue.meet.garr.it/b/dan-vzz-hud-dii
Conduce l'incontro: Daniela Tafani, ricercatrice presso l'Università di Pisa
Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunità; e quando invece sono "intrinsecamente politici", cioè quando la loro stessa esistenza presuppone o promuove una determinata visione politica della società.
A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, «L'intelligenza artificiale è una tecnologia politica, nella sua esistenza materiale e nei suoi effetti», che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.
L'incontro avverrà online sulla piattaforma BigBlueButton ospitata dal GARR senza necessità di registrarsi.
Con l'aiuto di esempi e semplificazioni scopriamo il significato e il funzionamento del Machine Learning (ML): uno dei concetti più nominati e contemporaneamente più misteriosi dei nostri giorni. Scopriremo inoltre quali problemi risolve e il rapporto con l'AI e con il Deep Learning.
Nell'articolo Alessio Pomaro spiega:
C’è questa mascherina particolare, leggera, comoda, elegante, con due sensori quasi invisibili – uno per il naso e uno per la bocca – e un’antenna bluetooth sistemata dietro l’orecchio sinistro che si connette al telefonino. I sensori acquisiscono in tempo reale il suono emesso durante la respirazione e li inviano all’app. Qui inizia la magia di SmartBreath.
Un modello matematico mette in correlazione il suono con le dimensioni della cavità orale e nasale, con il diametro e la forma dell’apertura della bocca, la posizione delle lingua e della gola, la forza dell’inspirazione e espirazione, la durata, la provenienza dell’aria dalla parte alta o bassa dei polmoni, la posizione del diaframma, etc.
Queste variabili, prese nel loro insieme, hanno una parte costante che costituisce una “firma biometrica” della persona, unica e riconoscibile.
Leggi la storia completa dell'app "Smart Breath" sul sito di Stefano Penge
Né intelligente né artificiale. La nostra tentazione di vedere il senso nella macchina. Dovremo scegliere un modo per conviverci che non stravolga la sfera cognitiva umana
[...]
Le parole per noi non hanno solo una dimensione sintattica rituale e probabilistica, stanno per qualcosa che le trascende. Le scegliamo consapevoli della loro inadeguatezza nel rappresentare cose, emozioni, eventi e concetti. Ogni tentativo di limitarsi al piano della sintassi ha condotto la logica nei vicoli ciechi dei risultati negativi. Il dispositivo ChatGpt non conosce altro che la probabilità delle frequenze relative delle parole e il sistema di addestramento non riconosce alcuna esternalità.
Leggi l'articolo su "il Manifesto"
Con l'arrivo sulla scena di ChatGPT, la necessità di riconoscere se un testo è stato scritto da un'intelligenza artificiale o meno ha già invaso l'ambito scolastico.
La città di New York e la città di Los Angeles hanno deciso di impedire l’accesso al chatbot sviluppato da OpenAI dalle reti e dai dispositivi scolastici. La preoccupazione è che l’abuso dello strumento possa rendere più facile per gli studenti imbrogliare sui compiti. O che il suo utilizzo possa diffondere informazioni inesatte.
Leggi l'articolo sul sito di "guerre di rete" dove potrai leggere anche l'ultima newsletter di Carola Frediani.
Il Garante della privacy ferma “Replika”. Il chatbot, dotato di una interfaccia scritta e vocale che basandosi sull’intelligenza artificiale genera un “amico virtuale”, per il momento non potrà usare i dati personali degli utenti italiani. Il Garante della privacy ha infatti disposto con effetto immediato, nei confronti della società statunitense che sviluppa e gestisce l’applicazione, la limitazione provvisoria del trattamento dei dati.
[...]
“Replika” viola il Regolamento europeo sulla privacy, non rispetta il principio di trasparenza ed effettua un trattamento di dati personali illecito, in quanto non può essere basato, anche solo implicitamente, su un contratto che il minorenne è incapace di concludere.
Leggi l'articolo completo sul sito del Garante Italiano per la Protezione dei Dati Personali
Una palaquium gutta matura poteva produrre circa 300 grammi di lattice. Ma nel 1857, il primo cavo transatlantico era lungo circa 3000 km e pesava 2000 tonnellate – richiedeva quindi circa 250 tonnellate di guttaperca. Per produrre una sola tonnellata di questo materiale erano necessari circa 900.000 tronchi d'albero. Le giungle della Malesia e di Singapore furono spogliate, e all'inizio del 1880 la palaquium gutta si estinse.
Questa è una delle storie più interessanti che racconta il libro della studiosa di media digitali Kate Crawford, Né artificiale né intelligente. Il lato oscuro dell’IA (Il Mulino, 2021, 312 pp., versione italiana dell’originale inglese Atlas of AI. Power, Politics and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021).
Ma cosa c’entra il disastro ambientale vittoriano della guttaperca con l’intelligenza artificiale?
È proprio questo il merito del libro della Crawford, unire i puntini che legano la storia dello sviluppo tecnologico con il nostro presente. La storia di come si estinse l’albero di palaquium gutta è un’eco giunta fino a noi dalle origini della società dell’informazione globale, per mostrarci come siano intrecciate le relazioni tra la tecnologia e la sua materialità, l’ambiente e le diverse forme di sfruttamento.
[...]
Crawford costruisce una visione dell’IA non come una semplice tecnologia o un insieme di scoperte tecnologiche, ma come un apparato socio-tecnico, o socio-materiale, animato da una complessa rete di attori, istituzioni e tecnologie. L’IA per Crawford è “un’idea, un’infrastruttura, un’industria, una forma di esercizio del potere; è anche una manifestazione di un capitale altamente organizzato, sostenuto da vasti sistemi di estrazione e logistica, con catene di approvvigionamento che avviluppano l’intero pianeta” (p. 25).
Leggi l'articolo intero di Tiziano Bonini sul sito di DOPPIOZERO
Nella quarta puntata del ciclo "Estrattivismo dei dati", focus su Intelligenza Artificiale con Daniela Tafani, docente di filosofia politica presso il Dipartimento di Scienze Politiche dell'Università di Pisa.
Nella prima parte Tafani introduce l'Intelligenza Artificiale. Cosa è; le distorsioni con cui viene volutamente presentata; cos'è l'apprendimento automatico e gli ingredienti tecnologici fondamentali: dati, potenza di calcolo e algoritmi.
Nella seconda parte: come vengano occultati i costi ambientali, estrattivistici ed energetici dei sistemi di IA; come viene in realtà sfruttato massicciamente il lavoro umano, sottopagato e delocalizzato.
Nella terza parte: i rischi delle decisioni automatizzate prese attraverso i sistemi di Intelligenza Artificiale, con la convinzione che siano capaci di prevedere il comportamento di singoli individui. Perché si parla di bolla giuridica e perché si propone l’illegalità di default dei sistemi di IA.
Ascolta la registrazione sul sito di Radio Onda Rossa
Numero molto interessante della newsletter di Carola Frediani, dedicata in larga misura all'hype (tradotto da wordreference con battage publicitario) sull'Intelligenza Artificiale
L'indice del numero N.150 - 21 gennaio 2023
Leggi la newsletter sul sito.
Riporto una definizione di ChatGPT frutto del dibattito nella mailing-list pubblica del Centro NEXA su Internet & Società del Politecnico di Torino (Dipartimento di Automatica e Informatica):
"ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili a quelle presenti nei testi scelti dai programmatori."
Un esperimento di Dan Savage, che tiene una rubrica di consigli sessuali e di coppia pubblicata su The Stranger, con ChatGPT. Savage ha chiesto al chatBOT di rispondere ad alcune lettere che arrivano alla sua rubrica. Ha poi reso pubbliche le sue risposte e quelle di ChatGPT invitando i suoi lettori a capire quali fossero scritte dall'IA e quali dall'autore.
"ChatGpt è un chatbot basato sull’intelligenza artificiale e creato dalla fondazione OpenAi che può produrre saggi, romanzi, sceneggiature – qualsiasi tipo di testo scritto -–più velocemente di quanto degli esseri umani viventi/respiranti/digitanti/rivedenti/correggenti potrebbero mai fare. Non solo: inserendo il nome di qualsiasi scrittore, vivente o defunto, nel giro di pochi secondi ChatGpt può tirare fuori un saggio, una sceneggiatura o un editoriale nello stile di quell’autore.
O una rubrica di consigli nello stile di un certo rubrichista di consigli.
Ho preso una lettera dalla posta in arrivo a Savage Love – una cosa semplice, innocua e abastanza generica – sono andato sul sito di ChatGpt e ho chiesto a ChatGpt di “rispondere a questa domanda nello stile della rubrica di consigli di Dan Savage”. Forse che il chatbot basato sull’intelligenza artificiale ChatGpt è in grado di fornire consigli sessuali migliori dei miei? Lo scopriremo a breve. Ecco la domanda che ho scelto."