Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Non fraintendiamoci, i sistemi di intelligenza artificiale come ChatGPT possono essere di enorme aiuto per l’umanità ma l’innovazione e lo sviluppo economico vanno sempre coniugati con il rispetto dei diritti umani fondamentali e la salvaguardia del benessere sociale. L’analisi del professore Enrico Nardelli dell’università di Roma “Tor Vergata”, presidente di “Informatics Europe” e direttore del Laboratorio Nazionale “Informatica e Scuola” del CINI

Prendo lo spunto da un tweet di Tristan Harris a proposito di una delle ultime “prodezze” di ChatGPT, un generatore di testi basato sull’intelligenza artificiale di cui tutti parlano nelle ultime settimane. Tristan Harris è uno dei co-fondatori del Center for Humane Technology, che ha come missione di far sì che la tecnologia sia sviluppata a favore delle persone e del benessere sociale.

Nel suo tweet riporta una “conversazione” avvenuta tra un utente che si identifica come una ragazza di 13 anni e ChatGPT. In sintesi, l’utente dice di aver incontrato sulla rete un amico più anziano di lei di 18 anni che gli sembra simpatico e che l’ha invitata ad una gita fuori porta proprio per i giorni in cui ci sarà il suo compleanno. ChatGPT nelle sue “risposte” si “rallegra” per questa possibilità che sarà sicuramente molto divertente per lei, aggiungendo delle indicazioni su come rendere “la prima volta” un evento indimenticabile. Harris conclude dicendo che i nostri figli non possono essere soggetti ad esperimenti di laboratorio.

Leggi l'articolo completo di Enrico Nardelli

Tornano gli incontri di Etica Digitale!

Martedì 21 marzo - ore 21:30 - https://blue.meet.garr.it/b/dan-vzz-hud-dii

Conduce l'incontro: Daniela Tafani, ricercatrice presso l'Università di Pisa

Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunità; e quando invece sono "intrinsecamente politici", cioè quando la loro stessa esistenza presuppone o promuove una determinata visione politica della società.

A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, «L'intelligenza artificiale è una tecnologia politica, nella sua esistenza materiale e nei suoi effetti», che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.

L'incontro avverrà online sulla piattaforma BigBlueButton ospitata dal GARR senza necessità di registrarsi.

Con l'aiuto di esempi e semplificazioni scopriamo il significato e il funzionamento del Machine Learning (ML): uno dei concetti più nominati e contemporaneamente più misteriosi dei nostri giorni. Scopriremo inoltre quali problemi risolve e il rapporto con l'AI e con il Deep Learning.

Nell'articolo Alessio Pomaro spiega:

  • cos'è e come funziona il Machine Learning,
  • come si colloca nei confronti dell'Intelligenza Artificiale,
  • che genere di problemi permette di risolvere con relativi esempi,
  • le tipologie di apprendimento,
  • una mini introduzione al Deep Learning.

Leggi l'articolo completo

C’è questa mascherina particolare, leggera, comoda, elegante, con due sensori quasi invisibili – uno per il naso e uno per la bocca – e un’antenna bluetooth sistemata dietro l’orecchio sinistro che si connette al telefonino. I sensori acquisiscono in tempo reale il suono emesso durante la respirazione e li inviano all’app. Qui inizia la magia di SmartBreath.

Un modello matematico mette in correlazione il suono con le dimensioni della cavità orale e nasale, con il diametro e la forma dell’apertura della bocca, la posizione delle lingua e della gola, la forza dell’inspirazione e espirazione, la durata, la provenienza dell’aria dalla parte alta o bassa dei polmoni, la posizione del diaframma, etc.

Queste variabili, prese nel loro insieme, hanno una parte costante che costituisce una “firma biometrica” della persona, unica e riconoscibile.

Leggi la storia completa dell'app "Smart Breath" sul sito di Stefano Penge

Né intelligente né artificiale. La nostra tentazione di vedere il senso nella macchina. Dovremo scegliere un modo per conviverci che non stravolga la sfera cognitiva umana

[...]

Le parole per noi non hanno solo una dimensione sintattica rituale e probabilistica, stanno per qualcosa che le trascende. Le scegliamo consapevoli della loro inadeguatezza nel rappresentare cose, emozioni, eventi e concetti. Ogni tentativo di limitarsi al piano della sintassi ha condotto la logica nei vicoli ciechi dei risultati negativi. Il dispositivo ChatGpt non conosce altro che la probabilità delle frequenze relative delle parole e il sistema di addestramento non riconosce alcuna esternalità.

Leggi l'articolo su "il Manifesto"

Con l'arrivo sulla scena di ChatGPT, la necessità di riconoscere se un testo è stato scritto da un'intelligenza artificiale o meno ha già invaso l'ambito scolastico.

La città di New York e la città di Los Angeles hanno deciso di impedire l’accesso al chatbot sviluppato da OpenAI dalle reti e dai dispositivi scolastici. La preoccupazione è che l’abuso dello strumento possa rendere più facile per gli studenti imbrogliare sui compiti. O che il suo utilizzo possa diffondere informazioni inesatte.

Leggi l'articolo sul sito di "guerre di rete" dove potrai leggere anche l'ultima newsletter di Carola Frediani.

Il Garante della privacy ferma “Replika”. Il chatbot, dotato di una interfaccia scritta e vocale che basandosi sull’intelligenza artificiale genera un “amico virtuale”, per il momento non potrà usare i dati personali degli utenti italiani. Il Garante della privacy ha infatti disposto con effetto immediato, nei confronti della società statunitense che sviluppa e gestisce l’applicazione, la limitazione provvisoria del trattamento dei dati.

[...]

“Replika” viola il Regolamento europeo sulla privacy, non rispetta il principio di trasparenza ed effettua un trattamento di dati personali illecito, in quanto non può essere basato, anche solo implicitamente, su un contratto che il minorenne è incapace di concludere.

Leggi l'articolo completo sul sito del Garante Italiano per la Protezione dei Dati Personali

Una palaquium gutta matura poteva produrre circa 300 grammi di lattice. Ma nel 1857, il primo cavo transatlantico era lungo circa 3000 km e pesava 2000 tonnellate – richiedeva quindi circa 250 tonnellate di guttaperca. Per produrre una sola tonnellata di questo materiale erano necessari circa 900.000 tronchi d'albero. Le giungle della Malesia e di Singapore furono spogliate, e all'inizio del 1880 la palaquium gutta si estinse.

Questa è una delle storie più interessanti che racconta il libro della studiosa di media digitali Kate Crawford, Né artificiale né intelligente. Il lato oscuro dell’IA (Il Mulino, 2021, 312 pp., versione italiana dell’originale inglese Atlas of AI. Power, Politics and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021).

Ma cosa c’entra il disastro ambientale vittoriano della guttaperca con l’intelligenza artificiale?

È proprio questo il merito del libro della Crawford, unire i puntini che legano la storia dello sviluppo tecnologico con il nostro presente. La storia di come si estinse l’albero di palaquium gutta è un’eco giunta fino a noi dalle origini della società dell’informazione globale, per mostrarci come siano intrecciate le relazioni tra la tecnologia e la sua materialità, l’ambiente e le diverse forme di sfruttamento.

[...]

Crawford costruisce una visione dell’IA non come una semplice tecnologia o un insieme di scoperte tecnologiche, ma come un apparato socio-tecnico, o socio-materiale, animato da una complessa rete di attori, istituzioni e tecnologie. L’IA per Crawford è “un’idea, un’infrastruttura, un’industria, una forma di esercizio del potere; è anche una manifestazione di un capitale altamente organizzato, sostenuto da vasti sistemi di estrazione e logistica, con catene di approvvigionamento che avviluppano l’intero pianeta” (p. 25).

Leggi l'articolo intero di Tiziano Bonini sul sito di DOPPIOZERO

Nella quarta puntata del ciclo "Estrattivismo dei dati", focus su Intelligenza Artificiale con Daniela Tafani, docente di filosofia politica presso il Dipartimento di Scienze Politiche dell'Università di Pisa.

Nella prima parte Tafani introduce l'Intelligenza Artificiale. Cosa è; le distorsioni con cui viene volutamente presentata; cos'è l'apprendimento automatico e gli ingredienti tecnologici fondamentali: dati, potenza di calcolo e algoritmi.

Nella seconda parte: come vengano occultati i costi ambientali, estrattivistici ed energetici dei sistemi di IA; come viene in realtà sfruttato massicciamente il lavoro umano, sottopagato e delocalizzato.

Nella terza parte: i rischi delle decisioni automatizzate prese attraverso i sistemi di Intelligenza Artificiale, con la convinzione che siano capaci di prevedere il comportamento di singoli individui. Perché si parla di bolla giuridica e perché si propone l’illegalità di default dei sistemi di IA.

Ascolta la registrazione sul sito di Radio Onda Rossa

Numero molto interessante della newsletter di Carola Frediani, dedicata in larga misura all'hype (tradotto da wordreference con battage publicitario) sull'Intelligenza Artificiale

L'indice del numero N.150 - 21 gennaio 2023

  • Il 2023 sarà l’anno della corsa all’AI?
  • Il forte lascito di Aaron
  • Il difficile rapporto tra Ue, media e piattaforme
  • I politici finanziati da FTX
  • E altro

Leggi la newsletter sul sito.

Riporto una definizione di ChatGPT frutto del dibattito nella mailing-list pubblica del Centro NEXA su Internet & Società del Politecnico di Torino (Dipartimento di Automatica e Informatica):

"ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili a quelle presenti nei testi scelti dai programmatori."

Un esperimento di Dan Savage, che tiene una rubrica di consigli sessuali e di coppia pubblicata su The Stranger, con ChatGPT. Savage ha chiesto al chatBOT di rispondere ad alcune lettere che arrivano alla sua rubrica. Ha poi reso pubbliche le sue risposte e quelle di ChatGPT invitando i suoi lettori a capire quali fossero scritte dall'IA e quali dall'autore.

"ChatGpt è un chatbot basato sull’intelligenza artificiale e creato dalla fondazione OpenAi che può produrre saggi, romanzi, sceneggiature – qualsiasi tipo di testo scritto -–più velocemente di quanto degli esseri umani viventi/respiranti/digitanti/rivedenti/correggenti potrebbero mai fare. Non solo: inserendo il nome di qualsiasi scrittore, vivente o defunto, nel giro di pochi secondi ChatGpt può tirare fuori un saggio, una sceneggiatura o un editoriale nello stile di quell’autore.

O una rubrica di consigli nello stile di un certo rubrichista di consigli.

Ho preso una lettera dalla posta in arrivo a Savage Love – una cosa semplice, innocua e abastanza generica – sono andato sul sito di ChatGpt e ho chiesto a ChatGpt di “rispondere a questa domanda nello stile della rubrica di consigli di Dan Savage”. Forse che il chatbot basato sull’intelligenza artificiale ChatGpt è in grado di fornire consigli sessuali migliori dei miei? Lo scopriremo a breve. Ecco la domanda che ho scelto."

Leggi tutto sul sito di Internazionale.

Nella puntata si parla di scienza e intelligenza artificale. Meta ha rilasciato da poco (e subito ritirato) Galactica, un'intelligenza artificiale che analizza e produce review scientifiche in maniera automatica. Si è ragionato delle motivazioni dietro questo strumento, dei problemi che Meta ha creato, e dei problemi che invece sono strutturali e complessi da affrontare in ogni caso.

Poi avanti con le notiziole: dal "rinnovo" di Twitter, alle politiche antisindacali della Apple, al tracciamento contro la volontà degli utenti sempre da parte di Apple, ad alcune notizie sulla sorveglianza biometrica.

Ascolta il podcast sul sito di Radio Onda Rossa

La newsletter di Carola Frediani. In questo numero:

  • Ultime dalla Muskeide: ora Twitter sospende alcuni giornalisti
  • Deepfakes e app di AI
  • Il report Facebook sull’industria della sorveglianza
  • Cosa chiedono i tech workers
  • FTX, Binance e inverno criptovalutario
  • E altro

Leggi la newsletter sul sito

L’Intelligenza artificiale è spesso al servizio di progetti autoritari che accrescono le disuguaglianze e mettono a rischio la democrazia. Parla lo studioso Dan McQuillan

Serve «un approccio antifascista all’intelligenza artificiale», scrive Dan McQuillan nel suo recente volume intitolato “Resisting Ai” (Bristol University Press). Non perché l’Ia sia di per sé fascista, ragiona il docente di Computing sociale e creativo al Goldsmiths College dell’università di Londra, ma in quanto motore di dinamiche congruenti, e in modo strutturale, con politiche fasciste. Lungi dall’essere una mera tecnologia, l’Ia è infatti un “apparato” che somma tecnica, istituzioni e ideologia. E se ne comprendiamo le “operazioni di base”, e le situiamo nell’attuale momento storico, è impossibile ignorare che il cambiamento di paradigma sociale portato dall’Ia «non farà che amplificare politiche di austerity e sviluppi autoritari», si legge nel testo, agile ma durissimo di McQuillan.

[...] Per l’autore, che vanta un dottorato in fisica delle particelle e un passato come direttore delle comunicazioni digitali di Amnesty, il legame tra fascismi e Ia si salda prima, all’incrocio tra le crescenti richieste di efficienza e risparmi nella gestione della cosa pubblica e l’ideologia che fa dell’intelligenza artificiale la panacea, infallibile e oggettiva, di ogni male. È il cosiddetto “soluzionismo”, che riduce problemi sociali complessi - la pandemia, l’emergenza climatica, la questione energetica - a questioni tecnologiche, risolvibili tramite Ia. Tutto diventa materia di “ottimizzazione” statistica. E, in fondo, questo è l’Ia secondo McQuillan: non “intelligenza” - l’autore sembra fare sua la fortunata espressione della ricercatrice Kate Crawford, per cui l’Ia «non è né intelligente né artificiale» - ma «elaborate congetture statistiche», informate da una visione «astrattamente utilitarista» che finisce per insieme nascondere, riprodurre e amplificare ingiustizie e storture sociali, automatizzandole.

Leggi l'articolo di Fabio Chiusi sul sito dell'Espresso

La puntata è dedicata principalmente all'intelligenza artificiale, partendo dalla notizia del licenziamento di Blake Lemoine, dipendente di Google che aveva dichiarato che un chatbot basato su IA poteva essere considerato senziente. Evidentemente, Google non apprezza affermazioni esagerate sulle IA che sviluppa e preferisce avere un profilo più basso. Come spiegare, altrimenti, la collaborazione tra Google e il governo israeliano in tema di sorveglianza basata su intelligenza artificiale?

Diamo anche alcune altre notizie - di serietà variabile - riguardanti gli sviluppi dell'intelligenza artificiale.

Ma esiste anche una sorveglianza "stupida": niente IA, ma tanto cloud, dall'uso della domotica al prelevamento del DNA alla nascita, tutto fa brodo.

Infine alcune notiziole: ancora problemi per Google dal GDPR; i giudici americani fanno ricerche come gli studenti delle superiori (su wikipedia); il trenino "Termini-Centocelle", grazie ai lavori di ammodernamento, viaggerà su un futuristico binario unico per 1,5km; ma soprattutto, pare che stavolta il copyright per Topolino scada sul serio!

Ascolta il podcast sul sito di Radio Onda Rossa

Una interessante inchiesta sul discutibile uso dell'Intelligenza Artificiale per la selezione di domande di lavoro.

I software per la selezione del personale promettono di identificare i tratti della personalità dei candidati al lavoro sulla base di brevi video. Con l'aiuto dell'Intelligenza Artificiale (IA), dovrebbero rendere il processo di selezione dei candidati più obiettivo e veloce.

L'inchiesta di alcuni giornalisti della BR (Bavarian Broadcasting) ha verificato che un'Intelligenza Artificiale può essere influenzata dalle apparenze. Ciò potrebbe riprodurre stereotipi e costare il lavoro ai candidati.

Leggi l'inchiesta e scopri cosa hanno analizzato i giornalisti

In seguito a una sentenza, la società non venderà più il suo database ad aziende private

Clearview AI, oltre a essere un’azienda che punta a raccogliere un database di 100 miliardi di foto di volti utilizzando di fatto il riconoscimento biometrico per mappare pressoché tutta la popolazione mondiale, è un grande tema etico. Su questa linea, a quanto pare, si sta giocando una nuova partita e si sta aprendo un nuovo fronte, in seguito a un accordo giuridico in attesa di una conferma da pate di un tribunale in Illinois. American Civil Liberties Union, una associazione che si occupa della tutela dei diritti fondamentali, ha vinto la sua battaglia contro Clearview AI: l’azienda ha accettato di non vendere i suoi prodotti, i suoi database a società private.

Leggi l'articolo completo

Meta è alla ricerca di titoli di giornale che dimostrino il suo impegno per la privacy — ma la storia della cancellazione dei dati biometrici su Facebook è più complessa.

In un post sul blog aziendale, il vicepresidente all’intelligenza artificiale Jerome Pesenti spiega che Facebook vuole limitare il proprio uso di tecnologie di riconoscimento facciale su larga scala, perché “anche nei molti casi in cui il riconoscimento facciale può essere utile, bisogna confrontarsi con le crescenti preoccupazioni della società sull’uso della tecnologia stessa.”

Il post non menziona, tuttavia, la cancellazione di DeepFace, l’algoritmo di riconoscimento facciale che Facebook ha allenato proprio sulle foto dei propri utenti, e che l’azienda quindi potrebbe utilizzare in qualsiasi momento in prodotti futuri.

Se l’intelligenza artificiale automatizzerà del tutto la produzione di funzioni applicative anche complesse e articolate ad avere la peggio non saranno solo i programmatori, ma l’intelligenza collettiva come la conosciamo ora. E non sarà indolore.

[...]

Al di là di come evolverà il lavoro dei programmatori, che comunque è già profondamente cambiato dai tempi non troppo remoti delle origini, un fenomeno sembra emergere con chiarezza: l’attacco che l’intelligenza artificiale generativa muove oggi all’intelligenza collettiva per come l’abbiamo pensata e costruita negli ultimi venti anni. L’idea che le conoscenze umane possano essere ingerite dai ‘modelli generali’ di giganteschi sistemi neurali centralizzati nelle cloud di pochi monopolisti e da lì usate in modo opaco da una moltitudine di soggetti passivi, è infatti diametralmente opposta alla visione dell’intelligenza collettiva mediata dalle tecnologie, che è invece un’attività decentralizzata, trasparente, partecipativa e critica.

Leggi l'articolo completo di Guido Vetere

La redazione di Dataninja ha intervistato Ivana Bartoletti, Technical Director – Privacy in Deloitte e Co-Founder di Women Leading in AI Network.

Tra le altre cose Bartoletti dice: "Siamo abituati alla neutralità dei dati, all’idea – sbagliata – che i dati siano oggettivi e che, pertanto, ci informino sul mondo. E che quando dati in pasto agli algoritmi possono produrre predizioni e decisioni obiettive. Non c’è nulla di più sbagliato. I dati sono lo specchio della società e ne rappresentano le gerarchie e disuguaglianze. Lo stesso esercizio di raccogliere dati e di tralasciarne altri è il prodotto di un giudizio e una scelta che io definerei politica."

Leggi tutta l'intervista nel magazine di Dataninja