Nella puntata di Le Dita Nella Presa del 16 Aprile 2023 si è parlato di:
Cassandra Crossing/ Esiste una scuola di pensiero che ritiene possibile l'evoluzione "spontanea" dei modelli linguistici in "vera" intelligenza artificiale. Di che cosa si parla esattamente?
È un concetto interessante in cui Cassandra non si era mai imbattuta. Ha invece scoperto che l'ipotesi è, pur in un ambiente molto ristretto, oggetto di dibattito filosofico e anche scientifico. Molto interessante, e vediamo di spiegare il perché.
Perdonate però la vostra profetessa preferita, perché sono necessarie un bel po' di premesse. Speriamo che almeno i 24 indomiti lettori mi seguano senza esitare.
Intervista ad Antonio Casilli, autore di «Schiavi del Clic»: «Dietro questa tecnologia c'è un'enorme quantità di lavoro sui dati fatto da grandi masse di persone. C'è un filo rosso che lega chi allena ChatGpt e i suoi utilizzatori»
Nel comunicato del garante della Privacy che blocca l’assistente virtuale ChatGpt c’è un passaggio illuminante in cui si osserva che l’illecita raccolta dei dati personali avviene in mancanza di una «base giuridica» e «allo scopo di addestrare gli algoritmi sottesi al funzionamento della piattaforma».
L’«addestramento» è stato effettuato dagli utenti di questo software che, stimolati dalla stupefacente operazione di marketing basata sull’immaginario apocalittico della sostituzione del lavoro, e persino degli esseri umani, da parte dei robot nelle ultime settimane hanno lavorato gratuitamente, e probabilmente inconsapevolmente, allo sviluppo di ChatGpt bombardandolo con le richieste più singolari e divertenti. Ciò ha permesso alla società OpenAI che ha lanciato anche ChatGpt, fondata a San Francisco nel 2015, di raccogliere fondi da decine di miliardi di dollari, e investimenti cospicui da parte di Microsoft.
Mondo digitale ha pubblicato un bel articolo di Carlo Milani e Vivien García. Di seguito potete leggere il sommario mentre l'articolo completo è sul sito di Mondo Digitale
"L'IA affascina e spaventa. Uno spauracchio si aggira per il mondo: il timore che esseri tecnologici intelligenti sostituiranno gli esseri umani in (quasi) tutte le loro attività, a partire dal lavoro. L'IA se ne occuperebbe automaticamente, agendo come un aiutante magico, capace di svolgere qualsiasi compito assegnato.
Attingendo alla prospettiva di Gilbert Simondon sull'alienazione tecnica,sosterremo che l'automazione è in realtà il livello più basso possibile di interazione uomo-macchina. L'analisi di Simondon offre un metodo per
prendere le distanze sia dalla tecnofobia che dalla tecnofilia, promuovendo una cultura tecnica capace di sviluppare "macchine aperte", caratterizzate da un certo livello di variabilità nel loro funzionamento reciproco con gli umani.
Ricordando alcune tappe fondamentali nella storia dell'IA, sosterremo che le cosiddette macchine digitali "intelligenti", basate su algoritmi di riduzione dei dati, sono caratterizzate da una modellazione statistica che talvolta tende, a prescindere dall’intenzione degli esseri umani coinvolti, a incorporarne alcuni presupposti ideologici, credenze e valori. Usando la nostra analisi dell'interazione umana con i motori di ricerca potenziati dall'IA, mostreremo come i sistemi automatizzati stiano diffondendo il condizionamento reciproco tra umani e macchine. Più gli esseri umani si rivolgono a queste macchine in
modo meccanicamente semplice e non ambiguo, più esse agiscono "automaticamente" e sembrano "intelligenti".
Infine analizzeremo lo sfruttamento di questi sistemi di condizionamento reciproco in una miriade di micro-attività digitali a scopo di lucro. L'IA in questo contesto si manifesta come un essere tecnico di formazione antropologica e manipolazione comportamentale, molto lontano dall'ideale di "macchina aperta" proposto da Simondon."
Puntata di Doppio Click su Radio Popolare Milano interamente dedicata all'Intelligenza Artificiale con ospite Carlo Milani.
Prima parte di trasmissione dedicata alla limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGPT, disposta dal Garante per la protezione dei dati personali.
La seconda parte approfondisce i temi generali dell'Intelligenza Artificiale con l'aiuto di Carlo Milani, autore insieme a Vivien García di un importante articolo, pubblicato su Mondo Digitale, dal titolo: "L'evoluzione dell'Intelligenza Artificiale: dall'automazione del lavoro al condizionamento reciproco".
Ascolta la puntata di Doppio Click sul sito di Radio Popolare Milano
La lettera di Musk&Co. è stata fortemente criticata dalla scienziata Timnit Gebru, diventata famosa per essere stata licenziata da Google accusata da lei di sviluppare un'IA con pregiudizi.
La ricercatrice sostiene che GPT-4 sia solo come "un pappagallo stocastico" ripete il meglio che trova sul web, senza averne comprensione. No Panic, quindi. Per Gebru non serve ascoltare i firmatari dell'appello, ma sviluppare da subito un'IA che "funzioni per noi".
Walter Vannini offre uno sguardo all'economia politica di chatGPT e disruption assortite. La forza del marketing nel vendere fuffa.
Ma in ogni caso: quali saranno le conseguenze sul lavoro delle persone delle tecnologie definite Intelligenza Artificiale e in particolare quelle basate sul Natural Language Processing, come ChatGPT? Chi guadagnerà dall'impatto di queste tecnologie (Spoiler: i datori di lavoro)?
GPT-4/ChatGPT fa parte di una delle più vaste e pericolose campagne di marketing che il mondo dell'informatica abbia mai visto. È una campagna volta a incentivare l'adozione, più vasta e meno controllata possibile, di un nuovo prodotto, delle tecnologie di falsa Intelligenza Artificiale basate sul Deep Learning.
La non-intelligenza delle false "Intelligenze Artificiali" basate sulle tecnologie di Deep Learning, fatto totalmente assodato e condiviso ma volutamente sempre nascosto, la cui conoscenza è vitale, può e deve essere ripetuto instancabilmente, in forma semplice e completamente comprensibile. Un'ottima formulazione è apparsa recentemente sulla mailing list "Nexa" a opera del professor Enrico Nardelli, che qui ringrazio. In sintesi è:
GPT4/ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo. Purtroppo, questo è un problema nostro di grande rilevanza sul piano sociale, poiché ciò che fa lo fa bene, esprimendosi in una forma bella e sofisticata che per noi assume un significato. Questo avviene però solo in quanto noi "proiettiamo" su di essa un significato che è in noi stessi.
Leggi l'articolo completo su ZEUS News
Non fraintendiamoci, i sistemi di intelligenza artificiale come ChatGPT possono essere di enorme aiuto per l’umanità ma l’innovazione e lo sviluppo economico vanno sempre coniugati con il rispetto dei diritti umani fondamentali e la salvaguardia del benessere sociale. L’analisi del professore Enrico Nardelli dell’università di Roma “Tor Vergata”, presidente di “Informatics Europe” e direttore del Laboratorio Nazionale “Informatica e Scuola” del CINI
Prendo lo spunto da un tweet di Tristan Harris a proposito di una delle ultime “prodezze” di ChatGPT, un generatore di testi basato sull’intelligenza artificiale di cui tutti parlano nelle ultime settimane. Tristan Harris è uno dei co-fondatori del Center for Humane Technology, che ha come missione di far sì che la tecnologia sia sviluppata a favore delle persone e del benessere sociale.
Nel suo tweet riporta una “conversazione” avvenuta tra un utente che si identifica come una ragazza di 13 anni e ChatGPT. In sintesi, l’utente dice di aver incontrato sulla rete un amico più anziano di lei di 18 anni che gli sembra simpatico e che l’ha invitata ad una gita fuori porta proprio per i giorni in cui ci sarà il suo compleanno. ChatGPT nelle sue “risposte” si “rallegra” per questa possibilità che sarà sicuramente molto divertente per lei, aggiungendo delle indicazioni su come rendere “la prima volta” un evento indimenticabile. Harris conclude dicendo che i nostri figli non possono essere soggetti ad esperimenti di laboratorio.
Leggi l'articolo completo di Enrico Nardelli
Tornano gli incontri di Etica Digitale!
Martedì 21 marzo - ore 21:30 - https://blue.meet.garr.it/b/dan-vzz-hud-dii
Conduce l'incontro: Daniela Tafani, ricercatrice presso l'Università di Pisa
Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunità; e quando invece sono "intrinsecamente politici", cioè quando la loro stessa esistenza presuppone o promuove una determinata visione politica della società.
A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, «L'intelligenza artificiale è una tecnologia politica, nella sua esistenza materiale e nei suoi effetti», che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.
L'incontro avverrà online sulla piattaforma BigBlueButton ospitata dal GARR senza necessità di registrarsi.