Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

La lettera di Musk&Co. è stata fortemente criticata dalla scienziata Timnit Gebru, diventata famosa per essere stata licenziata da Google accusata da lei di sviluppare un'IA con pregiudizi.

La ricercatrice sostiene che GPT-4 sia solo come "un pappagallo stocastico" ripete il meglio che trova sul web, senza averne comprensione. No Panic, quindi. Per Gebru non serve ascoltare i firmatari dell'appello, ma sviluppare da subito un'IA che "funzioni per noi".

leggi l'articolo completo

Walter Vannini offre uno sguardo all'economia politica di chatGPT e disruption assortite. La forza del marketing nel vendere fuffa.

Ma in ogni caso: quali saranno le conseguenze sul lavoro delle persone delle tecnologie definite Intelligenza Artificiale e in particolare quelle basate sul Natural Language Processing, come ChatGPT? Chi guadagnerà dall'impatto di queste tecnologie (Spoiler: i datori di lavoro)?

Ascolta il podcast

GPT-4/ChatGPT fa parte di una delle più vaste e pericolose campagne di marketing che il mondo dell'informatica abbia mai visto. È una campagna volta a incentivare l'adozione, più vasta e meno controllata possibile, di un nuovo prodotto, delle tecnologie di falsa Intelligenza Artificiale basate sul Deep Learning.

La non-intelligenza delle false "Intelligenze Artificiali" basate sulle tecnologie di Deep Learning, fatto totalmente assodato e condiviso ma volutamente sempre nascosto, la cui conoscenza è vitale, può e deve essere ripetuto instancabilmente, in forma semplice e completamente comprensibile. Un'ottima formulazione è apparsa recentemente sulla mailing list "Nexa" a opera del professor Enrico Nardelli, che qui ringrazio. In sintesi è:

GPT4/ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo. Purtroppo, questo è un problema nostro di grande rilevanza sul piano sociale, poiché ciò che fa lo fa bene, esprimendosi in una forma bella e sofisticata che per noi assume un significato. Questo avviene però solo in quanto noi "proiettiamo" su di essa un significato che è in noi stessi.

Leggi l'articolo completo su ZEUS News

Non fraintendiamoci, i sistemi di intelligenza artificiale come ChatGPT possono essere di enorme aiuto per l’umanità ma l’innovazione e lo sviluppo economico vanno sempre coniugati con il rispetto dei diritti umani fondamentali e la salvaguardia del benessere sociale. L’analisi del professore Enrico Nardelli dell’università di Roma “Tor Vergata”, presidente di “Informatics Europe” e direttore del Laboratorio Nazionale “Informatica e Scuola” del CINI

Prendo lo spunto da un tweet di Tristan Harris a proposito di una delle ultime “prodezze” di ChatGPT, un generatore di testi basato sull’intelligenza artificiale di cui tutti parlano nelle ultime settimane. Tristan Harris è uno dei co-fondatori del Center for Humane Technology, che ha come missione di far sì che la tecnologia sia sviluppata a favore delle persone e del benessere sociale.

Nel suo tweet riporta una “conversazione” avvenuta tra un utente che si identifica come una ragazza di 13 anni e ChatGPT. In sintesi, l’utente dice di aver incontrato sulla rete un amico più anziano di lei di 18 anni che gli sembra simpatico e che l’ha invitata ad una gita fuori porta proprio per i giorni in cui ci sarà il suo compleanno. ChatGPT nelle sue “risposte” si “rallegra” per questa possibilità che sarà sicuramente molto divertente per lei, aggiungendo delle indicazioni su come rendere “la prima volta” un evento indimenticabile. Harris conclude dicendo che i nostri figli non possono essere soggetti ad esperimenti di laboratorio.

Leggi l'articolo completo di Enrico Nardelli

Né intelligente né artificiale. La nostra tentazione di vedere il senso nella macchina. Dovremo scegliere un modo per conviverci che non stravolga la sfera cognitiva umana

[...]

Le parole per noi non hanno solo una dimensione sintattica rituale e probabilistica, stanno per qualcosa che le trascende. Le scegliamo consapevoli della loro inadeguatezza nel rappresentare cose, emozioni, eventi e concetti. Ogni tentativo di limitarsi al piano della sintassi ha condotto la logica nei vicoli ciechi dei risultati negativi. Il dispositivo ChatGpt non conosce altro che la probabilità delle frequenze relative delle parole e il sistema di addestramento non riconosce alcuna esternalità.

Leggi l'articolo su "il Manifesto"

Numero molto interessante della newsletter di Carola Frediani, dedicata in larga misura all'hype (tradotto da wordreference con battage publicitario) sull'Intelligenza Artificiale

L'indice del numero N.150 - 21 gennaio 2023

  • Il 2023 sarà l’anno della corsa all’AI?
  • Il forte lascito di Aaron
  • Il difficile rapporto tra Ue, media e piattaforme
  • I politici finanziati da FTX
  • E altro

Leggi la newsletter sul sito.

Riporto una definizione di ChatGPT frutto del dibattito nella mailing-list pubblica del Centro NEXA su Internet & Società del Politecnico di Torino (Dipartimento di Automatica e Informatica):

"ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili a quelle presenti nei testi scelti dai programmatori."

Un esperimento di Dan Savage, che tiene una rubrica di consigli sessuali e di coppia pubblicata su The Stranger, con ChatGPT. Savage ha chiesto al chatBOT di rispondere ad alcune lettere che arrivano alla sua rubrica. Ha poi reso pubbliche le sue risposte e quelle di ChatGPT invitando i suoi lettori a capire quali fossero scritte dall'IA e quali dall'autore.

"ChatGpt è un chatbot basato sull’intelligenza artificiale e creato dalla fondazione OpenAi che può produrre saggi, romanzi, sceneggiature – qualsiasi tipo di testo scritto -–più velocemente di quanto degli esseri umani viventi/respiranti/digitanti/rivedenti/correggenti potrebbero mai fare. Non solo: inserendo il nome di qualsiasi scrittore, vivente o defunto, nel giro di pochi secondi ChatGpt può tirare fuori un saggio, una sceneggiatura o un editoriale nello stile di quell’autore.

O una rubrica di consigli nello stile di un certo rubrichista di consigli.

Ho preso una lettera dalla posta in arrivo a Savage Love – una cosa semplice, innocua e abastanza generica – sono andato sul sito di ChatGpt e ho chiesto a ChatGpt di “rispondere a questa domanda nello stile della rubrica di consigli di Dan Savage”. Forse che il chatbot basato sull’intelligenza artificiale ChatGpt è in grado di fornire consigli sessuali migliori dei miei? Lo scopriremo a breve. Ecco la domanda che ho scelto."

Leggi tutto sul sito di Internazionale.