Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Cosa ci insegna la storia di ELIZA, il primo chatbot che sembrava conversare come un umano. A partire da come il suo creatore divenne un critico feroce della perdita di autonomia dell’umano.

Tra i tanti ruoli che ChatGPT ha rapidamente iniziato ad assumere nelle vite dei milioni di utenti che lo utilizzano su base quasi quotidiana, ce n’è uno probabilmente inatteso. Per molti, il sistema di OpenAI con cui è possibile conversare su ogni argomento, e spesso in maniera convincente, è diventato un amico, un confidente. Addirittura uno psicologo. Una modalità non prevista (almeno esplicitamente) da OpenAI, ma scelta da un numero non trascurabile di utenti, che si relazionano a ChatGPT come se davvero fosse un analista. Per impedire un utilizzo giudicato (per ragioni che vedremo meglio più avanti) improprio e pericoloso, OpenAI impedisce al suo sistema di intelligenza artificiale generativa di offrire aiuto psicologico, che infatti di fronte a richieste di questo tipo si limita a fornire materiale utile da consultare. Ciò però non ha fermato gli “utenti-pazienti” che, su Reddit, si scambiano trucchi e tecniche per sbloccare ChatGPT affinché fornisca loro consigli psicologici.

Joseph Weizenbaum e il suo chatbot ELIZA

Un risvolto che potrebbe sorprendere molti. Uno dei pochi che sicuramente non si sarebbe sorpreso e che avrebbe avuto moltissimo da dire sull’argomento è Joseph Weizenbaum, scienziato informatico e docente al MIT di Boston, scomparso nel 2008. Colui che già parecchi decenni prima della sua morte aveva preconizzato – o meglio, affrontato e approfondito in prima persona – molti degli aspetti che portano le persone a relazionarsi in maniera intima con le macchine e le cause di questo comportamento.

Leggi l'articolo di Signorelli sul sito di Guerre di rete

Nell'ultima puntata dell'estate di DataKnightmare, Vannini prende spunto da un paper per porre alcune domande e diversi avvertimenti.

Il paper si pone due domande semplici. Se l'uso di chat gpt possa veramente migliorare la produttività e se l'uso di chat gpt abbia effetti diversi su lavoratori meno schillati che su lavoratori più schillati.
Le risposte sono chiare.
Con chat gpt il livello medio dei testi migliora e i tempi di produzione si abbassano, quindi siamo autorizzati a dire che la produttività cresce. Inoltre con chat gpt la differenza fra le capacità dei singoli viene fortemente ridotta.

Pur prendendo per buono il risultato del paper, le criticità sono molte.
Tra e altre: avere addestrato le cosiddette intelligenze artificiali in prevalenza su contenuti disponibili in internet, con le virgolette, significa che le intelligenze artificiali sanno scrivere come un marchettaro a cottimo, Perché quelli sono i contenuti prevalenti in internet, marketing, report aziendali senza anima e comunicazione funzionale.

Ieri abbiamo insegnato alle macchine come scrivono gli esseri umani usando come esempio quando gli esseri umani scrivono come macchine.
Il pericolo è che i vari chat gpt diventino il termine di paragone, per cui da domani gli esseri umani dovranno scrivere come macchine per non perdere la competizione contro macchine che scrivono come esseri umani che scrivono come macchine.

Ascolta la puntata e buon ascolto.

In anteprima e in uscita progressiva per i donatori, e poi per i lettori, la monografia di guerre di rete sull'intelligenza artificiale

Guerre di Rete - una newsletter di notizie cyber a cura di Carola Frediani N.167 - 4 settembre 2023

La newsletter riprende con l'annuncio dell’uscita del primo ebook di Guerre di Rete. Si intitola Generazione AI e, indovinate un po’, è dedicato agli ultimi sviluppi dell’intelligenza artificiale generativa, e al loro impatto sulla società, l’economia, la geopolitica. È stato ideato e curato da Carola Frediani, da Sonia Montegiove e da Federico Nejrotti, e i suoi articoli sono firmati da Stefano Casini, Antonio Dini, Carola Frediani, Federica Meta, Giuditta Mosca, Federico Nejrotti, Antonio Piemontese e Andrea Signorelli.

Troverete l’introduzione di Carola Frediani; Andrea Signorelli che racconta la storia del chatbot ELIZA e soprattutto di Joseph Weizenabum, e i suoi riverberi attuali; Antonio Dini ci trasporta in profondità nella “guerra fredda” dell’AI, lo scontro Usa e Cina, e le varie angolature geopolitiche della partita, da Taiwan all’Ucraina; Federica Meta si muove tra Usa, Ue e Cina, tra legislazione e investimenti, e poi analizza alcune delle aziende in campo; Federico Nejrotti racconta e analizza l’impatto dell’AI generativa sul mondo artistico; Giuditta Mosca sviscera un ampio studio, che analizza e critica il ruolo di Big Tech; Antonio Piemontese intervista alcuni esperti fra giornalismo, accademia e politica (Virginia Padovese; Mariarosaria Taddeo; Brando Benifei) sul rischio della generazione automatica di disinformazione; e Stefano Casini descrive alcuni degli strumenti di AI esplosi per il grande pubblico negli ultimi mesi.

Leggi l'introduzione di Frediani sul sito di Guerre di Rete

Nella puntata del 16 luglio, un'ospite speciale ci aiuta a capire meglio le implicazioni più sottili dell'approccio "big data" (basato cioè sull'accumulazione di archivi di dati caratterizzati dalla quantità prima che dalla qualità) nello specifico della linguistica.

Puntata con focus sui problemi più prettamente linguistici, osservando come i modelli di intelligenza artificiale che generano testo (insomma i vari ChatGPT) creano a tutti gli effetti la lingua; la raccolta di dati "a strascico", lungi dall'essere un metodo per ascoltare tutte le voci si dimostra un modo per selezionare le voci legittime; così, quello che poteva sembrare un problema semplice per un algoritmo innocuo apre il problema, per niente banale, della rappresentazione.

Lo facciamo seguendo, in parte, l'articolo che è costato il licenziamento di Timnit Gebru e accompagnati da musiche centroasiatiche.

Ascolta la puntata sul sito di Radio Onda Rossa

Esperimenti e allucinazioni di e con ChatGPT

Si potrebbe continuare così per molte pagine. Palmiro Togliatti è stato assassinato nel 1964 da un membro di un gruppo neofascista, gli scioperi a rovescio “sono una forma di protesta in cui i lavoratori continuano a lavorare nonostante sia stato proclamato uno sciopero”, nella lista degli appartenenti alla loggia massonica P2 figura anche Renzo Arbore, e così via

Non si tratta, però, degli errori commessi da una macchina allo stadio iniziale dell’“apprendimento”, ma di quelle che nel gergo tecnico vengono definite “allucinazioni”, risposte completamente inventate prodotte di frequente dagli strumenti di intelligenza artificiale

leggi l'articolo sul sito de "Gli Asini"

Prosegue il dibattito sull'AI.

Nella Newsletter del 28 maggio si parla di:

  • AI, copilota o dirottatore?
  • Bengio sui rischi e la sicurezza nell’AI
  • Spyware, GDPR e altro

Microsoft ha annunciato che nei prossimi mesi integrerà Copilot, il suo assistente AI, in Windows 11. Sarà quindi possibile, fra le altre cose, chiedere all'assistente di "regolare le impostazioni" o di eseguire altre azioni su un computer (The Verge). “Stiamo introducendo Windows Copilot, rendendo Windows 11 la prima piattaforma per computer ad annunciare un’assistenza AI centralizzata per aiutare le persone a intervenire facilmente e a realizzare le cose”, scrive Microsoft nel suo blog...

leggi la newsletter nel sito di Guerre di Rete

Le macchine estraggono modelli statistici dalle grandi basi dati di testi e immagini costruite da noi. Basterebbe proibirgli di usare i nostri contenuti per addestrarsi

[...]

Hinton si iscrive nella lista degli scienziati pentiti dopo aver contribuito allo sviluppo dell’intelligenza artificiale, di cui viene considerato addirittura il ‘padrino’. Si consola pensando che comunque qualcun altro lo avrebbe fatto al posto suo. È importante mantenere uno sguardo critico nei confronti di questi atteggiamenti dei grandi esperti di tecnologia. Il rimedio potrebbe essere peggiore del male.

[...]

Leggi l'articolo di Teresa Numerico sul sito de "Il Manifesto"

Nel corso dell’evento ASU+GSV tenutosi a San Diego, Bill Gates ha affrontato un interrogativo posto da alcuni partecipanti riguardo alla possibilità che, in futuro, ChatGPT possa sostituire i docenti.

Leggi l'articolo completo su orizzonte scuola

La newsletter di Carola Frediani questa settimana tratta principalmente temi legati all'IA N.159 - 7 maggio 2023

In questo numero:

  • Geoff Hinton è uscito dal gruppo
  • Samsung vieta l'uso di ChatGPT
  • ChatGPT e i servizi di "tutoraggio" online
  • Moderatori di contenuti uniti
  • La storia dell'hacking è ancora da scrivere
  • E altro

Leggi la newsletter sul sito di Guerre di rete

La quantità è una parte importante dei ragionamenti; a volte diventa qualità, diceva un tale. Cose piccole sono trattabili, cose grandi meno. I computer (in generale le macchine) servono a rendere trattabili cose troppo grandi per noi. Ma anche loro hanno dei limiti, pratici o teorici.

Per esempio GPT-3 (la cosa che sta dietro ChatGPT, ma anche dietro DALLE-E, per quanto si faccia fatica a capire cosa c'entrano l'una con l'altra ed entrambe col T9) è una cosa grossa assai. GPT significa Generative Pre-trained Transformer. Grosso modo, per quel che anche un ignorante come me capisce, è un modello linguistico con un sacco di parametri che è stato costruito nel 2020 a partire da diverse sorgenti utilizzare come dati di partenza una "copia di internet, Wikipedia, archivi di immagini, etc." Un oggetto "molto, molto grande".

Quanti parametri, cioè quanti possibili modi di configurare il modello? Dicono 175 miliardi. Un numero talmente grande che solo un altro software è in grado di enumerarli o verificarli.

Leggi l'articolo completo sul sito di Stefano Penge