Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Lezioni di Cassandra/ L'alter ego di Cassandra ha fatto una chiacchierata eretica sulle false IA in un paio di eventi pubblici, apparentemente con una certa soddisfazione dei presenti; perché allora non trasformare gli appunti in una esternazione vera e propria, salvandoli dall'oblio digitale?

Se oggi siamo in questa situazione è tutta colpa di Joseph Weizenbaum, noto eretico dell'informatica. Anzi, è colpa di Joseph Weizenbaum e della sua segretaria. Ma andiamo con ordine.

Nell'ambito dell'intelligenza artificiale, una delle pietre miliari più conosciute è stato ELIZA, un programma informatico sviluppato appunto da Weizenbaum nel 1966, che ha rivoluzionato la nostra comprensione delle interazioni tra l'uomo e la macchina. Eliza, sebbene rudimentale rispetto agli standard odierni, ha gettato le basi per molte delle tecnologie di chatbot e assistenti virtuali che utilizziamo oggi.

[...]

In 70 anni di storia dell'IA sono stati sviluppati i motori di inferenza, le reti neurali, le tecniche di apprendimento profondo: tutte cose che nei loro ambiti funzionano benissimo. Se non li avete mai sentiti nominare, ricorderete certo le notizie che l'IA referta le TAC meglio di un radiologo e che ha battuto i campioni mondiali di scacchi e Go (dama cinese). Tre anni fa una tecnologia già nota da tempo, gli LLM (Large Language Models — Grandi modelli di Linguaggio) ha cominciato a funzionare. Perché? Per semplici motivi di scala, cioè l'utilizzo di server più potenti per eseguirli e di più informazioni con cui allenarli.

La speculazione finanziaria delle dotcom in cerca di nuove opportunità di far soldi ci si è buttata a pesce. Improvvisamente ChatGPT e i suoi fratelli sono diventati disponibili a chiunque gratuitamente: hanno cominciato ad affascinare tutti esattamente come Eliza aveva fatto con la segretaria di Weizenbaum. Ma, come Eliza, un LLM non sa niente, non comprende niente, non può rispondere a nessuna domanda e nemmeno rispondere sempre nello stesso modo.

Leggi l'articolo su ZEUS News

Cosa ci insegna la storia di ELIZA, il primo chatbot che sembrava conversare come un umano. A partire da come il suo creatore divenne un critico feroce della perdita di autonomia dell’umano.

Tra i tanti ruoli che ChatGPT ha rapidamente iniziato ad assumere nelle vite dei milioni di utenti che lo utilizzano su base quasi quotidiana, ce n’è uno probabilmente inatteso. Per molti, il sistema di OpenAI con cui è possibile conversare su ogni argomento, e spesso in maniera convincente, è diventato un amico, un confidente. Addirittura uno psicologo. Una modalità non prevista (almeno esplicitamente) da OpenAI, ma scelta da un numero non trascurabile di utenti, che si relazionano a ChatGPT come se davvero fosse un analista. Per impedire un utilizzo giudicato (per ragioni che vedremo meglio più avanti) improprio e pericoloso, OpenAI impedisce al suo sistema di intelligenza artificiale generativa di offrire aiuto psicologico, che infatti di fronte a richieste di questo tipo si limita a fornire materiale utile da consultare. Ciò però non ha fermato gli “utenti-pazienti” che, su Reddit, si scambiano trucchi e tecniche per sbloccare ChatGPT affinché fornisca loro consigli psicologici.

Joseph Weizenbaum e il suo chatbot ELIZA

Un risvolto che potrebbe sorprendere molti. Uno dei pochi che sicuramente non si sarebbe sorpreso e che avrebbe avuto moltissimo da dire sull’argomento è Joseph Weizenbaum, scienziato informatico e docente al MIT di Boston, scomparso nel 2008. Colui che già parecchi decenni prima della sua morte aveva preconizzato – o meglio, affrontato e approfondito in prima persona – molti degli aspetti che portano le persone a relazionarsi in maniera intima con le macchine e le cause di questo comportamento.

Leggi l'articolo di Signorelli sul sito di Guerre di rete