Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Cassandra Crossing/ Quanto è sfaccettato il problema delle capacità delle false IA e delle loro ''allucinazioni'' quando viene discusso nei salotti? E nel marketing? E nella filosofia?

Perché il termine allucinazioni è volutamente errato e ingannatore? Perché l'avere allucinazioni implica un funzionamento razionale e una percezione corretta del mondo o del dominio di conoscenza del sistema, in tutti gli altri casi.

E dove manca non solo intelligenza, ma anche il semplice determinismo, non è possibile, anzi è totalmente disonesto parlare di "allucinazioni", quando invece si tratta manifestazioni particolarmente forti della normale assenza di significato di tutte le risposte, anche quelle "esatte".

Leggi l'articolo su ZEUS News

Naomi Klein, The Guardian, Regno Unito
Le aziende tecnologiche sostengono che l’intelligenza artificiale risolverà molti problemi e migliorerà la vita delle persone. Ma senza regole adeguate produrrà sfruttamento e povertà

Tra i molti dibattiti in corso sulla rapida diffusione della cosiddetta intelligenza artificiale (ia) ce n’è uno relativamente sconosciuto sulla scelta della parola “allucinazioni”. È il termine che i programmatori e i sostenitori dell’ia generativa (quella in grado di generare a richiesta testi, immagini o altro in risposta a una richiesta) usano per descrivere le sue risposte quando sono completamente inventate o semplicemente sbagliate. Per esempio, quando chiediamo a un chatbot (un software che simula la conversazione di un essere umano) la definizione di una cosa che non esiste e il programma, in modo piuttosto convincente, ce ne dà una con tanto di note a piè di pagina false. “Nel nostro campo nessuno è ancora riuscito a risolvere il problema delle allucinazioni”, ha detto di recente Sundar Pichai, l’amministratore delegato di Google e dell’Alphabet, l’azienda che controlla il motore di ricerca californiano.

Leggi l'articolo sul sito di Internazionale

Esperimenti e allucinazioni di e con ChatGPT

Si potrebbe continuare così per molte pagine. Palmiro Togliatti è stato assassinato nel 1964 da un membro di un gruppo neofascista, gli scioperi a rovescio “sono una forma di protesta in cui i lavoratori continuano a lavorare nonostante sia stato proclamato uno sciopero”, nella lista degli appartenenti alla loggia massonica P2 figura anche Renzo Arbore, e così via

Non si tratta, però, degli errori commessi da una macchina allo stadio iniziale dell’“apprendimento”, ma di quelle che nel gergo tecnico vengono definite “allucinazioni”, risposte completamente inventate prodotte di frequente dagli strumenti di intelligenza artificiale

leggi l'articolo sul sito de "Gli Asini"