La puntata inizia parlando di social network autogestiti: intervista a Puntarella Party, un nodo Mastodon autogestito di Roma.
Prosegue poi parlando di Intelligenza Artificiale provando a contribuire allo spunto che ha dato il Manifesto . È interessante che gruppi anche grandi prendano posizioni riguardo al rapporto con l'intelligenza artificiale, ma come possiamo articolare queste critiche senza basarci su arbitrarie distinzioni tra IA e non-IA?
Chiudiamo con qualche notizia:
Ascolta la puntata sul sito di Radio Onda Rossa
Puntata del 15 ottobre 2023
I sistemi di predizione del crimine non funzionano.
Negli USA, dove i sistemi predittivi cominciano ad avere una certa diffusione, è stato fatto uno studio sulla loro accuratezza: il risutato è che questa è minima, con valori <1%. Il sistema studiato è paranoico, cioè predice un numero di crimini quasi 100 volte superiore a quelli segnalati e comunque la corrispondenza tra crimini predetti e segnalati è ridicolmente bassa.
L'Antitrust USA indaga su Google ed Amazon per pratiche scorrette che porterebbero a generare situazioni di monopolio con danno ai venditori/inserzionisti e di conseguenza ai consumatori.
La Microsoft vira al nucleare: è vero? Effettivamente stanno assumendo qualcuno per studiare la fattibilità di alimentare i data center con piccoli reattori di IV generazione.
Infine, le notiziole: parliamo di un cavo sincero che ammette di mandare tutti i tuoi dati in Cina, della sparizione di un utile add-on su Firefox, della dipartita del mai dimenticato (!) VBScript e della possibilità che Windows abbia licenze in abbonamento.
A volte osannata come tecnologia rivoluzionaria, altre volte accompagnata da dubbi e paure, l’intelligenza artificiale è stata negli ultimi mesi al centro del dibattito, purtroppo spesso inquinato da mitologie turbocapitaliste o da incomprensioni sulle sue effettive potenzialità. Partendo dallo stato della ricerca, passando per le conseguenze nel mondo del lavoro, nei rapporti geopolitici e nell’immaginario comune, proviamo a delineare un quadro realistico sul ruolo di questa tecnologia
Alune riflessioni sull'Intelligenza Artificiale e sulle possibilità di ricerca e di intervento "di parte" di Daniele Gambetta in due parti
leggi la prima parte sul sito di DinamoPress
e la seconda parte: "Technic and magic: animismo di piattaforma e svolta linguistica 2.0"
Insieme a centinaia di altri siti di tutto il mondo, il manifesto ha bloccato i software che "alimentano" le enormi banche dati private delle IA
Newsletter N.168 - 24 settembre 2023 a cura di Carola Frediani.
In questo numero:
Juan Carlos De Martin, autore di “Contro lo smartphone. Per una tecnologia più democratica”, sarà ospite del Festival del Pensare contemporaneo il 23 settembre a Piacenza. Il suo intervento verterà sullo smartphone, strumento simbolo del nostro tempo, e sul ruolo che ha nelle vite di tutti. A cominciare dai piccolissimi e dalla scuola. Tanto che la Svezia (e non solo) dall’ed-tech sta iniziando a fare retromarcia
Dispositivi tecnologici che impattano pesantemente sulle nostre vite e il cui controllo è nelle sole mani delle big tech. Algoritmi e sensori che predano i dati di cittadini spesso inconsapevoli, talvolta senza strumenti. La politica che fatica a tenere il passo: scarsa conoscenza, inquadramenti tardivi e qualche volta inefficaci. Eppure il governo della tecnologia ha bisogno della politica e delle democrazie, di decisori e di cittadini.
Cosa ci insegna la storia di ELIZA, il primo chatbot che sembrava conversare come un umano. A partire da come il suo creatore divenne un critico feroce della perdita di autonomia dell’umano.
Tra i tanti ruoli che ChatGPT ha rapidamente iniziato ad assumere nelle vite dei milioni di utenti che lo utilizzano su base quasi quotidiana, ce n’è uno probabilmente inatteso. Per molti, il sistema di OpenAI con cui è possibile conversare su ogni argomento, e spesso in maniera convincente, è diventato un amico, un confidente. Addirittura uno psicologo. Una modalità non prevista (almeno esplicitamente) da OpenAI, ma scelta da un numero non trascurabile di utenti, che si relazionano a ChatGPT come se davvero fosse un analista. Per impedire un utilizzo giudicato (per ragioni che vedremo meglio più avanti) improprio e pericoloso, OpenAI impedisce al suo sistema di intelligenza artificiale generativa di offrire aiuto psicologico, che infatti di fronte a richieste di questo tipo si limita a fornire materiale utile da consultare. Ciò però non ha fermato gli “utenti-pazienti” che, su Reddit, si scambiano trucchi e tecniche per sbloccare ChatGPT affinché fornisca loro consigli psicologici.
Un risvolto che potrebbe sorprendere molti. Uno dei pochi che sicuramente non si sarebbe sorpreso e che avrebbe avuto moltissimo da dire sull’argomento è Joseph Weizenbaum, scienziato informatico e docente al MIT di Boston, scomparso nel 2008. Colui che già parecchi decenni prima della sua morte aveva preconizzato – o meglio, affrontato e approfondito in prima persona – molti degli aspetti che portano le persone a relazionarsi in maniera intima con le macchine e le cause di questo comportamento.
Nell'ultima puntata dell'estate di DataKnightmare, Vannini prende spunto da un paper per porre alcune domande e diversi avvertimenti.
Il paper si pone due domande semplici.
Se l'uso di chat gpt possa veramente migliorare la produttività e se l'uso di chat gpt abbia effetti diversi su lavoratori meno schillati che su lavoratori più schillati.
Le risposte sono chiare.
Con chat gpt il livello medio dei testi migliora e i tempi di produzione si abbassano, quindi siamo autorizzati a dire che la produttività cresce. Inoltre con chat gpt la differenza fra le capacità dei singoli viene fortemente ridotta.
Pur prendendo per buono il risultato del paper, le criticità sono molte.
Tra e altre: avere addestrato le cosiddette intelligenze artificiali in prevalenza su contenuti disponibili in internet, con le virgolette, significa che le intelligenze artificiali sanno scrivere come un marchettaro a cottimo, Perché quelli sono i contenuti prevalenti in internet, marketing, report aziendali senza anima e comunicazione funzionale.
Ieri abbiamo insegnato alle macchine come scrivono gli esseri umani usando come esempio quando gli esseri umani scrivono come macchine.
Il pericolo è che i vari chat gpt diventino il termine di paragone, per cui da domani gli esseri umani dovranno scrivere come macchine per non perdere la competizione contro macchine che scrivono come esseri umani che scrivono come macchine.
Ascolta la puntata e buon ascolto.
In anteprima e in uscita progressiva per i donatori, e poi per i lettori, la monografia di guerre di rete sull'intelligenza artificiale
Guerre di Rete - una newsletter di notizie cyber a cura di Carola Frediani N.167 - 4 settembre 2023
La newsletter riprende con l'annuncio dell’uscita del primo ebook di Guerre di Rete. Si intitola Generazione AI e, indovinate un po’, è dedicato agli ultimi sviluppi dell’intelligenza artificiale generativa, e al loro impatto sulla società, l’economia, la geopolitica. È stato ideato e curato da Carola Frediani, da Sonia Montegiove e da Federico Nejrotti, e i suoi articoli sono firmati da Stefano Casini, Antonio Dini, Carola Frediani, Federica Meta, Giuditta Mosca, Federico Nejrotti, Antonio Piemontese e Andrea Signorelli.
Troverete l’introduzione di Carola Frediani; Andrea Signorelli che racconta la storia del chatbot ELIZA e soprattutto di Joseph Weizenabum, e i suoi riverberi attuali; Antonio Dini ci trasporta in profondità nella “guerra fredda” dell’AI, lo scontro Usa e Cina, e le varie angolature geopolitiche della partita, da Taiwan all’Ucraina; Federica Meta si muove tra Usa, Ue e Cina, tra legislazione e investimenti, e poi analizza alcune delle aziende in campo; Federico Nejrotti racconta e analizza l’impatto dell’AI generativa sul mondo artistico; Giuditta Mosca sviscera un ampio studio, che analizza e critica il ruolo di Big Tech; Antonio Piemontese intervista alcuni esperti fra giornalismo, accademia e politica (Virginia Padovese; Mariarosaria Taddeo; Brando Benifei) sul rischio della generazione automatica di disinformazione; e Stefano Casini descrive alcuni degli strumenti di AI esplosi per il grande pubblico negli ultimi mesi.
Cassandra Crossing/ Com'era prevedibile, ChatGPT evolve verso un'architettura di API e plugin. Questo rappresenta un rischio, perché deresponsabilizza sia chi vende i servizi di GPT4 sia chi li usa.
Circa due mesi fa un annuncio di OpenAI ha reso nota la realizzazione di plugin che consentono di interfacciare ChatGPT con fonti esterne di dati e servizi.
Tecnicamente, si tratta di una API che permette la realizzazione di plugin che interfacciano, anche in maniera bidirezionale, una fonte di dati o un servizio con ChatGPT (per esempio) e viceversa.
In questo modo ChatGPT può utilizzare risorse informative per produrre le sue "risposte". E nella direzione opposta gli "oggetti intelligenti", i servizi e i siti possono far generare testi, programmi e immagini alla falsa IA di turno, e utilizzarli per produrre i risultati o le pagine che devono fornire.
È perfettamente chiaro come questa architettura permetta un immediato inserimento delle false Intelligenze Artificiali nei tessuti profondi della Rete come la conosciamo oggi.