Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Nell'ultima puntata dell'estate di DataKnightmare, Vannini prende spunto da un paper per porre alcune domande e diversi avvertimenti.

Il paper si pone due domande semplici. Se l'uso di chat gpt possa veramente migliorare la produttività e se l'uso di chat gpt abbia effetti diversi su lavoratori meno schillati che su lavoratori più schillati.
Le risposte sono chiare.
Con chat gpt il livello medio dei testi migliora e i tempi di produzione si abbassano, quindi siamo autorizzati a dire che la produttività cresce. Inoltre con chat gpt la differenza fra le capacità dei singoli viene fortemente ridotta.

Pur prendendo per buono il risultato del paper, le criticità sono molte.
Tra e altre: avere addestrato le cosiddette intelligenze artificiali in prevalenza su contenuti disponibili in internet, con le virgolette, significa che le intelligenze artificiali sanno scrivere come un marchettaro a cottimo, Perché quelli sono i contenuti prevalenti in internet, marketing, report aziendali senza anima e comunicazione funzionale.

Ieri abbiamo insegnato alle macchine come scrivono gli esseri umani usando come esempio quando gli esseri umani scrivono come macchine.
Il pericolo è che i vari chat gpt diventino il termine di paragone, per cui da domani gli esseri umani dovranno scrivere come macchine per non perdere la competizione contro macchine che scrivono come esseri umani che scrivono come macchine.

Ascolta la puntata e buon ascolto.

In anteprima e in uscita progressiva per i donatori, e poi per i lettori, la monografia di guerre di rete sull'intelligenza artificiale

Guerre di Rete - una newsletter di notizie cyber a cura di Carola Frediani N.167 - 4 settembre 2023

La newsletter riprende con l'annuncio dell’uscita del primo ebook di Guerre di Rete. Si intitola Generazione AI e, indovinate un po’, è dedicato agli ultimi sviluppi dell’intelligenza artificiale generativa, e al loro impatto sulla società, l’economia, la geopolitica. È stato ideato e curato da Carola Frediani, da Sonia Montegiove e da Federico Nejrotti, e i suoi articoli sono firmati da Stefano Casini, Antonio Dini, Carola Frediani, Federica Meta, Giuditta Mosca, Federico Nejrotti, Antonio Piemontese e Andrea Signorelli.

Troverete l’introduzione di Carola Frediani; Andrea Signorelli che racconta la storia del chatbot ELIZA e soprattutto di Joseph Weizenabum, e i suoi riverberi attuali; Antonio Dini ci trasporta in profondità nella “guerra fredda” dell’AI, lo scontro Usa e Cina, e le varie angolature geopolitiche della partita, da Taiwan all’Ucraina; Federica Meta si muove tra Usa, Ue e Cina, tra legislazione e investimenti, e poi analizza alcune delle aziende in campo; Federico Nejrotti racconta e analizza l’impatto dell’AI generativa sul mondo artistico; Giuditta Mosca sviscera un ampio studio, che analizza e critica il ruolo di Big Tech; Antonio Piemontese intervista alcuni esperti fra giornalismo, accademia e politica (Virginia Padovese; Mariarosaria Taddeo; Brando Benifei) sul rischio della generazione automatica di disinformazione; e Stefano Casini descrive alcuni degli strumenti di AI esplosi per il grande pubblico negli ultimi mesi.

Leggi l'introduzione di Frediani sul sito di Guerre di Rete

Cassandra Crossing/ Com'era prevedibile, ChatGPT evolve verso un'architettura di API e plugin. Questo rappresenta un rischio, perché deresponsabilizza sia chi vende i servizi di GPT4 sia chi li usa.

Circa due mesi fa un annuncio di OpenAI ha reso nota la realizzazione di plugin che consentono di interfacciare ChatGPT con fonti esterne di dati e servizi.

Tecnicamente, si tratta di una API che permette la realizzazione di plugin che interfacciano, anche in maniera bidirezionale, una fonte di dati o un servizio con ChatGPT (per esempio) e viceversa.

In questo modo ChatGPT può utilizzare risorse informative per produrre le sue "risposte". E nella direzione opposta gli "oggetti intelligenti", i servizi e i siti possono far generare testi, programmi e immagini alla falsa IA di turno, e utilizzarli per produrre i risultati o le pagine che devono fornire.

È perfettamente chiaro come questa architettura permetta un immediato inserimento delle false Intelligenze Artificiali nei tessuti profondi della Rete come la conosciamo oggi.

Leggi l'articolo completo su ZEUS News

Nella puntata del 16 luglio, un'ospite speciale ci aiuta a capire meglio le implicazioni più sottili dell'approccio "big data" (basato cioè sull'accumulazione di archivi di dati caratterizzati dalla quantità prima che dalla qualità) nello specifico della linguistica.

Puntata con focus sui problemi più prettamente linguistici, osservando come i modelli di intelligenza artificiale che generano testo (insomma i vari ChatGPT) creano a tutti gli effetti la lingua; la raccolta di dati "a strascico", lungi dall'essere un metodo per ascoltare tutte le voci si dimostra un modo per selezionare le voci legittime; così, quello che poteva sembrare un problema semplice per un algoritmo innocuo apre il problema, per niente banale, della rappresentazione.

Lo facciamo seguendo, in parte, l'articolo che è costato il licenziamento di Timnit Gebru e accompagnati da musiche centroasiatiche.

Ascolta la puntata sul sito di Radio Onda Rossa

Le immagini che metti sui socialnework sono molto più di un ricordo. Il video che ogni genitore dovrebbe guardare

Il 75% dei genitori condivide immagini e dati dei propri figli sui social media. Otto genitori su 10 sono seguiti sui propri social da gente che conoscono e non hanno mai incontrato. Inizia così un video targato Telekom, uno dei maggiori operatori di telecomunicazione tedeschi - ma questo conta poco o, forse nulla perché i suoi contenuti non riguardano un prodotto o un servizio commerciale – tutti, da genitori, dovremmo guardare e riguardare.

La storia raccontata nel video è quella di Ella, una bambina di 9 anni, i cui genitori, appartengono a quel 75% che usa condividere foto, video e dati dei propri figli online, momenti e scene di vita vissuta innocenti, naturali, magari semplici ricordi.

Leggi l'articolo di Guido Scorza

Guarda il video su youtube

Smontare l’”illusione quantitativa” con cui un certo fanatismo tecnologico guarda al linguaggio, e in particolare la traduzione, non è difficile

Appreso dal capo di una grande società italiana di traduzione automatica, nel corso di un recente convegno al Senato, che entro cinque anni il suo lavoro verrà svolto dall’intelligenza artificiale, Silvia Pareschi, nota traduttrice, ha reagito rilasciando un’intervista su La Stampa che nei giorni scorsi ha fatto molto discutere.

Il rischio – ha detto – è che ci si abitui gradualmente e inconsapevolmente a traduzioni automatiche a basso costo di qualità scadente, non accorgendosi dei danni che questo arrecherà al pensiero umano, così come la rana non si accorge che l’acqua in cui nuota è quella di una pentola che sta sul fuoco. Si tratta di un allarme giustificato?

Puntata andata in onda il 13 luglio.

Accanto ai disastri e agli abusi di cui si parla tanto, nell'intelligenza artificiale ci sono moltissimi episodi di uso positivo e costruttivo, già adottabili in pratica nel lavoro di tutti i giorni di tantissime persone. Dalla semplice scrittura di una mail fino all’aiuto alle persone con disabilità, ecco una rassegna ragionata di applicazioni utili, insieme alla storia di un "ostacolo inatteso" nella corsa frenetica allo sviluppo di questa tecnologia, con i due semplici criteri che permettono di decidere se un uso dell’IA è buono o cattivo.

Ascolta l'audio della puntata di Paolo Attivissimo sulla Radiotelevisione Svizzera

La città impone alle aziende che usano la Ai per le assunzioni di non discriminare sulla base di razza e genere

Le aziende di New York City che utilizzano dei programmi d’intelligenza artificiale per gestire le assunzioni dovranno dimostrare che il software che impiegano non segue criteri discriminatori, sessisti o razzisti. Questa nuova legge, entrata in vigore mercoledì, è la prima al mondo del suo genere, e sicuramente detterà la linea da seguire per le aziende che vogliono avvalersi dell’ausilio di intelligenze artificiali per assumere personale

Questi software, chiamati automatic employment decision tool, strumento di decisione automatica sull’occupazione, o Aedt, hanno la funzione sia di segnalare i candidati promettenti, che di scartare quelli ritenuti non idonei, aprendo così la strada a tutta una serie di preoccupazioni riguardanti i criteri di valutazione delle intelligenze artificiali. Una donna in età fertile è una candidata appetibile al pari di un uomo della stessa età? E una persona non bianca?

Leggi l'articolo su "Il Manifesto"

In questo podcast uno scambio di opinioni sull'AI Act con l'ospite speciale Alessandro Longo, direttore responsabile di agendadigitale.eu. l'AI Act è il regolamento Europeo per l'intelligenza artificiale, il primo al mondo. E' stato approvato dal Parlamento Europeo ed è l'inizio di una nuova negoziazione con le altre due istituzioni - Commissione e Consiglio. Non è ancora la versione definitiva, né è ancora in vigore.

Diversi spunti interessanti a cominciare dalla mancanza di regolamentazione delle applicazioni di intelligenza artificiale per applicazioni di tipo militare. Il secondo punto di attenzione è la questione dell'appropriazione dei dati pubblicati nel web, poiché il fatto che siano accessibili a tutti non vuol dire automaticamente che siano utilizabili per l'addestramento di AI senza consenso.

E poi c'è una questione che non è legata direttamente al regolamento: "l'intelligenza artificiale cambierà tutto in un momento in cui non siamo sicuri che quelli che rischiano di rimanere indietro siano in grado invece di avere voce in capitolo e quindi non siamo sicuri che tutta questa grande rivoluzione poi porterà benessere a tutti".

Ascolta il podcast

Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori.

Quando sono stati annunciati pubblicamente i primi software di intelligenza artificiale capaci di generare immagini e testi, per molti imprenditori la reazione istintiva è stata un entusiasmo sconfinato di fronte all’idea di poter tagliare i costi di produzione dei contenuti mettendo al lavoro questi nuovi servitori digitali al posto delle persone. Ma per molti altri, anche non esperti di informatica, la reazione è stata ben diversa. Paura, pura e semplice. Paura per il proprio posto di lavoro e paura per i possibili abusi, facilmente prevedibili, di questa tecnologia.

Questa è la storia di come quella paura del possibile è oggi diventata reale, raccontata attraverso tre casi recenti che sono un campanello d’allarme urgente. Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori. La politica nazionale e internazionale si china su queste questioni con i suoi tempi inevitabilmente lunghi, ma nel frattempo i danni personali e sociali sono già gravi e tangibili, ed è decisamente il momento di chiedersi se si possa fare qualcosa di più di un coro tedioso di meritatissimi “Ve l’avevamo detto”.

Benvenuti alla puntata del 30 giugno 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane – e questa settimana inquietanti – dell’informatica. Io sono Paolo Attivissimo.

Ascolta il podcast sul blog di Paolo Attivissimo