Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Giovedì 21 marzo alle ore 17:00 nel coworking Dialogue Place (Napoli) incontreremo l'aurore del libro L'intelligenza Inesistente. Un approccio conviviale all’intelligenza artificiale (Altreconomia 2023).

Con l'autore dialogheranno: Josè Compagnone, Web and Design Anthropologist fondatore di Goodea, Cristina Mele, ordinario Economia e innovazione dei servizi UNINA. Modera: Dana Cappiello, PM di Project Ahead. Discussione aperta, con interventi del pubblico.

Un'occasione fantastica per misurarci sul tema dell'AI, comprendendone i pro e i contro, per provare a immaginare e costruire tecnologie alternative, che promuovano la convivialità e la partecipazione diffusa, a scuola come nella società.

Maggiori informazioni sul sito di Dialogue Place

Cassandra Crossing/ Perché un dettaglio tecnico delle false IA, per giunta di tipo matematico, dovrebbe essere conosciuto da tutti?

Il collasso di un modello di LLM avviene quando un modello, addestrato sui dati generati da generazioni precedenti di modelli, inizia a perdere informazioni, particolarmente sulle code della distribuzione statistica dei dati originali, e alla fine converge verso una stima a punto singolo, con poca varianza statistica (in soldoni, fornisce sempre la stessa risposta a qualsiasi domanda).

Leggi l'articolo su ZEUS News

Giovedì 29 febbraio a Roma, in Via della Dogana Vecchia 5, dalle ore 17:30 alle 19:30, il terzo incontro del ciclo "L’intelligenza artificiale che genera testi e che predice il futuro", organizzato dalla Scuola critica del digitale del CRS e dal ForumDD. Conversazione con Daniela Tafani.

I sistemi di apprendimento automatico sono utilizzati oggi per prevedere il futuro di singoli individui, e assumere decisioni conseguenti: gli studenti vengono valutati sulla base del voto che si prevede riceverebbero se sostenessero l’esame, i candidati a un posto di lavoro vengono assunti o scartati sulla base di una previsione della loro futura produttività e la polizia si affida a statistiche automatizzate per prevedere chi commetterà un crimine o dove un crimine verrà commesso, e agire di conseguenza.

Tali sistemi non sono in realtà in grado di prevedere il futuro di singole persone, per la semplice ragione che ciò non è possibile.

Leggi tutte le informazioni

Google ha dovuto sospendere la funzione di Gemini di generare immagini dopo essere stato accusato di negare la realtà storica rappresentando come nere figure che storicamente non potevano esserlo. Ecco come nel tentativo di superare gli stereotipi razziali e di genere, il chatbot è finito nei guai.

Forse le intenzioni erano buone, ma i risultati non lo sono stati affatto. Così, oltre a scusarsi, Google ha deciso di sospendere il generatore di immagini della sua intelligenza artificiale Gemini, dopo essere finito al centro della polemica per aver creato una serie di immagini storiche che sono state accusate di "revisionismo storico". Ma cos'è successo?

Continua sul sito di Fanpage

Puntata 16 di EM, quarta del ciclo tecnologico Estrattivisimo dei dati, parliamo di Intelligenza Artificiale e lavoro, con un ospite, Antonio Casilli, docente di sociologia presso Télécom Paris, la scuola di ingegneria delle telecomunicazioni del Politecnico di Parigi.

Nella prima parte della trasmissione passiamo in rassegna, con una serie di esempi, il ruolo dell'IA nel mondo del lavoro, tra parcellizzazione, cottimo e sfruttamento nel Sud del Mondo, sfatando miti e smascherando retoriche pericolose.

Nella seconda parte analizziamo in particolare la precarizzazione del lavoro con l'IA, click work, micro task, uberizzazione, anche in relazione alla fornitura di lavoro gratuito e dati da parte degli utenti del web nel Nord del Mondo, utilizzati poi anche per l'addestramento delle IA. Introduciamo anche la necessità di redistribuire il surplus derivante dall'estremo aumento di efficienza attraverso l'introduzione di un reddito universale di cittadinanza.

Nella terza parte proviamo a parlare di futuro del lavoro, di opportunità e limiti per una mobilizzazione dei laboratori nel Nord e nel Sud del Mondo e delle nuove sfide che ci attendono.

Ascolta l'audio sul sito di Radio Onda Rossa

Venerdì 1 marzo alle ore 18.00 a Torino, presso la Libreria Trebisonda di Via Sant’Anselmo, 22, un booktandem con Stefano Borroni Barale, autore, per i nostri tipi, di “L’intelligenza inesistente” e Vittorio Bertola, autore di “Internet fatta a pezzi” (Bollati Boringhieri) per discutere delle dinamiche che hanno stritolato Internet prima e ora rischiano di stritolare l’intelligenza artificiale.

Leggi tutto sul sito di Altreconomia

Domenica 10 marzo ore 10.30 a Milano. All’interno dell’edizione 2024 di Book Pride Milano, in Sala Atene, una presentazione di “L’intelligenza artificiale” di Stefano Borroni Barale.

Leggi tutto sul sito di Altreconomia

Fragili dal punto di vista sia tecnico sia organizzativo. Si presentano così le aziende sanitarie italiane di fronte agli attacchi informatici, per lo più di tipo ransomware (cioè diretti al pagamento di un riscatto), dei gruppi criminali internazionali che, ormai da anni, le prendono di mira. La conseguenza è la pubblicazione di informazioni estremamente sensibili riguardanti migliaia di cittadini.

Secondo quanto è stato possibile ricostruire da Guerre di Rete, attraverso le informazioni rilasciate sui siti ufficiali delle cyber gang, solo negli ultimi due mesi del 2023 sono stati diffusi oltre 1,5 terabyte di dati sanitari (circa due milioni di file) sottratti a diverse strutture del nostro Paese. Dati che includono cartelle cliniche, fotografie di pazienti affetti da tumori cutanei, referti di abusi sessuali, esami per le malattie ereditarie, e liste dei vaccinati al Covid-19. Stando alle nostre fonti, alcuni file contengono persino nome, cognome e data di nascita di persone che sono state assistite dai centri di salute mentale, o dai servizi per le dipendenze patologiche. Un patrimonio enorme pubblicato sul dark web, la parte della Rete a cui si può accedere tramite specifici software, e che è alla portata di tutti.

Leggi sul sito di Guerre di Rete

Leggi anche la newsletter di Guerre di rete del 28 gennaio

È come il romanzo di Charles Dickens, Racconto di due città. Da una parte l’Italia, che sembra aver capito d’un tratto l’importanza degli investimenti nel settore dei semiconduttori e le Zone Economiche Speciali (Zes) per il Mezzogiorno – ovvero aree geografiche che offrono una serie di incentivi, agevolazioni e semplificazioni amministrative alle imprese che stabiliscano lì la propria sede. E dall’altro l’Irlanda, che ha incassato per più di sessant’anni il dividendo delle Zes e da più di trenta quello della produzione di semiconduttori. Due storie parallele che, almeno nelle aspirazioni della politica italiana, dovrebbero a un certo punto diventare convergenti. Ma non è chiaro con quali tempi.

Leggi l'articolo sul sito "Guerre di rete"

Leggi anche la newsletter di questa settimana curata da Carola Frediani.

In questo numero:

  • Una guida all’AI Watermarking
  • OpenAI si prepare alle elezioni
  • Interferenze GPS sul Baltico
  • I microchips fanno gola all’Europa e all’Italia

C’è stato Pegasus project, poi Predator files. Le inchieste giornalistiche transnazionali che documentano la sorveglianza illegale su giornalisti, politici, dissidenti e attivisti sono sotto gli occhi di tutta l’Unione Europea. Eppure, a distanza di quasi due anni dalla nascita della commissione Pega – la commissione d’inchiesta istituita dal Parlamento Ue per “indagare sull’uso di Pegasus e altri spyware”, uno sforzo politico non indifferente per gli standard di Strasburgo – poco sembra essere cambiato.

leggi l'articolo su "Guerre di rete"

Leggi anche la newsletter di Carola Frediani

In questo numero:

  • Cyber armi, da Stuxnet all’Ucraina
  • Come armare i video delle celebrità
  • AI e lavoratori
  • L’Europa e gli spyware
  • L’attacco alla British Library allarma le istituzioni culturali
  • E altro

Il nuovo presidente della Commissione algoritmi

Con la conferenza stampa di inizio anno della premier, la classe dirigente della destra meloniana ha perso un pistolero e imbarcato un frate. È il francescano cinquantenne Paolo Benanti, messo in quattro e quattr’otto a capo della cosiddetta «commissione algoritmi» al posto di Giuliano Amato dal sottosegretario Alberto Barachini. La commissione dovrà consigliare il governo sulle norme in materia di tecnologie digitali e informazione. È un doppione di un’altra commissione governativa sullo stesso tema nominata dall’altro sottosegretario Alessio Butti. Per non sbagliarsi, Benanti fa parte anche di quella.

In molti hanno storto il naso: chiedere a un sacerdote di regolare le nuove tecnologie è un oscurantismo da ayatollah. Macché, hanno risposto gli altri (non solo da destra): rispetto all’ottantacinquenne Amato, il religioso è giovane e competente. Benanti è un prete, ma anche uno studioso di «altissimo profilo», «esperto della materia e unico italiano componente del Comitato sull’Intelligenza artificiale delle Nazioni Unite».

Leggi l'articolo su "Il Manifesto"

Mentre i miliardari proprietari delle società tech discutono dell’avvento di un’improbabile “singolarità”, uno scenario fantascientifico dove le macchine conquisteranno l’umanità, l’intelligenza “artificiale” si basa in realtà ancora sui lavoratori del Sud del mondo. Impegnati in mansioni sottopagate e non regolamentate

[...]

Negli stessi giorni in cui i giornali erano intasati da questa telenovela, mi sono ritrovato a seguire online un’interessante conferenza dal titolo “Come l’Ai promuove le diseguaglianze a livello globale”, tenuta presso l’Università di Groninga in Olanda. Dopo due anni di studi sul campo in America Latina e Africa, questi erano i dati raccolti dai ricercatori. La tecnologia che chiamiamo Ai si basa sui “minitask” come l’etichettatura manuale dei dati (e su questo è d’accordo anche più d’uno degli “entusiasti” dell’Ai, solo che lo considerano un problema da risolvere attraverso le prossime generazioni di sistemi di intelligenza artificiale). Contrariamente a quanto sostengono in Silicon Valley questi lavori non stanno diminuendo al crescere delle capacità dell’Ai (che, quindi, non sembra diventare più “intelligente” al passare degli anni), bensì sono in crescita esponenziale. L’intelligenza su cui si basano sembra avere origine molto più umana che artificiale.

Leggi l'articolo di Stefano Borroni Barale

Stakka Stakka del 20 dicembre ha intervistato Stefano Borroni Barale, autore del libro "L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale"

Ma perché tutti parlano di Ai? Perché è un'eccezionale operazione di marketing: una delle meglio organizzate degli ultimi anni. Su questa le imprese della Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend negativo fatto di tagli al personale e cambi drastici dei loro programmi di sviluppo. Per comprendere quali siano le aspettative di queste aziende - e quali dovrebbero essere le nostre - in questo libro si ricostruiscono le tappe, le intuizioni e i paradossi che hanno attraversato la comunità scientifica, provando a tracciare una linea che collega Alan Turing, primo sostenitore dell'Ai forte, con i creatori di ChatGPT, il software in grado di sostenere un dialogo credibile con un essere umano. Che cosa verrà da qui in avanti non lo sappiamo, e per scoprirlo non ci aiuterà una tecnologia che basa le sue previsioni sull'ipotesi che il futuro sarà una replica di quanto accaduto nel passato. Comprendere questo fenomeno, però, può aiutarci a costruire tecnologie alternative, che promuovano la convivialità e la partecipazione diffusa, a scuola come nella società.

Ascolta l'intervista sul sito di Radio Backout

Newsletter di dicembre 2023 dedicata ai consigli di lettura.

Durante le vacanze invernali si ha più tempo per dedicarsi ai propri piaceri.

In questo numero della newsletter troverete alcuni consigli di libri da leggere e/o regalare. Alcuni sono dedicati all'Intelligenza Artificiale, hype del momento, altri trattano differenti aspetti del digitale, sempre con approccio critico e spesso demistificando i luoghi comuni che ne accompagnano la narrazione.

In fondo trovate un bonus track: un libro che non riguarda il digitale, ma merita di essere letto.

Buon anno nuovo!

Leggi la newsletter

È ora disponibile il n. 25 de La ricerca con un contributo di C.I.R.C.E dal titolo "Hacking IA". La rivista è disponibile interamente online e il cartaceo è in distribuzione nelle scuole secondarie di primo e di secondo grado.

È online il pdf integrale ed è in distribuzione il numero 25 de La ricerca, “Uomini e bot”, in cui si ragiona sulle intelligenze artificiali, o «assistenti artificiali ad attività cognitive mediante prestazioni che imitano quelle umane» e basate su LLM, Large Language Models, ma anche sui programmi TTI, Text-to-image, o Text-to-video.

Per saperne di più vai sul sito di CIRCE

"Tecniche e Miti: le trappole dell'intelligenza artificiale" è un e-BOOK de Gli Asini che vuole tracciare un percorso critico che metta in luce le problematiche dell'hype che accompagna il machine learning. Per farlo è necessario indagare l’IA da diversi punti di osservazione. Al numero ha contribuito come C.I.R.C.E. con l'articolo "Nuove intelligenze, vecchi pregiudizi."

Sull'Intelligenza Artificiale scrive la redazione: "In primo luogo proviamo a smontarne i meccanismi, mettendo in discussione la stessa denominazione: si tratta infatti di un apparato tecnologico che non è “intelligente” né “artificiale”.

Per saperne di più vai sul sito di C.I.R.C.E.

Giovedì 14 dicembre alle ore 17.00 si terrà il seminario “Dalla DAD sostitutiva all’intelligenza artificiale a scuola” organizzato da CUB Scuola Università e Ricerca Torino.

Il mondo della scuola è investito dalle parole d’ordine del marketing digitale: DAD, Social, intelligenza artificiale, coding, scratch, pensiero computazionale… le novità si susseguono con ritmo battente.

La spinta del Piano Scuola 4.0, con la sua formazione “obbligatoria”, sembra voler imporre l’adozione in fretta e furia di tutto quello che le imprese del digitale mettono a disposizione.

Come fare? Respingere del tutto l’offerta di ‘novità’? L’avanzata della tecnologia è inarrestabile come uno tsunami? Non esistono tempi e modi alternativi, più conviviali?

Insieme a Carlo Milani e Stefano Borroni Barale proveremo a rispondere ad alcune di queste domande, insieme all’imperdibile dilemma: “Ma davvero ChatGPT segna la fine dei compiti a casa?”

Carlo Milani, PhD. Saggista e formatore attivo a livello internazionale con CIRCE (Centro Internazionale di Ricerca sulle Convivialità Elettriche: www.circex.org). Pratica quotidianamente la pedagogia hacker in corsi di formazione rivolti a docenti e allievi delle scuole di ogni ordine e grado. Scrive da anni di questi temi sia a livello accademico che divulgativo. Il suo ultimo libro è “Tecnologie conviviali” (Eleuthera, 2022).

Stefano Borroni Barale. Fisico, docente di informatica e formatore sindacale sulle nuove tecnologie. Ha scritto per Altreconomia “Come passare al software libero e vivere felici” (2003), uno dei primi manuali sul tema. Il suo ultimo libro è “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (Altreconomia, 2023).

Dove: Corso Marconi 34, Torino – 2° Piano (Sede CUB SUR) Quando: Giovedì 14 Dicembre 2023 ore 17-18.30 Per chi: docenti e genitori di allievi delle superiori Come: partecipazione gratuita fino ad esaurimento posti, prenotazione obbligatoria

Form di prenotazione: https://dadia.vado.li/
giovedì 14 Dicembre 2023 ore 17:00 - 18:30

L’editore tedesco rivoluziona l’app internazionale di notizie upday e chiude la redazione italiana, licenziandone i redattori. Un caso su presente e futuro dell’informazione

Un «nuovo generatore di notizie di tendenza guidato esclusivamente dall’intelligenza artificiale» sostituirà il lavoro dei giornalisti in carne e ossa.

Mentre l’Unione europea ha varato l’Ai Act, prima legge al mondo sull’intelligenza artificiale, arriva la notizia che non è uno scenario fantascientifico di una serie tv ma la realtà di upday, app e sito internazionale di notizie che ha una testata registrata anche in Italia.

Leggi l'articolo

È la prima volta che i ricercatori calcolano le emissioni di anidride carbonica causate dall’utilizzo di un modello di intelligenza artificiale per diversi compiti. OpenAI, Microsoft, Google… quando soluzioni AI più green?

Ogni volta che usiamo l’AI per generare un’immagine, scrivere un’e-mail o fare una domanda a un chatbot, ha un costo per il pianeta.

Infatti, generare un’immagine utilizzando un potente modello di intelligenza artificiale richiede tanta energia quanto caricare completamente il tuo smartphone, secondo lo studio dei ricercatori della startup di intelligenza artificiale Hugging Face e della Carnegie Mellon University.

Leggi l'articolo

Prima di ogni raid, Israele è a conoscenza di quanti saranno i cosiddetti “danni collaterali”, ossia il numero di vittime civili che resteranno uccise in quell’operazione. È quanto rivela un’inchiesta realizzata dal magazine +972 insieme a Local Call, che si basa sulle testimonianze anonime di attuali ed ex membri dell'intelligence militare israeliana, ma anche su dati e documenti provenienti dalla Striscia di Gaza. “Nulla accade per caso”, ha spiegato una fonte che ha preferito rimanere anonima. “Quando una bambina di 3 anni viene uccisa in una casa a Gaza è perché qualcuno nell’esercito ha deciso che non era un grosso problema, che era un prezzo da pagare per colpire un altro obiettivo. Noi non siamo Hamas. Questi non sono razzi casuali. Tutto è intenzionale. Sappiamo esattamente ‘quanti danni’ collaterali ci sono in ogni casa”.

Tutto questo è possibile grazie a un software basato sull’intelligenza artificiale che permette di “generare” target da colpire a un ritmo molto più veloce di quello che era possibile fare in precedenza. Il programma si chiama Habsora, “il Vangelo”: un ex ufficiale dei servizi segreti ha dichiarato che questo sistema contribuisce a creare a Gaza una “fabbrica di uccisioni di massa”, in cui il focus “è sulla quantità e non sulla qualità”.

Leggi l'articolo completo su Valigia Blu

Sul Guardian altre informazioni sul funzionamento dell'AI usata dall'esercito Israeliano

Se l'inglese come lingua franca è molto diffusa, permettendo di allenare IA inglesi in gran parte del mondo (anche a costi irrisori in condizioni di sfruttamento), non è lo stesso per lingue come il finlandese: è per questo che la compagnia finlandese Metroc allena il suo modello linguistico tra le carceri del Paese.

Da un lato c'è chi ritiene questo lavoro (€1,54 all'ora) uno fra tanti che offre il carcere, che non sfrutta gente nel terzo mondo (vedasi OpenAI in Kenia (https://t.me/eticadigitale/753)) e che permette di mantenere vivo il patrimonio linguistico-culturale, senza lasciare il predominio linguistico ed economico all'inglese.

Dall'altro c'è invece chi critica come Metroc faccia milioni sottopagando carceratɜ, temendo che la mancanza di freni possa portare a far fare loro lavori del clic provanti, come l'esposizione a immagini disturbanti per etichettarle (vedasi Facebook, sempre in Kenia (https://t.me/eticadigitale/592))

Leggi l'articolo su Wired.com