Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Siete stanche/i dei soliti esperti che, su Facebook, lanciano allarmi perché adottiate nel minor tempo possibile "l'intelligenza artificiale a scuola" senza sapere nemmeno bene cosa sia?

Giovedì 11 aprile avranno luogo due eventi per comprendere davvero cosa sia l'intelligenza artificiale e come sia possibile insegnarla, quali strumenti siano davvero pronti per essere adottati (e quali no).
Affronteremo la storia del fenomeno, la differenza di scala (e di retaggio) tra le tecnologie industriali e quelle conviviali e come queste differenze interagiscano con la società e con la scuola.

ONLINE DALLE 14.30 alle 16.30
Per saperne di più

DAL VIVO ALLA LIBRERIA OOLP di Torino, Via Maria Vittoria 36 ore 18.00
Per saperne di più

L'algoritmo. Il Manifesto pubblica l'inchiesta dei siti di informazione israeliani +972 e Local Call: l’intelligenza artificiale dietro il massacro di Gaza. 37mila palestinesi «marcati» dalla Ia e colpiti nelle loro case. Poca o nulla supervisione umana: «Per l’assassinio dei comandanti senior, si era disposti a uccidere centinaia di civili. Avevamo un calcolo: quanti per un comandante di brigata, quanti per uno di battaglione»

Nel 2021 è stato pubblicato in inglese un libro intitolato The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World, sotto lo pseudonimo «Brigadier General Y.S.». In esso, l’autore – un uomo che abbiamo confermato essere l’attuale comandante dell’unità di intelligence d’elite israeliana 8200 – sostiene la necessità di creare una macchina speciale, in grado di processare rapidamente enormi quantità di dati per generare migliaia di potenziali «obiettivi» per gli attacchi militari nel mezzo di una guerra. Una tecnologia del genere, scrive, risolverebbe quelle che ha descritto come «strettoie umane, sia nell’individuazione di nuovi obiettivi che nel processo decisionale per approvarli».

Una tale macchina, si è scoperto, esiste davvero.

Una nuova inchiesta condotta da +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come Lavender, di cui qui si scrive per la prima volta.

Leggi l'articolo

L’AI di massa, che tutto sommato è ancora da venire e dimostrare, avanza per supernove. La propulsione è quella di capitali ingentissimi e ad ogni passo semina morte e distruzione su chiunque altro ci abbia provato.

Iniziò allo stesso modo di tante storie incidentali, il 30 Novembre 2022 partì l’AI Race.

La bandiera a scacchi la diede un servizio di un’azienda poco nota, la OpenAI che lo aprì al pubblico con il nome di ChatGPT. L’AI è una materia che riguarda la scienza dell’informazione, molto più antica di questo software, ma l’effetto WoW fu così forte che segnò di per se una pietra miliare per l’intero settore. La profonda influenza di questo prodotto, soprattutto nella versione del lancio, non riguardava le effettive capacità, quanto piuttosto l’interesse del pubblico che attirava.

Leggi l'articolo

Obiettivi e lacune della prima legge al mondo sull'intelligenza artificiale

Con 523 voti favorevoli, 46 contrari e 49 astensioni, dopo un lungo e travagliato iter nel quale talvolta sembrava di essere a un vicolo cieco, ieri il Parlamento europeo ha approvato l’AI Act, la prima regolamentazione al mondo sugli utilizzi dell’intelligenza artificiale e dei sistemi basati su questa tecnologia. Composto di 113 articoli e 12 allegati, il documento si propone di proteggere diritti fondamentali e la sostenibilità ambientale, mantenendo l’obiettivo di facilitare e promuovere la crescita di competitor europei ai colossi statunitensi.

L’articolo 3 è quello che definisce cosa si intende per intelligenza artificiale, ovvero «un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia» e che dalle previsioni e dai contenuti generati «può influenzare ambienti fisici o virtuali». La definizione non si applica quindi ai sistemi di software tradizionali o agli approcci che si basano su regole predefinite.

Leggi l'articolo

Giovedì 21 marzo alle ore 17:00 nel coworking Dialogue Place (Napoli) incontreremo l'aurore del libro L'intelligenza Inesistente. Un approccio conviviale all’intelligenza artificiale (Altreconomia 2023).

Con l'autore dialogheranno: Josè Compagnone, Web and Design Anthropologist fondatore di Goodea, Cristina Mele, ordinario Economia e innovazione dei servizi UNINA. Modera: Dana Cappiello, PM di Project Ahead. Discussione aperta, con interventi del pubblico.

Un'occasione fantastica per misurarci sul tema dell'AI, comprendendone i pro e i contro, per provare a immaginare e costruire tecnologie alternative, che promuovano la convivialità e la partecipazione diffusa, a scuola come nella società.

Maggiori informazioni sul sito di Dialogue Place

Cassandra Crossing/ Perché un dettaglio tecnico delle false IA, per giunta di tipo matematico, dovrebbe essere conosciuto da tutti?

Il collasso di un modello di LLM avviene quando un modello, addestrato sui dati generati da generazioni precedenti di modelli, inizia a perdere informazioni, particolarmente sulle code della distribuzione statistica dei dati originali, e alla fine converge verso una stima a punto singolo, con poca varianza statistica (in soldoni, fornisce sempre la stessa risposta a qualsiasi domanda).

Leggi l'articolo su ZEUS News

Giovedì 29 febbraio a Roma, in Via della Dogana Vecchia 5, dalle ore 17:30 alle 19:30, il terzo incontro del ciclo "L’intelligenza artificiale che genera testi e che predice il futuro", organizzato dalla Scuola critica del digitale del CRS e dal ForumDD. Conversazione con Daniela Tafani.

I sistemi di apprendimento automatico sono utilizzati oggi per prevedere il futuro di singoli individui, e assumere decisioni conseguenti: gli studenti vengono valutati sulla base del voto che si prevede riceverebbero se sostenessero l’esame, i candidati a un posto di lavoro vengono assunti o scartati sulla base di una previsione della loro futura produttività e la polizia si affida a statistiche automatizzate per prevedere chi commetterà un crimine o dove un crimine verrà commesso, e agire di conseguenza.

Tali sistemi non sono in realtà in grado di prevedere il futuro di singole persone, per la semplice ragione che ciò non è possibile.

Leggi tutte le informazioni

Google ha dovuto sospendere la funzione di Gemini di generare immagini dopo essere stato accusato di negare la realtà storica rappresentando come nere figure che storicamente non potevano esserlo. Ecco come nel tentativo di superare gli stereotipi razziali e di genere, il chatbot è finito nei guai.

Forse le intenzioni erano buone, ma i risultati non lo sono stati affatto. Così, oltre a scusarsi, Google ha deciso di sospendere il generatore di immagini della sua intelligenza artificiale Gemini, dopo essere finito al centro della polemica per aver creato una serie di immagini storiche che sono state accusate di "revisionismo storico". Ma cos'è successo?

Continua sul sito di Fanpage

La crescita dell’AI ha riproposto il dibattito sul Reddito di Base Universale

Da sempre, gli interessi economici hanno trainato lo sviluppo e l’implementazione delle tecnologie di automazione, e da sempre la società civile ha cercato di partecipare alla conversazione sulle politiche relative al loro uso.

Chi beneficia dell’introduzione di una tecnologia nel processo lavorativo? Come riconfigura i rapporti con la forza lavoro? Cosa faranno i lavoratori che verranno rimpiazzati? Sarà possibile formarli nuovamente? O questi sviluppi tecnologici sono il preludio di una spirale di precarizzazione sistemica?

Tutte queste domande (e molte, molte altre) giocano un ruolo politico decisivo nelle economie di tutto il mondo. L’opinione pubblica che si genera attorno a esse rappresenta un equilibrio fondamentale, e la stessa idea sulle capacità effettive di una tecnologia, su come si possa sviluppare e come sia in grado di riconfigurare i rapporti di forza condiziona le scelte politiche, per cui diventa un tema delicato anche dal punto di vista propagandistico (come nel caso del cosiddetto AI doomerism).

leggi l'articolo sul sito di Guerre di Rete

Leggi anche l'ultimo numero della newsletter di Carola Frediani

Puntata 16 di EM, quarta del ciclo tecnologico Estrattivisimo dei dati, parliamo di Intelligenza Artificiale e lavoro, con un ospite, Antonio Casilli, docente di sociologia presso Télécom Paris, la scuola di ingegneria delle telecomunicazioni del Politecnico di Parigi.

Nella prima parte della trasmissione passiamo in rassegna, con una serie di esempi, il ruolo dell'IA nel mondo del lavoro, tra parcellizzazione, cottimo e sfruttamento nel Sud del Mondo, sfatando miti e smascherando retoriche pericolose.

Nella seconda parte analizziamo in particolare la precarizzazione del lavoro con l'IA, click work, micro task, uberizzazione, anche in relazione alla fornitura di lavoro gratuito e dati da parte degli utenti del web nel Nord del Mondo, utilizzati poi anche per l'addestramento delle IA. Introduciamo anche la necessità di redistribuire il surplus derivante dall'estremo aumento di efficienza attraverso l'introduzione di un reddito universale di cittadinanza.

Nella terza parte proviamo a parlare di futuro del lavoro, di opportunità e limiti per una mobilizzazione dei laboratori nel Nord e nel Sud del Mondo e delle nuove sfide che ci attendono.

Ascolta l'audio sul sito di Radio Onda Rossa

Venerdì 1 marzo alle ore 18.00 a Torino, presso la Libreria Trebisonda di Via Sant’Anselmo, 22, un booktandem con Stefano Borroni Barale, autore, per i nostri tipi, di “L’intelligenza inesistente” e Vittorio Bertola, autore di “Internet fatta a pezzi” (Bollati Boringhieri) per discutere delle dinamiche che hanno stritolato Internet prima e ora rischiano di stritolare l’intelligenza artificiale.

Leggi tutto sul sito di Altreconomia

Domenica 10 marzo ore 10.30 a Milano. All’interno dell’edizione 2024 di Book Pride Milano, in Sala Atene, una presentazione di “L’intelligenza artificiale” di Stefano Borroni Barale.

Leggi tutto sul sito di Altreconomia

C’è stato Pegasus project, poi Predator files. Le inchieste giornalistiche transnazionali che documentano la sorveglianza illegale su giornalisti, politici, dissidenti e attivisti sono sotto gli occhi di tutta l’Unione Europea. Eppure, a distanza di quasi due anni dalla nascita della commissione Pega – la commissione d’inchiesta istituita dal Parlamento Ue per “indagare sull’uso di Pegasus e altri spyware”, uno sforzo politico non indifferente per gli standard di Strasburgo – poco sembra essere cambiato.

leggi l'articolo su "Guerre di rete"

Leggi anche la newsletter di Carola Frediani

In questo numero:

  • Cyber armi, da Stuxnet all’Ucraina
  • Come armare i video delle celebrità
  • AI e lavoratori
  • L’Europa e gli spyware
  • L’attacco alla British Library allarma le istituzioni culturali
  • E altro

Il nuovo presidente della Commissione algoritmi

Con la conferenza stampa di inizio anno della premier, la classe dirigente della destra meloniana ha perso un pistolero e imbarcato un frate. È il francescano cinquantenne Paolo Benanti, messo in quattro e quattr’otto a capo della cosiddetta «commissione algoritmi» al posto di Giuliano Amato dal sottosegretario Alberto Barachini. La commissione dovrà consigliare il governo sulle norme in materia di tecnologie digitali e informazione. È un doppione di un’altra commissione governativa sullo stesso tema nominata dall’altro sottosegretario Alessio Butti. Per non sbagliarsi, Benanti fa parte anche di quella.

In molti hanno storto il naso: chiedere a un sacerdote di regolare le nuove tecnologie è un oscurantismo da ayatollah. Macché, hanno risposto gli altri (non solo da destra): rispetto all’ottantacinquenne Amato, il religioso è giovane e competente. Benanti è un prete, ma anche uno studioso di «altissimo profilo», «esperto della materia e unico italiano componente del Comitato sull’Intelligenza artificiale delle Nazioni Unite».

Leggi l'articolo su "Il Manifesto"

Mentre i miliardari proprietari delle società tech discutono dell’avvento di un’improbabile “singolarità”, uno scenario fantascientifico dove le macchine conquisteranno l’umanità, l’intelligenza “artificiale” si basa in realtà ancora sui lavoratori del Sud del mondo. Impegnati in mansioni sottopagate e non regolamentate

[...]

Negli stessi giorni in cui i giornali erano intasati da questa telenovela, mi sono ritrovato a seguire online un’interessante conferenza dal titolo “Come l’Ai promuove le diseguaglianze a livello globale”, tenuta presso l’Università di Groninga in Olanda. Dopo due anni di studi sul campo in America Latina e Africa, questi erano i dati raccolti dai ricercatori. La tecnologia che chiamiamo Ai si basa sui “minitask” come l’etichettatura manuale dei dati (e su questo è d’accordo anche più d’uno degli “entusiasti” dell’Ai, solo che lo considerano un problema da risolvere attraverso le prossime generazioni di sistemi di intelligenza artificiale). Contrariamente a quanto sostengono in Silicon Valley questi lavori non stanno diminuendo al crescere delle capacità dell’Ai (che, quindi, non sembra diventare più “intelligente” al passare degli anni), bensì sono in crescita esponenziale. L’intelligenza su cui si basano sembra avere origine molto più umana che artificiale.

Leggi l'articolo di Stefano Borroni Barale

Stakka Stakka del 20 dicembre ha intervistato Stefano Borroni Barale, autore del libro "L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale"

Ma perché tutti parlano di Ai? Perché è un'eccezionale operazione di marketing: una delle meglio organizzate degli ultimi anni. Su questa le imprese della Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend negativo fatto di tagli al personale e cambi drastici dei loro programmi di sviluppo. Per comprendere quali siano le aspettative di queste aziende - e quali dovrebbero essere le nostre - in questo libro si ricostruiscono le tappe, le intuizioni e i paradossi che hanno attraversato la comunità scientifica, provando a tracciare una linea che collega Alan Turing, primo sostenitore dell'Ai forte, con i creatori di ChatGPT, il software in grado di sostenere un dialogo credibile con un essere umano. Che cosa verrà da qui in avanti non lo sappiamo, e per scoprirlo non ci aiuterà una tecnologia che basa le sue previsioni sull'ipotesi che il futuro sarà una replica di quanto accaduto nel passato. Comprendere questo fenomeno, però, può aiutarci a costruire tecnologie alternative, che promuovano la convivialità e la partecipazione diffusa, a scuola come nella società.

Ascolta l'intervista sul sito di Radio Backout

"Tecniche e Miti: le trappole dell'intelligenza artificiale" è un e-BOOK de Gli Asini che vuole tracciare un percorso critico che metta in luce le problematiche dell'hype che accompagna il machine learning. Per farlo è necessario indagare l’IA da diversi punti di osservazione. Al numero ha contribuito come C.I.R.C.E. con l'articolo "Nuove intelligenze, vecchi pregiudizi."

Sull'Intelligenza Artificiale scrive la redazione: "In primo luogo proviamo a smontarne i meccanismi, mettendo in discussione la stessa denominazione: si tratta infatti di un apparato tecnologico che non è “intelligente” né “artificiale”.

Per saperne di più vai sul sito di C.I.R.C.E.

Giovedì 14 dicembre alle ore 17.00 si terrà il seminario “Dalla DAD sostitutiva all’intelligenza artificiale a scuola” organizzato da CUB Scuola Università e Ricerca Torino.

Il mondo della scuola è investito dalle parole d’ordine del marketing digitale: DAD, Social, intelligenza artificiale, coding, scratch, pensiero computazionale… le novità si susseguono con ritmo battente.

La spinta del Piano Scuola 4.0, con la sua formazione “obbligatoria”, sembra voler imporre l’adozione in fretta e furia di tutto quello che le imprese del digitale mettono a disposizione.

Come fare? Respingere del tutto l’offerta di ‘novità’? L’avanzata della tecnologia è inarrestabile come uno tsunami? Non esistono tempi e modi alternativi, più conviviali?

Insieme a Carlo Milani e Stefano Borroni Barale proveremo a rispondere ad alcune di queste domande, insieme all’imperdibile dilemma: “Ma davvero ChatGPT segna la fine dei compiti a casa?”

Carlo Milani, PhD. Saggista e formatore attivo a livello internazionale con CIRCE (Centro Internazionale di Ricerca sulle Convivialità Elettriche: www.circex.org). Pratica quotidianamente la pedagogia hacker in corsi di formazione rivolti a docenti e allievi delle scuole di ogni ordine e grado. Scrive da anni di questi temi sia a livello accademico che divulgativo. Il suo ultimo libro è “Tecnologie conviviali” (Eleuthera, 2022).

Stefano Borroni Barale. Fisico, docente di informatica e formatore sindacale sulle nuove tecnologie. Ha scritto per Altreconomia “Come passare al software libero e vivere felici” (2003), uno dei primi manuali sul tema. Il suo ultimo libro è “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (Altreconomia, 2023).

Dove: Corso Marconi 34, Torino – 2° Piano (Sede CUB SUR) Quando: Giovedì 14 Dicembre 2023 ore 17-18.30 Per chi: docenti e genitori di allievi delle superiori Come: partecipazione gratuita fino ad esaurimento posti, prenotazione obbligatoria

Form di prenotazione: https://dadia.vado.li/
giovedì 14 Dicembre 2023 ore 17:00 - 18:30

L’editore tedesco rivoluziona l’app internazionale di notizie upday e chiude la redazione italiana, licenziandone i redattori. Un caso su presente e futuro dell’informazione

Un «nuovo generatore di notizie di tendenza guidato esclusivamente dall’intelligenza artificiale» sostituirà il lavoro dei giornalisti in carne e ossa.

Mentre l’Unione europea ha varato l’Ai Act, prima legge al mondo sull’intelligenza artificiale, arriva la notizia che non è uno scenario fantascientifico di una serie tv ma la realtà di upday, app e sito internazionale di notizie che ha una testata registrata anche in Italia.

Leggi l'articolo

È la prima volta che i ricercatori calcolano le emissioni di anidride carbonica causate dall’utilizzo di un modello di intelligenza artificiale per diversi compiti. OpenAI, Microsoft, Google… quando soluzioni AI più green?

Ogni volta che usiamo l’AI per generare un’immagine, scrivere un’e-mail o fare una domanda a un chatbot, ha un costo per il pianeta.

Infatti, generare un’immagine utilizzando un potente modello di intelligenza artificiale richiede tanta energia quanto caricare completamente il tuo smartphone, secondo lo studio dei ricercatori della startup di intelligenza artificiale Hugging Face e della Carnegie Mellon University.

Leggi l'articolo

Prima di ogni raid, Israele è a conoscenza di quanti saranno i cosiddetti “danni collaterali”, ossia il numero di vittime civili che resteranno uccise in quell’operazione. È quanto rivela un’inchiesta realizzata dal magazine +972 insieme a Local Call, che si basa sulle testimonianze anonime di attuali ed ex membri dell'intelligence militare israeliana, ma anche su dati e documenti provenienti dalla Striscia di Gaza. “Nulla accade per caso”, ha spiegato una fonte che ha preferito rimanere anonima. “Quando una bambina di 3 anni viene uccisa in una casa a Gaza è perché qualcuno nell’esercito ha deciso che non era un grosso problema, che era un prezzo da pagare per colpire un altro obiettivo. Noi non siamo Hamas. Questi non sono razzi casuali. Tutto è intenzionale. Sappiamo esattamente ‘quanti danni’ collaterali ci sono in ogni casa”.

Tutto questo è possibile grazie a un software basato sull’intelligenza artificiale che permette di “generare” target da colpire a un ritmo molto più veloce di quello che era possibile fare in precedenza. Il programma si chiama Habsora, “il Vangelo”: un ex ufficiale dei servizi segreti ha dichiarato che questo sistema contribuisce a creare a Gaza una “fabbrica di uccisioni di massa”, in cui il focus “è sulla quantità e non sulla qualità”.

Leggi l'articolo completo su Valigia Blu

Sul Guardian altre informazioni sul funzionamento dell'AI usata dall'esercito Israeliano