La crescita dell’AI ha riproposto il dibattito sul Reddito di Base Universale
Da sempre, gli interessi economici hanno trainato lo sviluppo e l’implementazione delle tecnologie di automazione, e da sempre la società civile ha cercato di partecipare alla conversazione sulle politiche relative al loro uso.
Chi beneficia dell’introduzione di una tecnologia nel processo lavorativo? Come riconfigura i rapporti con la forza lavoro? Cosa faranno i lavoratori che verranno rimpiazzati? Sarà possibile formarli nuovamente? O questi sviluppi tecnologici sono il preludio di una spirale di precarizzazione sistemica?
Tutte queste domande (e molte, molte altre) giocano un ruolo politico decisivo nelle economie di tutto il mondo. L’opinione pubblica che si genera attorno a esse rappresenta un equilibrio fondamentale, e la stessa idea sulle capacità effettive di una tecnologia, su come si possa sviluppare e come sia in grado di riconfigurare i rapporti di forza condiziona le scelte politiche, per cui diventa un tema delicato anche dal punto di vista propagandistico (come nel caso del cosiddetto AI doomerism).
leggi l'articolo sul sito di Guerre di Rete
Leggi anche l'ultimo numero della newsletter di Carola Frediani
Puntata 16 di EM, quarta del ciclo tecnologico Estrattivisimo dei dati, parliamo di Intelligenza Artificiale e lavoro, con un ospite, Antonio Casilli, docente di sociologia presso Télécom Paris, la scuola di ingegneria delle telecomunicazioni del Politecnico di Parigi.
Nella prima parte della trasmissione passiamo in rassegna, con una serie di esempi, il ruolo dell'IA nel mondo del lavoro, tra parcellizzazione, cottimo e sfruttamento nel Sud del Mondo, sfatando miti e smascherando retoriche pericolose.
Nella seconda parte analizziamo in particolare la precarizzazione del lavoro con l'IA, click work, micro task, uberizzazione, anche in relazione alla fornitura di lavoro gratuito e dati da parte degli utenti del web nel Nord del Mondo, utilizzati poi anche per l'addestramento delle IA. Introduciamo anche la necessità di redistribuire il surplus derivante dall'estremo aumento di efficienza attraverso l'introduzione di un reddito universale di cittadinanza.
Nella terza parte proviamo a parlare di futuro del lavoro, di opportunità e limiti per una mobilizzazione dei laboratori nel Nord e nel Sud del Mondo e delle nuove sfide che ci attendono.
Venerdì 1 marzo alle ore 18.00 a Torino, presso la Libreria Trebisonda di Via Sant’Anselmo, 22, un booktandem con Stefano Borroni Barale, autore, per i nostri tipi, di “L’intelligenza inesistente” e Vittorio Bertola, autore di “Internet fatta a pezzi” (Bollati Boringhieri) per discutere delle dinamiche che hanno stritolato Internet prima e ora rischiano di stritolare l’intelligenza artificiale.
Leggi tutto sul sito di Altreconomia
Domenica 10 marzo ore 10.30 a Milano. All’interno dell’edizione 2024 di Book Pride Milano, in Sala Atene, una presentazione di “L’intelligenza artificiale” di Stefano Borroni Barale.
C’è stato Pegasus project, poi Predator files. Le inchieste giornalistiche transnazionali che documentano la sorveglianza illegale su giornalisti, politici, dissidenti e attivisti sono sotto gli occhi di tutta l’Unione Europea. Eppure, a distanza di quasi due anni dalla nascita della commissione Pega – la commissione d’inchiesta istituita dal Parlamento Ue per “indagare sull’uso di Pegasus e altri spyware”, uno sforzo politico non indifferente per gli standard di Strasburgo – poco sembra essere cambiato.
leggi l'articolo su "Guerre di rete"
Leggi anche la newsletter di Carola Frediani
In questo numero:
Il nuovo presidente della Commissione algoritmi
Con la conferenza stampa di inizio anno della premier, la classe dirigente della destra meloniana ha perso un pistolero e imbarcato un frate. È il francescano cinquantenne Paolo Benanti, messo in quattro e quattr’otto a capo della cosiddetta «commissione algoritmi» al posto di Giuliano Amato dal sottosegretario Alberto Barachini. La commissione dovrà consigliare il governo sulle norme in materia di tecnologie digitali e informazione. È un doppione di un’altra commissione governativa sullo stesso tema nominata dall’altro sottosegretario Alessio Butti. Per non sbagliarsi, Benanti fa parte anche di quella.
In molti hanno storto il naso: chiedere a un sacerdote di regolare le nuove tecnologie è un oscurantismo da ayatollah. Macché, hanno risposto gli altri (non solo da destra): rispetto all’ottantacinquenne Amato, il religioso è giovane e competente. Benanti è un prete, ma anche uno studioso di «altissimo profilo», «esperto della materia e unico italiano componente del Comitato sull’Intelligenza artificiale delle Nazioni Unite».
Leggi l'articolo su "Il Manifesto"
Mentre i miliardari proprietari delle società tech discutono dell’avvento di un’improbabile “singolarità”, uno scenario fantascientifico dove le macchine conquisteranno l’umanità, l’intelligenza “artificiale” si basa in realtà ancora sui lavoratori del Sud del mondo. Impegnati in mansioni sottopagate e non regolamentate
[...]
Negli stessi giorni in cui i giornali erano intasati da questa telenovela, mi sono ritrovato a seguire online un’interessante conferenza dal titolo “Come l’Ai promuove le diseguaglianze a livello globale”, tenuta presso l’Università di Groninga in Olanda. Dopo due anni di studi sul campo in America Latina e Africa, questi erano i dati raccolti dai ricercatori. La tecnologia che chiamiamo Ai si basa sui “minitask” come l’etichettatura manuale dei dati (e su questo è d’accordo anche più d’uno degli “entusiasti” dell’Ai, solo che lo considerano un problema da risolvere attraverso le prossime generazioni di sistemi di intelligenza artificiale). Contrariamente a quanto sostengono in Silicon Valley questi lavori non stanno diminuendo al crescere delle capacità dell’Ai (che, quindi, non sembra diventare più “intelligente” al passare degli anni), bensì sono in crescita esponenziale. L’intelligenza su cui si basano sembra avere origine molto più umana che artificiale.
Stakka Stakka del 20 dicembre ha intervistato Stefano Borroni Barale, autore del libro "L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale"
Ma perché tutti parlano di Ai? Perché è un'eccezionale operazione di marketing: una delle meglio organizzate degli ultimi anni. Su questa le imprese della Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend negativo fatto di tagli al personale e cambi drastici dei loro programmi di sviluppo. Per comprendere quali siano le aspettative di queste aziende - e quali dovrebbero essere le nostre - in questo libro si ricostruiscono le tappe, le intuizioni e i paradossi che hanno attraversato la comunità scientifica, provando a tracciare una linea che collega Alan Turing, primo sostenitore dell'Ai forte, con i creatori di ChatGPT, il software in grado di sostenere un dialogo credibile con un essere umano. Che cosa verrà da qui in avanti non lo sappiamo, e per scoprirlo non ci aiuterà una tecnologia che basa le sue previsioni sull'ipotesi che il futuro sarà una replica di quanto accaduto nel passato. Comprendere questo fenomeno, però, può aiutarci a costruire tecnologie alternative, che promuovano la convivialità e la partecipazione diffusa, a scuola come nella società.
"Tecniche e Miti: le trappole dell'intelligenza artificiale" è un e-BOOK de Gli Asini che vuole tracciare un percorso critico che metta in luce le problematiche dell'hype che accompagna il machine learning. Per farlo è necessario indagare l’IA da diversi punti di osservazione. Al numero ha contribuito come C.I.R.C.E. con l'articolo "Nuove intelligenze, vecchi pregiudizi."
Sull'Intelligenza Artificiale scrive la redazione: "In primo luogo proviamo a smontarne i meccanismi, mettendo in discussione la stessa denominazione: si tratta infatti di un apparato tecnologico che non è “intelligente” né “artificiale”.
Giovedì 14 dicembre alle ore 17.00 si terrà il seminario “Dalla DAD sostitutiva all’intelligenza artificiale a scuola” organizzato da CUB Scuola Università e Ricerca Torino.
Il mondo della scuola è investito dalle parole d’ordine del marketing digitale: DAD, Social, intelligenza artificiale, coding, scratch, pensiero computazionale… le novità si susseguono con ritmo battente.
La spinta del Piano Scuola 4.0, con la sua formazione “obbligatoria”, sembra voler imporre l’adozione in fretta e furia di tutto quello che le imprese del digitale mettono a disposizione.
Come fare? Respingere del tutto l’offerta di ‘novità’? L’avanzata della tecnologia è inarrestabile come uno tsunami? Non esistono tempi e modi alternativi, più conviviali?
Insieme a Carlo Milani e Stefano Borroni Barale proveremo a rispondere ad alcune di queste domande, insieme all’imperdibile dilemma: “Ma davvero ChatGPT segna la fine dei compiti a casa?”
Carlo Milani, PhD. Saggista e formatore attivo a livello internazionale con CIRCE (Centro Internazionale di Ricerca sulle Convivialità Elettriche: www.circex.org). Pratica quotidianamente la pedagogia hacker in corsi di formazione rivolti a docenti e allievi delle scuole di ogni ordine e grado. Scrive da anni di questi temi sia a livello accademico che divulgativo. Il suo ultimo libro è “Tecnologie conviviali” (Eleuthera, 2022).
Stefano Borroni Barale. Fisico, docente di informatica e formatore sindacale sulle nuove tecnologie. Ha scritto per Altreconomia “Come passare al software libero e vivere felici” (2003), uno dei primi manuali sul tema. Il suo ultimo libro è “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (Altreconomia, 2023).
Dove: Corso Marconi 34, Torino – 2° Piano (Sede CUB SUR) Quando: Giovedì 14 Dicembre 2023 ore 17-18.30 Per chi: docenti e genitori di allievi delle superiori Come: partecipazione gratuita fino ad esaurimento posti, prenotazione obbligatoria
Form di prenotazione: https://dadia.vado.li/
giovedì 14 Dicembre 2023 ore 17:00 - 18:30
L’editore tedesco rivoluziona l’app internazionale di notizie upday e chiude la redazione italiana, licenziandone i redattori. Un caso su presente e futuro dell’informazione
Un «nuovo generatore di notizie di tendenza guidato esclusivamente dall’intelligenza artificiale» sostituirà il lavoro dei giornalisti in carne e ossa.
Mentre l’Unione europea ha varato l’Ai Act, prima legge al mondo sull’intelligenza artificiale, arriva la notizia che non è uno scenario fantascientifico di una serie tv ma la realtà di upday, app e sito internazionale di notizie che ha una testata registrata anche in Italia.
È la prima volta che i ricercatori calcolano le emissioni di anidride carbonica causate dall’utilizzo di un modello di intelligenza artificiale per diversi compiti. OpenAI, Microsoft, Google… quando soluzioni AI più green?
Ogni volta che usiamo l’AI per generare un’immagine, scrivere un’e-mail o fare una domanda a un chatbot, ha un costo per il pianeta.
Infatti, generare un’immagine utilizzando un potente modello di intelligenza artificiale richiede tanta energia quanto caricare completamente il tuo smartphone, secondo lo studio dei ricercatori della startup di intelligenza artificiale Hugging Face e della Carnegie Mellon University.
Prima di ogni raid, Israele è a conoscenza di quanti saranno i cosiddetti “danni collaterali”, ossia il numero di vittime civili che resteranno uccise in quell’operazione. È quanto rivela un’inchiesta realizzata dal magazine +972 insieme a Local Call, che si basa sulle testimonianze anonime di attuali ed ex membri dell'intelligence militare israeliana, ma anche su dati e documenti provenienti dalla Striscia di Gaza. “Nulla accade per caso”, ha spiegato una fonte che ha preferito rimanere anonima. “Quando una bambina di 3 anni viene uccisa in una casa a Gaza è perché qualcuno nell’esercito ha deciso che non era un grosso problema, che era un prezzo da pagare per colpire un altro obiettivo. Noi non siamo Hamas. Questi non sono razzi casuali. Tutto è intenzionale. Sappiamo esattamente ‘quanti danni’ collaterali ci sono in ogni casa”.
Tutto questo è possibile grazie a un software basato sull’intelligenza artificiale che permette di “generare” target da colpire a un ritmo molto più veloce di quello che era possibile fare in precedenza. Il programma si chiama Habsora, “il Vangelo”: un ex ufficiale dei servizi segreti ha dichiarato che questo sistema contribuisce a creare a Gaza una “fabbrica di uccisioni di massa”, in cui il focus “è sulla quantità e non sulla qualità”.
Leggi l'articolo completo su Valigia Blu
Sul Guardian altre informazioni sul funzionamento dell'AI usata dall'esercito Israeliano
Se l'inglese come lingua franca è molto diffusa, permettendo di allenare IA inglesi in gran parte del mondo (anche a costi irrisori in condizioni di sfruttamento), non è lo stesso per lingue come il finlandese: è per questo che la compagnia finlandese Metroc allena il suo modello linguistico tra le carceri del Paese.
Da un lato c'è chi ritiene questo lavoro (€1,54 all'ora) uno fra tanti che offre il carcere, che non sfrutta gente nel terzo mondo (vedasi OpenAI in Kenia (https://t.me/eticadigitale/753)) e che permette di mantenere vivo il patrimonio linguistico-culturale, senza lasciare il predominio linguistico ed economico all'inglese.
Dall'altro c'è invece chi critica come Metroc faccia milioni sottopagando carceratɜ, temendo che la mancanza di freni possa portare a far fare loro lavori del clic provanti, come l'esposizione a immagini disturbanti per etichettarle (vedasi Facebook, sempre in Kenia (https://t.me/eticadigitale/592))
Occorre studiare l’interfaccia di Bing se si vuole capire come sarà Google post-AI.
Google pospone l’implementazione della sua intelligenza artificiale Bard nella sua UI (User Interface) in Europa per motivi legali ma possiamo già curiosare sulla sua anteprima attraverso l’area sperimentale di Google in diversi paesi nel mondo (no Europa).
Se però vogliamo avere un’idea su come sarà l’impatto dell’AI (Artiicial Intelligence) sui motori di ricerca sia a livello di SERP (Search Engine Results Page) che a livello di ranking possiamo andare a studiare ‘dal vivo’ cosa sta già presentando Bing di Microsoft grazie alla partnership con Open AI e quindi all’integrazione nella sua interfaccia di Chat-GPT (Generative Pretrained Transformer). A livello di (top) ranking non credo che il fattore X della SEO (Search Engine Optimization) ovvero la link popularity sarà messa in discussione (qualche idea di ottimizzazione post intelligenza generativa la propongo più avanti), mentre è a livello di pagina dei risultati di ricerca che, davvero, tutto, sta per cambiare drammaticamente.
Era nata da appena una trentina di giorni; aveva solo tre dipendenti e un sito web, nessuna tecnologia da provare, nessuna metrica da mostrare negli elevator pitch, le brevi presentazioni con cui si cerca di raccogliere fondi dagli investitori. Difficile per chiunque ottenere denaro e fiducia in queste condizioni, anche nel munifico mondo delle startup tecnologiche, sensibile alle mode del momento e malato di Fomo, Fear of missing out, la paura di perdersi la prossima Google o Facebook che spinge i capitalisti di ventura a piazzare un obolo quasi ovunque.
Mistral, l’ambizione di diventare l’OpenAI europea
Eppure, nonostante il curriculum scarno, a giugno 2023 Mistral AI, neonata startup francese, è riuscita a raccogliere ben 105 milioni di euro in un round di finanziamento a un solo mese dalla nascita. Secondo Dealroom, piattaforma che monitora gli investimenti in innovazione, si tratta di un record continentale. I fondatori Timothee Lacroix, Guillaume Lample e Arthur Mensch hanno un passato in grandi società impegnate nell’intelligenza artificiale, da Google a Meta, e sono nomi rispettati nell’ambiente. Ma non basta.
Leggi l'articolo sul sito "Guerre di rete"
Leggi anche la newsletter settimanale di Carola Frediani Questa settimana:
Venerdì 17 novembre alle ore 18.00 Nicola Villa intervisterà Stefano Borroni Barale in occasione dell’arrivo in libreria del suo libro pubblicato da Altreconomia “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale”.
L’intelligenza artificiale ci viene raccontata con parole iperboliche:
Cosa c’è di vero? Come sta impattando questa ennesima invenzione tecnologica sulla scuola?
Per garantire la qualità della connessione e poter al tempo stesso, se lo volete, proporre quesiti all’autore. è richiesta gentilmente l'iscrizizone a questo link:
https://inesistentepres.vado.li/
venerdì 17 Novembre 2023 ore 18:00 - 19:00
Calcolo non è solo informatica, informatica non è solo intelligenza artificiale, intelligenza artificiale non è solo Large Language Models e agenti discorsivi che al mercato mio padre comprò.
Siamo sull’autostrada A1 tra Bologna e Firenze, provenienti da Venezia. L’itinerario è molto semplice, e stimiamo di essere a casa per cena. Siccome però c’è parecchio traffico, accendiamo il navigatore (quello di serie dell’auto, una versione un po’ datata) per avere un’idea più precisa dell’ora di arrivo. Il navigatore, anzi la navigatrice, sulla base di un avviso di traffico di TMC, ci avverte che la variante “Direttissima” è chiusa al traffico e ci consiglia di prendere la “Panoramica”. L’ora di arrivo prevista è diventata 21:30, ma pazienza.
I cartelloni luminosi sull’autostrada però non ne fanno cenno. Approssimandoci al bivio vediamo che sono in tanti a prendere la Panoramica, molti più del solito. Dopo un po’ di esitazioni decidiamo di fidarci della società Autostrade per l’Italia e imbocchiamo la Direttissima, e che Dio che la mandi buona.
La navigatrice a questo punto va nel panico. Prima ci consiglia un’inversione a U, poi dice che non è in grado di suggerire nessun itinerario, poi comincia a ri-ri-ricalcolare il percorso, mostrando come ora di arrivo le 8:30 (!). Dopo un po’ di aggiustamenti (5:30, poi 2:30) si placa e ci avverte che arriveremo a casa alle 21:35 – cosa che difatti accadrà.
Cassandra Crossing/ Quanto è sfaccettato il problema delle capacità delle false IA e delle loro ''allucinazioni'' quando viene discusso nei salotti? E nel marketing? E nella filosofia?
Perché il termine allucinazioni è volutamente errato e ingannatore? Perché l'avere allucinazioni implica un funzionamento razionale e una percezione corretta del mondo o del dominio di conoscenza del sistema, in tutti gli altri casi.
E dove manca non solo intelligenza, ma anche il semplice determinismo, non è possibile, anzi è totalmente disonesto parlare di "allucinazioni", quando invece si tratta manifestazioni particolarmente forti della normale assenza di significato di tutte le risposte, anche quelle "esatte".
La puntata inizia parlando di social network autogestiti: intervista a Puntarella Party, un nodo Mastodon autogestito di Roma.
Prosegue poi parlando di Intelligenza Artificiale provando a contribuire allo spunto che ha dato il Manifesto . È interessante che gruppi anche grandi prendano posizioni riguardo al rapporto con l'intelligenza artificiale, ma come possiamo articolare queste critiche senza basarci su arbitrarie distinzioni tra IA e non-IA?
Chiudiamo con qualche notizia:
Ascolta la puntata sul sito di Radio Onda Rossa
Puntata del 15 ottobre 2023
I sistemi di predizione del crimine non funzionano.
Negli USA, dove i sistemi predittivi cominciano ad avere una certa diffusione, è stato fatto uno studio sulla loro accuratezza: il risutato è che questa è minima, con valori <1%. Il sistema studiato è paranoico, cioè predice un numero di crimini quasi 100 volte superiore a quelli segnalati e comunque la corrispondenza tra crimini predetti e segnalati è ridicolmente bassa.
L'Antitrust USA indaga su Google ed Amazon per pratiche scorrette che porterebbero a generare situazioni di monopolio con danno ai venditori/inserzionisti e di conseguenza ai consumatori.
La Microsoft vira al nucleare: è vero? Effettivamente stanno assumendo qualcuno per studiare la fattibilità di alimentare i data center con piccoli reattori di IV generazione.
Infine, le notiziole: parliamo di un cavo sincero che ammette di mandare tutti i tuoi dati in Cina, della sparizione di un utile add-on su Firefox, della dipartita del mai dimenticato (!) VBScript e della possibilità che Windows abbia licenze in abbonamento.