Inizio di puntata con la segnalazione di una interessante ricerca di Citizen Lab riguardo alle tastiere per l'inserimento del Cinese che utilizzano funzionalità "cloud": non solo questo tipo di applicazione ha una invasione della privacy intrinseca, ma difetti software facevano sì che i problemi di sicurezza fossero ancora peggiori di quanto si potesse pensare.
Ci spostiamo poi negli Stati Uniti, seguendo le vicende di TikTok (che non sta facendo molto per salvarsi dalle mire del Congresso) nonché Amazon e Google, che da una parte hanno gli occhi dell'antitrust puntati su di loro, dall'altra non pare proprio ci sia un forte interesse governativo ad ostacolarle. Nel frattempo, Amazon prende appunti di autodifesa digitale e utilizza sistemi per la cancellazione delle prove.
La carrellata di notiziole darà grande spazio alla cosiddetta intelligenza artificiale, in particolare approfondendo l'uso dell'intelligenza artificiale per "scoprire" nuovi materiali (o meglio, per brevettarli) e per dotare l'hardware di nuove funzionalità.
Non manchiamo di festeggiare il rilascio in software libero di una delle versioni più buggate di MS-DOS (la 4.0).
Magari siete di fretta, avete da fare. Però qualcuno vi ha segnalato l’ennesima rivoluzione dell’AI, targata Microsoft. Non potete fare un figuraccia se qualcuno in una conversazione butta là “…un po’ come Vasa, no?” e voi non sapete se reagire con “interessante”, “io l’avevo già detto”, “roba da matti” o “dove andremo a finire?”. Per fortuna, questo articolo scritto da nove ricercatori di Microsoft Research Asia viene riassunto tre volte.
[...]
La ricerca del gruppo di Microsoft Research Asia ha prodotto dei risultati francamente affascinanti. Come sottolineano gli autori, il punto non è la possibilità di fare un video fake in cui Monna Lisa canta un brano rap (questo si era già visto), ma il fatto che avendo i due stimoli di partenza (la foto e la registrazione audio) il video può essere generato e controllato in tempo reale, in termini di persona, di movimenti oculari, di rotazione della testa, ma anche di espressione, come è dimostrato dalla registrazione di una demo. Il risultato è verosimile e il processo efficiente. Quindi si può immaginare un avatar che reagisca in tempo reale alla situazione, usando un parlato non registrato ma sintetizzato a partire da un testo prodotto da un software. Alexa, scànsate.
I punti interessanti, per me, sono due: i disclaimer etici che vengono immediatamente messi avanti dai ricercatori e i campi di applicazione dichiarati.
L'algoritmo. Il Manifesto pubblica l'inchiesta dei siti di informazione israeliani +972 e Local Call: l’intelligenza artificiale dietro il massacro di Gaza. 37mila palestinesi «marcati» dalla Ia e colpiti nelle loro case. Poca o nulla supervisione umana: «Per l’assassinio dei comandanti senior, si era disposti a uccidere centinaia di civili. Avevamo un calcolo: quanti per un comandante di brigata, quanti per uno di battaglione»
Nel 2021 è stato pubblicato in inglese un libro intitolato The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World, sotto lo pseudonimo «Brigadier General Y.S.». In esso, l’autore – un uomo che abbiamo confermato essere l’attuale comandante dell’unità di intelligence d’elite israeliana 8200 – sostiene la necessità di creare una macchina speciale, in grado di processare rapidamente enormi quantità di dati per generare migliaia di potenziali «obiettivi» per gli attacchi militari nel mezzo di una guerra. Una tecnologia del genere, scrive, risolverebbe quelle che ha descritto come «strettoie umane, sia nell’individuazione di nuovi obiettivi che nel processo decisionale per approvarli».
Una tale macchina, si è scoperto, esiste davvero.
Una nuova inchiesta condotta da +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come Lavender, di cui qui si scrive per la prima volta.
L’AI di massa, che tutto sommato è ancora da venire e dimostrare, avanza per supernove. La propulsione è quella di capitali ingentissimi e ad ogni passo semina morte e distruzione su chiunque altro ci abbia provato.
Iniziò allo stesso modo di tante storie incidentali, il 30 Novembre 2022 partì l’AI Race.
La bandiera a scacchi la diede un servizio di un’azienda poco nota, la OpenAI che lo aprì al pubblico con il nome di ChatGPT. L’AI è una materia che riguarda la scienza dell’informazione, molto più antica di questo software, ma l’effetto WoW fu così forte che segnò di per se una pietra miliare per l’intero settore. La profonda influenza di questo prodotto, soprattutto nella versione del lancio, non riguardava le effettive capacità, quanto piuttosto l’interesse del pubblico che attirava.
Obiettivi e lacune della prima legge al mondo sull'intelligenza artificiale
Con 523 voti favorevoli, 46 contrari e 49 astensioni, dopo un lungo e travagliato iter nel quale talvolta sembrava di essere a un vicolo cieco, ieri il Parlamento europeo ha approvato l’AI Act, la prima regolamentazione al mondo sugli utilizzi dell’intelligenza artificiale e dei sistemi basati su questa tecnologia. Composto di 113 articoli e 12 allegati, il documento si propone di proteggere diritti fondamentali e la sostenibilità ambientale, mantenendo l’obiettivo di facilitare e promuovere la crescita di competitor europei ai colossi statunitensi.
L’articolo 3 è quello che definisce cosa si intende per intelligenza artificiale, ovvero «un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia» e che dalle previsioni e dai contenuti generati «può influenzare ambienti fisici o virtuali». La definizione non si applica quindi ai sistemi di software tradizionali o agli approcci che si basano su regole predefinite.
Giovedì 21 marzo alle ore 17:00 nel coworking Dialogue Place (Napoli) incontreremo l'aurore del libro L'intelligenza Inesistente. Un approccio conviviale all’intelligenza artificiale (Altreconomia 2023).
Con l'autore dialogheranno: Josè Compagnone, Web and Design Anthropologist fondatore di Goodea, Cristina Mele, ordinario Economia e innovazione dei servizi UNINA. Modera: Dana Cappiello, PM di Project Ahead. Discussione aperta, con interventi del pubblico.
Un'occasione fantastica per misurarci sul tema dell'AI, comprendendone i pro e i contro, per provare a immaginare e costruire tecnologie alternative, che promuovano la convivialità e la partecipazione diffusa, a scuola come nella società.
Cassandra Crossing/ Perché un dettaglio tecnico delle false IA, per giunta di tipo matematico, dovrebbe essere conosciuto da tutti?
Il collasso di un modello di LLM avviene quando un modello, addestrato sui dati generati da generazioni precedenti di modelli, inizia a perdere informazioni, particolarmente sulle code della distribuzione statistica dei dati originali, e alla fine converge verso una stima a punto singolo, con poca varianza statistica (in soldoni, fornisce sempre la stessa risposta a qualsiasi domanda).
Giovedì 29 febbraio a Roma, in Via della Dogana Vecchia 5, dalle ore 17:30 alle 19:30, il terzo incontro del ciclo "L’intelligenza artificiale che genera testi e che predice il futuro", organizzato dalla Scuola critica del digitale del CRS e dal ForumDD. Conversazione con Daniela Tafani.
I sistemi di apprendimento automatico sono utilizzati oggi per prevedere il futuro di singoli individui, e assumere decisioni conseguenti: gli studenti vengono valutati sulla base del voto che si prevede riceverebbero se sostenessero l’esame, i candidati a un posto di lavoro vengono assunti o scartati sulla base di una previsione della loro futura produttività e la polizia si affida a statistiche automatizzate per prevedere chi commetterà un crimine o dove un crimine verrà commesso, e agire di conseguenza.
Tali sistemi non sono in realtà in grado di prevedere il futuro di singole persone, per la semplice ragione che ciò non è possibile.
Google ha dovuto sospendere la funzione di Gemini di generare immagini dopo essere stato accusato di negare la realtà storica rappresentando come nere figure che storicamente non potevano esserlo. Ecco come nel tentativo di superare gli stereotipi razziali e di genere, il chatbot è finito nei guai.
Forse le intenzioni erano buone, ma i risultati non lo sono stati affatto. Così, oltre a scusarsi, Google ha deciso di sospendere il generatore di immagini della sua intelligenza artificiale Gemini, dopo essere finito al centro della polemica per aver creato una serie di immagini storiche che sono state accusate di "revisionismo storico". Ma cos'è successo?
Puntata 16 di EM, quarta del ciclo tecnologico Estrattivisimo dei dati, parliamo di Intelligenza Artificiale e lavoro, con un ospite, Antonio Casilli, docente di sociologia presso Télécom Paris, la scuola di ingegneria delle telecomunicazioni del Politecnico di Parigi.
Nella prima parte della trasmissione passiamo in rassegna, con una serie di esempi, il ruolo dell'IA nel mondo del lavoro, tra parcellizzazione, cottimo e sfruttamento nel Sud del Mondo, sfatando miti e smascherando retoriche pericolose.
Nella seconda parte analizziamo in particolare la precarizzazione del lavoro con l'IA, click work, micro task, uberizzazione, anche in relazione alla fornitura di lavoro gratuito e dati da parte degli utenti del web nel Nord del Mondo, utilizzati poi anche per l'addestramento delle IA. Introduciamo anche la necessità di redistribuire il surplus derivante dall'estremo aumento di efficienza attraverso l'introduzione di un reddito universale di cittadinanza.
Nella terza parte proviamo a parlare di futuro del lavoro, di opportunità e limiti per una mobilizzazione dei laboratori nel Nord e nel Sud del Mondo e delle nuove sfide che ci attendono.