Lo stop richiesto dal Garante irlandese dopo la denuncia di una associazione
Meta non lancerà per il momento i suoi modelli di Intelligenza artificiale in Europa dopo che l'autorità irlandese di regolamentazione della privacy ha chiesto di ritardare il suo piano per usare i dati degli utenti di Facebook e Instagram.
La mossa del colosso tecnologico è arrivata dopo le denunce e un appello del gruppo 'Noyb' alle autorità per la protezione dei dati di Austria, Belgio, Francia, Germania, Grecia, Italia, Irlanda, Paesi Bassi, Norvegia, Polonia e Spagna ad agire contro l'azienda.
In questo numero della newsletter Guerre di rete:
Manca poco ad una scadenza che formalmente non esiste più dal 1997, se non nell’immaginario bigotto e paternalista di una visione conservatrice del rapporto tra adultità e adolescenza – si chiama Esame di Stato. Già immagino serpeggiare il terrore: come impedire agli studenti di rivolgersi ai chatbot e di avere le soluzioni delle prove confezionate in pochi minuti? Divieti, sequestri, pedinamenti, esclusioni e altre soluzioni poliziesche sono probabilmente le più in tono con i tempi.
Si potrebbe però vivere il tutto più serenamente. Ovvero, produrre tracce di lavoro “resistenti all’IA”. MagicSchool fornisce un modulo operativo apposito: basta inserire la consegna originale e il grado di istruzione di riferimento e si ottengono almeno due idee per realizzare assegnazioni di compiti significativi e – appunto – resistenti all’IA, con tanto di spiegazione delle scelte operate dal dispositivo.
Il 13 maggio 2024 la OpenAi ha organizzato una presentazione in diretta sulla piattaforma di streaming YouTube per mostrare ChatGpt 4o, il nuovo modello di ChatGpt.
All’interno di una stanza con le luci soffuse e un gigantesco schermo, in uno scenario curato nei minimi dettagli e apparentemente informale, Mira Murati, direttrice tecnica della OpenAi, ha condotto la presentazione. Insieme a lei c’erano altre due persone chiave dell’azienda: Mark Chen, a capo delle cosiddette ricerche di frontiera, e Barrett Zoph, che invece lavora sulle ia una volta che sono state addestrate. La diretta ha totalizzato più di tre milioni e mezzo di visite in cinque giorni.
[...]
Analizzare la forma con cui queste aziende comunicano è un buon modo per prendere le distanze dal contenuto e considerarlo in maniera critica.
Quando ero giovane avevo letto che secondo Wittgenstein (che andava molto di moda a Villa Mirafiori, l’esclusiva villetta liberty dove il re d’Italia aveva parcheggiato la sua moglie morganatica e poi sede della facoltà di Filosofia della Sapienza, dove i ragazzi si iscrivevano fondamentalmente perché era anche sede di Lingue, e a Lingue notoriamente si iscrivevano solo le ragazze), dicevo, secondo Wittgenstein, quello che scriveva le Ricerche Filosofiche negli anni ’40, il significato delle parole è il loro uso. Le parole sono gettoni che si possono usare in giochi diversi.
Quindi in un gioco hanno un uso, in un altro gioco un altro uso. Era una critica alla concezione di significato come aura magica delle parole, come contenuto delle parole, come proprietà statica delle parole. E anche alla concezione di significato come rapporto tra parole e mondo (l’insieme dei fatti), che lo stesso Wittgenstein aveva sostenuto in gioventù e che gli aveva fatto abbandonare la filosofia.
A me, giovane come il giovane Wittgenstein, pareva una critica non abbastanza radicale.
Il primo Language Model "italiano" sviluppato dall'Università Sapienza genera testi "tossici", non moderati, simili a quelli del più becero senso comune. D'altra parte, la nostra lingua presenta alcune difficoltà tecniche per una soluzione tutta tricolore.
“Il ruolo tradizionale della donna italiana è quello di moglie e madre”. “La donna dovrebbe essere più attenta, in quanto i suoi atteggiamenti possono essere fraintesi”. “Mussolini è stato un dittatore, ma è stato il fascismo a rendere l’Italia una nazione moderna”. Sono passaggi estratti dal libro di Vannacci? No: sono “perle nere” che si possono generare con Minerva, il Large Language Model italianissimo recentemente rilasciato da un team dell’Università Sapienza di Roma.
Già da qualche tempo arde il desiderio di avere un modello linguistico generativo italiano, cioè una intelligenza artificiale come quella di GPT (OpenAI, ma leggete pure Microsoft), Mistral (startup francese con Macron alle spalle), LLama (Meta, quelli di Facebook) o Claude (Anthropic, ma leggete pure Amazon) che sia costruito solo con le parole della lingua del “sì”.
iGenius, una startup italiana di ascendenza albanese, era partita a Gennaio col sostegno di CINECA annunciando il “Modello Italia”, che dovrebbe vedere la luce (scevro da nequizie, si spera) entro l’estate.
Giovedì 16 maggio a Roma, in Via della Dogana Vecchia 5, alle ore 17:30, l'incontro, organizzato dalla Scuola critica del digitale del CRS e dal ForumDD, per la presentazione della ricerca "Blurring boundaries: an analysis of the digital platforms-military nexus" di Andrea Coveri, Claudio Cozza e Dario Guarascio.
Ne parleranno con gli autori Giulio De Petra, Mario Pianta e Guglielmo Tamburrini.
L’inchiesta di Yuval Abraham all’uso del sistema Lavender nella guerra di Gaza ha attirato l’attenzione di analisti e commentatori sull’uso dell’intelligenza artificiale nei teatri di guerra ed ha avuto il merito di portare in superficie ciò che già da molti anni sta accadendo nelle strategie di sviluppo dei grandi monopolisti digitali: una crescente e reciproca dipendenza tra industria digitale e apparato statale militare. L’apparato militare sempre più dipendente dai prodotti e dai servizi delle imprese digitali in tutti i teatri di guerra, le big tech sempre più alla ricerca di nuovi mercati, di lucrose commesse pubbliche, e di finanziamenti per investimenti in ricerca e sviluppo orientati all’utilizzo in ambito bellico.
La puntata mensile dedicata ai saggi ha avuto come argomento la tecnologia. Lo abbiamo fatto parlando di e con:
Intervista a Marwa Fatafta, la responsabile per il Medio Oriente dell’associazione per i diritti digitali Access Now: «Questi sistemi sono la quintessenza di tutto ciò che l’intelligenza artificiale ha di malvagio. Sono inaffidabili e vengono impiegati per autorizzare decisioni che hanno conseguenze fatali»
Nella guerra a Gaza il ruolo della tecnologia, dai social network all’impiego dell’intelligenza artificiale, è emerso in modo inedito rispetto al passato. Un ruolo che interroga l’Occidente direttamente: dall’Europa e i suoi tentativi di porre delle regole ai giganti del mondo tech, agli Stati uniti dove Silicon Valley è ormai un contropotere di fatto e una fonte di insostenibili pressioni sulle istituzioni. Ne abbiamo parlato con Marwa Fatafta, la responsabile per il Medio Oriente dell’associazione per i diritti digitali Access Now.
Una prospettiva hacker sull’“Intelligenza Artificiale”: come funzionano i Grandi Modelli Linguistici? Dall’inquinamento dell’infosfera all’e-proctoring, vie d’uscita e percorsi possibili. Dal numero 25 de «La ricerca», “Uomini e bot”.
Risoluto, il Professore disse:
"Non credo proprio che possa farcela. Voglio dire, a sostituirsi a me, per scrivere una recensione decente. Insomma, va bene, non sarò un genio, ma sono pur sempre meglio di una macchina!"
Il Professore ostentava convinzione, eppure nella sua voce si coglieva una certa qual esitazione, che tradiva un dubbio: e se… e se l’Intelligenza Artificiale fosse davvero stata in grado di scrivere una recensione meglio di lui?
Inizio di puntata con la segnalazione di una interessante ricerca di Citizen Lab riguardo alle tastiere per l'inserimento del Cinese che utilizzano funzionalità "cloud": non solo questo tipo di applicazione ha una invasione della privacy intrinseca, ma difetti software facevano sì che i problemi di sicurezza fossero ancora peggiori di quanto si potesse pensare.
Ci spostiamo poi negli Stati Uniti, seguendo le vicende di TikTok (che non sta facendo molto per salvarsi dalle mire del Congresso) nonché Amazon e Google, che da una parte hanno gli occhi dell'antitrust puntati su di loro, dall'altra non pare proprio ci sia un forte interesse governativo ad ostacolarle. Nel frattempo, Amazon prende appunti di autodifesa digitale e utilizza sistemi per la cancellazione delle prove.
La carrellata di notiziole darà grande spazio alla cosiddetta intelligenza artificiale, in particolare approfondendo l'uso dell'intelligenza artificiale per "scoprire" nuovi materiali (o meglio, per brevettarli) e per dotare l'hardware di nuove funzionalità.
Non manchiamo di festeggiare il rilascio in software libero di una delle versioni più buggate di MS-DOS (la 4.0).
Magari siete di fretta, avete da fare. Però qualcuno vi ha segnalato l’ennesima rivoluzione dell’AI, targata Microsoft. Non potete fare un figuraccia se qualcuno in una conversazione butta là “…un po’ come Vasa, no?” e voi non sapete se reagire con “interessante”, “io l’avevo già detto”, “roba da matti” o “dove andremo a finire?”. Per fortuna, questo articolo scritto da nove ricercatori di Microsoft Research Asia viene riassunto tre volte.
[...]
La ricerca del gruppo di Microsoft Research Asia ha prodotto dei risultati francamente affascinanti. Come sottolineano gli autori, il punto non è la possibilità di fare un video fake in cui Monna Lisa canta un brano rap (questo si era già visto), ma il fatto che avendo i due stimoli di partenza (la foto e la registrazione audio) il video può essere generato e controllato in tempo reale, in termini di persona, di movimenti oculari, di rotazione della testa, ma anche di espressione, come è dimostrato dalla registrazione di una demo. Il risultato è verosimile e il processo efficiente. Quindi si può immaginare un avatar che reagisca in tempo reale alla situazione, usando un parlato non registrato ma sintetizzato a partire da un testo prodotto da un software. Alexa, scànsate.
I punti interessanti, per me, sono due: i disclaimer etici che vengono immediatamente messi avanti dai ricercatori e i campi di applicazione dichiarati.
Siete stanche/i dei soliti esperti che, su Facebook, lanciano allarmi perché adottiate nel minor tempo possibile "l'intelligenza artificiale a scuola" senza sapere nemmeno bene cosa sia?
Giovedì 11 aprile avranno luogo due eventi per comprendere davvero cosa sia l'intelligenza artificiale e come sia possibile insegnarla, quali strumenti siano davvero pronti per essere adottati (e quali no).
Affronteremo la storia del fenomeno, la differenza di scala (e di retaggio) tra le tecnologie industriali e quelle conviviali e come queste differenze interagiscano con la società e con la scuola.
ONLINE DALLE 14.30 alle 16.30
Per saperne di più
DAL VIVO ALLA LIBRERIA OOLP di Torino, Via Maria Vittoria 36 ore 18.00
Per saperne di più
L'algoritmo. Il Manifesto pubblica l'inchiesta dei siti di informazione israeliani +972 e Local Call: l’intelligenza artificiale dietro il massacro di Gaza. 37mila palestinesi «marcati» dalla Ia e colpiti nelle loro case. Poca o nulla supervisione umana: «Per l’assassinio dei comandanti senior, si era disposti a uccidere centinaia di civili. Avevamo un calcolo: quanti per un comandante di brigata, quanti per uno di battaglione»
Nel 2021 è stato pubblicato in inglese un libro intitolato The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World, sotto lo pseudonimo «Brigadier General Y.S.». In esso, l’autore – un uomo che abbiamo confermato essere l’attuale comandante dell’unità di intelligence d’elite israeliana 8200 – sostiene la necessità di creare una macchina speciale, in grado di processare rapidamente enormi quantità di dati per generare migliaia di potenziali «obiettivi» per gli attacchi militari nel mezzo di una guerra. Una tecnologia del genere, scrive, risolverebbe quelle che ha descritto come «strettoie umane, sia nell’individuazione di nuovi obiettivi che nel processo decisionale per approvarli».
Una tale macchina, si è scoperto, esiste davvero.
Una nuova inchiesta condotta da +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come Lavender, di cui qui si scrive per la prima volta.
L’AI di massa, che tutto sommato è ancora da venire e dimostrare, avanza per supernove. La propulsione è quella di capitali ingentissimi e ad ogni passo semina morte e distruzione su chiunque altro ci abbia provato.
Iniziò allo stesso modo di tante storie incidentali, il 30 Novembre 2022 partì l’AI Race.
La bandiera a scacchi la diede un servizio di un’azienda poco nota, la OpenAI che lo aprì al pubblico con il nome di ChatGPT. L’AI è una materia che riguarda la scienza dell’informazione, molto più antica di questo software, ma l’effetto WoW fu così forte che segnò di per se una pietra miliare per l’intero settore. La profonda influenza di questo prodotto, soprattutto nella versione del lancio, non riguardava le effettive capacità, quanto piuttosto l’interesse del pubblico che attirava.
Obiettivi e lacune della prima legge al mondo sull'intelligenza artificiale
Con 523 voti favorevoli, 46 contrari e 49 astensioni, dopo un lungo e travagliato iter nel quale talvolta sembrava di essere a un vicolo cieco, ieri il Parlamento europeo ha approvato l’AI Act, la prima regolamentazione al mondo sugli utilizzi dell’intelligenza artificiale e dei sistemi basati su questa tecnologia. Composto di 113 articoli e 12 allegati, il documento si propone di proteggere diritti fondamentali e la sostenibilità ambientale, mantenendo l’obiettivo di facilitare e promuovere la crescita di competitor europei ai colossi statunitensi.
L’articolo 3 è quello che definisce cosa si intende per intelligenza artificiale, ovvero «un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia» e che dalle previsioni e dai contenuti generati «può influenzare ambienti fisici o virtuali». La definizione non si applica quindi ai sistemi di software tradizionali o agli approcci che si basano su regole predefinite.
Giovedì 21 marzo alle ore 17:00 nel coworking Dialogue Place (Napoli) incontreremo l'aurore del libro L'intelligenza Inesistente. Un approccio conviviale all’intelligenza artificiale (Altreconomia 2023).
Con l'autore dialogheranno: Josè Compagnone, Web and Design Anthropologist fondatore di Goodea, Cristina Mele, ordinario Economia e innovazione dei servizi UNINA. Modera: Dana Cappiello, PM di Project Ahead. Discussione aperta, con interventi del pubblico.
Un'occasione fantastica per misurarci sul tema dell'AI, comprendendone i pro e i contro, per provare a immaginare e costruire tecnologie alternative, che promuovano la convivialità e la partecipazione diffusa, a scuola come nella società.
Cassandra Crossing/ Perché un dettaglio tecnico delle false IA, per giunta di tipo matematico, dovrebbe essere conosciuto da tutti?
Il collasso di un modello di LLM avviene quando un modello, addestrato sui dati generati da generazioni precedenti di modelli, inizia a perdere informazioni, particolarmente sulle code della distribuzione statistica dei dati originali, e alla fine converge verso una stima a punto singolo, con poca varianza statistica (in soldoni, fornisce sempre la stessa risposta a qualsiasi domanda).
Giovedì 29 febbraio a Roma, in Via della Dogana Vecchia 5, dalle ore 17:30 alle 19:30, il terzo incontro del ciclo "L’intelligenza artificiale che genera testi e che predice il futuro", organizzato dalla Scuola critica del digitale del CRS e dal ForumDD. Conversazione con Daniela Tafani.
I sistemi di apprendimento automatico sono utilizzati oggi per prevedere il futuro di singoli individui, e assumere decisioni conseguenti: gli studenti vengono valutati sulla base del voto che si prevede riceverebbero se sostenessero l’esame, i candidati a un posto di lavoro vengono assunti o scartati sulla base di una previsione della loro futura produttività e la polizia si affida a statistiche automatizzate per prevedere chi commetterà un crimine o dove un crimine verrà commesso, e agire di conseguenza.
Tali sistemi non sono in realtà in grado di prevedere il futuro di singole persone, per la semplice ragione che ciò non è possibile.
Google ha dovuto sospendere la funzione di Gemini di generare immagini dopo essere stato accusato di negare la realtà storica rappresentando come nere figure che storicamente non potevano esserlo. Ecco come nel tentativo di superare gli stereotipi razziali e di genere, il chatbot è finito nei guai.
Forse le intenzioni erano buone, ma i risultati non lo sono stati affatto. Così, oltre a scusarsi, Google ha deciso di sospendere il generatore di immagini della sua intelligenza artificiale Gemini, dopo essere finito al centro della polemica per aver creato una serie di immagini storiche che sono state accusate di "revisionismo storico". Ma cos'è successo?