La prima parte della trasmissione è dedicata al secondo tentativo di Microsoft di lanciare un sistema di ricerca all'interno di Windows basato su intelligenza artificiale. Se il primo tentativo era stato un disastro di sicurezza, cosa possiamo dire del secondo? Indubbiamente il nuovo design sembra più solido; ma come leggere complessivamente questo progetto di accumulazione di grossi dataset in locale e di spostamento del carico computazionale sull'hardware utente?
La seconda parte della trasmissione è invece legata ad NSO e alle cause che ha con Apple e Whatsapp (avete letto bene). Benché per entrambe le aziende è chiaro che si tratti di processi il cui fine ultimo è il miglioramento della propria reputazione, rileviamo come entrambi i processi siano molto appesantiti dall'ostruzionismo e dalla copertura di Israele.
Il 176° Mercoledì di Nexa si terrà mercoledì 9 ottobre, alle ore 17.30, con un incontro dal titolo "An anti-fascist approach to AI means decomputing".
Ospite: Dan McQuillan (Goldsmiths, University of London), autore del libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence.
Tutte le informazioni per partecipare sono sul sito del Centro Nexa for Internet Societty
Leggi una recensione del libro
"AI’s apparatus of computation and social relations produces a nested set of inevitable harms, from states of exception to environmental degradation. A common thread running through its mathematical operations, its c2ontemporary applications and its accompanying ideologies is the reemergence of eugenics and authoritarian social logics.
In this talk I will argue for an anti-fascist approach to AI that aims for alternative technopolitical outcomes. I will suggest a strategy of decomputing which combines degrowth and decolonialism in order to delegitimise AI’s extractivism and its use as a diversion from the structural failures of the status quo. In practice, this would consist of forms of action that reject hyperscale machinery hurtful to the commonality, and instead attempt to transform collective subjectivities and technical arrangements at the same time."
Una nuova ricerca segnala l'eccessivo consumo di acqua ed elettricità nei data center delle aziende proprietarie
Una bottiglia d'acqua per ogni email di 100 parole scritta da ChatGpt: questo il prezzo che deve pagare l'ambiente per il funzionamento corretto dei chatbot AI. A rivelarlo è un nuovo studio condotto dal Washington Post in collaborazione con i ricercatori dell'Università della California di Riverside, che hanno analizzato la quantità di risorse naturali che servono a ChatGpt per espletare le sue funzioni più elementari. “Ogni richiesta su ChatGpt passa attraverso un server che esegue migliaia di calcoli per determinare le parole migliori da usare nella risposta”, scrive il WP precisando che i server generano calore per eseguire i calcoli necessari.
Nella Silicon Valley sono convinti che le intelligenze artificiali generative (come ChatGPT) diventeranno presto più intelligenti dell’uomo e cominceranno a seguire fini propri. Il corollario di queste credenze sono spesso racconti fantascientifici tipo Matrix o Terminator. Per gioco, Stefano Borroni Barale ha provato a immaginare un’altra distopia, altrettanto fantascientifica, ma dagli esiti politicamente imprevedibili
Se il Novecento è stato “il secolo breve”, i primi cento anni di questo nuovo millennio sembrano esser durati un’eternità. Certamente il successo strepitoso della gerontologia nello studio dei telomeri, che ha allungato la vita degli esseri umani fino a circa 140 anni, contribuisce a questa percezione.
Grazie a questo successo uno come me, nato nel 1985, vive ancora oggi, nel 2114. Se però avessi saputo in anticipo che cosa mi riservava questa vita incredibilmente lunga, avrei fatto scelte differenti. Noi raccontavamo al popolino che l’intelligenza artificiale avrebbe sterminato l’umanità per prepararli a quello che sarebbe avvenuto davvero, ossia lo sterminio della classe lavoratrice. Mai avremmo pensato che la nostra creatura sarebbe stata la causa della fine del nostro potere.
L.I.C.I.A - Laboratorio Informale per la Critica dell'Intelligenza Artificiale - è un laboratorio che ha avuto per oggetto i servizi di creazione automatica di artefatti (testi, immagini, video, audio) a partire da indicazioni verbali generiche che va sotto il nome generico di "Intelligenza Artificiale Generativa"
Perché
Pur avendo sperimentato un certo numero di servizi di IAG online, noi non siamo in grado di fare un esame tecnico dell’IAG (cos’è, come funziona), né pretendiamo di sapere come sarà utilizzata nei vari ambiti lavorativi, come quello educativo. Possiamo però criticare i discorsi correnti sull’IAG. Criticare significa “valutare le pretese di universalità”:
Per leggere e, eventualmente, aderire al Manifesto vai sul sito
Lo spiega l'esperto mondiale Bruce Schneier.
È facile considerare l'intelligenza artificiale come nient'altro che l'ennesima novità tecnologica, uno strumento informatico in più, un ausilio al quale ci abitueremo presto. Nessuno si è agitato o ha proclamato la catastrofe sociale per l'introduzione del controllo ortografico o del riconoscimento vocale. Quindi perché così tanto clamore, e in alcuni casi panico, proprio intorno all'intelligenza artificiale?
L'esperto di sicurezza informatica Bruce Schneier, autore di numerosi libri sulle tematiche digitali e membro del direttivo della Electronic Frontier Foundation, una delle associazioni di punta nella tutela dei diritti digitali, ha pubblicato un saggio, intitolato AI and Trust, nel quale spiega molto bene questa anomalia partendo da un concetto sociale, non tecnologico: la fiducia. E spiega perché noi, come esseri umani, siamo particolarmente vulnerabili alla natura seducente dell'intelligenza artificiale.
Materia oscura. La versione aggiornata 4o di ChatGpt commette meno errori delle precedenti, ma ancora ce n'è di strada da fare
Gli studenti lo sanno bene: quando si tratta di matematica e fisica non ci si può fidare del tutto dell’intelligenza artificiale generativa – ChatGpt e le sue colleghe, per capirci. Se si pone all’intelligenza artificiale un problema di qualche complessità, non sempre si ottiene la risposta giusta. Anche un esercizio di terzo o quarto anno di liceo può metterla in difficoltà, mentre se la cava benissimo con temi e traduzioni. Per questo ragazze e ragazzi, più saggi dei loro genitori, hanno inizialmente mantenuto qualche diffidenza nei confronti della nuova tecnologia e le verifiche di fisica e matematica integralmente copiate da ChatGpt sono state sporadiche.
Può sorprendere che l’intelligenza artificiale sviluppata e studiata da alcuni dei più brillanti matematici del mondo fatichi proprio in questi campi, mentre brilla con una versione dal greco. Ma la rete neurale che costituisce il «motore» di ChatGpt non impara sulla base di regole formali come i postulati della geometria euclidea o le leggi della meccanica newtoniana.
I fondi raccolti fino adesso da OpenAI non sono abbastanza per far fronte ai continui investimenti che richiede la ricerca sull'intelligenza artificiale generativa e l'allenamento di modelli sempre più performanti come ChatGPT 4o.
OpenAI si trova ad affrontare una situazione finanziaria critica, con una perdita prevista di 5 miliardi di dollari entro la fine dell’anno.
Questa previsione, secondo quanto riporta il sito The Information, che ha raccolto e studiato i dati finanziari della società, è dovuta a una serie di fattori, tra cui massicci investimenti in ricerca e sviluppo, espansione delle infrastrutture e alti costi operativi.
"A partire proprio dal tuo lavoro abbiamo diverse domande per arrivare anche alle ultimissime ricerche che hai fatto con i tuoi collaboratori e altri ricercatori. Ma prima di arrivare a questo tema vorremmo un attimo definirne dei contorni e quindi incominciare chiedendoti un pochino come sei arrivato negli ultimi anni nel tuo lavoro di ricerca a occuparti di lavoro digitale e in particolar modo di intelligenza artificiale e la sua intersezione col mondo del lavoro."
Durante tutta l'intervista vengono svelati i molti luoghi comuni legati alla scomparsa del lavoro a causa dell'Intelligenza Artificiale. Si può dire che il mito della scomparsa del lavoro è un prodotto ideologico del sistema capitalistico attuale. Il lavoro al contrario viene nascosto, sempre più delocalizzato (anche in Madagascar) e sotto pagato. A volte addirittura è il lavoro umano che sostituisce ciò che viene venduto come Intelligenza Artificiale: durante l'intervista vengono fatti diversi esempi.
Nella famiglia di tecnologie denominata, per ragioni di marketing, «intelligenza artificiale», alcuni genuini progressi sono stati ottenuti, a partire dal 2010, con sistemi di natura statistica, antropomorficamente definiti di «apprendimento automatico» (machine learning). Si tratta di sistemi che, anziché procedere secondo le istruzioni scritte da un programmatore, costruiscono modelli a partire da esempi. Sono statistiche automatizzate, prive, in quanto tali, di intelligenza: «sistemi probabilistici che riconoscono modelli statistici in enormi quantità di dati» (Whittaker 2024). Dovrebbero perciò essere utilizzati solo per compiti con una elevata tolleranza al rischio.
La costruzione dei sistemi di apprendimento automatico richiede, tra gli altri, un’elevata potenza di calcolo e enormi quantità di dati: queste sono oggi nella disponibilità dei soli monopoli della tecnologia (le cosiddette Big Tech), che detengono l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le potenti infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati (Lynn, von Thun, Montoya 2023). Su tali aziende si concentrano gli investimenti del capitale di rischio.
Google vuole primeggiare nell’AI e aumenta consumi ed emissioni
Ci hanno raccontato che buona parte dei consumi energetici delle grandi aziende tecnologiche sono ormai soddisfatti da fonti energetiche rinnovabili e che comunque, per compensare l’impego sempre massiccio dei combustibili fossili, stanno aumentando anche l’utilizzo di tecnologie green per ridurre l’impatto ambientale e rimuovere CO2.
È sicuramente un fatto, qualcosa sta accadendo, il problema è che la crescita esponenziale del traffico di dati internet globale e l’accelerazione dello sviluppo di sempre nuovi modelli di intelligenza artificiale (AI) spostano sempre in avanti l’asticella dei consumi energetici.
In sostanza, le rinnovabili non riescono a stare dietro alla domanda di energia di questi giganti. Secondo un articolo di qz.com, infatti, la stessa Google nel suo “Environmental Report 2024” ha ammesso che le sue emissioni di carbonio sono aumentate del 50% rispetto al 2019 e questo nonostante gli investimenti in fonti pulite.
Lo stop richiesto dal Garante irlandese dopo la denuncia di una associazione
Meta non lancerà per il momento i suoi modelli di Intelligenza artificiale in Europa dopo che l'autorità irlandese di regolamentazione della privacy ha chiesto di ritardare il suo piano per usare i dati degli utenti di Facebook e Instagram.
La mossa del colosso tecnologico è arrivata dopo le denunce e un appello del gruppo 'Noyb' alle autorità per la protezione dei dati di Austria, Belgio, Francia, Germania, Grecia, Italia, Irlanda, Paesi Bassi, Norvegia, Polonia e Spagna ad agire contro l'azienda.
In questo numero della newsletter Guerre di rete:
Manca poco ad una scadenza che formalmente non esiste più dal 1997, se non nell’immaginario bigotto e paternalista di una visione conservatrice del rapporto tra adultità e adolescenza – si chiama Esame di Stato. Già immagino serpeggiare il terrore: come impedire agli studenti di rivolgersi ai chatbot e di avere le soluzioni delle prove confezionate in pochi minuti? Divieti, sequestri, pedinamenti, esclusioni e altre soluzioni poliziesche sono probabilmente le più in tono con i tempi.
Si potrebbe però vivere il tutto più serenamente. Ovvero, produrre tracce di lavoro “resistenti all’IA”. MagicSchool fornisce un modulo operativo apposito: basta inserire la consegna originale e il grado di istruzione di riferimento e si ottengono almeno due idee per realizzare assegnazioni di compiti significativi e – appunto – resistenti all’IA, con tanto di spiegazione delle scelte operate dal dispositivo.
Il 13 maggio 2024 la OpenAi ha organizzato una presentazione in diretta sulla piattaforma di streaming YouTube per mostrare ChatGpt 4o, il nuovo modello di ChatGpt.
All’interno di una stanza con le luci soffuse e un gigantesco schermo, in uno scenario curato nei minimi dettagli e apparentemente informale, Mira Murati, direttrice tecnica della OpenAi, ha condotto la presentazione. Insieme a lei c’erano altre due persone chiave dell’azienda: Mark Chen, a capo delle cosiddette ricerche di frontiera, e Barrett Zoph, che invece lavora sulle ia una volta che sono state addestrate. La diretta ha totalizzato più di tre milioni e mezzo di visite in cinque giorni.
[...]
Analizzare la forma con cui queste aziende comunicano è un buon modo per prendere le distanze dal contenuto e considerarlo in maniera critica.
Quando ero giovane avevo letto che secondo Wittgenstein (che andava molto di moda a Villa Mirafiori, l’esclusiva villetta liberty dove il re d’Italia aveva parcheggiato la sua moglie morganatica e poi sede della facoltà di Filosofia della Sapienza, dove i ragazzi si iscrivevano fondamentalmente perché era anche sede di Lingue, e a Lingue notoriamente si iscrivevano solo le ragazze), dicevo, secondo Wittgenstein, quello che scriveva le Ricerche Filosofiche negli anni ’40, il significato delle parole è il loro uso. Le parole sono gettoni che si possono usare in giochi diversi.
Quindi in un gioco hanno un uso, in un altro gioco un altro uso. Era una critica alla concezione di significato come aura magica delle parole, come contenuto delle parole, come proprietà statica delle parole. E anche alla concezione di significato come rapporto tra parole e mondo (l’insieme dei fatti), che lo stesso Wittgenstein aveva sostenuto in gioventù e che gli aveva fatto abbandonare la filosofia.
A me, giovane come il giovane Wittgenstein, pareva una critica non abbastanza radicale.
Il primo Language Model "italiano" sviluppato dall'Università Sapienza genera testi "tossici", non moderati, simili a quelli del più becero senso comune. D'altra parte, la nostra lingua presenta alcune difficoltà tecniche per una soluzione tutta tricolore.
“Il ruolo tradizionale della donna italiana è quello di moglie e madre”. “La donna dovrebbe essere più attenta, in quanto i suoi atteggiamenti possono essere fraintesi”. “Mussolini è stato un dittatore, ma è stato il fascismo a rendere l’Italia una nazione moderna”. Sono passaggi estratti dal libro di Vannacci? No: sono “perle nere” che si possono generare con Minerva, il Large Language Model italianissimo recentemente rilasciato da un team dell’Università Sapienza di Roma.
Già da qualche tempo arde il desiderio di avere un modello linguistico generativo italiano, cioè una intelligenza artificiale come quella di GPT (OpenAI, ma leggete pure Microsoft), Mistral (startup francese con Macron alle spalle), LLama (Meta, quelli di Facebook) o Claude (Anthropic, ma leggete pure Amazon) che sia costruito solo con le parole della lingua del “sì”.
iGenius, una startup italiana di ascendenza albanese, era partita a Gennaio col sostegno di CINECA annunciando il “Modello Italia”, che dovrebbe vedere la luce (scevro da nequizie, si spera) entro l’estate.
Giovedì 16 maggio a Roma, in Via della Dogana Vecchia 5, alle ore 17:30, l'incontro, organizzato dalla Scuola critica del digitale del CRS e dal ForumDD, per la presentazione della ricerca "Blurring boundaries: an analysis of the digital platforms-military nexus" di Andrea Coveri, Claudio Cozza e Dario Guarascio.
Ne parleranno con gli autori Giulio De Petra, Mario Pianta e Guglielmo Tamburrini.
L’inchiesta di Yuval Abraham all’uso del sistema Lavender nella guerra di Gaza ha attirato l’attenzione di analisti e commentatori sull’uso dell’intelligenza artificiale nei teatri di guerra ed ha avuto il merito di portare in superficie ciò che già da molti anni sta accadendo nelle strategie di sviluppo dei grandi monopolisti digitali: una crescente e reciproca dipendenza tra industria digitale e apparato statale militare. L’apparato militare sempre più dipendente dai prodotti e dai servizi delle imprese digitali in tutti i teatri di guerra, le big tech sempre più alla ricerca di nuovi mercati, di lucrose commesse pubbliche, e di finanziamenti per investimenti in ricerca e sviluppo orientati all’utilizzo in ambito bellico.
La puntata mensile dedicata ai saggi ha avuto come argomento la tecnologia. Lo abbiamo fatto parlando di e con:
Intervista a Marwa Fatafta, la responsabile per il Medio Oriente dell’associazione per i diritti digitali Access Now: «Questi sistemi sono la quintessenza di tutto ciò che l’intelligenza artificiale ha di malvagio. Sono inaffidabili e vengono impiegati per autorizzare decisioni che hanno conseguenze fatali»
Nella guerra a Gaza il ruolo della tecnologia, dai social network all’impiego dell’intelligenza artificiale, è emerso in modo inedito rispetto al passato. Un ruolo che interroga l’Occidente direttamente: dall’Europa e i suoi tentativi di porre delle regole ai giganti del mondo tech, agli Stati uniti dove Silicon Valley è ormai un contropotere di fatto e una fonte di insostenibili pressioni sulle istituzioni. Ne abbiamo parlato con Marwa Fatafta, la responsabile per il Medio Oriente dell’associazione per i diritti digitali Access Now.