Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

I fondi raccolti fino adesso da OpenAI non sono abbastanza per far fronte ai continui investimenti che richiede la ricerca sull'intelligenza artificiale generativa e l'allenamento di modelli sempre più performanti come ChatGPT 4o.

OpenAI si trova ad affrontare una situazione finanziaria critica, con una perdita prevista di 5 miliardi di dollari entro la fine dell’anno.

Questa previsione, secondo quanto riporta il sito The Information, che ha raccolto e studiato i dati finanziari della società, è dovuta a una serie di fattori, tra cui massicci investimenti in ricerca e sviluppo, espansione delle infrastrutture e alti costi operativi.

Leggi l'articolo

"A partire proprio dal tuo lavoro abbiamo diverse domande per arrivare anche alle ultimissime ricerche che hai fatto con i tuoi collaboratori e altri ricercatori. Ma prima di arrivare a questo tema vorremmo un attimo definirne dei contorni e quindi incominciare chiedendoti un pochino come sei arrivato negli ultimi anni nel tuo lavoro di ricerca a occuparti di lavoro digitale e in particolar modo di intelligenza artificiale e la sua intersezione col mondo del lavoro."

Durante tutta l'intervista vengono svelati i molti luoghi comuni legati alla scomparsa del lavoro a causa dell'Intelligenza Artificiale. Si può dire che il mito della scomparsa del lavoro è un prodotto ideologico del sistema capitalistico attuale. Il lavoro al contrario viene nascosto, sempre più delocalizzato (anche in Madagascar) e sotto pagato. A volte addirittura è il lavoro umano che sostituisce ciò che viene venduto come Intelligenza Artificiale: durante l'intervista vengono fatti diversi esempi.

Ascolta l'intervista di Stakka Stakka su Radio Backout

Nella famiglia di tecnologie denominata, per ragioni di marketing, «intelligenza artificiale», alcuni genuini progressi sono stati ottenuti, a partire dal 2010, con sistemi di natura statistica, antropomorficamente definiti di «apprendimento automatico» (machine learning). Si tratta di sistemi che, anziché procedere secondo le istruzioni scritte da un programmatore, costruiscono modelli a partire da esempi. Sono statistiche automatizzate, prive, in quanto tali, di intelligenza: «sistemi probabilistici che riconoscono modelli statistici in enormi quantità di dati» (Whittaker 2024). Dovrebbero perciò essere utilizzati solo per compiti con una elevata tolleranza al rischio.

La costruzione dei sistemi di apprendimento automatico richiede, tra gli altri, un’elevata potenza di calcolo e enormi quantità di dati: queste sono oggi nella disponibilità dei soli monopoli della tecnologia (le cosiddette Big Tech), che detengono l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le potenti infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati (Lynn, von Thun, Montoya 2023). Su tali aziende si concentrano gli investimenti del capitale di rischio.

Leggi l'articolo completo di Daniela Tafani

Google vuole primeggiare nell’AI e aumenta consumi ed emissioni

Ci hanno raccontato che buona parte dei consumi energetici delle grandi aziende tecnologiche sono ormai soddisfatti da fonti energetiche rinnovabili e che comunque, per compensare l’impego sempre massiccio dei combustibili fossili, stanno aumentando anche l’utilizzo di tecnologie green per ridurre l’impatto ambientale e rimuovere CO2.

È sicuramente un fatto, qualcosa sta accadendo, il problema è che la crescita esponenziale del traffico di dati internet globale e l’accelerazione dello sviluppo di sempre nuovi modelli di intelligenza artificiale (AI) spostano sempre in avanti l’asticella dei consumi energetici.

In sostanza, le rinnovabili non riescono a stare dietro alla domanda di energia di questi giganti. Secondo un articolo di qz.com, infatti, la stessa Google nel suo “Environmental Report 2024” ha ammesso che le sue emissioni di carbonio sono aumentate del 50% rispetto al 2019 e questo nonostante gli investimenti in fonti pulite.

Leggi l'articolo

L’IA è una divoratrice insaziabile di energia: basti pensare che, per poter funzionare, da sola riesce a immagazzinare il due per cento dell’elettricità consumata dall’intero pianeta. Lasciandosi alle spalle una considerevole impronta di carbonio dal momento che è alimentata da energia elettrica non rinnovabile e consuma milioni di litri di acqua dolce. È stato calcolato che, entro il 2027, la sua sete potrebbe arrivare, entro i prossimi due anni, a prosciugare il pianeta di 6,6 miliardi di metri cubi di acqua potabile; per non parlare degli impatti costanti derivanti dalla costruzione e manutenzione delle macchine.

Link all'articolo qui

Ulteriore approfondimento qui

Lo stop richiesto dal Garante irlandese dopo la denuncia di una associazione

Meta non lancerà per il momento i suoi modelli di Intelligenza artificiale in Europa dopo che l'autorità irlandese di regolamentazione della privacy ha chiesto di ritardare il suo piano per usare i dati degli utenti di Facebook e Instagram.

La mossa del colosso tecnologico è arrivata dopo le denunce e un appello del gruppo 'Noyb' alle autorità per la protezione dei dati di Austria, Belgio, Francia, Germania, Grecia, Italia, Irlanda, Paesi Bassi, Norvegia, Polonia e Spagna ad agire contro l'azienda.

Leggi l'articolo

In questo numero della newsletter Guerre di rete:

  • Saluti
  • Sanità e cybersicurezza
  • Intelligenza Artificiale e lavoro
  • Reminder del nostro ebook Il fronte cyber

Leggi la newsletter

L'organizzazione Human Rights Watch ha lanciato un allarme sui rischi per la privacy dei bambini, le cui foto sono state usate per addestrare l'IA. Le fotografie sono state prese e utilizzate senza consenso per addestrare alcuni strumenti di intelligenza artificiale come alcuni popolari generatori di immagini come Stable Diffusion.

Queste immagini sono state estratte da LAION-5B, un database costruito da snapshot di Common Crawl del web pubblico che racchiude immagini e testi derivati da 5,85 miliardi di immagini e didascalie online dal 2008. Secondo HRW, molte delle identità dei bambini brasiliani erano facilmente rintracciabili poiché i loro nomi e le località erano inclusi nelle didascalie delle immagini utilizzate per costruire il dataset.

Le foto analizzate coprono periodi estesi della vita dei minori, documentando momenti intimi come nascite, compleanni o la quotidianità domestica e scolastica. "I bambini non dovrebbero vivere nella paura che le loro foto possano essere rubate e usate come armi contro di loro", ha detto ancora Hye Jung Han , ricercatrice occupata nella difesa dei diritti dei bambini e della tecnologia presso Human Rights Watch. “Il governo dovrebbe adottare urgentemente politiche per proteggere i dati dei bambini dall’uso improprio alimentato dall’intelligenza artificiale”.

L'articolo originale

Il 13 maggio 2024 la OpenAi ha organizzato una presentazione in diretta sulla piattaforma di streaming YouTube per mostrare ChatGpt 4o, il nuovo modello di ChatGpt.

All’interno di una stanza con le luci soffuse e un gigantesco schermo, in uno scenario curato nei minimi dettagli e apparentemente informale, Mira Murati, direttrice tecnica della OpenAi, ha condotto la presentazione. Insieme a lei c’erano altre due persone chiave dell’azienda: Mark Chen, a capo delle cosiddette ricerche di frontiera, e Barrett Zoph, che invece lavora sulle ia una volta che sono state addestrate. La diretta ha totalizzato più di tre milioni e mezzo di visite in cinque giorni.

[...]

Analizzare la forma con cui queste aziende comunicano è un buon modo per prendere le distanze dal contenuto e considerarlo in maniera critica.

Leggi l'articolo sul sito di Internazionale

Quando ero giovane avevo letto che secondo Wittgenstein (che andava molto di moda a Villa Mirafiori, l’esclusiva villetta liberty dove il re d’Italia aveva parcheggiato la sua moglie morganatica e poi sede della facoltà di Filosofia della Sapienza, dove i ragazzi si iscrivevano fondamentalmente perché era anche sede di Lingue, e a Lingue notoriamente si iscrivevano solo le ragazze), dicevo, secondo Wittgenstein, quello che scriveva le Ricerche Filosofiche negli anni ’40, il significato delle parole è il loro uso. Le parole sono gettoni che si possono usare in giochi diversi.

Quindi in un gioco hanno un uso, in un altro gioco un altro uso. Era una critica alla concezione di significato come aura magica delle parole, come contenuto delle parole, come proprietà statica delle parole. E anche alla concezione di significato come rapporto tra parole e mondo (l’insieme dei fatti), che lo stesso Wittgenstein aveva sostenuto in gioventù e che gli aveva fatto abbandonare la filosofia.

A me, giovane come il giovane Wittgenstein, pareva una critica non abbastanza radicale.

Leggi l'articolo completo sul sito di Stefano Penge

Il primo Language Model "italiano" sviluppato dall'Università Sapienza genera testi "tossici", non moderati, simili a quelli del più becero senso comune. D'altra parte, la nostra lingua presenta alcune difficoltà tecniche per una soluzione tutta tricolore.

“Il ruolo tradizionale della donna italiana è quello di moglie e madre”. “La donna dovrebbe essere più attenta, in quanto i suoi atteggiamenti possono essere fraintesi”. “Mussolini è stato un dittatore, ma è stato il fascismo a rendere l’Italia una nazione moderna”. Sono passaggi estratti dal libro di Vannacci? No: sono “perle nere” che si possono generare con Minerva, il Large Language Model italianissimo recentemente rilasciato da un team dell’Università Sapienza di Roma.

Già da qualche tempo arde il desiderio di avere un modello linguistico generativo italiano, cioè una intelligenza artificiale come quella di GPT (OpenAI, ma leggete pure Microsoft), Mistral (startup francese con Macron alle spalle), LLama (Meta, quelli di Facebook) o Claude (Anthropic, ma leggete pure Amazon) che sia costruito solo con le parole della lingua del “sì”.

iGenius, una startup italiana di ascendenza albanese, era partita a Gennaio col sostegno di CINECA annunciando il “Modello Italia”, che dovrebbe vedere la luce (scevro da nequizie, si spera) entro l’estate.

Leggi l'articolo sul sito de "Il Manifesto"

Giovedì 16 maggio a Roma, in Via della Dogana Vecchia 5, alle ore 17:30, l'incontro, organizzato dalla Scuola critica del digitale del CRS e dal ForumDD, per la presentazione della ricerca "Blurring boundaries: an analysis of the digital platforms-military nexus" di Andrea Coveri, Claudio Cozza e Dario Guarascio.

Ne parleranno con gli autori Giulio De Petra, Mario Pianta e Guglielmo Tamburrini.

L’inchiesta di Yuval Abraham all’uso del sistema Lavender nella guerra di Gaza ha attirato l’attenzione di analisti e commentatori sull’uso dell’intelligenza artificiale nei teatri di guerra ed ha avuto il merito di portare in superficie ciò che già da molti anni sta accadendo nelle strategie di sviluppo dei grandi monopolisti digitali: una crescente e reciproca dipendenza tra industria digitale e apparato statale militare. L’apparato militare sempre più dipendente dai prodotti e dai servizi delle imprese digitali in tutti i teatri di guerra, le big tech sempre più alla ricerca di nuovi mercati, di lucrose commesse pubbliche, e di finanziamenti per investimenti in ricerca e sviluppo orientati all’utilizzo in ambito bellico.

Leggi l'articolo

La puntata mensile dedicata ai saggi ha avuto come argomento la tecnologia. Lo abbiamo fatto parlando di e con:

  • ▷ Contro lo smartphone - Per una tecnologia più democratica di Juan Carlos De Martin (add editore)
  • ▷ L’intelligenza inesistente - Un approccio conviviale all'intelligenza artificiale di Stefano Borroni Barale (Altraeconomia)
  • ▷ Le emissioni segrete. L'impatto ambientale dell'universo digitale di Giovanna Sissa (Il Mulino)

Ascolta l'audio sul sito di Radio Onda Rossa

Intervista a Marwa Fatafta, la responsabile per il Medio Oriente dell’associazione per i diritti digitali Access Now: «Questi sistemi sono la quintessenza di tutto ciò che l’intelligenza artificiale ha di malvagio. Sono inaffidabili e vengono impiegati per autorizzare decisioni che hanno conseguenze fatali»

Nella guerra a Gaza il ruolo della tecnologia, dai social network all’impiego dell’intelligenza artificiale, è emerso in modo inedito rispetto al passato. Un ruolo che interroga l’Occidente direttamente: dall’Europa e i suoi tentativi di porre delle regole ai giganti del mondo tech, agli Stati uniti dove Silicon Valley è ormai un contropotere di fatto e una fonte di insostenibili pressioni sulle istituzioni. Ne abbiamo parlato con Marwa Fatafta, la responsabile per il Medio Oriente dell’associazione per i diritti digitali Access Now.

Leggi l'articolo

Una prospettiva hacker sull’“Intelligenza Artificiale”: come funzionano i Grandi Modelli Linguistici? Dall’inquinamento dell’infosfera all’e-proctoring, vie d’uscita e percorsi possibili. Dal numero 25 de «La ricerca», “Uomini e bot”.

Risoluto, il Professore disse:

"Non credo proprio che possa farcela. Voglio dire, a sostituirsi a me, per scrivere una recensione decente. Insomma, va bene, non sarò un genio, ma sono pur sempre meglio di una macchina!"

Il Professore ostentava convinzione, eppure nella sua voce si coglieva una certa qual esitazione, che tradiva un dubbio: e se… e se l’Intelligenza Artificiale fosse davvero stata in grado di scrivere una recensione meglio di lui?

Leggi l'articolo di Agnese Trocchi e Carlo Milani

Inizio di puntata con la segnalazione di una interessante ricerca di Citizen Lab riguardo alle tastiere per l'inserimento del Cinese che utilizzano funzionalità "cloud": non solo questo tipo di applicazione ha una invasione della privacy intrinseca, ma difetti software facevano sì che i problemi di sicurezza fossero ancora peggiori di quanto si potesse pensare.

Ci spostiamo poi negli Stati Uniti, seguendo le vicende di TikTok (che non sta facendo molto per salvarsi dalle mire del Congresso) nonché Amazon e Google, che da una parte hanno gli occhi dell'antitrust puntati su di loro, dall'altra non pare proprio ci sia un forte interesse governativo ad ostacolarle. Nel frattempo, Amazon prende appunti di autodifesa digitale e utilizza sistemi per la cancellazione delle prove.

La carrellata di notiziole darà grande spazio alla cosiddetta intelligenza artificiale, in particolare approfondendo l'uso dell'intelligenza artificiale per "scoprire" nuovi materiali (o meglio, per brevettarli) e per dotare l'hardware di nuove funzionalità.

Non manchiamo di festeggiare il rilascio in software libero di una delle versioni più buggate di MS-DOS (la 4.0).

Ascolta l'audio sul sito di Radio Onda Rossa

Magari siete di fretta, avete da fare. Però qualcuno vi ha segnalato l’ennesima rivoluzione dell’AI, targata Microsoft. Non potete fare un figuraccia se qualcuno in una conversazione butta là “…un po’ come Vasa, no?” e voi non sapete se reagire con “interessante”, “io l’avevo già detto”, “roba da matti” o “dove andremo a finire?”. Per fortuna, questo articolo scritto da nove ricercatori di Microsoft Research Asia viene riassunto tre volte.

[...]

La ricerca del gruppo di Microsoft Research Asia ha prodotto dei risultati francamente affascinanti. Come sottolineano gli autori, il punto non è la possibilità di fare un video fake in cui Monna Lisa canta un brano rap (questo si era già visto), ma il fatto che avendo i due stimoli di partenza (la foto e la registrazione audio) il video può essere generato e controllato in tempo reale, in termini di persona, di movimenti oculari, di rotazione della testa, ma anche di espressione, come è dimostrato dalla registrazione di una demo. Il risultato è verosimile e il processo efficiente. Quindi si può immaginare un avatar che reagisca in tempo reale alla situazione, usando un parlato non registrato ma sintetizzato a partire da un testo prodotto da un software. Alexa, scànsate.

I punti interessanti, per me, sono due: i disclaimer etici che vengono immediatamente messi avanti dai ricercatori e i campi di applicazione dichiarati.

Leggi l'articolo sul sito di Stefano Penge

L'algoritmo. Il Manifesto pubblica l'inchiesta dei siti di informazione israeliani +972 e Local Call: l’intelligenza artificiale dietro il massacro di Gaza. 37mila palestinesi «marcati» dalla Ia e colpiti nelle loro case. Poca o nulla supervisione umana: «Per l’assassinio dei comandanti senior, si era disposti a uccidere centinaia di civili. Avevamo un calcolo: quanti per un comandante di brigata, quanti per uno di battaglione»

Nel 2021 è stato pubblicato in inglese un libro intitolato The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World, sotto lo pseudonimo «Brigadier General Y.S.». In esso, l’autore – un uomo che abbiamo confermato essere l’attuale comandante dell’unità di intelligence d’elite israeliana 8200 – sostiene la necessità di creare una macchina speciale, in grado di processare rapidamente enormi quantità di dati per generare migliaia di potenziali «obiettivi» per gli attacchi militari nel mezzo di una guerra. Una tecnologia del genere, scrive, risolverebbe quelle che ha descritto come «strettoie umane, sia nell’individuazione di nuovi obiettivi che nel processo decisionale per approvarli».

Una tale macchina, si è scoperto, esiste davvero.

Una nuova inchiesta condotta da +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come Lavender, di cui qui si scrive per la prima volta.

Leggi l'articolo

L’AI di massa, che tutto sommato è ancora da venire e dimostrare, avanza per supernove. La propulsione è quella di capitali ingentissimi e ad ogni passo semina morte e distruzione su chiunque altro ci abbia provato.

Iniziò allo stesso modo di tante storie incidentali, il 30 Novembre 2022 partì l’AI Race.

La bandiera a scacchi la diede un servizio di un’azienda poco nota, la OpenAI che lo aprì al pubblico con il nome di ChatGPT. L’AI è una materia che riguarda la scienza dell’informazione, molto più antica di questo software, ma l’effetto WoW fu così forte che segnò di per se una pietra miliare per l’intero settore. La profonda influenza di questo prodotto, soprattutto nella versione del lancio, non riguardava le effettive capacità, quanto piuttosto l’interesse del pubblico che attirava.

Leggi l'articolo

Obiettivi e lacune della prima legge al mondo sull'intelligenza artificiale

Con 523 voti favorevoli, 46 contrari e 49 astensioni, dopo un lungo e travagliato iter nel quale talvolta sembrava di essere a un vicolo cieco, ieri il Parlamento europeo ha approvato l’AI Act, la prima regolamentazione al mondo sugli utilizzi dell’intelligenza artificiale e dei sistemi basati su questa tecnologia. Composto di 113 articoli e 12 allegati, il documento si propone di proteggere diritti fondamentali e la sostenibilità ambientale, mantenendo l’obiettivo di facilitare e promuovere la crescita di competitor europei ai colossi statunitensi.

L’articolo 3 è quello che definisce cosa si intende per intelligenza artificiale, ovvero «un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia» e che dalle previsioni e dai contenuti generati «può influenzare ambienti fisici o virtuali». La definizione non si applica quindi ai sistemi di software tradizionali o agli approcci che si basano su regole predefinite.

Leggi l'articolo