Il presidente di estrema destra del paese Javier Milei questa settimana ha creato l' Unità di intelligenza artificiale applicata alla sicurezza , che secondo la legislazione utilizzerà "algoritmi di apprendimento automatico per analizzare i dati storici sulla criminalità per prevedere crimini futuri".
Si prevede inoltre di implementare un software di riconoscimento facciale per identificare le “persone ricercate”, pattugliare i social media e analizzare i filmati delle telecamere di sicurezza in tempo reale per rilevare attività sospette.
Uno scenario alla Minority Report, tanto che Amnesty International sostiene che la mossa potrebbe violare i diritti umani.
“La sorveglianza su larga scala influisce sulla libertà di espressione perché incoraggia le persone ad autocensurarsi o ad astenersi dal condividere le proprie idee o critiche se sospettano che tutto ciò che commentano, postano o pubblicano sia monitorato dalle forze di sicurezza”, ha affermato Mariela Belski, il direttore esecutivo di Amnesty International Argentina.
I fondi raccolti fino adesso da OpenAI non sono abbastanza per far fronte ai continui investimenti che richiede la ricerca sull'intelligenza artificiale generativa e l'allenamento di modelli sempre più performanti come ChatGPT 4o.
OpenAI si trova ad affrontare una situazione finanziaria critica, con una perdita prevista di 5 miliardi di dollari entro la fine dell’anno.
Questa previsione, secondo quanto riporta il sito The Information, che ha raccolto e studiato i dati finanziari della società, è dovuta a una serie di fattori, tra cui massicci investimenti in ricerca e sviluppo, espansione delle infrastrutture e alti costi operativi.
"A partire proprio dal tuo lavoro abbiamo diverse domande per arrivare anche alle ultimissime ricerche che hai fatto con i tuoi collaboratori e altri ricercatori. Ma prima di arrivare a questo tema vorremmo un attimo definirne dei contorni e quindi incominciare chiedendoti un pochino come sei arrivato negli ultimi anni nel tuo lavoro di ricerca a occuparti di lavoro digitale e in particolar modo di intelligenza artificiale e la sua intersezione col mondo del lavoro."
Durante tutta l'intervista vengono svelati i molti luoghi comuni legati alla scomparsa del lavoro a causa dell'Intelligenza Artificiale. Si può dire che il mito della scomparsa del lavoro è un prodotto ideologico del sistema capitalistico attuale. Il lavoro al contrario viene nascosto, sempre più delocalizzato (anche in Madagascar) e sotto pagato. A volte addirittura è il lavoro umano che sostituisce ciò che viene venduto come Intelligenza Artificiale: durante l'intervista vengono fatti diversi esempi.
Nella famiglia di tecnologie denominata, per ragioni di marketing, «intelligenza artificiale», alcuni genuini progressi sono stati ottenuti, a partire dal 2010, con sistemi di natura statistica, antropomorficamente definiti di «apprendimento automatico» (machine learning). Si tratta di sistemi che, anziché procedere secondo le istruzioni scritte da un programmatore, costruiscono modelli a partire da esempi. Sono statistiche automatizzate, prive, in quanto tali, di intelligenza: «sistemi probabilistici che riconoscono modelli statistici in enormi quantità di dati» (Whittaker 2024). Dovrebbero perciò essere utilizzati solo per compiti con una elevata tolleranza al rischio.
La costruzione dei sistemi di apprendimento automatico richiede, tra gli altri, un’elevata potenza di calcolo e enormi quantità di dati: queste sono oggi nella disponibilità dei soli monopoli della tecnologia (le cosiddette Big Tech), che detengono l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le potenti infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati (Lynn, von Thun, Montoya 2023). Su tali aziende si concentrano gli investimenti del capitale di rischio.
Google vuole primeggiare nell’AI e aumenta consumi ed emissioni
Ci hanno raccontato che buona parte dei consumi energetici delle grandi aziende tecnologiche sono ormai soddisfatti da fonti energetiche rinnovabili e che comunque, per compensare l’impego sempre massiccio dei combustibili fossili, stanno aumentando anche l’utilizzo di tecnologie green per ridurre l’impatto ambientale e rimuovere CO2.
È sicuramente un fatto, qualcosa sta accadendo, il problema è che la crescita esponenziale del traffico di dati internet globale e l’accelerazione dello sviluppo di sempre nuovi modelli di intelligenza artificiale (AI) spostano sempre in avanti l’asticella dei consumi energetici.
In sostanza, le rinnovabili non riescono a stare dietro alla domanda di energia di questi giganti. Secondo un articolo di qz.com, infatti, la stessa Google nel suo “Environmental Report 2024” ha ammesso che le sue emissioni di carbonio sono aumentate del 50% rispetto al 2019 e questo nonostante gli investimenti in fonti pulite.
L’IA è una divoratrice insaziabile di energia: basti pensare che, per poter funzionare, da sola riesce a immagazzinare il due per cento dell’elettricità consumata dall’intero pianeta. Lasciandosi alle spalle una considerevole impronta di carbonio dal momento che è alimentata da energia elettrica non rinnovabile e consuma milioni di litri di acqua dolce. È stato calcolato che, entro il 2027, la sua sete potrebbe arrivare, entro i prossimi due anni, a prosciugare il pianeta di 6,6 miliardi di metri cubi di acqua potabile; per non parlare degli impatti costanti derivanti dalla costruzione e manutenzione delle macchine.
Lo stop richiesto dal Garante irlandese dopo la denuncia di una associazione
Meta non lancerà per il momento i suoi modelli di Intelligenza artificiale in Europa dopo che l'autorità irlandese di regolamentazione della privacy ha chiesto di ritardare il suo piano per usare i dati degli utenti di Facebook e Instagram.
La mossa del colosso tecnologico è arrivata dopo le denunce e un appello del gruppo 'Noyb' alle autorità per la protezione dei dati di Austria, Belgio, Francia, Germania, Grecia, Italia, Irlanda, Paesi Bassi, Norvegia, Polonia e Spagna ad agire contro l'azienda.
In questo numero della newsletter Guerre di rete:
L'organizzazione Human Rights Watch ha lanciato un allarme sui rischi per la privacy dei bambini, le cui foto sono state usate per addestrare l'IA. Le fotografie sono state prese e utilizzate senza consenso per addestrare alcuni strumenti di intelligenza artificiale come alcuni popolari generatori di immagini come Stable Diffusion.
Queste immagini sono state estratte da LAION-5B, un database costruito da snapshot di Common Crawl del web pubblico che racchiude immagini e testi derivati da 5,85 miliardi di immagini e didascalie online dal 2008. Secondo HRW, molte delle identità dei bambini brasiliani erano facilmente rintracciabili poiché i loro nomi e le località erano inclusi nelle didascalie delle immagini utilizzate per costruire il dataset.
Le foto analizzate coprono periodi estesi della vita dei minori, documentando momenti intimi come nascite, compleanni o la quotidianità domestica e scolastica. "I bambini non dovrebbero vivere nella paura che le loro foto possano essere rubate e usate come armi contro di loro", ha detto ancora Hye Jung Han , ricercatrice occupata nella difesa dei diritti dei bambini e della tecnologia presso Human Rights Watch. “Il governo dovrebbe adottare urgentemente politiche per proteggere i dati dei bambini dall’uso improprio alimentato dall’intelligenza artificiale”.
Il 13 maggio 2024 la OpenAi ha organizzato una presentazione in diretta sulla piattaforma di streaming YouTube per mostrare ChatGpt 4o, il nuovo modello di ChatGpt.
All’interno di una stanza con le luci soffuse e un gigantesco schermo, in uno scenario curato nei minimi dettagli e apparentemente informale, Mira Murati, direttrice tecnica della OpenAi, ha condotto la presentazione. Insieme a lei c’erano altre due persone chiave dell’azienda: Mark Chen, a capo delle cosiddette ricerche di frontiera, e Barrett Zoph, che invece lavora sulle ia una volta che sono state addestrate. La diretta ha totalizzato più di tre milioni e mezzo di visite in cinque giorni.
[...]
Analizzare la forma con cui queste aziende comunicano è un buon modo per prendere le distanze dal contenuto e considerarlo in maniera critica.