La storia recente ha insegnato che ogni ondata tecno entusiasta genera un effetto economico e sociale, il quale tende poi a rimodularsi, o meglio a sgonfiarsi, via via che quell'innovazione tecnologica perde di appeal, o magari si rivela proprio come un flop, come già accaduto negli anni scorsi con fenomeni come NFT, criptovalute, metaverso.
Troppa spesa, poca resa, questo lo dice addirittura Goldman Sachs rispetto all'AI generativa. Se questa grande attesa sarà mai ripagata in termini di vantaggi e rendimenti, é un grosso dubbio per l'industria: figuriamoci per gli utenti finali.
D'altro canto, un player che ha iniziato la corsa all'oro da tempo come OpenAI, potrebbe perdere 5 miliardi di dollari solo quest'anno a causa degli ingenti costi di ChatGPT. Nel frattempo, altri mega investitori, come Meta e Google, affilano le armi per scalzare la creatura di Sam Altman.
La domanda, chiaramente, é quali sono i benefici reali di questa corsa all'AI? La bolla sta forse iniziando già a sgonfiarsi, o è destinata a durare ancora per qualche anno?
Lo spiega l'esperto mondiale Bruce Schneier.
È facile considerare l'intelligenza artificiale come nient'altro che l'ennesima novità tecnologica, uno strumento informatico in più, un ausilio al quale ci abitueremo presto. Nessuno si è agitato o ha proclamato la catastrofe sociale per l'introduzione del controllo ortografico o del riconoscimento vocale. Quindi perché così tanto clamore, e in alcuni casi panico, proprio intorno all'intelligenza artificiale?
L'esperto di sicurezza informatica Bruce Schneier, autore di numerosi libri sulle tematiche digitali e membro del direttivo della Electronic Frontier Foundation, una delle associazioni di punta nella tutela dei diritti digitali, ha pubblicato un saggio, intitolato AI and Trust, nel quale spiega molto bene questa anomalia partendo da un concetto sociale, non tecnologico: la fiducia. E spiega perché noi, come esseri umani, siamo particolarmente vulnerabili alla natura seducente dell'intelligenza artificiale.
Materia oscura. La versione aggiornata 4o di ChatGpt commette meno errori delle precedenti, ma ancora ce n'è di strada da fare
Gli studenti lo sanno bene: quando si tratta di matematica e fisica non ci si può fidare del tutto dell’intelligenza artificiale generativa – ChatGpt e le sue colleghe, per capirci. Se si pone all’intelligenza artificiale un problema di qualche complessità, non sempre si ottiene la risposta giusta. Anche un esercizio di terzo o quarto anno di liceo può metterla in difficoltà, mentre se la cava benissimo con temi e traduzioni. Per questo ragazze e ragazzi, più saggi dei loro genitori, hanno inizialmente mantenuto qualche diffidenza nei confronti della nuova tecnologia e le verifiche di fisica e matematica integralmente copiate da ChatGpt sono state sporadiche.
Può sorprendere che l’intelligenza artificiale sviluppata e studiata da alcuni dei più brillanti matematici del mondo fatichi proprio in questi campi, mentre brilla con una versione dal greco. Ma la rete neurale che costituisce il «motore» di ChatGpt non impara sulla base di regole formali come i postulati della geometria euclidea o le leggi della meccanica newtoniana.
Il presidente di estrema destra del paese Javier Milei questa settimana ha creato l' Unità di intelligenza artificiale applicata alla sicurezza , che secondo la legislazione utilizzerà "algoritmi di apprendimento automatico per analizzare i dati storici sulla criminalità per prevedere crimini futuri".
Si prevede inoltre di implementare un software di riconoscimento facciale per identificare le “persone ricercate”, pattugliare i social media e analizzare i filmati delle telecamere di sicurezza in tempo reale per rilevare attività sospette.
Uno scenario alla Minority Report, tanto che Amnesty International sostiene che la mossa potrebbe violare i diritti umani.
“La sorveglianza su larga scala influisce sulla libertà di espressione perché incoraggia le persone ad autocensurarsi o ad astenersi dal condividere le proprie idee o critiche se sospettano che tutto ciò che commentano, postano o pubblicano sia monitorato dalle forze di sicurezza”, ha affermato Mariela Belski, il direttore esecutivo di Amnesty International Argentina.
I fondi raccolti fino adesso da OpenAI non sono abbastanza per far fronte ai continui investimenti che richiede la ricerca sull'intelligenza artificiale generativa e l'allenamento di modelli sempre più performanti come ChatGPT 4o.
OpenAI si trova ad affrontare una situazione finanziaria critica, con una perdita prevista di 5 miliardi di dollari entro la fine dell’anno.
Questa previsione, secondo quanto riporta il sito The Information, che ha raccolto e studiato i dati finanziari della società, è dovuta a una serie di fattori, tra cui massicci investimenti in ricerca e sviluppo, espansione delle infrastrutture e alti costi operativi.
"A partire proprio dal tuo lavoro abbiamo diverse domande per arrivare anche alle ultimissime ricerche che hai fatto con i tuoi collaboratori e altri ricercatori. Ma prima di arrivare a questo tema vorremmo un attimo definirne dei contorni e quindi incominciare chiedendoti un pochino come sei arrivato negli ultimi anni nel tuo lavoro di ricerca a occuparti di lavoro digitale e in particolar modo di intelligenza artificiale e la sua intersezione col mondo del lavoro."
Durante tutta l'intervista vengono svelati i molti luoghi comuni legati alla scomparsa del lavoro a causa dell'Intelligenza Artificiale. Si può dire che il mito della scomparsa del lavoro è un prodotto ideologico del sistema capitalistico attuale. Il lavoro al contrario viene nascosto, sempre più delocalizzato (anche in Madagascar) e sotto pagato. A volte addirittura è il lavoro umano che sostituisce ciò che viene venduto come Intelligenza Artificiale: durante l'intervista vengono fatti diversi esempi.
Nella famiglia di tecnologie denominata, per ragioni di marketing, «intelligenza artificiale», alcuni genuini progressi sono stati ottenuti, a partire dal 2010, con sistemi di natura statistica, antropomorficamente definiti di «apprendimento automatico» (machine learning). Si tratta di sistemi che, anziché procedere secondo le istruzioni scritte da un programmatore, costruiscono modelli a partire da esempi. Sono statistiche automatizzate, prive, in quanto tali, di intelligenza: «sistemi probabilistici che riconoscono modelli statistici in enormi quantità di dati» (Whittaker 2024). Dovrebbero perciò essere utilizzati solo per compiti con una elevata tolleranza al rischio.
La costruzione dei sistemi di apprendimento automatico richiede, tra gli altri, un’elevata potenza di calcolo e enormi quantità di dati: queste sono oggi nella disponibilità dei soli monopoli della tecnologia (le cosiddette Big Tech), che detengono l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le potenti infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati (Lynn, von Thun, Montoya 2023). Su tali aziende si concentrano gli investimenti del capitale di rischio.
Google vuole primeggiare nell’AI e aumenta consumi ed emissioni
Ci hanno raccontato che buona parte dei consumi energetici delle grandi aziende tecnologiche sono ormai soddisfatti da fonti energetiche rinnovabili e che comunque, per compensare l’impego sempre massiccio dei combustibili fossili, stanno aumentando anche l’utilizzo di tecnologie green per ridurre l’impatto ambientale e rimuovere CO2.
È sicuramente un fatto, qualcosa sta accadendo, il problema è che la crescita esponenziale del traffico di dati internet globale e l’accelerazione dello sviluppo di sempre nuovi modelli di intelligenza artificiale (AI) spostano sempre in avanti l’asticella dei consumi energetici.
In sostanza, le rinnovabili non riescono a stare dietro alla domanda di energia di questi giganti. Secondo un articolo di qz.com, infatti, la stessa Google nel suo “Environmental Report 2024” ha ammesso che le sue emissioni di carbonio sono aumentate del 50% rispetto al 2019 e questo nonostante gli investimenti in fonti pulite.
L’IA è una divoratrice insaziabile di energia: basti pensare che, per poter funzionare, da sola riesce a immagazzinare il due per cento dell’elettricità consumata dall’intero pianeta. Lasciandosi alle spalle una considerevole impronta di carbonio dal momento che è alimentata da energia elettrica non rinnovabile e consuma milioni di litri di acqua dolce. È stato calcolato che, entro il 2027, la sua sete potrebbe arrivare, entro i prossimi due anni, a prosciugare il pianeta di 6,6 miliardi di metri cubi di acqua potabile; per non parlare degli impatti costanti derivanti dalla costruzione e manutenzione delle macchine.
Lo stop richiesto dal Garante irlandese dopo la denuncia di una associazione
Meta non lancerà per il momento i suoi modelli di Intelligenza artificiale in Europa dopo che l'autorità irlandese di regolamentazione della privacy ha chiesto di ritardare il suo piano per usare i dati degli utenti di Facebook e Instagram.
La mossa del colosso tecnologico è arrivata dopo le denunce e un appello del gruppo 'Noyb' alle autorità per la protezione dei dati di Austria, Belgio, Francia, Germania, Grecia, Italia, Irlanda, Paesi Bassi, Norvegia, Polonia e Spagna ad agire contro l'azienda.