Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Google ha siglato un accordo con Kairos Power per l'utilizzo di piccoli reattori nucleari per generare la quantità di energia necessaria ad alimentare i suoi data center per lo sviluppo dell'intelligenza artificiale (AI). L'azienda ha dichiarato che l'accordo prevede l'avvio dell'utilizzo del primo reattore nel corso di questo decennio e la messa in funzione di altri entro il 2035. Le società non hanno fornito alcun dettaglio sull'importo dell'accordo o su dove saranno costruiti gli impianti.

Ma Google a quanto pare non è l'unica, lo scorso mese Microsoft ha raggiunto un accordo per rimmettere in funzione l'impianto nucleare di Three Mile Island, tristemente noto per il più grave incidente nucleare accaduto negli USA nel 1979.

Leggi l'articolo

Nel suo rapporto Draghi dice che non possiamo avere una forte tutela dei diritti fondamentali e allo stesso tempo aspettarci di promuovere l’innovazione. La critica è rivolta in particolare al GDPR, che protegge i nostri dati personali. Ma è una critica senza fondamento.

Tra le cause della scarsa competitività delle imprese europee nei settori avanzati dell’informatica, oggi chiamata “intelligenza artificiale”, il rapporto Draghi individua la regolamentazione dell’Unione Europea sull’uso dei dati1. Considerata troppo complessa e onerosa rispetto ai sistemi in vigore nei principali paesi leader, come USA e Cina, tale regolamentazione penalizzerebbe i ricercatori e gli innovatori europei impegnati nella competizione globale.

[...]

Il senso è chiaro: non possiamo avere una forte tutela dei diritti fondamentali e allo stesso tempo aspettarci di promuovere l’innovazione. Il trade-off è inevitabile, e prepariamoci ad affrontarlo.

Ma quali sarebbero gli ostacoli che questa “strong ex ante regulatory safeguard” pone all’innovazione e alla competitività delle imprese europee? Il rapporto Draghi ne individua tre: i) il GDPR impone oneri alle imprese europee impegnate nei settori di punta dell’intelligenza artificiale che le penalizzano rispetto ai concorrenti USA e cinesi; ii) l’applicazione frammentaria e incoerente del GDPR crea incertezza sull’uso legittimo dei dati e iii) questa incertezza impedisce, in modo particolare, l’uso efficiente dei dati sanitari per lo sviluppo di strumenti di intelligenza artificiale nel settore medico e farmaceutico.

Verifichiamo se gli argomenti a sostegno di queste tesi possono reggere a un’analisi un po’ approfondita.

Leggi l'articolo di Maurizio Borghi

La prima parte della trasmissione è dedicata al secondo tentativo di Microsoft di lanciare un sistema di ricerca all'interno di Windows basato su intelligenza artificiale. Se il primo tentativo era stato un disastro di sicurezza, cosa possiamo dire del secondo? Indubbiamente il nuovo design sembra più solido; ma come leggere complessivamente questo progetto di accumulazione di grossi dataset in locale e di spostamento del carico computazionale sull'hardware utente?

La seconda parte della trasmissione è invece legata ad NSO e alle cause che ha con Apple e Whatsapp (avete letto bene). Benché per entrambe le aziende è chiaro che si tratti di processi il cui fine ultimo è il miglioramento della propria reputazione, rileviamo come entrambi i processi siano molto appesantiti dall'ostruzionismo e dalla copertura di Israele.

Ascolta l'audio sul sito di Radio Onda Rossa

Il 176° Mercoledì di Nexa si terrà mercoledì 9 ottobre, alle ore 17.30, con un incontro dal titolo "An anti-fascist approach to AI means decomputing".

Ospite: Dan McQuillan (Goldsmiths, University of London), autore del libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence.

Tutte le informazioni per partecipare sono sul sito del Centro Nexa for Internet Societty

Leggi una recensione del libro

"AI’s apparatus of computation and social relations produces a nested set of inevitable harms, from states of exception to environmental degradation. A common thread running through its mathematical operations, its c2ontemporary applications and its accompanying ideologies is the reemergence of eugenics and authoritarian social logics.

In this talk I will argue for an anti-fascist approach to AI that aims for alternative technopolitical outcomes. I will suggest a strategy of decomputing which combines degrowth and decolonialism in order to delegitimise AI’s extractivism and its use as a diversion from the structural failures of the status quo. In practice, this would consist of forms of action that reject hyperscale machinery hurtful to the commonality, and instead attempt to transform collective subjectivities and technical arrangements at the same time."

Una nuova ricerca segnala l'eccessivo consumo di acqua ed elettricità nei data center delle aziende proprietarie

Una bottiglia d'acqua per ogni email di 100 parole scritta da ChatGpt: questo il prezzo che deve pagare l'ambiente per il funzionamento corretto dei chatbot AI. A rivelarlo è un nuovo studio condotto dal Washington Post in collaborazione con i ricercatori dell'Università della California di Riverside, che hanno analizzato la quantità di risorse naturali che servono a ChatGpt per espletare le sue funzioni più elementari. “Ogni richiesta su ChatGpt passa attraverso un server che esegue migliaia di calcoli per determinare le parole migliori da usare nella risposta”, scrive il WP precisando che i server generano calore per eseguire i calcoli necessari.

Leggi l'articolo

Nella Silicon Valley sono convinti che le intelligenze artificiali generative (come ChatGPT) diventeranno presto più intelligenti dell’uomo e cominceranno a seguire fini propri. Il corollario di queste credenze sono spesso racconti fantascientifici tipo Matrix o Terminator. Per gioco, Stefano Borroni Barale ha provato a immaginare un’altra distopia, altrettanto fantascientifica, ma dagli esiti politicamente imprevedibili

Se il Novecento è stato “il secolo breve”, i primi cento anni di questo nuovo millennio sembrano esser durati un’eternità. Certamente il successo strepitoso della gerontologia nello studio dei telomeri, che ha allungato la vita degli esseri umani fino a circa 140 anni, contribuisce a questa percezione.

Grazie a questo successo uno come me, nato nel 1985, vive ancora oggi, nel 2114. Se però avessi saputo in anticipo che cosa mi riservava questa vita incredibilmente lunga, avrei fatto scelte differenti. Noi raccontavamo al popolino che l’intelligenza artificiale avrebbe sterminato l’umanità per prepararli a quello che sarebbe avvenuto davvero, ossia lo sterminio della classe lavoratrice. Mai avremmo pensato che la nostra creatura sarebbe stata la causa della fine del nostro potere.

Leggi tutto

L.I.C.I.A - Laboratorio Informale per la Critica dell'Intelligenza Artificiale - è un laboratorio che ha avuto per oggetto i servizi di creazione automatica di artefatti (testi, immagini, video, audio) a partire da indicazioni verbali generiche che va sotto il nome generico di "Intelligenza Artificiale Generativa"

Perché

Pur avendo sperimentato un certo numero di servizi di IAG online, noi non siamo in grado di fare un esame tecnico dell’IAG (cos’è, come funziona), né pretendiamo di sapere come sarà utilizzata nei vari ambiti lavorativi, come quello educativo. Possiamo però criticare i discorsi correnti sull’IAG. Criticare significa “valutare le pretese di universalità”:

  • un futuro presentato come necessario
  • un modo d'uso offerto come standard unico
  • il lessico dominante che semplifica e nasconde le differenze
  • certi ruoli già obsoleti codificati come obbligatori
  • certi relazioni, tipiche della cultura occidentale, portate a modello universale.

Per leggere e, eventualmente, aderire al Manifesto vai sul sito

Lo spiega l'esperto mondiale Bruce Schneier.

È facile considerare l'intelligenza artificiale come nient'altro che l'ennesima novità tecnologica, uno strumento informatico in più, un ausilio al quale ci abitueremo presto. Nessuno si è agitato o ha proclamato la catastrofe sociale per l'introduzione del controllo ortografico o del riconoscimento vocale. Quindi perché così tanto clamore, e in alcuni casi panico, proprio intorno all'intelligenza artificiale?

L'esperto di sicurezza informatica Bruce Schneier, autore di numerosi libri sulle tematiche digitali e membro del direttivo della Electronic Frontier Foundation, una delle associazioni di punta nella tutela dei diritti digitali, ha pubblicato un saggio, intitolato AI and Trust, nel quale spiega molto bene questa anomalia partendo da un concetto sociale, non tecnologico: la fiducia. E spiega perché noi, come esseri umani, siamo particolarmente vulnerabili alla natura seducente dell'intelligenza artificiale.

Leggi l'articolo

Materia oscura. La versione aggiornata 4o di ChatGpt commette meno errori delle precedenti, ma ancora ce n'è di strada da fare

Gli studenti lo sanno bene: quando si tratta di matematica e fisica non ci si può fidare del tutto dell’intelligenza artificiale generativa – ChatGpt e le sue colleghe, per capirci. Se si pone all’intelligenza artificiale un problema di qualche complessità, non sempre si ottiene la risposta giusta. Anche un esercizio di terzo o quarto anno di liceo può metterla in difficoltà, mentre se la cava benissimo con temi e traduzioni. Per questo ragazze e ragazzi, più saggi dei loro genitori, hanno inizialmente mantenuto qualche diffidenza nei confronti della nuova tecnologia e le verifiche di fisica e matematica integralmente copiate da ChatGpt sono state sporadiche.

Può sorprendere che l’intelligenza artificiale sviluppata e studiata da alcuni dei più brillanti matematici del mondo fatichi proprio in questi campi, mentre brilla con una versione dal greco. Ma la rete neurale che costituisce il «motore» di ChatGpt non impara sulla base di regole formali come i postulati della geometria euclidea o le leggi della meccanica newtoniana.

Leggi l'articolo su Il Manifesto

I fondi raccolti fino adesso da OpenAI non sono abbastanza per far fronte ai continui investimenti che richiede la ricerca sull'intelligenza artificiale generativa e l'allenamento di modelli sempre più performanti come ChatGPT 4o.

OpenAI si trova ad affrontare una situazione finanziaria critica, con una perdita prevista di 5 miliardi di dollari entro la fine dell’anno.

Questa previsione, secondo quanto riporta il sito The Information, che ha raccolto e studiato i dati finanziari della società, è dovuta a una serie di fattori, tra cui massicci investimenti in ricerca e sviluppo, espansione delle infrastrutture e alti costi operativi.

Leggi l'articolo