Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Spesso succede che l’avvento di nuove tecnologie sia accompagnato da paure e catastrofismi, e così succede anche per gli sviluppi degli ultimi anni delle tecnologie di Machine Learning, che oggi va di moda chiamare “Intelligenza Artificiale”. Ma le reazioni emotive vanno sempre approfondite, a costo di trovarsi alla mercé di interessi manipolatòri: le big tech companies sono molto motivate a far pensare che si tratti di tecnologie pericolosissime che solo loro possono gestire e controllare (magari con tanto di eccezioni legislative), e contemporaneamente usano questo piano emotivo come distrazione dalle considerazioni sull’utilizzo delle tecnologie nel contesto sociale.

Non facciamoci distrarre, è invece necessario studiare e capire limiti e potenzialità del Machine Learning, così come con qualunque altra tecnologia. Ma condurre questo tipo di ricerche in proprio in questo caso è complicato e dispendioso, per via dei necessari requisiti software e hardware.

Il collettivo Autistici/Inventati vuole cambiare questo stato di cose! Per questo movito ha realizzato un Laboratorio Popolare Condiviso di Machine Learning, offrendo hardware con relativi ambienti software preparati per il ML a gruppi e progetti selezionati, a costo zero.

Leggi tutto sul sito

Nessun accordo. Per ora. Ma c’è un’istruttoria in corso: e comunque non ci sono alternative ai servizi offerti dall’azienda di Musk. È questa la sintesi di quanto detto in conferenza stampa della presidente del Consiglio Meloni in merito al possibile contratto con SpaceX da 1,5 miliardi di euro per fornire comunicazioni satellitari al governo e ai militari. Istruttoria che - secondo l’agenzia Bloomberg, che per prima aveva dato la notizia e il cui articolo mi sembra sia rimasto centrale per inquadrare la vicenda - sarebbe stata in fase avanzata. Chiariamo subito che Bloomberg non ha scritto che l’accordo fosse chiuso. Ha però affermato che il progetto fosse già stato approvato dai servizi segreti italiani e dal Ministero della Difesa. E che i negoziati, in corso dal 2023, osteggiati da alcuni funzionari italiani e arenatisi fino a poco tempo fa, avrebbero ripreso ad avanzare dopo il recente incontro a sorpresa di Meloni con Trump in Florida.

In questo numero della newsletter Guerre di Rete

  • Italia, Musk e Ue: che partite si stanno giocando
  • Tutti i guai di OpenAI
  • Arriva la Nato a proteggere i cavi del Baltico

Leggi la newsletter di Carola Frediani per tutti i dettagli

Il 2024 delle intelligenze artificiali si è concluso con molti annunci e rilasci di nuovi strumenti da parte delle principali aziende impegnate nello sviluppo di queste tecnologie. Come da manuale delle trovate di marketing di Sam Altman, la OpenAi si è riservata il finale a effetto. L’azienda, che aveva addirittura organizzato un calendario dell’avvento per svelare una alla volta le proprie novità, ha anticipato o3, il suo nuovo modello.

o3 non è ancora disponibile al pubblico: solo chi fa ricerca nell’ambito della sicurezza dei sistemi di ia può ottenere un accesso anticipato.

Sappiamo poco di o3. Da quel che si può leggere online, si basa ancora sull’architettura degli altri modelli della OpenAi. Quel che lo rende interessante, però, è il fatto che è stato valutato da un progetto che si chiama Arc prize. L’Arc prize è’un premio da un milione di dollari riservato a chiunque riesca a far risolvere ai modelli linguistici alcuni test chiamati Arc-agi che sono particolarmente ostici per le macchine.

Leggi l'articolo

Versione non integrale e privo dell’apparato delle note, di un articolo uscito sul numero 64 della rivista Le nuove frontiere della scuola.

Questo breve dialogo è la continuazione e la sintesi di un confronto molto fecondo, che dura ormai da tempo, sulle tematiche del digitale e su un’idea della tecnologia non asservita ai grandi interessi economici. L’intenzione è quella di liberare la riflessione attorno alle nuove tecnologie, e all’Intelligenza artificiale in particolare, dal pensiero magico e dal tecnoentusiasmo del PNRR sulla scuola

Luca Malgioglio: Stefano, la lettura del tuo bellissimo libro sull’intelligenza artificiale mi ha aiutato a chiarire un paio di questioni che mi piacerebbe approfondire ulteriormente insieme a te. La prima la porrei così: l’intelligenza artificiale, come molte altre cose, ci viene presentata come un prodotto senza storia, un dato di fatto tecnologico di fronte al quale l’unico approccio possibile sarebbe quello di capire come utilizzarlo...

leggi l'articolo

L’introduzione dell’intelligenza artificiale in medicina dovrebbe essere valutata caso per caso, e con grande attenzione. È una tecnologia tutt’altro che neutra, soggetta al problema delle “allucinazioni” e non sempre rispettosa dei protocolli tipici della ricerca scientifica. Errori metodologici pericolosi che un certo marketing asfissiante vuole cancellare. L’analisi di Stefano Borroni Barale

“Cosa succede quando abbiamo messo la decisione [sulla vita o morte di un paziente, ndr] nelle mani di un’inesorabile macchina a cui dobbiamo porre le giuste domande in anticipo, senza comprendere appieno le operazioni o il processo attraverso cui esse troveranno risposta?”. Norbert Wiener, “God and Golem, Inc.”, 1963.

Questa citazione ha aperto un recente congresso sull’uso dell’Intelligenza artificiale (Ai) in ambito sociosanitario durante il quale era intenzione di chi scrive provocare un dibattito per cercare di uscire dallo “spettro delle opinioni accettabili” (Noam Chomsky) e -al contempo- ampliare la comprensione del fenomeno, ripercorrendone la storia.

leggi l'articolo

Sta circolando un’accusa pesante che riguarda il popolarissimo software Word di Microsoft: userebbe i testi scritti dagli utenti per addestrare l’intelligenza artificiale dell’azienda. Se l’accusa fosse confermata, le implicazioni in termini di privacy, confidenzialità e diritto d’autore sarebbero estremamente serie.

Questa è la storia di quest’accusa, dei dati che fin qui la avvalorano, e di come eventualmente rimediare. Benvenuti alla puntata del 25 novembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica.

Le intelligenze artificiali hanno bisogno di dati sui quali addestrarsi. Tanti, tanti dati: più ne hanno, più diventano capaci di fornire risposte utili. Un’intelligenza artificiale che elabora testi, per esempio, deve acquisire non miliardi, ma migliaia di miliardi di parole per funzionare decentemente.

Procurarsi così tanto testo non è facile, e quindi le aziende che sviluppano intelligenze artificiali pescano dove possono: non solo libri digitalizzati ma anche pagine Web, articoli di Wikipedia, post sui social network. E ancora non basta. Secondo le indagini del New York Times, OpenAI, l’azienda che sviluppa ChatGPT, aveva già esaurito nel 2021 ogni fonte di testo in inglese pubblicamente disponibile su Internet.

Per sfamare l’appetito incontenibile della sua intelligenza artificiale, OpenAI ha creato uno strumento di riconoscimento vocale, chiamato Whisper, che trascriveva il parlato dei video di YouTube e quindi produceva nuovi testi sui quali continuare ad addestrare ChatGPT. Whisper ha trascritto oltre un milione di ore di video di YouTube, e dall’addestramento basato su quei testi è nato ChatGPT 4.

Leggi la storia o ascolta l'audio su Attivisimo.me

Puntata 5 di EM, prima del ciclo Estrattivismo dei dati, parliamo di IA nel costesto del consumo delle risorse e della guerra.

PRIMA PARTE - CONSUMO DI ENERGIA E DI RISORSE

  • Crescente domanda di energia dell'IT negli ultimi 20 anni, forte accelerazione causata dalla corsa all'intelligenza artificiale
  • L’espansione delle infrastrutture per AI, i data center, ha portato ad un aumento significativo delle emissioni di CO2
  • Impatto di tale aumento, della domanda insaziabile di energia, sugli obiettivi climatici. A partire dalle grandi aziende tecnologiche che oltre a causarlo, si trovano nella condizione di dover ridurre le emissioni (Google e Microsoft: target di e+missioni nette zero entro il 2030 – capire quanto sia vincolante, quanto siano trasparenti le verifiche…)
  • I data center, essenziali per l’addestramento e l’operatività dei modelli AI, consumano enormi quantità di energia, generando emissioni e richiedendo grandi quantità d'acqua. Con costi ambientali difficili da quantificare completamente. Vediamo qualche numero:
  • Una recente ricerca dell'Università della California di Riverside. Premessa: ogni richiesta su un LLM come ChatGpt passa attraverso uno dei milioni di server di cui l’azienda OpenAI dispone, e questo server esegue migliaia di calcoli per determinare le parole migliori da usare nella risposta, consumando energia e generando calore, calore che poi deve essere smaltito usando altra energia nei sistemi di raffreddamento

Leggi tutto e ascolta l'audio della trasmissione sul sito di Radio Onda Rossa

Questa non è la storia della solita gara fra guardie e ladri in fatto di sicurezza; non è una vicenda di casseforti virtuali più robuste da contrapporre a grimaldelli sempre più sottili e penetranti. È la storia di come l’intelligenza artificiale obbliga tutti, utenti, studiosi e malviventi, a pensare come una macchina, in modo non intuitivo, e di come questo modo di pensare stia portando alla scoperta di vulnerabilità e di forme di attacco incredibilmente originali e impreviste e alla dimostrazione di strani virtuosismi di fantasia informatica, che conviene a tutti conoscere per non farsi imbrogliare. Perché per esempio una semplice immagine o un link che ai nostri occhi sembrano innocui, agli occhi virtuali di un’intelligenza artificiale possono rivelarsi bocconi fatalmente avvelenati.

[...]

La nuova tendenza in informatica, non solo da parte di Microsoft, è spingerci a installare sui nostri computer un assistente automatico che ha pieno accesso a tutte le nostre mail e ai nostri file ed esegue ciecamente qualunque comando datogli dal primo che passa. Cosa mai potrebbe andare storto?

Benvenuti alla puntata del 4 novembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

Ascolta l'audio della puntata

Un articolo scientifico di daniela tafani, prezioso, ricco di spunti di riflessioni e di verità tanto evidenti quanto nascoste.

Il testo demistifica le "credenze" relative alla presunta intelligenza dei software probabilistici e ristabilisce dei punti fermi sulla non neutralità del software, anche quando si tratta di cosidetta Intelligenza Artificiale.

L'articolo dimostra perché l'introduzione dell'intelligenza artificiale nella scuola e nelle univeristà sia un problema per i processi di apprendimento e insegnamento. Tuttavia si tratta di una tendenza già presente: la trasformazione dell'insegnamento in addestramento degli studenti per andare incontro alle esigenze del mondo aziendale.

Indice

  1. Macchine per scrivere frasi probabili
  2. La bolla dell’“intelligenza artificiale generativa”
  3. Il valore dell’istruzione: le aziende e le narrazioni Edtech
    3.a. L’idea che la sorveglianza sia una forma di cura
    3.b. Il mito della personalizzazione dell’apprendimento
    3.c. Il soluzionismo tecnologico
    3.d. L’idea della neutralità delle piattaforme “educative”
  4. Girelli, stampelle e ciuchini: gli omini di burro nei sistemi neoliberali
    Nota bibliografica

Leggi l'articolo

L’Intelligenza artificiale (Ai) è un tema oggi talmente di moda che persino il papa ha ritenuto indispensabile dire la sua sull’argomento. Un utile strumento per orientarsi in questo profluvio di notizie, in genere sensazionalistiche e spesso fuorvianti, è fornito dal libro recentemente pubblicato di Stefano Borroni Barale, “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificale”, Altreconomia, 2023. Un agile saggio divulgativo alla portata anche del lettore meno esperto.

Il titolo “L’intelligenza inesistente” rimanda esplicitamente ad Agilulfo il “cavaliere inesistente” creato da Italo Calvino, un paladino che pur “non esistendo” riesce comunque a combattere valorosamente al servizio di Carlomagno (“Bé, per essere uno che non esiste, siete in gamba !” sbotta a un certo punto l’imperatore).

Più precisamente per l’autore – a differenza di quanto sostengono i millantatori – non esiste oggi (né è alle viste) una Ai “forte” in grado di pensare come un essere umano ma solo un’Ai “debole” in grado di “simulare” alcuni aspetti del pensiero umano. Una Ai che funziona solo grazie al lavoro costante di un vasto proletariato digitale, invisibile e malpagato (i cosiddetti “turchi meccanici” o “turker”).

Leggi l'intervista sul sito di “Collegamenti”

L’intelligenza artificiale causa carenza di energia elettrica: verrà riattivato la centrale in cui si verificò il più grande incidente nucleare della storia degli Stati Uniti.

Three Mile Island, Chernobyl e Fukushima sono stati teatro di disastri nucleari a lungo ricordati, specialmente in gran parte dell’Europa, dove il tema dell’energia nucleare è stato molto discusso. Ancora oggi il problema delle centrali nucleari è oggetto di dibattito, nonostante la tecnologia nucleare odierna abbia fatto molti progressi rispetto al passato, in presenza di un’economia guidata dal consumo elettrico sempre maggiore, in particolar modo a causa della crescita dell’Intelligenza artificiale (IA), il cui uso sta guidando la domanda di elettricità.

Tuttavia, diversa è la linea adottata da altri paesi nel mondo. Se i tedeschi hanno chiuso le loro centrali nucleari e la Svizzera ne sta mettendo in discussione la chiusura, in Asia è attualmente in corso una vera e propria rinascita del nucleare. Infatti, negli ultimi anni la produzione di energia elettrica derivante dal nucleare nel continente asiatico è aumentata notevolmente e gli americani stanno attualmente rivalutando la questione con un approccio più pragmatico. Nei giorni scorsi, la società energetica Constellation Energy e il gruppo tecnologico Microsoft hanno annunciato che riattiveranno insieme l’unità I della centrale nucleare di Three Mile Island, vicino a Harrisburg, in Pennsylvania.

Leggi l'articolo di Christof Leisinger (per la rivista online INFOsperber)

Nel suo rapporto Draghi dice che non possiamo avere una forte tutela dei diritti fondamentali e allo stesso tempo aspettarci di promuovere l’innovazione. La critica è rivolta in particolare al GDPR, che protegge i nostri dati personali. Ma è una critica senza fondamento.

Tra le cause della scarsa competitività delle imprese europee nei settori avanzati dell’informatica, oggi chiamata “intelligenza artificiale”, il rapporto Draghi individua la regolamentazione dell’Unione Europea sull’uso dei dati1. Considerata troppo complessa e onerosa rispetto ai sistemi in vigore nei principali paesi leader, come USA e Cina, tale regolamentazione penalizzerebbe i ricercatori e gli innovatori europei impegnati nella competizione globale.

[...]

Il senso è chiaro: non possiamo avere una forte tutela dei diritti fondamentali e allo stesso tempo aspettarci di promuovere l’innovazione. Il trade-off è inevitabile, e prepariamoci ad affrontarlo.

Ma quali sarebbero gli ostacoli che questa “strong ex ante regulatory safeguard” pone all’innovazione e alla competitività delle imprese europee? Il rapporto Draghi ne individua tre: i) il GDPR impone oneri alle imprese europee impegnate nei settori di punta dell’intelligenza artificiale che le penalizzano rispetto ai concorrenti USA e cinesi; ii) l’applicazione frammentaria e incoerente del GDPR crea incertezza sull’uso legittimo dei dati e iii) questa incertezza impedisce, in modo particolare, l’uso efficiente dei dati sanitari per lo sviluppo di strumenti di intelligenza artificiale nel settore medico e farmaceutico.

Verifichiamo se gli argomenti a sostegno di queste tesi possono reggere a un’analisi un po’ approfondita.

Leggi l'articolo di Maurizio Borghi

Il 176° Mercoledì di Nexa si terrà mercoledì 9 ottobre, alle ore 17.30, con un incontro dal titolo "An anti-fascist approach to AI means decomputing".

Ospite: Dan McQuillan (Goldsmiths, University of London), autore del libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence.

Tutte le informazioni per partecipare sono sul sito del Centro Nexa for Internet Societty

Leggi una recensione del libro

"AI’s apparatus of computation and social relations produces a nested set of inevitable harms, from states of exception to environmental degradation. A common thread running through its mathematical operations, its c2ontemporary applications and its accompanying ideologies is the reemergence of eugenics and authoritarian social logics.

In this talk I will argue for an anti-fascist approach to AI that aims for alternative technopolitical outcomes. I will suggest a strategy of decomputing which combines degrowth and decolonialism in order to delegitimise AI’s extractivism and its use as a diversion from the structural failures of the status quo. In practice, this would consist of forms of action that reject hyperscale machinery hurtful to the commonality, and instead attempt to transform collective subjectivities and technical arrangements at the same time."

AlphaGo è un’Intelligenza artificiale creata dalla società DeepMind, oggi controllata da Google, per battere gli esseri umani al gioco orientale del Go. Nel 2016 ha sconfitto il campione mondiale con una mossa ritenuta “sbagliata”, spingendo diversi osservatori a parlare di intelligenza quasi magica. Una visione “tecnoentusiasta” che agita l’imperscrutabile ma dimostra di ignorare la statistica. E non solo.

La tecnologia odierna si presenta, software o hardware che sia, sotto forma di “scatole oscure” che i produttori confezionano in maniera da renderci impossibile comprenderla, studiarla e -soprattutto- modificarla. Questa impossibilità si traduce spesso in una forte sensazione di alienazione che fa sì che più di una persona si trovi a disagio.

Secondo il filosofo Gilbert Simondon, l’alienazione tecnica cresce al crescere del divario tra cultura e tecnica. Questo divario fa sì che la tecnica venga vissuta come pericolosa dai tecnofobici, ossia da coloro che pensano che la tecnica sia inferiore alla vera cultura (quella umanistica “classica”), e come magica dai tecnoentusiasti, ossia da coloro che pensano che il sapere tecnico sia un sapere riservato a pochi eletti.

Link all'articolo originale

Una nuova ricerca segnala l'eccessivo consumo di acqua ed elettricità nei data center delle aziende proprietarie

Una bottiglia d'acqua per ogni email di 100 parole scritta da ChatGpt: questo il prezzo che deve pagare l'ambiente per il funzionamento corretto dei chatbot AI. A rivelarlo è un nuovo studio condotto dal Washington Post in collaborazione con i ricercatori dell'Università della California di Riverside, che hanno analizzato la quantità di risorse naturali che servono a ChatGpt per espletare le sue funzioni più elementari. “Ogni richiesta su ChatGpt passa attraverso un server che esegue migliaia di calcoli per determinare le parole migliori da usare nella risposta”, scrive il WP precisando che i server generano calore per eseguire i calcoli necessari.

Leggi l'articolo

Open Ai, che produce Chat-Gpt, potrebbe chiudere il 2024 con un passivo di 5 miliardi di dollari. La corsa di big tech all’intelligenza artificiale rischia di essere insostenibile

Se governi e opinione pubblica stanno affrontando l’avvento dell’intelligenza artificiale con qualche (fondata) preoccupazione relativa a possibili utilizzi “indesiderabili” della tecnologia, l’impetuosa crescita di servizi e piattaforme basate su Ai mette a rischio anche la tenuta di tutti i protagonisti di questa ennesima rivoluzione digitale. La corsa all’Ia, per le Big Tech, rischia di essere un vero terreno minato. Il primo “rischio bolla” interessa proprio OpenAI, società che ha sviluppato (come no-profit) e commercializzato (dopo la trasformazione in for-profit) la celeberrima ChatGPT. Se in queste ore si parla di una raccolta fondi miliardaria che dovrebbe coinvolgere anche Apple e Nvidia e di una valutazione della società nell’ordine dei 150 miliardi di dollari, i suoi conti sono in profondo rosso. Secondo un report pubblicato da The Information, l’azienda di Sam Altman potrebbe chiudere il 2024 con un passivo di 5 miliardi di dollari.

leggi l'articolo su "Il Manifesto"

Le emissioni dei data center interni di Google, Microsoft, Meta e Apple potrebbero essere 7,62 volte superiori al calcolo ufficiale

Negli ultimi anni le big tech hanno fatto grandi dichiarazioni sulle emissioni di gas serra. Ma poiché l'ascesa dell'intelligenza artificiale crea richieste energetiche sempre maggiori, sta diventando difficile per l'industria nascondere i costi reali dei data center che alimentano la questa tecnologia.

Secondo un'analisi del Guardian, dal 2020 al 2022 le emissioni reali dei centri dati "interni" o di proprietà delle aziende di Google, Microsoft, Meta e Apple saranno probabilmente circa il 662% - o 7,62 volte - più alte di quanto dichiarato ufficialmente.

Leggi l'analisi del Guardian

Nella Silicon Valley sono convinti che le intelligenze artificiali generative (come ChatGPT) diventeranno presto più intelligenti dell’uomo e cominceranno a seguire fini propri. Il corollario di queste credenze sono spesso racconti fantascientifici tipo Matrix o Terminator. Per gioco, Stefano Borroni Barale ha provato a immaginare un’altra distopia, altrettanto fantascientifica, ma dagli esiti politicamente imprevedibili

Se il Novecento è stato “il secolo breve”, i primi cento anni di questo nuovo millennio sembrano esser durati un’eternità. Certamente il successo strepitoso della gerontologia nello studio dei telomeri, che ha allungato la vita degli esseri umani fino a circa 140 anni, contribuisce a questa percezione.

Grazie a questo successo uno come me, nato nel 1985, vive ancora oggi, nel 2114. Se però avessi saputo in anticipo che cosa mi riservava questa vita incredibilmente lunga, avrei fatto scelte differenti. Noi raccontavamo al popolino che l’intelligenza artificiale avrebbe sterminato l’umanità per prepararli a quello che sarebbe avvenuto davvero, ossia lo sterminio della classe lavoratrice. Mai avremmo pensato che la nostra creatura sarebbe stata la causa della fine del nostro potere.

Leggi tutto

L.I.C.I.A - Laboratorio Informale per la Critica dell'Intelligenza Artificiale - è un laboratorio che ha avuto per oggetto i servizi di creazione automatica di artefatti (testi, immagini, video, audio) a partire da indicazioni verbali generiche che va sotto il nome generico di "Intelligenza Artificiale Generativa"

Perché

Pur avendo sperimentato un certo numero di servizi di IAG online, noi non siamo in grado di fare un esame tecnico dell’IAG (cos’è, come funziona), né pretendiamo di sapere come sarà utilizzata nei vari ambiti lavorativi, come quello educativo. Possiamo però criticare i discorsi correnti sull’IAG. Criticare significa “valutare le pretese di universalità”:

  • un futuro presentato come necessario
  • un modo d'uso offerto come standard unico
  • il lessico dominante che semplifica e nasconde le differenze
  • certi ruoli già obsoleti codificati come obbligatori
  • certi relazioni, tipiche della cultura occidentale, portate a modello universale.

Per leggere e, eventualmente, aderire al Manifesto vai sul sito

La storia recente ha insegnato che ogni ondata tecno entusiasta genera un effetto economico e sociale, il quale tende poi a rimodularsi, o meglio a sgonfiarsi, via via che quell'innovazione tecnologica perde di appeal, o magari si rivela proprio come un flop, come già accaduto negli anni scorsi con fenomeni come NFT, criptovalute, metaverso.

Troppa spesa, poca resa, questo lo dice addirittura Goldman Sachs rispetto all'AI generativa. Se questa grande attesa sarà mai ripagata in termini di vantaggi e rendimenti, é un grosso dubbio per l'industria: figuriamoci per gli utenti finali.

D'altro canto, un player che ha iniziato la corsa all'oro da tempo come OpenAI, potrebbe perdere 5 miliardi di dollari solo quest'anno a causa degli ingenti costi di ChatGPT. Nel frattempo, altri mega investitori, come Meta e Google, affilano le armi per scalzare la creatura di Sam Altman.

La domanda, chiaramente, é quali sono i benefici reali di questa corsa all'AI? La bolla sta forse iniziando già a sgonfiarsi, o è destinata a durare ancora per qualche anno?

Articolo originale qui