Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Impazza DeepSeek, nuova AI cinese: per gli Usa un nuovo "momento Sputnik. Made in China 2025: per il progetto voluto da Xi è tempo di bilanci. E buon anno del serpente :)

Allora: la nuova versione è uscita poco dopo Natale, pare sia all’altezza di OpenAI e affini, è realizzata con solo una parte dei chip (ad esempio quelli Nvidia) bloccati dagli Usa verso la Cina. E fa parlare di sé come la prima forma di AI che riporta in qualche modo all’AGI (Artificial General Intelligence) specie la release R1. Insomma in ogni caso un po’ tutti hanno detto la stessa cosa: DeepSeek ha colmato un divario. E per gli Usa è arrivato un altro “momento Sputnik”, quello nel quale ci si rende conto che un competitor è più avanti (come capitò nel caso dello Sputnik sovietico, appunto, o come capitò alla Cina dopo la vittoria delle AI di Google contro il campione del mondo di go, allora si parlò di momento Sputnik, ma per la Cina)

Ora, ci sono molti tecnicismi al riguardo ma non solo perché DeepSeek ha segnato l’inizio di una nuova era nell’AI cinese, quella del risparmio: “DeepSeek è stato rapidamente soprannominato il "Pinduoduo dell'IA" e altri grandi giganti della tecnologia come ByteDance, Tencent, Baidu e Alibaba non hanno potuto trattenersi, tagliando i prezzi uno dopo l'altro. Una guerra dei prezzi per i modelli di grandi dimensioni in Cina era imminente”. E a differenze di aziende di stato “che bruciano soldi, in sussidi, DeepSeek è redditizia”.

Vediamo intanto di cosa stiamo parlando. DeepSeek è un'azienda cinese di intelligenza artificiale che sviluppa modelli linguistici di grandi dimensioni open-source. L'azienda è finanziata esclusivamente dal fondo speculativo cinese High-Flyer. Sia DeepSeek che High-Flyer hanno sede a Hangzhou, Zhejiang. DeepSeek è stata fondata nel maggio 2023 da Liang Wenfeng, un ex studente dell'Università di Zhejiang che ha iniziato a fare trading durante la crisi finanziaria del 2007-2008.

Leggi tutto

Spesso succede che l’avvento di nuove tecnologie sia accompagnato da paure e catastrofismi, e così succede anche per gli sviluppi degli ultimi anni delle tecnologie di Machine Learning, che oggi va di moda chiamare “Intelligenza Artificiale”. Ma le reazioni emotive vanno sempre approfondite, a costo di trovarsi alla mercé di interessi manipolatòri: le big tech companies sono molto motivate a far pensare che si tratti di tecnologie pericolosissime che solo loro possono gestire e controllare (magari con tanto di eccezioni legislative), e contemporaneamente usano questo piano emotivo come distrazione dalle considerazioni sull’utilizzo delle tecnologie nel contesto sociale.

Non facciamoci distrarre, è invece necessario studiare e capire limiti e potenzialità del Machine Learning, così come con qualunque altra tecnologia. Ma condurre questo tipo di ricerche in proprio in questo caso è complicato e dispendioso, per via dei necessari requisiti software e hardware.

Il collettivo Autistici/Inventati vuole cambiare questo stato di cose! Per questo movito ha realizzato un Laboratorio Popolare Condiviso di Machine Learning, offrendo hardware con relativi ambienti software preparati per il ML a gruppi e progetti selezionati, a costo zero.

Leggi tutto sul sito

Nessun accordo. Per ora. Ma c’è un’istruttoria in corso: e comunque non ci sono alternative ai servizi offerti dall’azienda di Musk. È questa la sintesi di quanto detto in conferenza stampa della presidente del Consiglio Meloni in merito al possibile contratto con SpaceX da 1,5 miliardi di euro per fornire comunicazioni satellitari al governo e ai militari. Istruttoria che - secondo l’agenzia Bloomberg, che per prima aveva dato la notizia e il cui articolo mi sembra sia rimasto centrale per inquadrare la vicenda - sarebbe stata in fase avanzata. Chiariamo subito che Bloomberg non ha scritto che l’accordo fosse chiuso. Ha però affermato che il progetto fosse già stato approvato dai servizi segreti italiani e dal Ministero della Difesa. E che i negoziati, in corso dal 2023, osteggiati da alcuni funzionari italiani e arenatisi fino a poco tempo fa, avrebbero ripreso ad avanzare dopo il recente incontro a sorpresa di Meloni con Trump in Florida.

In questo numero della newsletter Guerre di Rete

  • Italia, Musk e Ue: che partite si stanno giocando
  • Tutti i guai di OpenAI
  • Arriva la Nato a proteggere i cavi del Baltico

Leggi la newsletter di Carola Frediani per tutti i dettagli

Il 2024 delle intelligenze artificiali si è concluso con molti annunci e rilasci di nuovi strumenti da parte delle principali aziende impegnate nello sviluppo di queste tecnologie. Come da manuale delle trovate di marketing di Sam Altman, la OpenAi si è riservata il finale a effetto. L’azienda, che aveva addirittura organizzato un calendario dell’avvento per svelare una alla volta le proprie novità, ha anticipato o3, il suo nuovo modello.

o3 non è ancora disponibile al pubblico: solo chi fa ricerca nell’ambito della sicurezza dei sistemi di ia può ottenere un accesso anticipato.

Sappiamo poco di o3. Da quel che si può leggere online, si basa ancora sull’architettura degli altri modelli della OpenAi. Quel che lo rende interessante, però, è il fatto che è stato valutato da un progetto che si chiama Arc prize. L’Arc prize è’un premio da un milione di dollari riservato a chiunque riesca a far risolvere ai modelli linguistici alcuni test chiamati Arc-agi che sono particolarmente ostici per le macchine.

Leggi l'articolo

Versione non integrale e privo dell’apparato delle note, di un articolo uscito sul numero 64 della rivista Le nuove frontiere della scuola.

Questo breve dialogo è la continuazione e la sintesi di un confronto molto fecondo, che dura ormai da tempo, sulle tematiche del digitale e su un’idea della tecnologia non asservita ai grandi interessi economici. L’intenzione è quella di liberare la riflessione attorno alle nuove tecnologie, e all’Intelligenza artificiale in particolare, dal pensiero magico e dal tecnoentusiasmo del PNRR sulla scuola

Luca Malgioglio: Stefano, la lettura del tuo bellissimo libro sull’intelligenza artificiale mi ha aiutato a chiarire un paio di questioni che mi piacerebbe approfondire ulteriormente insieme a te. La prima la porrei così: l’intelligenza artificiale, come molte altre cose, ci viene presentata come un prodotto senza storia, un dato di fatto tecnologico di fronte al quale l’unico approccio possibile sarebbe quello di capire come utilizzarlo...

leggi l'articolo

L’introduzione dell’intelligenza artificiale in medicina dovrebbe essere valutata caso per caso, e con grande attenzione. È una tecnologia tutt’altro che neutra, soggetta al problema delle “allucinazioni” e non sempre rispettosa dei protocolli tipici della ricerca scientifica. Errori metodologici pericolosi che un certo marketing asfissiante vuole cancellare. L’analisi di Stefano Borroni Barale

“Cosa succede quando abbiamo messo la decisione [sulla vita o morte di un paziente, ndr] nelle mani di un’inesorabile macchina a cui dobbiamo porre le giuste domande in anticipo, senza comprendere appieno le operazioni o il processo attraverso cui esse troveranno risposta?”. Norbert Wiener, “God and Golem, Inc.”, 1963.

Questa citazione ha aperto un recente congresso sull’uso dell’Intelligenza artificiale (Ai) in ambito sociosanitario durante il quale era intenzione di chi scrive provocare un dibattito per cercare di uscire dallo “spettro delle opinioni accettabili” (Noam Chomsky) e -al contempo- ampliare la comprensione del fenomeno, ripercorrendone la storia.

leggi l'articolo

Sta circolando un’accusa pesante che riguarda il popolarissimo software Word di Microsoft: userebbe i testi scritti dagli utenti per addestrare l’intelligenza artificiale dell’azienda. Se l’accusa fosse confermata, le implicazioni in termini di privacy, confidenzialità e diritto d’autore sarebbero estremamente serie.

Questa è la storia di quest’accusa, dei dati che fin qui la avvalorano, e di come eventualmente rimediare. Benvenuti alla puntata del 25 novembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica.

Le intelligenze artificiali hanno bisogno di dati sui quali addestrarsi. Tanti, tanti dati: più ne hanno, più diventano capaci di fornire risposte utili. Un’intelligenza artificiale che elabora testi, per esempio, deve acquisire non miliardi, ma migliaia di miliardi di parole per funzionare decentemente.

Procurarsi così tanto testo non è facile, e quindi le aziende che sviluppano intelligenze artificiali pescano dove possono: non solo libri digitalizzati ma anche pagine Web, articoli di Wikipedia, post sui social network. E ancora non basta. Secondo le indagini del New York Times, OpenAI, l’azienda che sviluppa ChatGPT, aveva già esaurito nel 2021 ogni fonte di testo in inglese pubblicamente disponibile su Internet.

Per sfamare l’appetito incontenibile della sua intelligenza artificiale, OpenAI ha creato uno strumento di riconoscimento vocale, chiamato Whisper, che trascriveva il parlato dei video di YouTube e quindi produceva nuovi testi sui quali continuare ad addestrare ChatGPT. Whisper ha trascritto oltre un milione di ore di video di YouTube, e dall’addestramento basato su quei testi è nato ChatGPT 4.

Leggi la storia o ascolta l'audio su Attivisimo.me

Puntata 5 di EM, prima del ciclo Estrattivismo dei dati, parliamo di IA nel costesto del consumo delle risorse e della guerra.

PRIMA PARTE - CONSUMO DI ENERGIA E DI RISORSE

  • Crescente domanda di energia dell'IT negli ultimi 20 anni, forte accelerazione causata dalla corsa all'intelligenza artificiale
  • L’espansione delle infrastrutture per AI, i data center, ha portato ad un aumento significativo delle emissioni di CO2
  • Impatto di tale aumento, della domanda insaziabile di energia, sugli obiettivi climatici. A partire dalle grandi aziende tecnologiche che oltre a causarlo, si trovano nella condizione di dover ridurre le emissioni (Google e Microsoft: target di e+missioni nette zero entro il 2030 – capire quanto sia vincolante, quanto siano trasparenti le verifiche…)
  • I data center, essenziali per l’addestramento e l’operatività dei modelli AI, consumano enormi quantità di energia, generando emissioni e richiedendo grandi quantità d'acqua. Con costi ambientali difficili da quantificare completamente. Vediamo qualche numero:
  • Una recente ricerca dell'Università della California di Riverside. Premessa: ogni richiesta su un LLM come ChatGpt passa attraverso uno dei milioni di server di cui l’azienda OpenAI dispone, e questo server esegue migliaia di calcoli per determinare le parole migliori da usare nella risposta, consumando energia e generando calore, calore che poi deve essere smaltito usando altra energia nei sistemi di raffreddamento

Leggi tutto e ascolta l'audio della trasmissione sul sito di Radio Onda Rossa

Questa non è la storia della solita gara fra guardie e ladri in fatto di sicurezza; non è una vicenda di casseforti virtuali più robuste da contrapporre a grimaldelli sempre più sottili e penetranti. È la storia di come l’intelligenza artificiale obbliga tutti, utenti, studiosi e malviventi, a pensare come una macchina, in modo non intuitivo, e di come questo modo di pensare stia portando alla scoperta di vulnerabilità e di forme di attacco incredibilmente originali e impreviste e alla dimostrazione di strani virtuosismi di fantasia informatica, che conviene a tutti conoscere per non farsi imbrogliare. Perché per esempio una semplice immagine o un link che ai nostri occhi sembrano innocui, agli occhi virtuali di un’intelligenza artificiale possono rivelarsi bocconi fatalmente avvelenati.

[...]

La nuova tendenza in informatica, non solo da parte di Microsoft, è spingerci a installare sui nostri computer un assistente automatico che ha pieno accesso a tutte le nostre mail e ai nostri file ed esegue ciecamente qualunque comando datogli dal primo che passa. Cosa mai potrebbe andare storto?

Benvenuti alla puntata del 4 novembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

Ascolta l'audio della puntata

Un articolo scientifico di daniela tafani, prezioso, ricco di spunti di riflessioni e di verità tanto evidenti quanto nascoste.

Il testo demistifica le "credenze" relative alla presunta intelligenza dei software probabilistici e ristabilisce dei punti fermi sulla non neutralità del software, anche quando si tratta di cosidetta Intelligenza Artificiale.

L'articolo dimostra perché l'introduzione dell'intelligenza artificiale nella scuola e nelle univeristà sia un problema per i processi di apprendimento e insegnamento. Tuttavia si tratta di una tendenza già presente: la trasformazione dell'insegnamento in addestramento degli studenti per andare incontro alle esigenze del mondo aziendale.

Indice

  1. Macchine per scrivere frasi probabili
  2. La bolla dell’“intelligenza artificiale generativa”
  3. Il valore dell’istruzione: le aziende e le narrazioni Edtech
    3.a. L’idea che la sorveglianza sia una forma di cura
    3.b. Il mito della personalizzazione dell’apprendimento
    3.c. Il soluzionismo tecnologico
    3.d. L’idea della neutralità delle piattaforme “educative”
  4. Girelli, stampelle e ciuchini: gli omini di burro nei sistemi neoliberali
    Nota bibliografica

Leggi l'articolo