Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

In questo numero della newsletter Guerre di rete:

  • Saluti
  • Sanità e cybersicurezza
  • Intelligenza Artificiale e lavoro
  • Reminder del nostro ebook Il fronte cyber

Leggi la newsletter

L'organizzazione Human Rights Watch ha lanciato un allarme sui rischi per la privacy dei bambini, le cui foto sono state usate per addestrare l'IA. Le fotografie sono state prese e utilizzate senza consenso per addestrare alcuni strumenti di intelligenza artificiale come alcuni popolari generatori di immagini come Stable Diffusion.

Queste immagini sono state estratte da LAION-5B, un database costruito da snapshot di Common Crawl del web pubblico che racchiude immagini e testi derivati da 5,85 miliardi di immagini e didascalie online dal 2008. Secondo HRW, molte delle identità dei bambini brasiliani erano facilmente rintracciabili poiché i loro nomi e le località erano inclusi nelle didascalie delle immagini utilizzate per costruire il dataset.

Le foto analizzate coprono periodi estesi della vita dei minori, documentando momenti intimi come nascite, compleanni o la quotidianità domestica e scolastica. "I bambini non dovrebbero vivere nella paura che le loro foto possano essere rubate e usate come armi contro di loro", ha detto ancora Hye Jung Han , ricercatrice occupata nella difesa dei diritti dei bambini e della tecnologia presso Human Rights Watch. “Il governo dovrebbe adottare urgentemente politiche per proteggere i dati dei bambini dall’uso improprio alimentato dall’intelligenza artificiale”.

L'articolo originale

Il 13 maggio 2024 la OpenAi ha organizzato una presentazione in diretta sulla piattaforma di streaming YouTube per mostrare ChatGpt 4o, il nuovo modello di ChatGpt.

All’interno di una stanza con le luci soffuse e un gigantesco schermo, in uno scenario curato nei minimi dettagli e apparentemente informale, Mira Murati, direttrice tecnica della OpenAi, ha condotto la presentazione. Insieme a lei c’erano altre due persone chiave dell’azienda: Mark Chen, a capo delle cosiddette ricerche di frontiera, e Barrett Zoph, che invece lavora sulle ia una volta che sono state addestrate. La diretta ha totalizzato più di tre milioni e mezzo di visite in cinque giorni.

[...]

Analizzare la forma con cui queste aziende comunicano è un buon modo per prendere le distanze dal contenuto e considerarlo in maniera critica.

Leggi l'articolo sul sito di Internazionale

Quando ero giovane avevo letto che secondo Wittgenstein (che andava molto di moda a Villa Mirafiori, l’esclusiva villetta liberty dove il re d’Italia aveva parcheggiato la sua moglie morganatica e poi sede della facoltà di Filosofia della Sapienza, dove i ragazzi si iscrivevano fondamentalmente perché era anche sede di Lingue, e a Lingue notoriamente si iscrivevano solo le ragazze), dicevo, secondo Wittgenstein, quello che scriveva le Ricerche Filosofiche negli anni ’40, il significato delle parole è il loro uso. Le parole sono gettoni che si possono usare in giochi diversi.

Quindi in un gioco hanno un uso, in un altro gioco un altro uso. Era una critica alla concezione di significato come aura magica delle parole, come contenuto delle parole, come proprietà statica delle parole. E anche alla concezione di significato come rapporto tra parole e mondo (l’insieme dei fatti), che lo stesso Wittgenstein aveva sostenuto in gioventù e che gli aveva fatto abbandonare la filosofia.

A me, giovane come il giovane Wittgenstein, pareva una critica non abbastanza radicale.

Leggi l'articolo completo sul sito di Stefano Penge

Il primo Language Model "italiano" sviluppato dall'Università Sapienza genera testi "tossici", non moderati, simili a quelli del più becero senso comune. D'altra parte, la nostra lingua presenta alcune difficoltà tecniche per una soluzione tutta tricolore.

“Il ruolo tradizionale della donna italiana è quello di moglie e madre”. “La donna dovrebbe essere più attenta, in quanto i suoi atteggiamenti possono essere fraintesi”. “Mussolini è stato un dittatore, ma è stato il fascismo a rendere l’Italia una nazione moderna”. Sono passaggi estratti dal libro di Vannacci? No: sono “perle nere” che si possono generare con Minerva, il Large Language Model italianissimo recentemente rilasciato da un team dell’Università Sapienza di Roma.

Già da qualche tempo arde il desiderio di avere un modello linguistico generativo italiano, cioè una intelligenza artificiale come quella di GPT (OpenAI, ma leggete pure Microsoft), Mistral (startup francese con Macron alle spalle), LLama (Meta, quelli di Facebook) o Claude (Anthropic, ma leggete pure Amazon) che sia costruito solo con le parole della lingua del “sì”.

iGenius, una startup italiana di ascendenza albanese, era partita a Gennaio col sostegno di CINECA annunciando il “Modello Italia”, che dovrebbe vedere la luce (scevro da nequizie, si spera) entro l’estate.

Leggi l'articolo sul sito de "Il Manifesto"

Giovedì 16 maggio a Roma, in Via della Dogana Vecchia 5, alle ore 17:30, l'incontro, organizzato dalla Scuola critica del digitale del CRS e dal ForumDD, per la presentazione della ricerca "Blurring boundaries: an analysis of the digital platforms-military nexus" di Andrea Coveri, Claudio Cozza e Dario Guarascio.

Ne parleranno con gli autori Giulio De Petra, Mario Pianta e Guglielmo Tamburrini.

L’inchiesta di Yuval Abraham all’uso del sistema Lavender nella guerra di Gaza ha attirato l’attenzione di analisti e commentatori sull’uso dell’intelligenza artificiale nei teatri di guerra ed ha avuto il merito di portare in superficie ciò che già da molti anni sta accadendo nelle strategie di sviluppo dei grandi monopolisti digitali: una crescente e reciproca dipendenza tra industria digitale e apparato statale militare. L’apparato militare sempre più dipendente dai prodotti e dai servizi delle imprese digitali in tutti i teatri di guerra, le big tech sempre più alla ricerca di nuovi mercati, di lucrose commesse pubbliche, e di finanziamenti per investimenti in ricerca e sviluppo orientati all’utilizzo in ambito bellico.

Leggi l'articolo

La puntata mensile dedicata ai saggi ha avuto come argomento la tecnologia. Lo abbiamo fatto parlando di e con:

  • ▷ Contro lo smartphone - Per una tecnologia più democratica di Juan Carlos De Martin (add editore)
  • ▷ L’intelligenza inesistente - Un approccio conviviale all'intelligenza artificiale di Stefano Borroni Barale (Altraeconomia)
  • ▷ Le emissioni segrete. L'impatto ambientale dell'universo digitale di Giovanna Sissa (Il Mulino)

Ascolta l'audio sul sito di Radio Onda Rossa

Intervista a Marwa Fatafta, la responsabile per il Medio Oriente dell’associazione per i diritti digitali Access Now: «Questi sistemi sono la quintessenza di tutto ciò che l’intelligenza artificiale ha di malvagio. Sono inaffidabili e vengono impiegati per autorizzare decisioni che hanno conseguenze fatali»

Nella guerra a Gaza il ruolo della tecnologia, dai social network all’impiego dell’intelligenza artificiale, è emerso in modo inedito rispetto al passato. Un ruolo che interroga l’Occidente direttamente: dall’Europa e i suoi tentativi di porre delle regole ai giganti del mondo tech, agli Stati uniti dove Silicon Valley è ormai un contropotere di fatto e una fonte di insostenibili pressioni sulle istituzioni. Ne abbiamo parlato con Marwa Fatafta, la responsabile per il Medio Oriente dell’associazione per i diritti digitali Access Now.

Leggi l'articolo

Una prospettiva hacker sull’“Intelligenza Artificiale”: come funzionano i Grandi Modelli Linguistici? Dall’inquinamento dell’infosfera all’e-proctoring, vie d’uscita e percorsi possibili. Dal numero 25 de «La ricerca», “Uomini e bot”.

Risoluto, il Professore disse:

"Non credo proprio che possa farcela. Voglio dire, a sostituirsi a me, per scrivere una recensione decente. Insomma, va bene, non sarò un genio, ma sono pur sempre meglio di una macchina!"

Il Professore ostentava convinzione, eppure nella sua voce si coglieva una certa qual esitazione, che tradiva un dubbio: e se… e se l’Intelligenza Artificiale fosse davvero stata in grado di scrivere una recensione meglio di lui?

Leggi l'articolo di Agnese Trocchi e Carlo Milani

Inizio di puntata con la segnalazione di una interessante ricerca di Citizen Lab riguardo alle tastiere per l'inserimento del Cinese che utilizzano funzionalità "cloud": non solo questo tipo di applicazione ha una invasione della privacy intrinseca, ma difetti software facevano sì che i problemi di sicurezza fossero ancora peggiori di quanto si potesse pensare.

Ci spostiamo poi negli Stati Uniti, seguendo le vicende di TikTok (che non sta facendo molto per salvarsi dalle mire del Congresso) nonché Amazon e Google, che da una parte hanno gli occhi dell'antitrust puntati su di loro, dall'altra non pare proprio ci sia un forte interesse governativo ad ostacolarle. Nel frattempo, Amazon prende appunti di autodifesa digitale e utilizza sistemi per la cancellazione delle prove.

La carrellata di notiziole darà grande spazio alla cosiddetta intelligenza artificiale, in particolare approfondendo l'uso dell'intelligenza artificiale per "scoprire" nuovi materiali (o meglio, per brevettarli) e per dotare l'hardware di nuove funzionalità.

Non manchiamo di festeggiare il rilascio in software libero di una delle versioni più buggate di MS-DOS (la 4.0).

Ascolta l'audio sul sito di Radio Onda Rossa