Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Mentre i miliardari proprietari delle società tech discutono dell’avvento di un’improbabile “singolarità”, uno scenario fantascientifico dove le macchine conquisteranno l’umanità, l’intelligenza “artificiale” si basa in realtà ancora sui lavoratori del Sud del mondo. Impegnati in mansioni sottopagate e non regolamentate

[...]

Negli stessi giorni in cui i giornali erano intasati da questa telenovela, mi sono ritrovato a seguire online un’interessante conferenza dal titolo “Come l’Ai promuove le diseguaglianze a livello globale”, tenuta presso l’Università di Groninga in Olanda. Dopo due anni di studi sul campo in America Latina e Africa, questi erano i dati raccolti dai ricercatori. La tecnologia che chiamiamo Ai si basa sui “minitask” come l’etichettatura manuale dei dati (e su questo è d’accordo anche più d’uno degli “entusiasti” dell’Ai, solo che lo considerano un problema da risolvere attraverso le prossime generazioni di sistemi di intelligenza artificiale). Contrariamente a quanto sostengono in Silicon Valley questi lavori non stanno diminuendo al crescere delle capacità dell’Ai (che, quindi, non sembra diventare più “intelligente” al passare degli anni), bensì sono in crescita esponenziale. L’intelligenza su cui si basano sembra avere origine molto più umana che artificiale.

Leggi l'articolo di Stefano Borroni Barale

Stakka Stakka del 20 dicembre ha intervistato Stefano Borroni Barale, autore del libro "L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale"

Ma perché tutti parlano di Ai? Perché è un'eccezionale operazione di marketing: una delle meglio organizzate degli ultimi anni. Su questa le imprese della Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend negativo fatto di tagli al personale e cambi drastici dei loro programmi di sviluppo. Per comprendere quali siano le aspettative di queste aziende - e quali dovrebbero essere le nostre - in questo libro si ricostruiscono le tappe, le intuizioni e i paradossi che hanno attraversato la comunità scientifica, provando a tracciare una linea che collega Alan Turing, primo sostenitore dell'Ai forte, con i creatori di ChatGPT, il software in grado di sostenere un dialogo credibile con un essere umano. Che cosa verrà da qui in avanti non lo sappiamo, e per scoprirlo non ci aiuterà una tecnologia che basa le sue previsioni sull'ipotesi che il futuro sarà una replica di quanto accaduto nel passato. Comprendere questo fenomeno, però, può aiutarci a costruire tecnologie alternative, che promuovano la convivialità e la partecipazione diffusa, a scuola come nella società.

Ascolta l'intervista sul sito di Radio Backout

"Tecniche e Miti: le trappole dell'intelligenza artificiale" è un e-BOOK de Gli Asini che vuole tracciare un percorso critico che metta in luce le problematiche dell'hype che accompagna il machine learning. Per farlo è necessario indagare l’IA da diversi punti di osservazione. Al numero ha contribuito come C.I.R.C.E. con l'articolo "Nuove intelligenze, vecchi pregiudizi."

Sull'Intelligenza Artificiale scrive la redazione: "In primo luogo proviamo a smontarne i meccanismi, mettendo in discussione la stessa denominazione: si tratta infatti di un apparato tecnologico che non è “intelligente” né “artificiale”.

Per saperne di più vai sul sito di C.I.R.C.E.

Giovedì 14 dicembre alle ore 17.00 si terrà il seminario “Dalla DAD sostitutiva all’intelligenza artificiale a scuola” organizzato da CUB Scuola Università e Ricerca Torino.

Il mondo della scuola è investito dalle parole d’ordine del marketing digitale: DAD, Social, intelligenza artificiale, coding, scratch, pensiero computazionale… le novità si susseguono con ritmo battente.

La spinta del Piano Scuola 4.0, con la sua formazione “obbligatoria”, sembra voler imporre l’adozione in fretta e furia di tutto quello che le imprese del digitale mettono a disposizione.

Come fare? Respingere del tutto l’offerta di ‘novità’? L’avanzata della tecnologia è inarrestabile come uno tsunami? Non esistono tempi e modi alternativi, più conviviali?

Insieme a Carlo Milani e Stefano Borroni Barale proveremo a rispondere ad alcune di queste domande, insieme all’imperdibile dilemma: “Ma davvero ChatGPT segna la fine dei compiti a casa?”

Carlo Milani, PhD. Saggista e formatore attivo a livello internazionale con CIRCE (Centro Internazionale di Ricerca sulle Convivialità Elettriche: www.circex.org). Pratica quotidianamente la pedagogia hacker in corsi di formazione rivolti a docenti e allievi delle scuole di ogni ordine e grado. Scrive da anni di questi temi sia a livello accademico che divulgativo. Il suo ultimo libro è “Tecnologie conviviali” (Eleuthera, 2022).

Stefano Borroni Barale. Fisico, docente di informatica e formatore sindacale sulle nuove tecnologie. Ha scritto per Altreconomia “Come passare al software libero e vivere felici” (2003), uno dei primi manuali sul tema. Il suo ultimo libro è “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (Altreconomia, 2023).

Dove: Corso Marconi 34, Torino – 2° Piano (Sede CUB SUR) Quando: Giovedì 14 Dicembre 2023 ore 17-18.30 Per chi: docenti e genitori di allievi delle superiori Come: partecipazione gratuita fino ad esaurimento posti, prenotazione obbligatoria

Form di prenotazione: https://dadia.vado.li/
giovedì 14 Dicembre 2023 ore 17:00 - 18:30

L’editore tedesco rivoluziona l’app internazionale di notizie upday e chiude la redazione italiana, licenziandone i redattori. Un caso su presente e futuro dell’informazione

Un «nuovo generatore di notizie di tendenza guidato esclusivamente dall’intelligenza artificiale» sostituirà il lavoro dei giornalisti in carne e ossa.

Mentre l’Unione europea ha varato l’Ai Act, prima legge al mondo sull’intelligenza artificiale, arriva la notizia che non è uno scenario fantascientifico di una serie tv ma la realtà di upday, app e sito internazionale di notizie che ha una testata registrata anche in Italia.

Leggi l'articolo

È la prima volta che i ricercatori calcolano le emissioni di anidride carbonica causate dall’utilizzo di un modello di intelligenza artificiale per diversi compiti. OpenAI, Microsoft, Google… quando soluzioni AI più green?

Ogni volta che usiamo l’AI per generare un’immagine, scrivere un’e-mail o fare una domanda a un chatbot, ha un costo per il pianeta.

Infatti, generare un’immagine utilizzando un potente modello di intelligenza artificiale richiede tanta energia quanto caricare completamente il tuo smartphone, secondo lo studio dei ricercatori della startup di intelligenza artificiale Hugging Face e della Carnegie Mellon University.

Leggi l'articolo

Prima di ogni raid, Israele è a conoscenza di quanti saranno i cosiddetti “danni collaterali”, ossia il numero di vittime civili che resteranno uccise in quell’operazione. È quanto rivela un’inchiesta realizzata dal magazine +972 insieme a Local Call, che si basa sulle testimonianze anonime di attuali ed ex membri dell'intelligence militare israeliana, ma anche su dati e documenti provenienti dalla Striscia di Gaza. “Nulla accade per caso”, ha spiegato una fonte che ha preferito rimanere anonima. “Quando una bambina di 3 anni viene uccisa in una casa a Gaza è perché qualcuno nell’esercito ha deciso che non era un grosso problema, che era un prezzo da pagare per colpire un altro obiettivo. Noi non siamo Hamas. Questi non sono razzi casuali. Tutto è intenzionale. Sappiamo esattamente ‘quanti danni’ collaterali ci sono in ogni casa”.

Tutto questo è possibile grazie a un software basato sull’intelligenza artificiale che permette di “generare” target da colpire a un ritmo molto più veloce di quello che era possibile fare in precedenza. Il programma si chiama Habsora, “il Vangelo”: un ex ufficiale dei servizi segreti ha dichiarato che questo sistema contribuisce a creare a Gaza una “fabbrica di uccisioni di massa”, in cui il focus “è sulla quantità e non sulla qualità”.

Leggi l'articolo completo su Valigia Blu

Sul Guardian altre informazioni sul funzionamento dell'AI usata dall'esercito Israeliano

Se l'inglese come lingua franca è molto diffusa, permettendo di allenare IA inglesi in gran parte del mondo (anche a costi irrisori in condizioni di sfruttamento), non è lo stesso per lingue come il finlandese: è per questo che la compagnia finlandese Metroc allena il suo modello linguistico tra le carceri del Paese.

Da un lato c'è chi ritiene questo lavoro (€1,54 all'ora) uno fra tanti che offre il carcere, che non sfrutta gente nel terzo mondo (vedasi OpenAI in Kenia (https://t.me/eticadigitale/753)) e che permette di mantenere vivo il patrimonio linguistico-culturale, senza lasciare il predominio linguistico ed economico all'inglese.

Dall'altro c'è invece chi critica come Metroc faccia milioni sottopagando carceratɜ, temendo che la mancanza di freni possa portare a far fare loro lavori del clic provanti, come l'esposizione a immagini disturbanti per etichettarle (vedasi Facebook, sempre in Kenia (https://t.me/eticadigitale/592))

Leggi l'articolo su Wired.com

Occorre studiare l’interfaccia di Bing se si vuole capire come sarà Google post-AI.

Google pospone l’implementazione della sua intelligenza artificiale Bard nella sua UI (User Interface) in Europa per motivi legali ma possiamo già curiosare sulla sua anteprima attraverso l’area sperimentale di Google in diversi paesi nel mondo (no Europa).

Se però vogliamo avere un’idea su come sarà l’impatto dell’AI (Artiicial Intelligence) sui motori di ricerca sia a livello di SERP (Search Engine Results Page) che a livello di ranking possiamo andare a studiare ‘dal vivo’ cosa sta già presentando Bing di Microsoft grazie alla partnership con Open AI e quindi all’integrazione nella sua interfaccia di Chat-GPT (Generative Pretrained Transformer). A livello di (top) ranking non credo che il fattore X della SEO (Search Engine Optimization) ovvero la link popularity sarà messa in discussione (qualche idea di ottimizzazione post intelligenza generativa la propongo più avanti), mentre è a livello di pagina dei risultati di ricerca che, davvero, tutto, sta per cambiare drammaticamente.

Leggi l'articolo completo sul sito di Scacco al Web

Era nata da appena una trentina di giorni; aveva solo tre dipendenti e un sito web, nessuna tecnologia da provare, nessuna metrica da mostrare negli elevator pitch, le brevi presentazioni con cui si cerca di raccogliere fondi dagli investitori. Difficile per chiunque ottenere denaro e fiducia in queste condizioni, anche nel munifico mondo delle startup tecnologiche, sensibile alle mode del momento e malato di Fomo, Fear of missing out, la paura di perdersi la prossima Google o Facebook che spinge i capitalisti di ventura a piazzare un obolo quasi ovunque.

Mistral, l’ambizione di diventare l’OpenAI europea

Eppure, nonostante il curriculum scarno, a giugno 2023 Mistral AI, neonata startup francese, è riuscita a raccogliere ben 105 milioni di euro in un round di finanziamento a un solo mese dalla nascita. Secondo Dealroom, piattaforma che monitora gli investimenti in innovazione, si tratta di un record continentale. I fondatori Timothee Lacroix, Guillaume Lample e Arthur Mensch hanno un passato in grandi società impegnate nell’intelligenza artificiale, da Google a Meta, e sono nomi rispettati nell’ambiente. Ma non basta.

Leggi l'articolo sul sito "Guerre di rete"

Leggi anche la newsletter settimanale di Carola Frediani Questa settimana:

  • OpenAI “drama”
  • AI Act sull’orlo di una crisi di nervi
  • Ascesa di Mistral e dell’AI francese
  • La storia dietro alla botnet Mirai
  • Cybercrimine, porti e cocaina