Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

È la prima volta che i ricercatori calcolano le emissioni di anidride carbonica causate dall’utilizzo di un modello di intelligenza artificiale per diversi compiti. OpenAI, Microsoft, Google… quando soluzioni AI più green?

Ogni volta che usiamo l’AI per generare un’immagine, scrivere un’e-mail o fare una domanda a un chatbot, ha un costo per il pianeta.

Infatti, generare un’immagine utilizzando un potente modello di intelligenza artificiale richiede tanta energia quanto caricare completamente il tuo smartphone, secondo lo studio dei ricercatori della startup di intelligenza artificiale Hugging Face e della Carnegie Mellon University.

Leggi l'articolo

Prima di ogni raid, Israele è a conoscenza di quanti saranno i cosiddetti “danni collaterali”, ossia il numero di vittime civili che resteranno uccise in quell’operazione. È quanto rivela un’inchiesta realizzata dal magazine +972 insieme a Local Call, che si basa sulle testimonianze anonime di attuali ed ex membri dell'intelligence militare israeliana, ma anche su dati e documenti provenienti dalla Striscia di Gaza. “Nulla accade per caso”, ha spiegato una fonte che ha preferito rimanere anonima. “Quando una bambina di 3 anni viene uccisa in una casa a Gaza è perché qualcuno nell’esercito ha deciso che non era un grosso problema, che era un prezzo da pagare per colpire un altro obiettivo. Noi non siamo Hamas. Questi non sono razzi casuali. Tutto è intenzionale. Sappiamo esattamente ‘quanti danni’ collaterali ci sono in ogni casa”.

Tutto questo è possibile grazie a un software basato sull’intelligenza artificiale che permette di “generare” target da colpire a un ritmo molto più veloce di quello che era possibile fare in precedenza. Il programma si chiama Habsora, “il Vangelo”: un ex ufficiale dei servizi segreti ha dichiarato che questo sistema contribuisce a creare a Gaza una “fabbrica di uccisioni di massa”, in cui il focus “è sulla quantità e non sulla qualità”.

Leggi l'articolo completo su Valigia Blu

Sul Guardian altre informazioni sul funzionamento dell'AI usata dall'esercito Israeliano

Se l'inglese come lingua franca è molto diffusa, permettendo di allenare IA inglesi in gran parte del mondo (anche a costi irrisori in condizioni di sfruttamento), non è lo stesso per lingue come il finlandese: è per questo che la compagnia finlandese Metroc allena il suo modello linguistico tra le carceri del Paese.

Da un lato c'è chi ritiene questo lavoro (€1,54 all'ora) uno fra tanti che offre il carcere, che non sfrutta gente nel terzo mondo (vedasi OpenAI in Kenia (https://t.me/eticadigitale/753)) e che permette di mantenere vivo il patrimonio linguistico-culturale, senza lasciare il predominio linguistico ed economico all'inglese.

Dall'altro c'è invece chi critica come Metroc faccia milioni sottopagando carceratɜ, temendo che la mancanza di freni possa portare a far fare loro lavori del clic provanti, come l'esposizione a immagini disturbanti per etichettarle (vedasi Facebook, sempre in Kenia (https://t.me/eticadigitale/592))

Leggi l'articolo su Wired.com

Occorre studiare l’interfaccia di Bing se si vuole capire come sarà Google post-AI.

Google pospone l’implementazione della sua intelligenza artificiale Bard nella sua UI (User Interface) in Europa per motivi legali ma possiamo già curiosare sulla sua anteprima attraverso l’area sperimentale di Google in diversi paesi nel mondo (no Europa).

Se però vogliamo avere un’idea su come sarà l’impatto dell’AI (Artiicial Intelligence) sui motori di ricerca sia a livello di SERP (Search Engine Results Page) che a livello di ranking possiamo andare a studiare ‘dal vivo’ cosa sta già presentando Bing di Microsoft grazie alla partnership con Open AI e quindi all’integrazione nella sua interfaccia di Chat-GPT (Generative Pretrained Transformer). A livello di (top) ranking non credo che il fattore X della SEO (Search Engine Optimization) ovvero la link popularity sarà messa in discussione (qualche idea di ottimizzazione post intelligenza generativa la propongo più avanti), mentre è a livello di pagina dei risultati di ricerca che, davvero, tutto, sta per cambiare drammaticamente.

Leggi l'articolo completo sul sito di Scacco al Web

Era nata da appena una trentina di giorni; aveva solo tre dipendenti e un sito web, nessuna tecnologia da provare, nessuna metrica da mostrare negli elevator pitch, le brevi presentazioni con cui si cerca di raccogliere fondi dagli investitori. Difficile per chiunque ottenere denaro e fiducia in queste condizioni, anche nel munifico mondo delle startup tecnologiche, sensibile alle mode del momento e malato di Fomo, Fear of missing out, la paura di perdersi la prossima Google o Facebook che spinge i capitalisti di ventura a piazzare un obolo quasi ovunque.

Mistral, l’ambizione di diventare l’OpenAI europea

Eppure, nonostante il curriculum scarno, a giugno 2023 Mistral AI, neonata startup francese, è riuscita a raccogliere ben 105 milioni di euro in un round di finanziamento a un solo mese dalla nascita. Secondo Dealroom, piattaforma che monitora gli investimenti in innovazione, si tratta di un record continentale. I fondatori Timothee Lacroix, Guillaume Lample e Arthur Mensch hanno un passato in grandi società impegnate nell’intelligenza artificiale, da Google a Meta, e sono nomi rispettati nell’ambiente. Ma non basta.

Leggi l'articolo sul sito "Guerre di rete"

Leggi anche la newsletter settimanale di Carola Frediani Questa settimana:

  • OpenAI “drama”
  • AI Act sull’orlo di una crisi di nervi
  • Ascesa di Mistral e dell’AI francese
  • La storia dietro alla botnet Mirai
  • Cybercrimine, porti e cocaina

Venerdì 17 novembre alle ore 18.00 Nicola Villa intervisterà Stefano Borroni Barale in occasione dell’arrivo in libreria del suo libro pubblicato da Altreconomia “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale”.

L’intelligenza artificiale ci viene raccontata con parole iperboliche:

  • innovazione rivoluzionaria
  • rischio esistenziale per l’umanità
  • fattore di cambiamento totale
  • rivoluzione totale dell’istruzione

Cosa c’è di vero? Come sta impattando questa ennesima invenzione tecnologica sulla scuola?

Per garantire la qualità della connessione e poter al tempo stesso, se lo volete, proporre quesiti all’autore. è richiesta gentilmente l'iscrizizone a questo link:

https://inesistentepres.vado.li/

venerdì 17 Novembre 2023 ore 18:00 - 19:00

4a_copertina_intelligenza_inesistente

RTT lab è la seconda tappa unplugged della comunità di Reclaim The Tech. A differenza del festival, questo meeting avrà un’impronta più laboratoriale e orientata all’incontro e al confronto: sarà un appuntamento per rilanciare il processo di Reclaim the Tech, continuare a tessere legami e alleanze, condividere saperi, iniziative, pratiche e azioni, sperimentare ambiti di progettazione comuni, ma soprattutto per riprogettare le interazioni all’interno della community e tracciare idee e proposte per il festival di Reclaim the Tech 2024.

RTT lab partirà venerdì 10 novembre alle 18.00 con l’accoglienza e la tavola rotonda di apertura su Tecnologie e saperi come terreno di conflitto, a Zero81, in collaborazione con la rivista Gli Asini.

Proseguirà per tutta la giornata di sabato 11 novembre a L’Asilo con due sessioni parallele: la mattina, con RTT deep learning and actions (tavoli di discussione tematici – in particolare sugli assi tecnologie ed educazione e tecnologie e conflitti ecologici – e mappatura). Il pomeriggio ci saranno attività di networking e conoscenza reciproca e i laboratori interattivi (che daranno vita a momenti di progettazione e sperimentazione orientati su output quali: autodifesa digitale femminista, usi alternativi e conflitti con l’IA, tecnologie partecipative, inclusive e alternative). La giornata si concluderà con la RTT night con i mini-talk (interventi, video, performance) in teatro, e la presentazione di Moleculocracy (E. Braga) in biblioteca.

Infine, domenica 12 novembre, sempre a L’Asilo, la mattina è prevista la sessione Sulle tracce di Reclaim the Tech: 2 laboratori di progettazione creativa e partecipata, uno rivolto all’ideazione dell’edizione del festival Reclaim the Tech 2024, l’altro alla ri-progettazione della community di RTT (uso, contenuti, strumenti, finalità, relazioni, partecipazione). RTT lab si chiuderà, dopo pranzo, con i saluti e la condivisione di un’agenda comune di appuntamenti e azioni.

Leggi il programma sul sito di RTT

Calcolo non è solo informatica, informatica non è solo intelligenza artificiale, intelligenza artificiale non è solo Large Language Models e agenti discorsivi che al mercato mio padre comprò.

Siamo sull’autostrada A1 tra Bologna e Firenze, provenienti da Venezia. L’itinerario è molto semplice, e stimiamo di essere a casa per cena. Siccome però c’è parecchio traffico, accendiamo il navigatore (quello di serie dell’auto, una versione un po’ datata) per avere un’idea più precisa dell’ora di arrivo. Il navigatore, anzi la navigatrice, sulla base di un avviso di traffico di TMC, ci avverte che la variante “Direttissima” è chiusa al traffico e ci consiglia di prendere la “Panoramica”. L’ora di arrivo prevista è diventata 21:30, ma pazienza.

I cartelloni luminosi sull’autostrada però non ne fanno cenno. Approssimandoci al bivio vediamo che sono in tanti a prendere la Panoramica, molti più del solito. Dopo un po’ di esitazioni decidiamo di fidarci della società Autostrade per l’Italia e imbocchiamo la Direttissima, e che Dio che la mandi buona.

La navigatrice a questo punto va nel panico. Prima ci consiglia un’inversione a U, poi dice che non è in grado di suggerire nessun itinerario, poi comincia a ri-ri-ricalcolare il percorso, mostrando come ora di arrivo le 8:30 (!). Dopo un po’ di aggiustamenti (5:30, poi 2:30) si placa e ci avverte che arriveremo a casa alle 21:35 – cosa che difatti accadrà.

Leggi l'articolo sul sito Digi Tales di Stefano Penge

Guerre di Rete - una newsletter di notizie cyber a cura di Carola Frediani
N.171 - 28 ottobre 2023

In questo numero:

  • Blackout su Gaza
  • AI, chi vuole avvelenare il dato
  • Lettera sull’AI
  • LLM e sanità
  • Italia, AI e comitati

INTERNET E CONFLITTO Blackout su Gaza

"Nella scorsa newsletter avevo raccontato come la Striscia di Gaza stesse subendo una progressiva riduzione della connettività. Negli ultimi tre giorni questa ha visto un ulteriore tracollo. Mentre le Forze di Difesa israeliane annunciavano di "espandere le operazioni di terra", il servizio che monitora internet Netblocks riferiva di un "crollo della connettività nella Striscia di Gaza". Vuol dire no internet, no comunicazioni telefoniche. Uno dei principali e ormai ultimi fornitori di telecomunicazioni palestinesi, Paltel, è stato fortemente colpito dagli intensi attacchi aerei, e ha dichiarato di aver subito "un'interruzione completa di tutti i servizi di comunicazione e internet" a seguito del bombardamento.
Interruzione confermata da Netblocks."

[...]

Leggi la newsletter sul sito di guerre di rete

Cassandra Crossing/ Quanto è sfaccettato il problema delle capacità delle false IA e delle loro ''allucinazioni'' quando viene discusso nei salotti? E nel marketing? E nella filosofia?

Perché il termine allucinazioni è volutamente errato e ingannatore? Perché l'avere allucinazioni implica un funzionamento razionale e una percezione corretta del mondo o del dominio di conoscenza del sistema, in tutti gli altri casi.

E dove manca non solo intelligenza, ma anche il semplice determinismo, non è possibile, anzi è totalmente disonesto parlare di "allucinazioni", quando invece si tratta manifestazioni particolarmente forti della normale assenza di significato di tutte le risposte, anche quelle "esatte".

Leggi l'articolo su ZEUS News

La puntata inizia parlando di social network autogestiti: intervista a Puntarella Party, un nodo Mastodon autogestito di Roma.

Prosegue poi parlando di Intelligenza Artificiale provando a contribuire allo spunto che ha dato il Manifesto . È interessante che gruppi anche grandi prendano posizioni riguardo al rapporto con l'intelligenza artificiale, ma come possiamo articolare queste critiche senza basarci su arbitrarie distinzioni tra IA e non-IA?

Chiudiamo con qualche notizia:

  • Meta chiarisce la sua posizione riguardo al conflitto in Palestina: se ne parli, purché se ne parli male (di Hamas)
  • Le stampanti 3D sono a tutti gli effetti armi, almeno a NY
  • Ubuntu incappa in problemi con le traduzioni

Ascolta la puntata sul sito di Radio Onda Rossa

Puntata del 15 ottobre 2023
I sistemi di predizione del crimine non funzionano. Negli USA, dove i sistemi predittivi cominciano ad avere una certa diffusione, è stato fatto uno studio sulla loro accuratezza: il risutato è che questa è minima, con valori <1%. Il sistema studiato è paranoico, cioè predice un numero di crimini quasi 100 volte superiore a quelli segnalati e comunque la corrispondenza tra crimini predetti e segnalati è ridicolmente bassa.

L'Antitrust USA indaga su Google ed Amazon per pratiche scorrette che porterebbero a generare situazioni di monopolio con danno ai venditori/inserzionisti e di conseguenza ai consumatori.

La Microsoft vira al nucleare: è vero? Effettivamente stanno assumendo qualcuno per studiare la fattibilità di alimentare i data center con piccoli reattori di IV generazione.

Infine, le notiziole: parliamo di un cavo sincero che ammette di mandare tutti i tuoi dati in Cina, della sparizione di un utile add-on su Firefox, della dipartita del mai dimenticato (!) VBScript e della possibilità che Windows abbia licenze in abbonamento.

Ascolta la puntata su Radio Onda Rossa

A volte osannata come tecnologia rivoluzionaria, altre volte accompagnata da dubbi e paure, l’intelligenza artificiale è stata negli ultimi mesi al centro del dibattito, purtroppo spesso inquinato da mitologie turbocapitaliste o da incomprensioni sulle sue effettive potenzialità. Partendo dallo stato della ricerca, passando per le conseguenze nel mondo del lavoro, nei rapporti geopolitici e nell’immaginario comune, proviamo a delineare un quadro realistico sul ruolo di questa tecnologia

Alune riflessioni sull'Intelligenza Artificiale e sulle possibilità di ricerca e di intervento "di parte" di Daniele Gambetta in due parti

leggi la prima parte sul sito di DinamoPress

e la seconda parte: "Technic and magic: animismo di piattaforma e svolta linguistica 2.0"

Insieme a centinaia di altri siti di tutto il mondo, il manifesto ha bloccato i software che "alimentano" le enormi banche dati private delle IA

  • L'uso dei contenuti del manifesto per programmi di machine learning e IA è vietato salvo accordo scritto preventivo con la cooperativa
  • Tra i principali siti del mondo, uno su quattro sta bloccando l'accesso illimitato delle IA ai propri contenuti
  • E' una dichiarazione politica che mira a difendere il pubblico e la società da una espropriazione che potrebbe essere irreversibile

Leggi l'articolo su "Il Manifesto"

Newsletter N.168 - 24 settembre 2023 a cura di Carola Frediani.

In questo numero:

  • Identikit di OpenAI
  • Ora si può usare Bard con Gmail
  • Copilot AI alla conquista di Windows 11
  • Arriva DALL-E 3
  • TikTok spinge sulle etichette per i contenuti generati da AI
  • AAA etichettatori cercasi, dagli studenti cinesi ai carcerati finlandesi agli scrittori senza un soldo
  • Cosa c’è dietro l’ultimo aggiornamento dell’iPhone
  • La bio su Musk

Leggi la newsletter sul sito di guerre di rete

Juan Carlos De Martin, autore di “Contro lo smartphone. Per una tecnologia più democratica”, sarà ospite del Festival del Pensare contemporaneo il 23 settembre a Piacenza. Il suo intervento verterà sullo smartphone, strumento simbolo del nostro tempo, e sul ruolo che ha nelle vite di tutti. A cominciare dai piccolissimi e dalla scuola. Tanto che la Svezia (e non solo) dall’ed-tech sta iniziando a fare retromarcia

Dispositivi tecnologici che impattano pesantemente sulle nostre vite e il cui controllo è nelle sole mani delle big tech. Algoritmi e sensori che predano i dati di cittadini spesso inconsapevoli, talvolta senza strumenti. La politica che fatica a tenere il passo: scarsa conoscenza, inquadramenti tardivi e qualche volta inefficaci. Eppure il governo della tecnologia ha bisogno della politica e delle democrazie, di decisori e di cittadini.

Leggi l'intervista completa su Vita

Cosa ci insegna la storia di ELIZA, il primo chatbot che sembrava conversare come un umano. A partire da come il suo creatore divenne un critico feroce della perdita di autonomia dell’umano.

Tra i tanti ruoli che ChatGPT ha rapidamente iniziato ad assumere nelle vite dei milioni di utenti che lo utilizzano su base quasi quotidiana, ce n’è uno probabilmente inatteso. Per molti, il sistema di OpenAI con cui è possibile conversare su ogni argomento, e spesso in maniera convincente, è diventato un amico, un confidente. Addirittura uno psicologo. Una modalità non prevista (almeno esplicitamente) da OpenAI, ma scelta da un numero non trascurabile di utenti, che si relazionano a ChatGPT come se davvero fosse un analista. Per impedire un utilizzo giudicato (per ragioni che vedremo meglio più avanti) improprio e pericoloso, OpenAI impedisce al suo sistema di intelligenza artificiale generativa di offrire aiuto psicologico, che infatti di fronte a richieste di questo tipo si limita a fornire materiale utile da consultare. Ciò però non ha fermato gli “utenti-pazienti” che, su Reddit, si scambiano trucchi e tecniche per sbloccare ChatGPT affinché fornisca loro consigli psicologici.

Joseph Weizenbaum e il suo chatbot ELIZA

Un risvolto che potrebbe sorprendere molti. Uno dei pochi che sicuramente non si sarebbe sorpreso e che avrebbe avuto moltissimo da dire sull’argomento è Joseph Weizenbaum, scienziato informatico e docente al MIT di Boston, scomparso nel 2008. Colui che già parecchi decenni prima della sua morte aveva preconizzato – o meglio, affrontato e approfondito in prima persona – molti degli aspetti che portano le persone a relazionarsi in maniera intima con le macchine e le cause di questo comportamento.

Leggi l'articolo di Signorelli sul sito di Guerre di rete

Nell'ultima puntata dell'estate di DataKnightmare, Vannini prende spunto da un paper per porre alcune domande e diversi avvertimenti.

Il paper si pone due domande semplici. Se l'uso di chat gpt possa veramente migliorare la produttività e se l'uso di chat gpt abbia effetti diversi su lavoratori meno schillati che su lavoratori più schillati.
Le risposte sono chiare.
Con chat gpt il livello medio dei testi migliora e i tempi di produzione si abbassano, quindi siamo autorizzati a dire che la produttività cresce. Inoltre con chat gpt la differenza fra le capacità dei singoli viene fortemente ridotta.

Pur prendendo per buono il risultato del paper, le criticità sono molte.
Tra e altre: avere addestrato le cosiddette intelligenze artificiali in prevalenza su contenuti disponibili in internet, con le virgolette, significa che le intelligenze artificiali sanno scrivere come un marchettaro a cottimo, Perché quelli sono i contenuti prevalenti in internet, marketing, report aziendali senza anima e comunicazione funzionale.

Ieri abbiamo insegnato alle macchine come scrivono gli esseri umani usando come esempio quando gli esseri umani scrivono come macchine.
Il pericolo è che i vari chat gpt diventino il termine di paragone, per cui da domani gli esseri umani dovranno scrivere come macchine per non perdere la competizione contro macchine che scrivono come esseri umani che scrivono come macchine.

Ascolta la puntata e buon ascolto.

In anteprima e in uscita progressiva per i donatori, e poi per i lettori, la monografia di guerre di rete sull'intelligenza artificiale

Guerre di Rete - una newsletter di notizie cyber a cura di Carola Frediani N.167 - 4 settembre 2023

La newsletter riprende con l'annuncio dell’uscita del primo ebook di Guerre di Rete. Si intitola Generazione AI e, indovinate un po’, è dedicato agli ultimi sviluppi dell’intelligenza artificiale generativa, e al loro impatto sulla società, l’economia, la geopolitica. È stato ideato e curato da Carola Frediani, da Sonia Montegiove e da Federico Nejrotti, e i suoi articoli sono firmati da Stefano Casini, Antonio Dini, Carola Frediani, Federica Meta, Giuditta Mosca, Federico Nejrotti, Antonio Piemontese e Andrea Signorelli.

Troverete l’introduzione di Carola Frediani; Andrea Signorelli che racconta la storia del chatbot ELIZA e soprattutto di Joseph Weizenabum, e i suoi riverberi attuali; Antonio Dini ci trasporta in profondità nella “guerra fredda” dell’AI, lo scontro Usa e Cina, e le varie angolature geopolitiche della partita, da Taiwan all’Ucraina; Federica Meta si muove tra Usa, Ue e Cina, tra legislazione e investimenti, e poi analizza alcune delle aziende in campo; Federico Nejrotti racconta e analizza l’impatto dell’AI generativa sul mondo artistico; Giuditta Mosca sviscera un ampio studio, che analizza e critica il ruolo di Big Tech; Antonio Piemontese intervista alcuni esperti fra giornalismo, accademia e politica (Virginia Padovese; Mariarosaria Taddeo; Brando Benifei) sul rischio della generazione automatica di disinformazione; e Stefano Casini descrive alcuni degli strumenti di AI esplosi per il grande pubblico negli ultimi mesi.

Leggi l'introduzione di Frediani sul sito di Guerre di Rete

Cassandra Crossing/ Com'era prevedibile, ChatGPT evolve verso un'architettura di API e plugin. Questo rappresenta un rischio, perché deresponsabilizza sia chi vende i servizi di GPT4 sia chi li usa.

Circa due mesi fa un annuncio di OpenAI ha reso nota la realizzazione di plugin che consentono di interfacciare ChatGPT con fonti esterne di dati e servizi.

Tecnicamente, si tratta di una API che permette la realizzazione di plugin che interfacciano, anche in maniera bidirezionale, una fonte di dati o un servizio con ChatGPT (per esempio) e viceversa.

In questo modo ChatGPT può utilizzare risorse informative per produrre le sue "risposte". E nella direzione opposta gli "oggetti intelligenti", i servizi e i siti possono far generare testi, programmi e immagini alla falsa IA di turno, e utilizzarli per produrre i risultati o le pagine che devono fornire.

È perfettamente chiaro come questa architettura permetta un immediato inserimento delle false Intelligenze Artificiali nei tessuti profondi della Rete come la conosciamo oggi.

Leggi l'articolo completo su ZEUS News