Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

YouTube sta modificanda le sue strategie pubblicitarie e l'intelligenza artificiale è al centro di questa evoluzione.

Stando alle indiscrezioni, la piattaforma sta sperimentando un sistema basato sull'IA per inserire annunci nei momenti in cui gli utenti sono più propensi a notarli, spesso durante le pause naturali dei video. L'obiettivo è chiaro: massimizzare l'impatto delle pubblicità, anche se un approccio come questo ha l'aria di essere essere un po' troppo invasivo.

L'IA analizza il contenuto dei video per identificare i punti in cui l'attenzione dell'utente è al massimo, come la fine di una scena intensa o un momento di silenzio. Questi istanti, che l'algoritmo considera ideali, diventano il bersaglio perfetto per gli annunci.

Se da un lato questo può (almeno inizialmente) aumentare l'efficacia delle campagne pubblicitarie, dall'altro rischia di interrompere l'esperienza di visione in modo più evidente, suscitando frustrazione negli spettatori.

Articolo completo qui

Newsletter N. 205 - 11 maggio 2025

Numero centrato soprattuto su AI, lavoratori e rapporti di potere

Dopo l’ondata di attenzione e infatuazione mediatica che ha accompagnato il lancio di ChatGPT e di molti altri strumenti di intelligenza artificiale generativa, dopo che per molti mesi si è parlato di vantaggi per la produttività, o di sostituzione del lavoro (soprattutto delle mansioni noiose e ripetitive) con l’AI, siamo arrivati a un punto dove si intravedono più che altro le prime sostituzioni di lavoratori. E ciò sebbene la promessa crescita di produttività lasci ancora molto a desiderare (non parliamo della sostituzione di ruoli).

Mentre gli stessi lavoratori del settore tech (un’elite che per anni ha viaggiato in prima classe anche nelle peggiori fluttuazioni del mercato del lavoro) si sono resi conto di trovarsi in una situazione piuttosto scomoda: più licenziabili, da un lato, e più esposti ai dilemmi etici di lavorare per aziende che hanno abbandonato precedenti remore per contratti di tipo militare, dall’altro.

Partiamo proprio dalla guerra.
Una parte di dipendenti di Google DeepMind (l’unità di Alphabet che lavora sull’intelligenza artificiale e tra le altre cose ha rilasciato Gemini, la famiglia di modelli linguistici di grandi dimensioni) stanno cercando di sindacalizzarsi per contestare la decisione dell'azienda di vendere le sue tecnologie ai militari, e a gruppi legati al governo israeliano. ...

Leggi la newsletter completa

Il chatbot era velocissimo, ma impersonale e impreciso.

Nella corsa frenetica a sostituire i dipendenti umani con la IA che sembra coinvolgere ogni azienda, si è verificata una piccola inversione di tendenza.

Klarna, l'azienda svedese di servizi finanziari specializzata in pagamenti rateizzati, dopo aver sostituito 700 dipendenti con un chatbot AI nel 2024, ora sta tornando ad assumere personale umano per il servizio clienti.

La decisione arriva dopo che un sondaggio interno ha rivelato che soltanto un progetto AI su 4 ha portato un ritorno sull'investimento atteso. Il sondaggio ha evidenziato i limiti dell'automazione in un settore che, a causa dell'interazione con i clienti, non richiede soltanto efficienza ma empatia e flessibilità.

Leggi l'articolo su ZEUS News

Il proliferare delle intelligenze artificiale non farebbe altro che danneggiare i creatori di contenuti e i siti indipendenti.

Matthew Prince, CEO di Cloudflare (una delle CDN più grandi al mondo), ha lanciato un allarme sul futuro del web durante un'intervista al Council on Foreign Relations: l'intelligenza artificiale starebbe distruggendo il modello di business che ha sostenuto il web per oltre 15 anni.

«L'AI cambierà radicalmente il modello di business del web» ha affermato. «Negli ultimi 15 anni, tutto è stato guidato dalla ricerca online» ma ora le cose stanno cambiando: se un tempo la ricerca su Google portava traffico ai siti tramite i famosi «10 link blu», oggi quella stessa ricerca è fatta per tenere gli utenti sulla piattaforma, fornendo risposte e contenuti tramite la IA.

Dieci anni fa, per ogni due pagine indicizzate, Google rimandava un visitatore al sito; ora, secondo Prince, servono sei pagine per un solo visitatore, con un calo del 200% nel valore restituito ai creatori di contenuti.

Leggi l'articolo su ZEUS News

È possibile impedire che l'intelligenza artificiale usi per l'addestramento ciò che abbiamo pubblicato sui social network. Ecco come

L’annuncio è arrivato lo scorso 14 aprile: Meta comincerà ad addestrare il suo modello di intelligenza artificiale Meta AI con i dati pubblicati dagli utenti di Facebook e Instagram anche in Europa. La mossa dell’azienda di Mark Zuckerberg ha immediatamente provocato un vero tsunami di reazioni (prevedibilmente) negative e la maggiore preoccupazione degli utilizzatori dei social network targati Meta, al momento, è quella di sapere come impedire l’utilizzo dei loro contenuti per foraggiare l’algoritmo.

L’azienda ha annunciato la possibilità di opporsi all’uso delle informazioni pubblicate, ma le cose non sono semplici come potrebbe sembrare. Nell’addestramento del modello, infatti, potremmo finirci anche se ci opponiamo all’utilizzo dei nostri dati.

Come anticipato da Wired, Meta AI verrà addestrata usando i “contenuti pubblici condivisi da utenti adulti”. Sono esclusi, quindi, i post e i commenti pubblicati da utenti minori di 18 anni e i messaggi privati scambiati con altri contatti. Il riferimento ai commenti pubblici escluderebbe, almeno in teoria, tutti i contenuti che vengono pubblicati con restrizioni di visualizzazione. Se abbiamo cioè impostato l’account di Facebook per consentire l’accesso ai post solo ai nostri contatti o usiamo un account Instagram privato, questi dovrebbero essere esclusi dall’addestramento di Meta AI. Vi rientrerebbero, comunque, il nome, l’immagine profilo e altri contenuti come i commenti a post pubblici, le valutazioni o recensioni su Marketplace e su un account Instagram pubblico.

leggi l'articolo

Link diretto Facebook per opporsi

Link diretto Instagram per opporsi

Dopo lo stop dello scorso anno, Meta inzierà presto ad addestrare i suoi modelli di intelligenza artificiale in Europa sulla base dei post e dei commenti pubblici degli utenti maggiorenni. L'obiettivo è insegnare all'IA a "comprendere e riflettere meglio culture, lingue e storie" per "consentire di supportare meglio milioni di persone e aziende in Europa", sottolinea la società di Mark Zuckerberg.

Si può scegliere di opporsi compilando un modulo. Con tale modulo non si disattiverà Meta AI (in molti in queste ore vorrebbero eliminarlo da WhatsApp o dalle chat di Instagram e Facebook, ma non sembra possibile). Semplicemente aderendo, i propri dati non dovrebbero più confluire tra quelli usati dall’algoritmo per apprendere e migliorarsi.

C’è però un discrimine importante, come avverte Facebook: “Potremmo comunque trattare le informazioni che ti riguardano per sviluppare e migliorare l’IA su Meta, anche se ti opponi o non usi i nostri Prodotti. Ad esempio, questo potrebbe accadere se tu o le tue informazioni: apparite in un’immagine condivisa con tutti sui nostri Prodotti da qualcuno che li usa; siete menzionati nei post o nelle didascalie che qualcun altro condivide sui nostri Prodotti”. Una deroga che potrebbe aprire un nuovo fronte tra Meta e le autorità europee.

Approfondimenti qui e qui

Il crepitio dei tasti di un programmatore che scrive codice per comporre un programma è probabilmente uno dei suoni più caratteristici dell'informatica. Da decenni, saper programmare significa avere pieno potere, avere la facoltà di far fare quello che si vuole al computer o tablet o telefono che sia, poter creare app, senza dover dipendere da nessuno.

Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di programmazione, ciascuno con una sintassi e delle regole differenti, e per molte persone questo non è facile o è semplicemente impossibile. Programmare resta così un'arte praticata da pochi e ammirata a rispettosa distanza dai più.

Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di diventare programmatori o sviluppatori, o se siete genitori e pensate che far studiare gli arcani incantesimi della programmazione sia la strada maestra per una carriera informatica garantita per i vostri figli, ci sono due parole che vi conviene conoscere: vibe coding.

[...]

  1. Vibe coding: creare programmi senza saper programmare
  2. Abbandonarsi alle vibrazioni e programmare senza toccare la tastiera
  3. Si riducono tempi e costi, e tutto sembra funzionare
  4. Se ci sono errori o vulnerabilità, sono guai seri
  5. Tutti sono entusiasti. Cosa mai potrebbe andare storto?

Leggi l'articolo di Paolo Attivissimo

Meta AI è comparsa su WhatsApp senza preavviso, generando polemiche e preoccupazioni sulla privacy. Inoltre, l’assistente virtuale introdotto forzatamente dal gruppo Zuckerberg non può essere disattivato e fornisce istruzioni fuorvianti per la rimozione.

Avete notato quel pulsantino bianco con un cerchio blu comparso di recente nella schermata di Whatsapp sul vostro smartphone? Si tratta dell’icona di Meta AI, l’intelligenza artificiale sviluppata dal gruppo di Mark Zuckerberg. Il sistema, progettato per essere semplice e intuitivo, garantisce un accesso immediato alla chatbot, la finestra di conversazione alimentata da Llama 3.2, la versione più avanzata di AI di Meta, dotata di capacità multimodali.

Violazione della privacy?
Nulla di male, in apparenza. Il problema è che Meta AI è entrato a far parte della nostra quotidianità, su milioni di schermi, senza alcuna notifica preventiva, né esplicito consenso.

Leggi l'articolo

Puntata monografica quella del 2 aprile, in cui abbiamo intervistato Giorgia, una ricercatrice in linguistica riguardo alla definizione, applicazione e limiti dei modelli linguistici nell’ambito dell’intelligenza artificiale.

  • Come definiamo una lingua,
  • Cosa vuol dire un modello linguistico,
  • Come avviene la costruzione di questi mitici modelli linguistici,
  • Come definiamo l'addestramento su una lingua.
  • E' ancora valida la definizione di pappagalli stocastici per gli LLM (Large Language Model)?
  • Cosa è cambiato negli ultimi anni?

Ascolta il podcast della trasmissione sul sito di Radio Blackout

"Qualche giorno fa, su LinkedIn, un recruiter dichiarava di scartare tutti i candidati che non indicano competenze sull’intelligenza artificiale. Secondo lui, chi oggi non sa usare (o non dichiara di usare) l’AI non è più “occupabile”. Mi sono chiesto: cosa scriverei io, dopo trent’anni passati a lavorare con le informazioni, a progettare conoscenza, senso, orientamento? Sono forse meno competente solo perché non ho scritto “AI” nel curriculum? E allora ho provato a rispondere. Non con uno slogan. Ma con un saggio. Un saggio che parla di incertezza, di etica, di design cognitivo, di consapevolezza come forma di libertà. Un saggio che collega filosofia, teoria dell’informazione, architettura digitale e intelligenza artificiale. Perché non è l’AI che definisce la competenza, ma la capacità di dare forma al sapere. Anche — e soprattutto — quando è incerto.

Introduzione — Il valore euristico dell’incertezza

L’incertezza, lungi dall’essere un accidente della conoscenza, ne costituisce la matrice originaria. Fin dalle prime speculazioni epistemologiche, dalla aporia socratica alla sospensione del giudizio pirroniano, l’incertezza ha accompagnato la riflessione umana come segno di vitalità del pensiero e non della sua debolezza. In tempi più recenti, la filosofia della scienza ha sancito definitivamente il primato del dubbio sull’assoluto, riconoscendo nella fallibilità e nella revisione continua dei modelli conoscitivi l’unica via percorribile per l’accesso alla verità, sempre provvisoria. In questo scenario, l’informazione e le sue architetture assumono un ruolo cruciale, non tanto come dispositivi di certezza, quanto come sistemi di orientamento nell’incertezza."

Leggi l'articolo

Il ragionamento è l’abilità dell’intelletto di elaborare informazioni, stabilire relazioni tra esse e giungere a conclusioni coerenti e giustificate. Esso consiste nel processo mediante il quale si formulano inferenze a partire da un insieme di premesse o dati. In altre parole, si tratta di un meccanismo formale, cioè esplicitabile, che consente di transitare dal già noto al non ancora noto, dalla specificità alla generalità, o viceversa, assicurando coerenza e validità in ciascuna tappa del percorso. Dunque potremmo dire ‘ragioni!‘ a chiunque (o qualsiasi cosa) si mostri in grado di compiere tragitti di questo tipo.

Leggi l'articolo

Il luddismo, l'agire di quelle operaie e di quegli operai che agli inizi del 1800 prendevano a martellate o a zoccolate le macchine che toglievano loro lavoro, è comunemente giudicato atteggiamento retrogrado ed infantile. Ad uno sguardo più attento, il luddismo appare invece il primo passo, del tutto comprensibile ed anzi necessario, di reazione ad una novità. L'energia inizialmente indirizzata verso l'inutile attacco alla macchina trova negli anni immediatamente successivi una destinazione costruttiva. Nascono così le mutue, i sindacati, i partiti dei lavoratori. Oggi ci troviamo esattamente nella stessa situazione: seguire i luddisti nel non subire passivamente, trovare vie per rispondere costruttivamente. Questo articolo è stato rifiutato nel 2017 dalla rivista 'Prometeo'. Il motivo: è pessimista, fosco. Ma come scrivo nella conclusione "Credo che ci convenga essere turbati, spaventati, come lo erano i luddisti". Il turbamento è il necessario passaggio iniziale verso una presa di coscienza che si traduce in azione. Ripubblico qui l'articolo senza cambiare una virgola.

Leggi l'articolo di Francesco Varanini

Secondo Meta, l'uso di Torrent per scaricare copie pirata dei libri non è illegale, se non vengono distribuite tramite seeding dopo il download.

Emergono nuovi dettagli relativi al processo che vede Meta sul banco degli imputati. L’azienda di Menlo Park, accusata di violazione del copyright da diversi autori per aver addestrato i modelli Llama con copie digitali pirata di numerosi libri, ha dichiarato che il torrenting senza seeding non è illegale.

I documenti depositati in tribunale hanno confermato che i dipendenti di Meta sono stati autorizzati a scaricare circa 82 TB di dati tramite Torrent dal sito Anna’s Archive. Le copie pirata dei libri sono state utilizzate per il training dei modelli Llama. L’azienda californiana sostiene che il “fair use” è consentito dalla legge.

Articolo completo qui

Il colosso ha rimosso dalle sue linee guida sull'intelligenza artificiale il divieto di utilizzare la tecnologia a scopi potenzialmente dannosi.

Il 4 febbraio Google ha annunciato di aver aggiornato i principi che regolano l'utilizzo della sua intelligenza artificiale e di altre tecnologie avanzate. Il colosso ha eliminato i riferimenti in cui prometteva di non perseguire "tecnologie che causano o possono causare danni", "armi o altre tecnologie il cui scopo principale o la cui implementazione causa o facilita direttamente lesioni alle persone", "tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando norme accettate a livello internazionale", e ancora "tecnologie il cui scopo contravviene a principi ampiamente accettati del diritto internazionale e dei diritti umani".

Diversi dipendenti di Google hanno espresso la loro apprensione per le novità. “È profondamente preoccupante vedere che Google abbandona il suo impegno per l'uso etico della tecnologia AI senza alcun input da parte dei suoi dipendenti o del pubblico in generale – dice Parul Koul, sviluppatore di software di Google e presidente di un sindacato che rappresenta i lavoratori di Alphabet, la holding che controlla l'azienda –, nonostante la posizione storica del personale sia che l'azienda non dovrebbe entrare nel business della guerra”.

Link all'articolo qui

Apriamo la puntata parlando delle ultime svolte in maniera di Intelligenza Artificiale, in particolare facendo il quadro dell'ingresso delle industrie cinese nel mercato dei Large Language Models e provando a discutere dei risultati del CHIPS Act: è servito, o i recenti sviluppi mostrano che era ormai troppo tardi?

Ci spostiamo poi al mondo dei social media, segnalando la decisione di ValigiaBlu di uscire, oltre che da X, anche dalle piattaforme di Meta. Evidentemente il video di Zuckerberg che si inchina a Trump ha segnato un precedente, per quanto ci sembra che le principali criticità fossero già insite.

Nuovo caso di Malware sviluppato da aziende israeliane, e diffuso tramite Whatsapp. Molte le persone coinvolte, in decine di paesi, tra cui l'Italia. L'unico nome che conosciamo è proprio quello di un giornalista italiano, Francesco Cancellato, direttore di Fanpage.it.

Notiziole varie: dall'impatto delle sanzioni sul software libero, a come battere il boss finale della Nintendo, passando per l'utilizzo dell'Intelligenza Artificiale nelle indagini.

Ascolta la puntata sul sito di Radio Onda Rossa

Lunedì 3 febbraio alle ore 15.00 presso la sede Cobas di Terni, via Cesi 15/a, presentazione di “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” di Stefano Borroni Barale. Ne parlano l'autore e Franco Coppoli.

Intelligenza artificiale (Ai) è un termine che raggruppa tecnologie molto diverse tra loro, con una lunga storia. I tifosi dell’Ai sostengono che questa tecnologia abbia il potenziale di risolvere alcuni dei problemi più urgenti del mondo, come il cambiamento climatico, la povertà e le malattie. I critici, invece, sostengono che questa tecnologia sia pericolosa e ingannevole.

Ma perché tutti parlano di Ai? Perché è un’eccezionale operazione di marketing: una delle meglio organizzate degli ultimi anni. Su questa le imprese della Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend negativo fatto di tagli al personale e cambi drastici dei loro programmi di sviluppo. Per comprendere quali siano le aspettative di queste aziende – e quali dovrebbero essere le nostre – in questo libro si ricostruiscono le tappe, le intuizioni e i paradossi che hanno attraversato la comunità scientifica, provando a tracciare una linea che collega Alan Turing, primo sostenitore dell’Ai forte, con i creatori di ChatGPT, il software in grado di sostenere un dialogo credibile con un essere umano.

L’incontro sarà fruibile anche online usando il software Jitsi a questo link https://meet.jit.si/altercobas

Guarda la scheda del libro

Impazza DeepSeek, nuova AI cinese: per gli Usa un nuovo "momento Sputnik. Made in China 2025: per il progetto voluto da Xi è tempo di bilanci. E buon anno del serpente :)

Allora: la nuova versione è uscita poco dopo Natale, pare sia all’altezza di OpenAI e affini, è realizzata con solo una parte dei chip (ad esempio quelli Nvidia) bloccati dagli Usa verso la Cina. E fa parlare di sé come la prima forma di AI che riporta in qualche modo all’AGI (Artificial General Intelligence) specie la release R1. Insomma in ogni caso un po’ tutti hanno detto la stessa cosa: DeepSeek ha colmato un divario. E per gli Usa è arrivato un altro “momento Sputnik”, quello nel quale ci si rende conto che un competitor è più avanti (come capitò nel caso dello Sputnik sovietico, appunto, o come capitò alla Cina dopo la vittoria delle AI di Google contro il campione del mondo di go, allora si parlò di momento Sputnik, ma per la Cina)

Ora, ci sono molti tecnicismi al riguardo ma non solo perché DeepSeek ha segnato l’inizio di una nuova era nell’AI cinese, quella del risparmio: “DeepSeek è stato rapidamente soprannominato il "Pinduoduo dell'IA" e altri grandi giganti della tecnologia come ByteDance, Tencent, Baidu e Alibaba non hanno potuto trattenersi, tagliando i prezzi uno dopo l'altro. Una guerra dei prezzi per i modelli di grandi dimensioni in Cina era imminente”. E a differenze di aziende di stato “che bruciano soldi, in sussidi, DeepSeek è redditizia”.

Vediamo intanto di cosa stiamo parlando. DeepSeek è un'azienda cinese di intelligenza artificiale che sviluppa modelli linguistici di grandi dimensioni open-source. L'azienda è finanziata esclusivamente dal fondo speculativo cinese High-Flyer. Sia DeepSeek che High-Flyer hanno sede a Hangzhou, Zhejiang. DeepSeek è stata fondata nel maggio 2023 da Liang Wenfeng, un ex studente dell'Università di Zhejiang che ha iniziato a fare trading durante la crisi finanziaria del 2007-2008.

Leggi tutto

Spesso succede che l’avvento di nuove tecnologie sia accompagnato da paure e catastrofismi, e così succede anche per gli sviluppi degli ultimi anni delle tecnologie di Machine Learning, che oggi va di moda chiamare “Intelligenza Artificiale”. Ma le reazioni emotive vanno sempre approfondite, a costo di trovarsi alla mercé di interessi manipolatòri: le big tech companies sono molto motivate a far pensare che si tratti di tecnologie pericolosissime che solo loro possono gestire e controllare (magari con tanto di eccezioni legislative), e contemporaneamente usano questo piano emotivo come distrazione dalle considerazioni sull’utilizzo delle tecnologie nel contesto sociale.

Non facciamoci distrarre, è invece necessario studiare e capire limiti e potenzialità del Machine Learning, così come con qualunque altra tecnologia. Ma condurre questo tipo di ricerche in proprio in questo caso è complicato e dispendioso, per via dei necessari requisiti software e hardware.

Il collettivo Autistici/Inventati vuole cambiare questo stato di cose! Per questo movito ha realizzato un Laboratorio Popolare Condiviso di Machine Learning, offrendo hardware con relativi ambienti software preparati per il ML a gruppi e progetti selezionati, a costo zero.

Leggi tutto sul sito

Nessun accordo. Per ora. Ma c’è un’istruttoria in corso: e comunque non ci sono alternative ai servizi offerti dall’azienda di Musk. È questa la sintesi di quanto detto in conferenza stampa della presidente del Consiglio Meloni in merito al possibile contratto con SpaceX da 1,5 miliardi di euro per fornire comunicazioni satellitari al governo e ai militari. Istruttoria che - secondo l’agenzia Bloomberg, che per prima aveva dato la notizia e il cui articolo mi sembra sia rimasto centrale per inquadrare la vicenda - sarebbe stata in fase avanzata. Chiariamo subito che Bloomberg non ha scritto che l’accordo fosse chiuso. Ha però affermato che il progetto fosse già stato approvato dai servizi segreti italiani e dal Ministero della Difesa. E che i negoziati, in corso dal 2023, osteggiati da alcuni funzionari italiani e arenatisi fino a poco tempo fa, avrebbero ripreso ad avanzare dopo il recente incontro a sorpresa di Meloni con Trump in Florida.

In questo numero della newsletter Guerre di Rete

  • Italia, Musk e Ue: che partite si stanno giocando
  • Tutti i guai di OpenAI
  • Arriva la Nato a proteggere i cavi del Baltico

Leggi la newsletter di Carola Frediani per tutti i dettagli

Il 2024 delle intelligenze artificiali si è concluso con molti annunci e rilasci di nuovi strumenti da parte delle principali aziende impegnate nello sviluppo di queste tecnologie. Come da manuale delle trovate di marketing di Sam Altman, la OpenAi si è riservata il finale a effetto. L’azienda, che aveva addirittura organizzato un calendario dell’avvento per svelare una alla volta le proprie novità, ha anticipato o3, il suo nuovo modello.

o3 non è ancora disponibile al pubblico: solo chi fa ricerca nell’ambito della sicurezza dei sistemi di ia può ottenere un accesso anticipato.

Sappiamo poco di o3. Da quel che si può leggere online, si basa ancora sull’architettura degli altri modelli della OpenAi. Quel che lo rende interessante, però, è il fatto che è stato valutato da un progetto che si chiama Arc prize. L’Arc prize è’un premio da un milione di dollari riservato a chiunque riesca a far risolvere ai modelli linguistici alcuni test chiamati Arc-agi che sono particolarmente ostici per le macchine.

Leggi l'articolo