Meta ha usato anche LibGen, un database illegale online, per allenare la sua AI, scavalcando così il diritto d'autore e il lavoro di chi fa ricerca, che finisce sfruttato due volte. Ma il copyright non è la soluzione.
Notizia di queste settimane è quella relativa all’utilizzo da parte di Meta di LibGen, un archivio online di materiali, anche accademici, piratati, per aiutare ad addestrare i suoi modelli linguistici di intelligenza artificiale generativa. La notizia è un paradosso, soprattutto, in particolare se letta dalla prospettiva della ricerca accademica. Chi scrive è l’opposto di un sostenitore del copyright: è un sistema che offre pochissima autonomia e un lievissimo sostegno ai piccoli, e dona, invece, un enorme potere ai grandi gruppi editoriali, oltre a essere un ostacolo alla libera circolazione della conoscenza e della cultura. [...]
La razzia spregiudicata di questi contenuti è predatoria perché omette completamente l’esistenza di chi quei contenuti li ha creati, e non perché non ne rispetta il copyright, ma perché avanza una pretesa di possesso su quei contenuti come se non esista alcun livello ulteriore. È predatoria perché si rivolge, senza alcun ragionamento culturale, alla pirateria, che è stata creata per indebolire un sistema iniquo. Così facendo Meta crea un livello di sfruttamento ulteriore su quei contenuti, facendosi gioco di una strategia di resistenza, di fatto svuotandola. Il fatto che Meta si sia rivolta a un database illegale per questa operazione dimostra due cose: che il copyright è finito e non serve assolutamente a nulla (ma questo lo sapevamo già da molto) e, allo stesso tempo, che non esiste limite alcuno all’azione delle aziende tecnologiche e alle loro dinamiche estrattive. Non vi erano limiti all’estrazione di dati per la pubblicità targetizzata, perché dovrebbero esistere per l’AI generativa?
Credere che questo contribuirà a indebolire il copyright o a finalmente mandarlo in soffitta è una favola che può funzionare solo in qualche narrazione determinista dove l’AI è un agente neutro, inevitabile e irrefrenabile, cui non è possibile, né giusto, porre limiti. È una narrazione tossica e di comodo, e molto pericolosa, ed è la stessa da decenni. La risposta non può certamente essere il copyright, ma nemmeno la resa incondizionata a questo pensiero che mischia linguaggio corporate a filosofia spiccia. Non abbiamo fatto e sostenuto le battaglie per la Rete libera, il fair use, le licenze creative commons e per la memoria di Aaron Swartz per fare finta che finire sfruttati da Meta una volta in più sia una cosa di cui essere contenti.
Articolo completo qui
YouTube sta modificanda le sue strategie pubblicitarie e l'intelligenza artificiale è al centro di questa evoluzione.
Stando alle indiscrezioni, la piattaforma sta sperimentando un sistema basato sull'IA per inserire annunci nei momenti in cui gli utenti sono più propensi a notarli, spesso durante le pause naturali dei video. L'obiettivo è chiaro: massimizzare l'impatto delle pubblicità, anche se un approccio come questo ha l'aria di essere essere un po' troppo invasivo.
L'IA analizza il contenuto dei video per identificare i punti in cui l'attenzione dell'utente è al massimo, come la fine di una scena intensa o un momento di silenzio. Questi istanti, che l'algoritmo considera ideali, diventano il bersaglio perfetto per gli annunci.
Se da un lato questo può (almeno inizialmente) aumentare l'efficacia delle campagne pubblicitarie, dall'altro rischia di interrompere l'esperienza di visione in modo più evidente, suscitando frustrazione negli spettatori.
Newsletter N. 205 - 11 maggio 2025
Numero centrato soprattuto su AI, lavoratori e rapporti di potere
Dopo l’ondata di attenzione e infatuazione mediatica che ha accompagnato il lancio di ChatGPT e di molti altri strumenti di intelligenza artificiale generativa, dopo che per molti mesi si è parlato di vantaggi per la produttività, o di sostituzione del lavoro (soprattutto delle mansioni noiose e ripetitive) con l’AI, siamo arrivati a un punto dove si intravedono più che altro le prime sostituzioni di lavoratori. E ciò sebbene la promessa crescita di produttività lasci ancora molto a desiderare (non parliamo della sostituzione di ruoli).
Mentre gli stessi lavoratori del settore tech (un’elite che per anni ha viaggiato in prima classe anche nelle peggiori fluttuazioni del mercato del lavoro) si sono resi conto di trovarsi in una situazione piuttosto scomoda: più licenziabili, da un lato, e più esposti ai dilemmi etici di lavorare per aziende che hanno abbandonato precedenti remore per contratti di tipo militare, dall’altro.
Partiamo proprio dalla guerra.
Una parte di dipendenti di Google DeepMind (l’unità di Alphabet che lavora sull’intelligenza artificiale e tra le altre cose ha rilasciato Gemini, la famiglia di modelli linguistici di grandi dimensioni) stanno cercando di sindacalizzarsi per contestare la decisione dell'azienda di vendere le sue tecnologie ai militari, e a gruppi legati al governo israeliano.
...
Il chatbot era velocissimo, ma impersonale e impreciso.
Nella corsa frenetica a sostituire i dipendenti umani con la IA che sembra coinvolgere ogni azienda, si è verificata una piccola inversione di tendenza.
Klarna, l'azienda svedese di servizi finanziari specializzata in pagamenti rateizzati, dopo aver sostituito 700 dipendenti con un chatbot AI nel 2024, ora sta tornando ad assumere personale umano per il servizio clienti.
La decisione arriva dopo che un sondaggio interno ha rivelato che soltanto un progetto AI su 4 ha portato un ritorno sull'investimento atteso. Il sondaggio ha evidenziato i limiti dell'automazione in un settore che, a causa dell'interazione con i clienti, non richiede soltanto efficienza ma empatia e flessibilità.
Il proliferare delle intelligenze artificiale non farebbe altro che danneggiare i creatori di contenuti e i siti indipendenti.
Matthew Prince, CEO di Cloudflare (una delle CDN più grandi al mondo), ha lanciato un allarme sul futuro del web durante un'intervista al Council on Foreign Relations: l'intelligenza artificiale starebbe distruggendo il modello di business che ha sostenuto il web per oltre 15 anni.
«L'AI cambierà radicalmente il modello di business del web» ha affermato. «Negli ultimi 15 anni, tutto è stato guidato dalla ricerca online» ma ora le cose stanno cambiando: se un tempo la ricerca su Google portava traffico ai siti tramite i famosi «10 link blu», oggi quella stessa ricerca è fatta per tenere gli utenti sulla piattaforma, fornendo risposte e contenuti tramite la IA.
Dieci anni fa, per ogni due pagine indicizzate, Google rimandava un visitatore al sito; ora, secondo Prince, servono sei pagine per un solo visitatore, con un calo del 200% nel valore restituito ai creatori di contenuti.
È possibile impedire che l'intelligenza artificiale usi per l'addestramento ciò che abbiamo pubblicato sui social network. Ecco come
L’annuncio è arrivato lo scorso 14 aprile: Meta comincerà ad addestrare il suo modello di intelligenza artificiale Meta AI con i dati pubblicati dagli utenti di Facebook e Instagram anche in Europa. La mossa dell’azienda di Mark Zuckerberg ha immediatamente provocato un vero tsunami di reazioni (prevedibilmente) negative e la maggiore preoccupazione degli utilizzatori dei social network targati Meta, al momento, è quella di sapere come impedire l’utilizzo dei loro contenuti per foraggiare l’algoritmo.
L’azienda ha annunciato la possibilità di opporsi all’uso delle informazioni pubblicate, ma le cose non sono semplici come potrebbe sembrare. Nell’addestramento del modello, infatti, potremmo finirci anche se ci opponiamo all’utilizzo dei nostri dati.
Come anticipato da Wired, Meta AI verrà addestrata usando i “contenuti pubblici condivisi da utenti adulti”. Sono esclusi, quindi, i post e i commenti pubblicati da utenti minori di 18 anni e i messaggi privati scambiati con altri contatti. Il riferimento ai commenti pubblici escluderebbe, almeno in teoria, tutti i contenuti che vengono pubblicati con restrizioni di visualizzazione. Se abbiamo cioè impostato l’account di Facebook per consentire l’accesso ai post solo ai nostri contatti o usiamo un account Instagram privato, questi dovrebbero essere esclusi dall’addestramento di Meta AI. Vi rientrerebbero, comunque, il nome, l’immagine profilo e altri contenuti come i commenti a post pubblici, le valutazioni o recensioni su Marketplace e su un account Instagram pubblico.
Dopo lo stop dello scorso anno, Meta inzierà presto ad addestrare i suoi modelli di intelligenza artificiale in Europa sulla base dei post e dei commenti pubblici degli utenti maggiorenni. L'obiettivo è insegnare all'IA a "comprendere e riflettere meglio culture, lingue e storie" per "consentire di supportare meglio milioni di persone e aziende in Europa", sottolinea la società di Mark Zuckerberg.
Si può scegliere di opporsi compilando un modulo. Con tale modulo non si disattiverà Meta AI (in molti in queste ore vorrebbero eliminarlo da WhatsApp o dalle chat di Instagram e Facebook, ma non sembra possibile). Semplicemente aderendo, i propri dati non dovrebbero più confluire tra quelli usati dall’algoritmo per apprendere e migliorarsi.
C’è però un discrimine importante, come avverte Facebook: “Potremmo comunque trattare le informazioni che ti riguardano per sviluppare e migliorare l’IA su Meta, anche se ti opponi o non usi i nostri Prodotti. Ad esempio, questo potrebbe accadere se tu o le tue informazioni: apparite in un’immagine condivisa con tutti sui nostri Prodotti da qualcuno che li usa; siete menzionati nei post o nelle didascalie che qualcun altro condivide sui nostri Prodotti”. Una deroga che potrebbe aprire un nuovo fronte tra Meta e le autorità europee.
Il crepitio dei tasti di un programmatore che scrive codice per comporre un programma è probabilmente uno dei suoni più caratteristici dell'informatica. Da decenni, saper programmare significa avere pieno potere, avere la facoltà di far fare quello che si vuole al computer o tablet o telefono che sia, poter creare app, senza dover dipendere da nessuno.
Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di programmazione, ciascuno con una sintassi e delle regole differenti, e per molte persone questo non è facile o è semplicemente impossibile. Programmare resta così un'arte praticata da pochi e ammirata a rispettosa distanza dai più.
Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di diventare programmatori o sviluppatori, o se siete genitori e pensate che far studiare gli arcani incantesimi della programmazione sia la strada maestra per una carriera informatica garantita per i vostri figli, ci sono due parole che vi conviene conoscere: vibe coding.
[...]
Meta AI è comparsa su WhatsApp senza preavviso, generando polemiche e preoccupazioni sulla privacy. Inoltre, l’assistente virtuale introdotto forzatamente dal gruppo Zuckerberg non può essere disattivato e fornisce istruzioni fuorvianti per la rimozione.
Avete notato quel pulsantino bianco con un cerchio blu comparso di recente nella schermata di Whatsapp sul vostro smartphone? Si tratta dell’icona di Meta AI, l’intelligenza artificiale sviluppata dal gruppo di Mark Zuckerberg. Il sistema, progettato per essere semplice e intuitivo, garantisce un accesso immediato alla chatbot, la finestra di conversazione alimentata da Llama 3.2, la versione più avanzata di AI di Meta, dotata di capacità multimodali.
Violazione della privacy?
Nulla di male, in apparenza. Il problema è che Meta AI è entrato a far parte della nostra quotidianità, su milioni di schermi, senza alcuna notifica preventiva, né esplicito consenso.
Puntata monografica quella del 2 aprile, in cui abbiamo intervistato Giorgia, una ricercatrice in linguistica riguardo alla definizione, applicazione e limiti dei modelli linguistici nell’ambito dell’intelligenza artificiale.
Ascolta il podcast della trasmissione sul sito di Radio Blackout