Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Dopo un lungo periodo di graduale apertura, Threads – il social network rivale di X e sviluppato da Meta – ha annunciato nel mese di giugno la sua completa integrazione con il fediverso (che sta per universo federato): l’ecosistema social decentralizzato il cui esponente più noto è Mastodon. In sintesi, tutte le piattaforme che fanno parte del fediverso sfruttano lo stesso protocollo e possono quindi comunicare l’una con l’altra. Di conseguenza, ogni utente che lo desidera potrà vedere all’interno di Threads, anche se in un feed diverso e con qualche altra limitazione, i post pubblicati dagli utenti del fediverso che si è scelto di seguire. E viceversa: gli utenti di Mastodon che lo desiderano – e sempre che la loro istanza lo consenta – potranno integrare i post pubblicati su Threads.

[...]

Da una parte, la speranza è che la massiccia infrastruttura di Threads possa far crescere la base utenti delle altre piattaforme del fediverso, incrementandone la visibilità; dall’altra, il timore – espresso anche da parecchi utenti – è che un colosso come Meta possa introdurre le logiche del “capitalismo della sorveglianza” in un mondo piccolo, fragile e che soprattutto a queste si è sempre fieramente contrapposto. È anche per questa ragione che molti utenti di Mastodon si oppongono all’integrazione di Threads e hanno espresso la loro intenzione di “defederare” Threads, impedendogli cioè di comunicare con le istanze di Mastodon che gestiscono.

Leggi l'articolo sul sito di Guerre di Rete

Preoccupazioni per la privacy.

L'ultimo aggiornamento di WhatsApp è pensato per mettere la IA al servizio di chi si trova spesso sommerso dalle notifiche e riesce ad accumulare decine o magari centinaia di messaggi non letti, tra i quali poi deve destreggiarsi. Con la nuova funzione Message Summaries, già attiva negli Stati Uniti, WhatsApp genera infatti riassunti automatici dei messaggi non letti, sfruttando la IA di Meta.

Il cuore della tecnologia è il Private Processing, un'infrastruttura che, secondo Meta, assicura che né Meta stessa né WhatsApp possano accedere ai contenuti delle conversazioni. I dati vengono elaborati in un ambiente protetto, al quale le richieste di elaborazione vengono inviate in modo anonimo e protette crittografia end-to-end.

La questione della riservatezza per WhatsApp è particolarmente delicata: Meta ha una storia complessa in termini di privacy.

Leggi l'articolo completo

I costi energetici di migliaia di server che effettuano miliardi di calcoli al secondo e i rischi per i cittadini

Bollette più alte e nuove centrali a gas per soddisfare la fame d’energia di Meta, il colosso tech di Mark Zuckerberg. La multinazionale sta costruendo un gigantesco data center in Louisiana, nelle campagne di Holly Ridge (una vasta area rurale nel nord-est dello stato). Sono infrastrutture strategiche per Big Tech: i data center contengono migliaia di server che, a loro volta, effettuano miliardi di calcoli al secondo, lavorando senza sosta. È il “cervello” dell’intelligenza artificiale, che se ne serve per eseguire i compiti che gli vengono commissionati o, più banalmente, per fornirci le risposte richieste. Ma proprio perché i computer lavorano ininterrottamente in condizioni normali si surriscalderebbero; dunque, per evitare guasti tecnici, vanno raffreddati artificialmente (ad esempio, tramite aria condizionata industriale ad alta potenza). Bisogna poi alimentare la potenza di calcolo e sostenere i costi energetici relativi ai sistemi d’illuminazione o di sicurezza dell’infrastruttura. In definitiva, il fabbisogno complessivo di energia dei data center è già di per sé molto elevato.

Ma Zuckerberg vuole costruire un arcipelago informatico che si estenderà su 370.000 metri quadrati (a grandi linee, un’area coperta da cinquantadue campi di calcio regolamentari). E secondo le stime di una Ong locale, Alliance for Affordable Energy, avrà bisogno del doppio dell’energia di cui vive New Orleans, una città che conta quasi quattrocentomila abitanti.

Leggi l'articolo completo

Se siete fra gli utenti delle app di Meta, come Facebook, Instagram o WhatsApp, fate attenzione alle domande che rivolgete a Meta AI, l’assistente basato sull’intelligenza artificiale integrato da qualche tempo in queste app e simboleggiato dall’onnipresente cerchietto blu. Moltissimi utenti, infatti, non si rendono conto che le richieste fatte a Meta AI non sempre sono private. Anzi, può capitare che vengano addirittura pubblicate online e rese leggibili a chiunque. Come quella che avete appena sentito.

E sta capitando a molti. Tanta gente sta usando quest’intelligenza artificiale di Meta per chiedere cose estremamente personali e le sta affidando indirizzi, situazioni mediche, atti legali e altro ancora, senza rendersi conto che sta pubblicando tutto quanto, con conseguenze disastrose per la privacy e la protezione dei dati personali: non solo i propri, ma anche quelli degli altri.

Questa è la storia di Meta AI, di come mai i dati personali degli utenti finiscono per essere pubblicati da quest’app e di come evitare che tutto questo accada.

Benvenuti alla puntata del 16 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica.

Ascolta il podcast o leggi la trascrizione della puntata di Paolo Attivissimo

Meta, colosso tech fondato da Mark Zuckerberg, e Anduril, la società di tecnologie per la difesa di Palmer Luckey (fondatore di Oculus acquisita da Facebook), stanno collaborando su una gamma di prodotti XR integrati, progettati specificamente per i soldati americani.

Il ceo di Anduril, Palmer Luckey, ha elogiato la partnership come una spinta tecnologica necessaria per le forze armate. “Di tutti i settori in cui la tecnologia a duplice uso può fare la differenza per l’America, questo è quello che mi entusiasma di più”, ha affermato Luckey. “La mia missione è da tempo quella di trasformare i combattenti in tecnomanti, e i prodotti che stiamo sviluppando con Meta fanno proprio questo”.

Da parte sua Zuckerberg ha dichiarato nella nota che “Meta ha trascorso l’ultimo decennio a sviluppare intelligenza artificiale e realtà aumentata per abilitare la piattaforma informatica del futuro”. “Siamo orgogliosi di collaborare con Anduril per contribuire a portare queste tecnologie ai militari americani che proteggono i nostri interessi in patria e all’estero” ha aggiunto il numero uno di Meta.

Non va dimenticato che solo lo scorso novembre Meta ha cambiato politica per aprire Llama al governo degli Stati Uniti per “applicazioni di sicurezza nazionale”. Tra gli appaltatori governativi a cui Meta stava aprendo Llama ci sono Amazon Web Services, Lockheed Martin, Microsoft, Palantir e appunto Anduril.

Articolo qui

Meta ha usato anche LibGen, un database illegale online, per allenare la sua AI, scavalcando così il diritto d'autore e il lavoro di chi fa ricerca, che finisce sfruttato due volte. Ma il copyright non è la soluzione.

Notizia di queste settimane è quella relativa all’utilizzo da parte di Meta di LibGen, un archivio online di materiali, anche accademici, piratati, per aiutare ad addestrare i suoi modelli linguistici di intelligenza artificiale generativa. La notizia è un paradosso, soprattutto, in particolare se letta dalla prospettiva della ricerca accademica. Chi scrive è l’opposto di un sostenitore del copyright: è un sistema che offre pochissima autonomia e un lievissimo sostegno ai piccoli, e dona, invece, un enorme potere ai grandi gruppi editoriali, oltre a essere un ostacolo alla libera circolazione della conoscenza e della cultura. [...]

La razzia spregiudicata di questi contenuti è predatoria perché omette completamente l’esistenza di chi quei contenuti li ha creati, e non perché non ne rispetta il copyright, ma perché avanza una pretesa di possesso su quei contenuti come se non esista alcun livello ulteriore. È predatoria perché si rivolge, senza alcun ragionamento culturale, alla pirateria, che è stata creata per indebolire un sistema iniquo. Così facendo Meta crea un livello di sfruttamento ulteriore su quei contenuti, facendosi gioco di una strategia di resistenza, di fatto svuotandola. Il fatto che Meta si sia rivolta a un database illegale per questa operazione dimostra due cose: che il copyright è finito e non serve assolutamente a nulla (ma questo lo sapevamo già da molto) e, allo stesso tempo, che non esiste limite alcuno all’azione delle aziende tecnologiche e alle loro dinamiche estrattive. Non vi erano limiti all’estrazione di dati per la pubblicità targetizzata, perché dovrebbero esistere per l’AI generativa?

Credere che questo contribuirà a indebolire il copyright o a finalmente mandarlo in soffitta è una favola che può funzionare solo in qualche narrazione determinista dove l’AI è un agente neutro, inevitabile e irrefrenabile, cui non è possibile, né giusto, porre limiti. È una narrazione tossica e di comodo, e molto pericolosa, ed è la stessa da decenni. La risposta non può certamente essere il copyright, ma nemmeno la resa incondizionata a questo pensiero che mischia linguaggio corporate a filosofia spiccia. Non abbiamo fatto e sostenuto le battaglie per la Rete libera, il fair use, le licenze creative commons e per la memoria di Aaron Swartz per fare finta che finire sfruttati da Meta una volta in più sia una cosa di cui essere contenti.

Articolo completo qui

La Commissione Ue ha multato Apple per 500 milioni di euro e Meta per 200 milioni per violazioni del regolamento sui mercati digitali Dma. Si tratta di importi relativamente modesti rispetto a multe precedentemente comminate per simili infrazioni. Possibile che la scelta di Bruxelles di limitare l’ammontare delle sanzioni sia anche un “segnale” all’amministrazione Trump della volontà europea di non andare ad uno scontro su questioni commerciali. Il presidente statunitense ha definito le normae Ue sul settore tecnologici una barriera commerciale non tariffaria che i suoi dazi reciproci mirano a colpire.

Un’ipotesi formalmente smentita dalla Commissione. “Si tratta di applicazione delle normative, non di commercio. Sono questioni distinte, completamente separate. Abbiamo un regolamento e lo stiamo applicando”, ha detto la portavoce della Commissione europea Arianna Podestà.

Leggi l'articolo

È possibile impedire che l'intelligenza artificiale usi per l'addestramento ciò che abbiamo pubblicato sui social network. Ecco come

L’annuncio è arrivato lo scorso 14 aprile: Meta comincerà ad addestrare il suo modello di intelligenza artificiale Meta AI con i dati pubblicati dagli utenti di Facebook e Instagram anche in Europa. La mossa dell’azienda di Mark Zuckerberg ha immediatamente provocato un vero tsunami di reazioni (prevedibilmente) negative e la maggiore preoccupazione degli utilizzatori dei social network targati Meta, al momento, è quella di sapere come impedire l’utilizzo dei loro contenuti per foraggiare l’algoritmo.

L’azienda ha annunciato la possibilità di opporsi all’uso delle informazioni pubblicate, ma le cose non sono semplici come potrebbe sembrare. Nell’addestramento del modello, infatti, potremmo finirci anche se ci opponiamo all’utilizzo dei nostri dati.

Come anticipato da Wired, Meta AI verrà addestrata usando i “contenuti pubblici condivisi da utenti adulti”. Sono esclusi, quindi, i post e i commenti pubblicati da utenti minori di 18 anni e i messaggi privati scambiati con altri contatti. Il riferimento ai commenti pubblici escluderebbe, almeno in teoria, tutti i contenuti che vengono pubblicati con restrizioni di visualizzazione. Se abbiamo cioè impostato l’account di Facebook per consentire l’accesso ai post solo ai nostri contatti o usiamo un account Instagram privato, questi dovrebbero essere esclusi dall’addestramento di Meta AI. Vi rientrerebbero, comunque, il nome, l’immagine profilo e altri contenuti come i commenti a post pubblici, le valutazioni o recensioni su Marketplace e su un account Instagram pubblico.

leggi l'articolo

Link diretto Facebook per opporsi

Link diretto Instagram per opporsi

Dopo lo stop dello scorso anno, Meta inzierà presto ad addestrare i suoi modelli di intelligenza artificiale in Europa sulla base dei post e dei commenti pubblici degli utenti maggiorenni. L'obiettivo è insegnare all'IA a "comprendere e riflettere meglio culture, lingue e storie" per "consentire di supportare meglio milioni di persone e aziende in Europa", sottolinea la società di Mark Zuckerberg.

Si può scegliere di opporsi compilando un modulo. Con tale modulo non si disattiverà Meta AI (in molti in queste ore vorrebbero eliminarlo da WhatsApp o dalle chat di Instagram e Facebook, ma non sembra possibile). Semplicemente aderendo, i propri dati non dovrebbero più confluire tra quelli usati dall’algoritmo per apprendere e migliorarsi.

C’è però un discrimine importante, come avverte Facebook: “Potremmo comunque trattare le informazioni che ti riguardano per sviluppare e migliorare l’IA su Meta, anche se ti opponi o non usi i nostri Prodotti. Ad esempio, questo potrebbe accadere se tu o le tue informazioni: apparite in un’immagine condivisa con tutti sui nostri Prodotti da qualcuno che li usa; siete menzionati nei post o nelle didascalie che qualcun altro condivide sui nostri Prodotti”. Una deroga che potrebbe aprire un nuovo fronte tra Meta e le autorità europee.

Approfondimenti qui e qui

Meta AI è comparsa su WhatsApp senza preavviso, generando polemiche e preoccupazioni sulla privacy. Inoltre, l’assistente virtuale introdotto forzatamente dal gruppo Zuckerberg non può essere disattivato e fornisce istruzioni fuorvianti per la rimozione.

Avete notato quel pulsantino bianco con un cerchio blu comparso di recente nella schermata di Whatsapp sul vostro smartphone? Si tratta dell’icona di Meta AI, l’intelligenza artificiale sviluppata dal gruppo di Mark Zuckerberg. Il sistema, progettato per essere semplice e intuitivo, garantisce un accesso immediato alla chatbot, la finestra di conversazione alimentata da Llama 3.2, la versione più avanzata di AI di Meta, dotata di capacità multimodali.

Violazione della privacy?
Nulla di male, in apparenza. Il problema è che Meta AI è entrato a far parte della nostra quotidianità, su milioni di schermi, senza alcuna notifica preventiva, né esplicito consenso.

Leggi l'articolo