Il colosso cinese dell’e-commerce JD.com ha annunciato l’acquisizione del gruppo tedesco Ceconomy, la holding tedesca che controlla MediaMarkt e Saturn. L’operazione regala al dragone rosso l’accesso a due marchi simbolo del retail tecnologico tedesco e italiano: MediaWorld e Unieuro. Con il controllo di Ceconomy, JD.com ottiene, infatti, un accesso indiretto anche a Unieuro, in quanto, la holding tedesca detiene il 23,4 % della francese Fnac Darty, che nel 2024 ha acquistato la catena italiana.
Si tratta di un affare da 2,2 miliardi di euro, con un’offerta pubblica d’acquisto al prezzo di 4,60 euro per azione. Una mossa studiata nei minimi dettagli: JD.com acquisisce così una rete distributiva imponente con 48.000 dipendenti, oltre 22 miliardi di euro di fatturato (dati 2023/2024) e una presenza in 11 Paesi. In Italia, dove MediaWorld è il secondo mercato per volumi dopo la Germania, la rete conta 144 negozi e 5.000 lavoratori. Il completamento dell’operazione è previsto per la prima metà del 2026, dopo il monitoraggio e il via libera delle autorità antitrust europee. La mossa non è solo economica, ma geopolitica e in Italia dovrebbe accendere più di un campanello d’allarme.
JD.com – terzo player cinese dell’e-commerce dopo Alibaba e Pinduoduo – non è nuovo ai colpi di scena. Già attivo in Francia, Regno Unito e Paesi Bassi con la sua piattaforma Ochama, ora entra dalla porta principale nel Vecchio Continente con l’acquisizione di Ceconomy. Fondata nel 1998 da Richard Liu con il nome 360Buy, JD.com è diventata negli anni una delle realtà più avanzate dell’e-commerce globale, distinguendosi per una strategia radicalmente diversa dai competitor cinesi come Alibaba e Temu. Mentre questi ultimi si affidano a modelli marketplace aperti a venditori terzi, JD.com controlla direttamente l’intera filiera, dalla logistica alla consegna, fino alla piattaforma tecnologica. In Cina può contare su oltre 820 magazzini, più di 37.600 veicoli per le consegne e una forza lavoro logistica di oltre 323 mila persone.
LA DENUNCIA DELLE ASSOCIAZIONI PER I DIRITTI DIGITALI «Vengono utilizzati per facilitare gli omicidi indiscriminati» nella Striscia
Sì, anche i dati. Fornisce soldi e armi per il genocidio, aiuta nella ricerca di nuovi strumenti per lo sterminio. Ma questo lo sanno tutti, lo conferma la «non sospensione» dell’accordo di associazione di poche settimane fa. Pochi, però, sanno che l’Europa fa di più: fornisce, “regala” ad Israele anche i dati dei suoi cittadini. Che in qualche modo aiutano quel genocidio, sono un “pezzo” del genocidio.
BENINTESO, la notizia non è nuova. Perché in Europa funziona così: c’è il Gdpr – la più avanzata delle leggi in materia di privacy e che, non a caso, infastidisce il comitato di big tech che governa gli Usa – che regola e vieta nel vecchio continente l’estrazione delle informazioni sugli utenti digitali. Nel resto del mondo però non ci sono le stesse norme. Così l’Europa – quando i diritti contavano, all’epoca di Rodotà per capirci – decise che i dati personali potevano essere trattati da paesi extra europei solo se garantivano gli stessi standard, la stessa protezione.
Un tema delicatissimo – lo si intuisce – perché i server dei colossi digitali più usati hanno tutti sede negli States, dove le leggi in materia semplicemente non esistono. E questo ha dato vita a molti contenziosi, per ora tutti vinti dai difensori dei diritti, l’ultimo dei quali deve ancora concludere il suo iter.
Ma questo è un altro discorso. Qui si parla di Israele. Otto mesi dopo l’avvio delle stragi a Gaza, 50 associazioni si rivolsero alla commissione di Bruxelles perché era già evidente che non esistessero più le condizioni – se mai ci fossero state – per definire «adeguata» la protezione dei dati europei in Israele. Di più: le organizzazioni rammentavano che la reciprocità nell’uso dei dati può avvenire solo – è scritto testualmente – con paesi e governi che assicurino il «rispetto dei diritti umani».
Long story short: l'8 marzo 2024 la Commissione Europea, con il supporto dell'EDPB, il Garante Europeo, ha riscontrato una serie di criticità e violazioni, 180 pagine per descrivere minuziosamente le ragioni per le quali office356 fa talmente schifo da non poter essere utilizzato dagli enti, istituzioni e organi dell'Unione Europea.
Dopo varie interlocuzioni e modifiche, l'11 luglio l'EDPB ha chiuso l'indagine confermando la risoluzione delle problematiche precedentemente riscontrate.
Oggi, 28 luglio, la Commissione Europea ha emanato un comunicato dichiarando la conformità di Microsoft 365 alla normativa in materia di protezione dei dati applicabile (che non è il GDPR ma quasi... qui si applica il regolamento UE 2018/1725)
L'EDPS (che non è l'EDPB ma quasi) ha eslamato giubilante:
"Grazie alla nostra indagine approfondita e al seguito dato dalla Commissione, abbiamo contribuito congiuntamente a un significativo miglioramento della conformità alla protezione dei dati nell'uso di Microsoft 365 da parte della Commissione. La Corte riconosce e apprezza inoltre gli sforzi compiuti da Microsoft per allinearsi ai requisiti della Commissione derivanti dalla decisione del GEPD del marzo 2024. Si tratta di un successo significativo e condiviso e di un segnale forte di ciò che può essere conseguito attraverso una cooperazione costruttiva e una vigilanza efficace."
Cosa è successo? Cosa potrà mai essere accaduto, nel frattempo, per consentire a Microsoft Office365 di entrare trionfante nel valhalla, accompagnato dalla immortale musica di Wagner?
Perché non mi sento affatto tranquillo? Beh, forse io non faccio testo...
Il 9 maggio 2025, il procuratore generale del Texas, Ken Paxton, ha annunciato un accordo storico con Google, che pagherà un maxi risarcimento di 1,375 miliardi di dollari per chiudere due cause legali intentate nel 2022 e riguardanti gravi violazioni della privacy dei consumatori.
Secondo le accuse, il colosso tecnologico di Mountain View avrebbe violato la privacy degli utenti texani senza il loro consenso esplicito, e in particolare avrebbe:
La Commissione irlandese per la protezione dei dati (Dpc) annuncia una multa di 530 milioni di euro a TikTok, accusata di aver inviato illegalmente i dati degli utenti europei in Cina.
L’accusa dell’autorità è di aver trasferito illecitamente i dati degli utenti europei in Cina, aumentando per altro le tensioni e lo scetticismo (soprattutto dei legislatori occidentali) nei confronti di Bytedance, l’azienda di Pechino proprietaria del social network.
L’importo della multa è superiore alle indiscrezioni che erano trapelate a inizio mese ed è la terza sanzione più alta di sempre, dopo quelle ad Amazon (746 milioni) e Meta-Facebook (1,2 miliardi).
È possibile impedire che l'intelligenza artificiale usi per l'addestramento ciò che abbiamo pubblicato sui social network. Ecco come
L’annuncio è arrivato lo scorso 14 aprile: Meta comincerà ad addestrare il suo modello di intelligenza artificiale Meta AI con i dati pubblicati dagli utenti di Facebook e Instagram anche in Europa. La mossa dell’azienda di Mark Zuckerberg ha immediatamente provocato un vero tsunami di reazioni (prevedibilmente) negative e la maggiore preoccupazione degli utilizzatori dei social network targati Meta, al momento, è quella di sapere come impedire l’utilizzo dei loro contenuti per foraggiare l’algoritmo.
L’azienda ha annunciato la possibilità di opporsi all’uso delle informazioni pubblicate, ma le cose non sono semplici come potrebbe sembrare. Nell’addestramento del modello, infatti, potremmo finirci anche se ci opponiamo all’utilizzo dei nostri dati.
Come anticipato da Wired, Meta AI verrà addestrata usando i “contenuti pubblici condivisi da utenti adulti”. Sono esclusi, quindi, i post e i commenti pubblicati da utenti minori di 18 anni e i messaggi privati scambiati con altri contatti. Il riferimento ai commenti pubblici escluderebbe, almeno in teoria, tutti i contenuti che vengono pubblicati con restrizioni di visualizzazione. Se abbiamo cioè impostato l’account di Facebook per consentire l’accesso ai post solo ai nostri contatti o usiamo un account Instagram privato, questi dovrebbero essere esclusi dall’addestramento di Meta AI. Vi rientrerebbero, comunque, il nome, l’immagine profilo e altri contenuti come i commenti a post pubblici, le valutazioni o recensioni su Marketplace e su un account Instagram pubblico.
Dopo lo stop dello scorso anno, Meta inzierà presto ad addestrare i suoi modelli di intelligenza artificiale in Europa sulla base dei post e dei commenti pubblici degli utenti maggiorenni. L'obiettivo è insegnare all'IA a "comprendere e riflettere meglio culture, lingue e storie" per "consentire di supportare meglio milioni di persone e aziende in Europa", sottolinea la società di Mark Zuckerberg.
Si può scegliere di opporsi compilando un modulo. Con tale modulo non si disattiverà Meta AI (in molti in queste ore vorrebbero eliminarlo da WhatsApp o dalle chat di Instagram e Facebook, ma non sembra possibile). Semplicemente aderendo, i propri dati non dovrebbero più confluire tra quelli usati dall’algoritmo per apprendere e migliorarsi.
C’è però un discrimine importante, come avverte Facebook: “Potremmo comunque trattare le informazioni che ti riguardano per sviluppare e migliorare l’IA su Meta, anche se ti opponi o non usi i nostri Prodotti. Ad esempio, questo potrebbe accadere se tu o le tue informazioni: apparite in un’immagine condivisa con tutti sui nostri Prodotti da qualcuno che li usa; siete menzionati nei post o nelle didascalie che qualcun altro condivide sui nostri Prodotti”. Una deroga che potrebbe aprire un nuovo fronte tra Meta e le autorità europee.
Il suo ’Dipartimento’ ora appare come un’iniziativa che unisce la retorica dell’efficienza ad un approccio ingegneristico al “problema” del governo federale. E scompaiono migliaia di ’dataset’ dai siti federali, relativi a genere, sanità, sessualità, inquinamento, disuguaglianza sociale e cambio climatico: i dati di un’agenda progressista
Uno degli aspetti che più colpiscono di questo primo mese di amministrazione Trump è stata la velocità con cui si è mosso il minuscolo esercito guidato da Elon Musk sotto le insegne del dipartimento per l’efficienza governativa (DOGE). Da qualche settimana, questi ventenni – tra loro molti ingegneri informatici – stanno scorrazzando nei corridoi del potere di Washington, richiedendo accesso a informazioni riservate, e spedendo email di massa a migliaia di dipendenti – con effetti che vanno dall’incredulità al caos amministrativo. Vari osservatori hanno paragonato il loro entusiasmo zelante a quello di squadristi e camice brune e Musk, a cui non dispiace indulgere nell’immaginario della destra radicale, li ha definiti i suoi “spartani”.
In realtà il modello per l’azione di questi novelli agenti del caos è molto più vicino: è Silicon Valley. Il motto move fast and break things si adatta perfettamente a quello che stanno facendo, come pure il verbo preferito dal mondo tech: to disrupt, che potrebbe essere tradotto letteralmente come produrre caos.
L’authority italiana chiede alle società cinesi una risposta entro 20 giorni.
Il Garante per la protezione dei dati personali ha inviato una richiesta di informazioni a Hangzhou DeepSeek Artificial Intelligence e a Beijing DeepSeek Artificial Intelligence, le società che forniscono il servizio di chatbot DeepSeek, sia su piattaforma web che su App. E’ quanto si legge in una nota dell’autorità che ha valutato «l’eventuale alto rischio per i dati di milioni di persone in Italia».
Il Garante «ha chiesto alle due società e alle loro affiliate di confermare quali siano i dati personali raccolti, da quali fonti, per quali finalità, quale sia la base giuridica del trattamento, e se siano conservati su server collocati in Cina».
Sta circolando un’accusa pesante che riguarda il popolarissimo software Word di Microsoft: userebbe i testi scritti dagli utenti per addestrare l’intelligenza artificiale dell’azienda. Se l’accusa fosse confermata, le implicazioni in termini di privacy, confidenzialità e diritto d’autore sarebbero estremamente serie.
Questa è la storia di quest’accusa, dei dati che fin qui la avvalorano, e di come eventualmente rimediare. Benvenuti alla puntata del 25 novembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica.
Le intelligenze artificiali hanno bisogno di dati sui quali addestrarsi. Tanti, tanti dati: più ne hanno, più diventano capaci di fornire risposte utili. Un’intelligenza artificiale che elabora testi, per esempio, deve acquisire non miliardi, ma migliaia di miliardi di parole per funzionare decentemente.
Procurarsi così tanto testo non è facile, e quindi le aziende che sviluppano intelligenze artificiali pescano dove possono: non solo libri digitalizzati ma anche pagine Web, articoli di Wikipedia, post sui social network. E ancora non basta. Secondo le indagini del New York Times, OpenAI, l’azienda che sviluppa ChatGPT, aveva già esaurito nel 2021 ogni fonte di testo in inglese pubblicamente disponibile su Internet.
Per sfamare l’appetito incontenibile della sua intelligenza artificiale, OpenAI ha creato uno strumento di riconoscimento vocale, chiamato Whisper, che trascriveva il parlato dei video di YouTube e quindi produceva nuovi testi sui quali continuare ad addestrare ChatGPT. Whisper ha trascritto oltre un milione di ore di video di YouTube, e dall’addestramento basato su quei testi è nato ChatGPT 4.