Intervista. L’architetta che insegna a Eindhoven, specialista del lavoro automatizzato, racconta la sua ricerca, attraverso la quale propone nuove prospettive di osservazione sul complesso rapporto tra lavoro e tecnologia
Negli ultimi anni i data center sono diventati un importante area di investimento. Le previsioni indicano una forte crescita nella produzione di dati, che dovrebbero crescere del 23% all’anno dal 2020 al 2025, raggiungendo i 180 zettabyte nel 2025, secondo il Global DataSphere di IDC.
La società di consulenza Garnter stima che la domanda di storage dei dati potrebbe potenzialmente salire al 50% dal 2020 al 2030. Crescita che sta superando le possibilità delle odierne soluzioni di archiviazione, che porterà a una potenziale insufficienza.
Gli sviluppi dell’IA, dell’Internet delle cose e del Metaverso aggraveranno il problema. La più grande società di servizi immobiliari commerciali a livello globale, CBRE ha aperto una divisione per i data center, lo stesso hanno fatto aziende di architettura e ingegneria come Corgan, HDR, Gensler, AECOM e Arup.
È opportuno ricordare che i data center rappresentano oltre il 2% delle emissioni globali di carbonio, l’equivalente del settore aereo. Senza miglioramenti nell’efficienza energetica, il consumo di elettricità dei data center potrebbe aumentare dal 3% al 13% del consumo totale di elettricità entro il 2030.
Mi sono imbattatuto in una inchiesta di qualche anno fa, ma tutt'ora attuale ed esemplificativa dell'importanza dei metadati.
La ricerca è di ShareLab, dal nome "Metadata Investigation : Inside Hacking Team" e prende spunto da un furto (un leak) di dati operato a danno di Hacking Team, un'azienda italiana tra le maggiori produttrici e rivenditrici di armi informatiche del mondo. In particolare sono stati la ricerca prende in esame le email dell'azienda.
Una volta online, ogni nostro movimento, ogni clic, ogni e-mail inviata o ricevuta, ogni nostra attività produce una grande quantità di tracce invisibili. Queste tracce, una volta raccolte, messe insieme e analizzate, possono rivelare i nostri modelli comportamentali, la nostra posizione, i nostri contatti, le nostre abitudini e i nostri interessi più intimi. Spesso rivelano molto più di quanto ci sentiamo di condividere.
La maggior parte di queste tracce è nascosta nei metadati, cioè in piccole informazioni memorizzate nei pacchetti IP, nelle intestazioni delle e-mail o nei file creati. La ricerca mostra quante informazioni si possano dedurre analizzando e mettedo in relazioni i metadati senza necessità di accedere ai dati veri e propri. Nel caso specifico senza accedere al contenuto delle email.
Potete leggere l'intera inchiesta nel sito di ShareLab
oppure guardare il video riassuntivo che è sufficiente ad inquadrare la questione.
In occasione della giornata dell'Europa, Dataknightmare ci ricorda che Digital Markets Act ed ENISA esistono per difendere gli interessi degli Europei contro quelli delle Big Tech e degli USA.
Un report della senatrice americana Elizabeth Warren mostra come le Big Tech manovrino per contrastare le legislazioni antitrust e per deviare gli accordi commerciali in senso favorevole all'oligopolio.
Che cosa dice la senatrice Warren? Poche semplici cose.
In sostanza i rappresentanti del Dipartimento del Comercio Americano, debitamente imboccati da Big Tech, si sono fatti portavoce delle istanze delle piattaforme contro il Digital Markets Act, la legge europea a difesa della concorrenza e del libero mercato contro la posizione dominante delle piattaforme.
Già che ci siamo ricordiamoci anche che la sola Google spende 6 milioni l'anno per fare lobbismo a Bruxelles.
L'ENISA, l'Agenzia Europea per la Ciber Sicurezza, ha presentato una bozza di regolamento secondo il quale il solo modo con cui i fornitori cloud possono ottenere una certificazione europea di sicurezza è di entrare in partecipazione con controparti europee.
Che cosa significa? Significa che Google, Amazon e Microsoft per potere avere la certificazione europea di sicurezza necessaria a fornire servizi cloud sul mercato unico dovrebbero creare delle partecipate con aziende europee.
E queste aziende non sarebbero dei prestanome come nel caso del polo strategico nazionale di Italica memoria.
Tutt'altro, secondo la proposta dell'ENISA, il socio non europeo potrebbe avere solo una quota di minoranza, tutti i dati dovrebbero essere conservati sul territorio europeo e la legislazione comunitaria avrebbe precedenza su qualsiasi altra.
Tutto questo nelle parole dell'ENISA, cito, per mitigare il rischio di ingerenze di potenze extra UE che compromettano i regolamenti, le norme e i valori della UE.
Se qualcuno sta pensando a Stati Uniti e Cloud Act sta pensando bene.
Per il ciclo di incontri “i Nexa Lunch Seminar” - 106° Nexa Lunch Seminar incontro il 24 maggio con Daniela Tafani, autrice di "L’«etica» come specchietto per le allodole Sistemi di intelligenza artificiale e violazioni dei diritti".
Mercoledì 24 maggio 2023, ore 13.00 (termine: ore 14.00)
L'INCONTRO SI TERRÀ IN PRESENZA E ONLINE SEDE FISICA:
Centro Nexa su Internet e Società, Politecnico di Torino, Via Boggio 65/a, Torino (1° piano) Suonare al citofono Portineria - Seguire le indicazioni segnalate dai cartelli lungo il percorso
STANZA VIRTUALE: https://didattica.polito.it/VClass/NexaEvent
A distanza di un anno e mezzo dalla presentazione possiamo dirlo: il metaverso di Mark Zuckerberg è al momento un grande fallimento
Anche per questo, Meta sembra star puntando su una tecnologia per molti versi opposta alla realtà virtuale, vale a dire la realtà aumentata, che sovrappone elementi digitali al mondo fisico
Su questo fronte, Apple è però in netto vantaggio e dovrebbe presentare a breve il suo primo visore dedicato proprio alla realtà aumentata, che potrebbe segnare un importante momento di passaggio
Lo Spazio Europeo dei Dati Sanitari (SEDS) è una proposta europea per rendere i trasferimenti tra strutture sanitarie più semplici - che siano tra Stati diversi o all'interno dello stesso Paese.
L'idea è di creare per ogni Stato un ente governativo che faccia da custode di tali dati sanitari, forzando le strutture (ospedali, medici di famiglia ecc.) a condividerli con esso. Lɜ pazienti non avrebbero tuttavia nessun diritto a rifiutare e, considerando che i dati non possono essere anonimizzati al 100%, si perderebbe quella confidenzialità garantita dal giuramento d'Ippocrate.
Le informazioni sensibili verrebbero accentrate tutte in un unico posto, rendendo la vita di hacker e governi molto più semplice: è infatti da anni che i primi sottraggono dati sanitari per rivenderli su internet, mentre i secondi potrebbero comprendere con più facilità quando vengono eseguite procedure ritenute illegali (come gli aborti in Polonia).
L'ente governativo può poi condividere i dati sanitari con terzi, se a fini di ricerca. Questo permette ad aziende come Google di impadronirsi di tali dati (in quanto investono anche in campo medico) e, una volta nelle loro sedi, non sarebbero più tutelati dalle leggi europee
Leggi l'articolo originale sul sito European Digital Rights (EDRi)
Leggi altre informazioni nel canale Telegram di Etica Digitale
La visione di un “inarrestabile” parente militare di Metalhead che emerge dalle acque disturba anche voi?
Metalhead è stato oggetto delle attenzioni di Cassandra fin dalla sua "nascita" come personaggio, 5 anni orsono; lo trovate in questo video, e in questi due articoli: "Robot assassini crescono" e "E spot perse il fucile".
Da tempo Cassandra prediceva che Metalhead altri non era che un parente strettissimo del robocane danzante e cantante Spot di Boston Dynamics, fuffoso e utile.
Un parente impermeabile e irrobustito, semplicemente arruolato da un esercito, aggiornato con un diverso software, che lo trasformi in un'arma, letale o meno non ha molta importanza.
Oggi, Cassandra ha visitato il sito di Ghost Robotics Corporation, un produttore di robot anfibi che, anche nelle informazioni sulla compagnia, ama distaccarsi da chi produce "solo" robot commerciali.
Sono molte le scuole che in questi giorni stanno provvedendo alla disattivazione dei servizi Google e\o Microsoft.
Nelle settimane scorse le scuole hanno ricevuto le richieste di Monitora PA affinché siano rimossi entro 60 giorni il servizio di posta elettronica gmail ed ogni altro servizio collegato, come Google drive, Google documents e Google workspace.
Come è noto, la contestazione di Monitora PA trae origine dalla sentenza del 16 luglio 2020 della Corte di giustizia dell’Unione europea (sentenza Schrems-II ) che di fatto ha abolito l’accordo internazionale tra USA e UE per uniformare la sicurezza del trattamento dati cosi come previsto dal Regolamento Europeo sulla Protezione dei dati (art. 45 del GDPR 679/2016).
Con la suddetta sentenza della Corte di giustizia europea (CGUE) i trasferimenti di dati verso gli Stati Uniti non possono più basarsi su questo strumento. Ciò ha determinato quel vuoto normativo, quella mancanza di adeguatezza che ha reso, di fatto, il trattamento dati negli USA non conforme al GDPR.
È iniziato tutto quando Foad Dabiri, dipendente di Twitter, ha pubblicato sul social network un post in cui raccontava: «WhatsApp ha usato il microfono di nascosto, mentre stavo dormendo e da quando mi sono alzato alle 6 (ed è solo un pezzo della linea temporale!). Che sta succedendo?».
Nel corso dell’evento ASU+GSV tenutosi a San Diego, Bill Gates ha affrontato un interrogativo posto da alcuni partecipanti riguardo alla possibilità che, in futuro, ChatGPT possa sostituire i docenti.
La newsletter di Carola Frediani questa settimana tratta principalmente temi legati all'IA N.159 - 7 maggio 2023
In questo numero:
Giovedì 23 marzo alla Libreria Modo Infoshop di Bologna, è stato presentato il libro TECNOLOGIE CONVIVIALI (Eleuthera, 2023) da Jacopo Anderlini del Centro Internazionale di Ricerca per le Convivialità Elettriche (CIRCE) in dialogo con l'autore Carlo Milani che in tempi non sospetti (primi anni del 2000) ha portato in Italia corpose critiche ai GAFAM (Alphabet (Google), Amazon, Apple, Meta Platforms e Microsoft) attraverso il prezioso contributo al gruppo di scrittura collettiva Ippolita e ai testi Open non è free 2005, Luci e ombre di Google 2007, Nell'acquario di Facebook 2012.
Di seguito i video delle riprese dell'evento.
Presentazione parte 1
La parola “nazionalizzazione” rimanda agli anni settanta, quando Salvador Allende nazionalizzò le aziende minerarie di rame in Cile, pronunciando queste parole alle Nazioni Unite: “Abbiamo nazionalizzato il rame. Lo abbiamo fatto con il voto unanime del parlamento, dove i partiti di governo sono in minoranza. Vogliamo che tutto il mondo capisca che non abbiamo affatto confiscato le imprese estere dell’industria mineraria […]. Queste stesse aziende, che hanno sfruttato il rame cileno per anni, e nello specifico negli ultimi 42 anni, hanno incassato in questo periodo più di quattro miliardi di dollari, quando il loro investimento iniziale non superava i trenta milioni di dollari”.
Sappiamo come è andata a finire: Pinochet
[...]
Proprio in Cile, oggi, la stessa parola esplosiva ritorna con Gabriel Boric, il giovane presidente di sinistra che ha appena annunciato la nazionalizzazione del settore del litio. La notizia è doppiamente significativa e dice molto sulla nostra epoca. Prima di tutto perché il litio è uno dei minerali più importanti del ventunesimo secolo, indispensabile per le batterie delle automobili elettriche e per le tecnologie dell’economia verde. Entro la metà del secolo la domanda di litio si moltiplicherà per cinquanta, dunque non sorprende che in questo contesto emergano grandi tensioni geopolitiche.
Il lancio precipitoso di chatbot AI da parte delle Big Tech ha una fortissima probabilità di degradare l'ecosistema informativo della rete. Molte voci chiedono nuove regole per arginare un'imminente invasione di artefatti prodotti da reti generative sempre più precise che renderà potenzialmente impossibile distinguere il vero dal falso.
Nel suo breve racconto Agnese Trocchi immagina un mondo futuro dove questo è già accaduto...
Possibili giacimenti di litio nel Lazio. Lo stato degli scavi e gli interessi in gioco.
Nella città di Campagnano, a pochi chilometri dalla Capitale, inizia a diffondersi un crescente interesse per le risorse minerarie del territorio. A seguito di rilevamenti geologici si inizia a parlare infatti della possibile presenza nel suolo di giacimenti di litio ovvio un metallo prezioso probabilmente nascosto nel sottosuolo a migliaia di metri di profondità e disciolto nell'acqua.
Anche chiamato oro bianco, si tratta di una risorsa preziosa per le batterie che sarà cruciale nei processi produttivi della transizione energetica per la costruzione delle batterie presenti nelle auto elettriche, nei cellulari o ancora quelle integrate nei impianti solari.
Giudizi e decisioni che hanno effetti rilevanti sulle vite delle persone sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. Tali malfunzionamenti non sono occasionali e non sono scongiurabili con interventi tecnici: essi rivelano, anzi, il funzionamento ordinario dei sistemi di apprendimento automatico, utilizzati impropriamente per compiti che non è loro possibile svolgere o che sono impossibili tout court.
Le decisioni basate su tali sistemi sono costitutivamente discriminatorie, e dunque, in alcuni ambiti, infallibilmente lesive di diritti giuridicamente tutelati, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.
Alla vasta documentazione degli esiti ingiusti, nocivi e assurdi di tali decisioni, le grandi aziende tecnologiche – paventando un divieto generalizzato – hanno risposto, in evidente conflitto di interessi, con un discorso sull'etica: è nata così, come operazione di cattura culturale, con l'obiettivo di rendere plausibile un regime di mera autoregolazione, l'«etica dell'intelligenza artificiale». Si tratta di una narrazione che le aziende commissionano e acquistano perché è loro utile come capitale reputazionale, che genera un vantaggio competitivo; è cioè un discorso, rispetto al quale le università hanno il ruolo, e l'autonomia, di un megafono; è «un'esca per catturare la fiducia» dei cittadini: un discorso pubblicitario che, in quanto declamato da altri, non appare neppure come tale.
La funzione di tale discorso è quella di tutelare, legittimandolo, un modello di business – fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali – il cui nucleo consiste nella vendita, alle agenzie pubblicitarie, della promessa di un microtargeting fondato sulla profilazione algoritmica.
Negli ultimi anni, l'opera di demistificazione della natura meramente discorsiva e del carattere strumentale dell'«etica dell'intelligenza artificiale», che trasforma l'etica nella questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici, è stata così efficace da indurre molti a liquidare come inutile o dannosa – in quanto disarmata alternativa al diritto o vuota retorica aziendale – l'intera filosofia morale.
Al dissolversi della narrazione sull'etica dell'intelligenza artificiale, compare il convitato di pietra ch'essa aveva lo scopo di tenere alla larga: si sostiene infatti ora, da più parti, l'urgenza che ad intervenire, in modo drastico, sia il diritto. L'adozione di sistemi di apprendimento automatico a fini decisionali, in ambiti rilevanti per la vita delle persone, quali il settore giudiziario, educativo o dell'assistenza sociale, equivale infatti alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani».
A chi, in nome dell'inarrestabilità dell'innovazione tecnologica, deplori gli interventi giuridici, giova ricordare che il contrasto non è, in realtà, tra il rispetto dei diritti umani e un generico principio di innovazione, ma tra il rispetto dei diritti umani e il modello di business dei grandi monopoli del capitalismo intellettuale.
Grandi e piccole imprese digitali pagano il prezzo della crisi finanziaria. Ma il ciclo tecnologico è pronto a ripartire con le prime applicazioni su larga scala delle tecnologie di intelligenza artificiale. Sarà la regolamentazione, figlia di una politica che inizia a occuparsi del digitale, a far capire che la crescita non è infinita.
Intervista con l'imprenditore e informatico Stefano Quintarelli
Vogliamo riaccendere la miccia di una forma di comunicazione ed espressione potentissima, dando spazio a chi sviluppa, a chi vorrebbe formarsi e iniziare a sviluppare, o anche solo a chi vuole giocare e divertirsi.
Il mondo del videogioco in Italia è sempre più monopolizzato dalle logiche del profitto. Viene raccontato solo nei suoi aspetti commerciali e per questo il suo potenziale sociale e sovversivo viene disinnescato.
Il mondo del videogioco in Italia è sempre più monopolizzato dalle logiche del profitto. Viene raccontato solo nei suoi aspetti commerciali e per questo il suo potenziale sociale e sovversivo viene disinnescato.
La quantità è una parte importante dei ragionamenti; a volte diventa qualità, diceva un tale. Cose piccole sono trattabili, cose grandi meno. I computer (in generale le macchine) servono a rendere trattabili cose troppo grandi per noi. Ma anche loro hanno dei limiti, pratici o teorici.
Per esempio GPT-3 (la cosa che sta dietro ChatGPT, ma anche dietro DALLE-E, per quanto si faccia fatica a capire cosa c'entrano l'una con l'altra ed entrambe col T9) è una cosa grossa assai. GPT significa Generative Pre-trained Transformer. Grosso modo, per quel che anche un ignorante come me capisce, è un modello linguistico con un sacco di parametri che è stato costruito nel 2020 a partire da diverse sorgenti utilizzare come dati di partenza una "copia di internet, Wikipedia, archivi di immagini, etc." Un oggetto "molto, molto grande".
Quanti parametri, cioè quanti possibili modi di configurare il modello? Dicono 175 miliardi. Un numero talmente grande che solo un altro software è in grado di enumerarli o verificarli.
Nella puntata di Le Dita Nella Presa del 16 Aprile 2023 si è parlato di: