L'algoritmo. Il Manifesto pubblica l'inchiesta dei siti di informazione israeliani +972 e Local Call: l’intelligenza artificiale dietro il massacro di Gaza. 37mila palestinesi «marcati» dalla Ia e colpiti nelle loro case. Poca o nulla supervisione umana: «Per l’assassinio dei comandanti senior, si era disposti a uccidere centinaia di civili. Avevamo un calcolo: quanti per un comandante di brigata, quanti per uno di battaglione»
Nel 2021 è stato pubblicato in inglese un libro intitolato The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World, sotto lo pseudonimo «Brigadier General Y.S.». In esso, l’autore – un uomo che abbiamo confermato essere l’attuale comandante dell’unità di intelligence d’elite israeliana 8200 – sostiene la necessità di creare una macchina speciale, in grado di processare rapidamente enormi quantità di dati per generare migliaia di potenziali «obiettivi» per gli attacchi militari nel mezzo di una guerra. Una tecnologia del genere, scrive, risolverebbe quelle che ha descritto come «strettoie umane, sia nell’individuazione di nuovi obiettivi che nel processo decisionale per approvarli».
Una tale macchina, si è scoperto, esiste davvero.
Una nuova inchiesta condotta da +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come Lavender, di cui qui si scrive per la prima volta.
Fragili dal punto di vista sia tecnico sia organizzativo. Si presentano così le aziende sanitarie italiane di fronte agli attacchi informatici, per lo più di tipo ransomware (cioè diretti al pagamento di un riscatto), dei gruppi criminali internazionali che, ormai da anni, le prendono di mira. La conseguenza è la pubblicazione di informazioni estremamente sensibili riguardanti migliaia di cittadini.
Secondo quanto è stato possibile ricostruire da Guerre di Rete, attraverso le informazioni rilasciate sui siti ufficiali delle cyber gang, solo negli ultimi due mesi del 2023 sono stati diffusi oltre 1,5 terabyte di dati sanitari (circa due milioni di file) sottratti a diverse strutture del nostro Paese. Dati che includono cartelle cliniche, fotografie di pazienti affetti da tumori cutanei, referti di abusi sessuali, esami per le malattie ereditarie, e liste dei vaccinati al Covid-19. Stando alle nostre fonti, alcuni file contengono persino nome, cognome e data di nascita di persone che sono state assistite dai centri di salute mentale, o dai servizi per le dipendenze patologiche. Un patrimonio enorme pubblicato sul dark web, la parte della Rete a cui si può accedere tramite specifici software, e che è alla portata di tutti.
Un'inchiesta in Francia. Uno dei pezzi più importanti del welfare, la Caisse d’allocations familiales (Caf), l’ente che si occupa degli aiuti sociali alle famiglie in difficoltà, per molto più di un decennio ha funzionato affidandosi solo a un algoritmo che discriminava i precari e i più svantaggiati. Dopo anni di battaglia Quadrature du Net è riuscita ad analizzare il codice sorgente. Ecco i risultati
La Quadrature du Net, una delle più serie, autorevoli, combattive associazioni per i diritti sociali e digitali in Europa – non una delle tante che si limita a firmare appelli on line – assieme a due collettivi di ricerca – Stop Controls e Changer de Cap – dopo una lunga, estenuante battaglia è riuscita ad ottenere il codice sorgente dell’algoritmo utilizzato dalla Caf.
Il codice sorgente è quello che definisce il “flusso d’esecuzione” di un programma, è la sequenza di istruzioni. Per usare l’espressione della Quadrature è la “formula” utilizzata per istruire il suo funzionamento.
Quel codice sorgente è stato analizzato in ogni dettaglio (codice, elenco delle variabili, ponderazioni, ecc), anche qui con un lavoro lunghissimo. E dettagliatissimo. E’ venuta fuori la foto di una moderna distopia. Dove la filosofia della sorveglianza automatizzata si sposa con la “caccia” agli ultimi, ai precari, a chi è in difficoltà. “Sospettati” di essere imbroglioni quasi di default.
Il nuovo presidente della Commissione algoritmi
Con la conferenza stampa di inizio anno della premier, la classe dirigente della destra meloniana ha perso un pistolero e imbarcato un frate. È il francescano cinquantenne Paolo Benanti, messo in quattro e quattr’otto a capo della cosiddetta «commissione algoritmi» al posto di Giuliano Amato dal sottosegretario Alberto Barachini. La commissione dovrà consigliare il governo sulle norme in materia di tecnologie digitali e informazione. È un doppione di un’altra commissione governativa sullo stesso tema nominata dall’altro sottosegretario Alessio Butti. Per non sbagliarsi, Benanti fa parte anche di quella.
In molti hanno storto il naso: chiedere a un sacerdote di regolare le nuove tecnologie è un oscurantismo da ayatollah. Macché, hanno risposto gli altri (non solo da destra): rispetto all’ottantacinquenne Amato, il religioso è giovane e competente. Benanti è un prete, ma anche uno studioso di «altissimo profilo», «esperto della materia e unico italiano componente del Comitato sull’Intelligenza artificiale delle Nazioni Unite».
Leggi l'articolo su "Il Manifesto"
Secondo il tribunale, il sistema non tiene conto delle condizioni individuali e discrimina i lavoratori. Per questo va modificato, sentiti i sindacati
Scegliere le migliori e le maggiori opportunità di lavoro e smistarle tra i rider è discriminatorio. Il principio è stato confermato da una sentenza del tribunale di Palermo che ha accolto un ricorso promosso da Nidil, Filcams e Filt Cgil provinciali e ha bocciato il sistema di selezione usato da Foodinho, società del gruppo Glovo.
Al centro della questione, l’algoritmo usato dalla piattaforma di food delivery.
Pennellate digitalmente perfette di statistiche del mondo, video di telecamere di sorveglianza da guardare sugli orologi del personale di sala, esplorazione di mondi su schermi verticali, come video istantanei e allo stesso tempo infiniti: la mostra Digital Antibodies al museo MAXXI di Roma riesce nell’intento di de-condizionare la mente dei visitatori nel consumare contenuti digitali in modi del tutto inaspettati.
È la “Spectacular miscalculation of global asymmetry” (Spettacolari errori di calcolo di globale asimmetria) di Correale ad aprire lo spazio espositivo, che diventa una sorta di ufficio di una multinazionale dove si passeggia tra computer che proiettano video in loop come se le macchine avessero una vita propria in nostra assenza, mentre sulle pareti le tele di apparenti pennellate astratte rappresentano dati e statistiche ben definite su fenomeni che riguardano la popolazione mondiale.
In queste tele la scelta di Correale è “usare i dati come strumenti di decolonizzazione e nuovo lessico realista”, come ha spiegato durante una Conversazione d’artista insieme al duo Eva e Franco Mattes, una strategia di resistenza alle decisioni algoritmiche arbitrarie che usano i dati perpetuando discriminazioni e disuguaglianze.
La puntata si apre con il commento a una notizia di attualità: le graduatorie per l'insegnamento nella scuola pubblica sono state gestite da un sistema automatizzato che ha creato molto scontento. Perché? È un bug? Di chi è la colpa? Allarghiamo il discorso tenendo insieme trasparenza, complessità, accessibilità. Ma gli algoritmi come funzionano?
Seconda notizia commenta è relativa a Kiwi Farms: gruppo di estrema destra che fa violenza mediata da Internet su attivisti e persone trans. Una di queste ha lanciato una campagna per il "deplatforming" di questo sito, chiedendo a Cloudflare di negargli i servizi. Per cloudflare non è affar suo... o forse sì.
Infine le canoniche notiziole
Ascolta la trasmissione sul sito di Radio Onda Rossa
Negli anni, Google ha cambiato in modo significativo il processo di ricerca di informazioni, aprendo intricate questioni etiche
I risultati di una ricerca su Google si sono evoluti. In risposta a un quesito, il sito da qualche anno mostra non soltanto la classica lista di link blu, ma la risposta a domande dirette e il cosiddetto "Knowledge panel", un riquadro posizionato sulla destra della pagina che fornisce informazioni generali riassuntive su un determinato argomento.
Il desiderio di Google di rispondere alle domande per noi, invece di lasciarci liberi di trovare le risposte in modo autonomo, è poco problematico se riguarda domande fattuali come la conversione tra chilometri e miglia, ma diventa pericoloso se offre informazioni sintetiche (che sono generate da un mix di algoritmi e interventi di persone interessate) su questioni più controverse.
In quest'ultimo caso il rischio di creare circoli viziosi di disinformazione è reale e accentuato dalla grande autorevolezza che gli utenti attribuiscono a Google, che da parte sua punta sempre di più su questa modalità.
(tratto da un messaggio Telegram di Etica Digitale)
Leggi l'articolo completo in inglese su wired
Negli ultimi anni molte società in tutto il mondo hanno cominciato a usare l’intelligenza artificiale per selezionare il personale da assumere, con lo scopo di eliminare dalla scelta eventuali pregiudizi e rischi di discriminazioni. Ma secondo gli esperti di tecnologia affidarsi a un algoritmo non è una soluzione, perché gli strumenti utilizzati tendono a imitare i preconcetti umani.
La mancanza di inclusività nelle squadre di programmatori e tecnici informatici, composte principalmente da uomini bianchi, si riflette infatti nei meccanismi automatici di selezione, penalizzando le donne e le persone lgbt+ o appartenenti alle minoranze.
Guarda il video della Thomson Reuters Foundation.
Puntata ricca quella del 4 ottobre di Le Dita Nella Presa a Radio Onda Rossa.
Si comincia con le notizie serie: una tazza speciale che analizza tutto sulla vostra cacca. Sembra una stupidaggine, ma non è affatto il primo sistema di monitoraggio della salute. Si tratta di sistemi piuttosto invasivi, la cui utilità è discutibile ma il marketing è forte.
Parliamo poi di WhatsApp.
Un'inchiesta di ProPublica mostra che l'azienda era in grado di leggere almeno una parte dei messaggi che i suoi utenti scambiavano, cosa che era stata esplicitamente negata dai suoi vertici. Con la scusa del controllo degli abusi - finalizzata a bloccare utenti che hanno comportamenti giudicati inadeguati - non solo i moderatori possono leggere i messaggi che vengono segnalati e quelli ad essi collegati, ma la app stessa analizza i messaggi che gli utenti inviano alla ricerca di possibili violazioni, e si autodenuncia in tale caso.
Proseguiamo con Facebook - che invece si è sempre saputo che modera i contenuti - che secondo l'alta corte australiana è responsabile per i commenti calunniosi al suo interno, quando questi non si possono configurare come una conversazione con l'autore del post.
Notiziole:
Ascolta il podcast sul sito di Radio Onda Rossa
Se l’intelligenza artificiale automatizzerà del tutto la produzione di funzioni applicative anche complesse e articolate ad avere la peggio non saranno solo i programmatori, ma l’intelligenza collettiva come la conosciamo ora. E non sarà indolore.
[...]
Al di là di come evolverà il lavoro dei programmatori, che comunque è già profondamente cambiato dai tempi non troppo remoti delle origini, un fenomeno sembra emergere con chiarezza: l’attacco che l’intelligenza artificiale generativa muove oggi all’intelligenza collettiva per come l’abbiamo pensata e costruita negli ultimi venti anni. L’idea che le conoscenze umane possano essere ingerite dai ‘modelli generali’ di giganteschi sistemi neurali centralizzati nelle cloud di pochi monopolisti e da lì usate in modo opaco da una moltitudine di soggetti passivi, è infatti diametralmente opposta alla visione dell’intelligenza collettiva mediata dalle tecnologie, che è invece un’attività decentralizzata, trasparente, partecipativa e critica.
Leggi l'articolo completo di Guido Vetere
Molto ricco il programma dell'hackmeeting di quest'anno che si svolgerà dal 3 al 5 settembre presso la Casona di Ponticelli (Bologna).
"Che Cos’è un Hackmeeting?
L’hackmeeting è l’incontro annuale delle controculture digitali italiane, di quelle comunità che si pongono in maniera critica rispetto ai meccanismi di sviluppo delle tecnologie all’interno della nostra società. Ma non solo, molto di più. Lo sussuriamo nel tuo orecchio e soltanto nel tuo, non devi dirlo a nessuno: l’hackit è solo per veri hackers, ovvero per chi vuole gestirsi la vita come preferisce e sa s/battersi per farlo. Anche se non ha mai visto un computer in vita sua.
Tre giorni di seminari, giochi, dibattiti, scambi di idee e apprendimento collettivo, per analizzare assieme le tecnologie che utilizziamo quotidianamente, come cambiano e che stravolgimenti inducono sulle nostre vite reali e virtuali, quale ruolo possiamo rivestire nell’indirizzare questo cambiamento per liberarlo dal controllo di chi vuole monopolizzarne lo sviluppo, sgretolando i tessuti sociali e relegandoci in spazi virtuali sempre più stretti.
L’evento è totalmente autogestito: non ci sono organizzatori e fruitori, ma solo partecipanti."
Tutte le informazioni sul programma e sulla logistica le trovate sul sito dell'hackmeeting.
Attenti ai dinosauri. I ‘dati’, ma soprattutto gli ‘algoritmi’, sono sempre più in grado di incidere nelle scelte politiche e manageriali ma soprattutto sono fattori determinanti per assicurare il principio di uguaglianza e la tenuta della stessa democrazia della nostra società.
Le contraddizioni tra le parole di Colao (Ministro per l’innovazione tecnologica e la transizione digitale) e quanto scritto nel Piano nazionale di Rinascita e Resilienza. La mancanza di una struttura di confronto tra il piano di interventi sul Digitale e le altre missioni del PNRR costituisce una grave criticità che potrebbe metterne in crisi la tenuta e l’attuazione. Nel PNRR il riferimento alla rilevanza del ‘diritto alla connessione’ come leva per la realizzazione del principio di uguaglianza non è previsto.
Leggi l'articolo di Germano Paini, Alessio De Luca
Un bellismo documentario in quattro parti sulle nuove forme di lavoro e di sfruttamento rese possibili dalle piattaforme digitali.
Moderatori di contenuti, riders, crowd workers, magazzinieri: tutti lavori uniti dal controllo software sulla propria attività, dalla pressione, dai rischi e dallo stress che ne derivano. Francia, Madagascar, Irlanda... è la globalizzazione.
Un'inchiesta su cosa significa oggi lavorare dentro e per le piattaforme e sulle realtà distopiche che hanno creato.
Episodio 1 Pedalare, ragazzi, pedalare!
Bilel ha 24 anni e tre fratelli. A parte il più piccolo, che va ancora alle medie, lavorano tutti per Uber Eats. Ogni giorno, compreso il week end, iniziano alle nove di mattina e staccano anche alle 4 del mattino per un totale di 400 euro lordi al mese - ammesso che nel frattempo non finiscano sotto a una macchina nel disperato tentativo di vincere un bonus. Come dovremmo chiamarla, flessibilità o schiavitù?
Episodio 2 La trappola dei micro-lavori
Sono tra i 45 e i 90 milioni i micro-lavoratori del web nel mondo. Nathalie vive in Francia, ha 42 anni, due figli ed è separata. Con il suo lavoro quotidiano - rispondere a delle domande idiote - aiuta l’algoritmo di Google a diventare sempre più umano, condannando se stessa a diventare sempre più un robot. In Madagascar, addirittura, le sfruttate del clic sono capaci di lavorare 336 ore al mese alla corte di clienti come Disneyland Paris per ritrovarsi a guadagnare 200 euro. Ecco le loro testimonianze.
Episodio 3 Traumatizzati senza moderazione
Amélie fa la moderatrice di contenuti a Barcellona presso una delle tante aziende che Facebook subappalta per svolgere questo tipo di attività. Chris fa lo stesso a Dublino. Entrambi hanno cominciato a lavorare senza prevedere che essere esposti tutti i giorni al lato peggiore dell’umanità li avrebbe catapultati in un inferno dal quale non sarebbero più riusciti a venire fuori, anche dopo aver cambiato mestiere.
Episodio 4 Il mio padrone non è un algoritmo
I proletari del clic hanno il divieto assoluto di parlare del lavoro che svolgono, persino con i propri famigliari. Eppure la consapevolezza di essere vittime di un traffico di manodopera al limite della legalità li spinge sempre più spesso a rompere il silenzio, a insorgere e a organizzarsi in forme cooperative alternative in grado di tutelare maggiormente i loro diritti.
L'identificazione e il controllo biometrico di massa sono incompatibili con una democrazia rispettosa dei diritti umani?
Il Progetto Winston Smith e l'Hermes Center for Transparency and Digital Human Rights stanno organizzando l'edizione primaverile di e-privacy, che si terrà (solo in videoconferenza) il 21 e il 22 maggio 2021, con streaming pubblico su Youtube.
Si parlerà di una società in cui una sorveglianza di massa viene considerata "accettabile" da una maggioranza della popolazione, spaventata da criminalità e pandemia. Siamo nelle migliori condizioni per riscrivere le più fosche pagine dei libri di storia e della letteratura distopica.
Puntata dedicata a 3 casi piuttosto diversi, di interazione tra grandi aziende teconogiche e lavoratori:
Ascolta il podcast sul sito di Radio Onda Rossa
“All’inizio c’era l’idea che la tecnologia potesse risolvere i problemi”, dice nel video Andrew G. Ferguson, saggista e docente di diritto statunitense. “Offriva alle forze dell’ordine la possibilità di fare di più con meno risorse”.
Le attività di polizia predittiva si basano sull’uso di metodi statistici per anticipare e quindi evitare la commissione di reati, come nel film di Steven Spielberg Minority Report. Negli ultimi anni questa tecnologia è diventata sempre più sofisticata e in varie città statunitensi sono stati sperimentati dei software che, attraverso la combinazione di diversi tipi di dati, avrebbero dovuto individuare i soggetti più inclini a commettere un crimine violento. Il loro uso ha scatenato polemiche e preoccupazioni per la tutela dei diritti umani.
I sostenitori di questi sistemi sostengono che questi software, escludendo la valutazione umana con i suoi pregiudizi, permetterebbero alle forze di polizia di agire in maniera più equa. Ma anche su questo sono stati sollevati dei dubbi: “Se nei dati inseriti è presente un pregiudizio razziale, anche i risultati conterranno lo stesso pregiudizio”, spiega Ferguson.
Guarda il video della Thomson Reuters Foundation sul sito di Internazionale.
Tempi presenti. Un percorso di letture sull’azienda di Bezos e il suo potere contrattuale. Il dietro le quinte di Angioni, «country manager» per l’Italia e la resistenza dello scrittore Carrión. Un’impresa nata sfruttando la quantità enorme di dati che i clienti sono pronti a consegnare in tutte le forme possibili e la debolezza dei governi di fronte alla sua volontà di dettare regole
Articolo di Maria Teresa Carbone. Leggi tutto
«Il tuo capo è un algoritmo» di Antonio Aloisi e Valerio De Stefano (Laterza). Gli autori intervistati da il manifesto descrivono le strategie politiche per non finire «schiavi» delle piattaforme. Districarsi tra obblighi di cura, isolamento e lavoro è una prova ardua per le categorie vulnerabili. La tecnologia non è neutra. Il suo impiego è spesso fonte di abusi. Con l’irrompere della pandemia, i fanatici del «soluzionismo tech» sostengono che le «macchine non si ammalano». Lo smart working ha aumentato produttività e soddisfazione, malgrado i disagi. Anche se pensato per le professioni impiegatizie, estende i suoi benefici agli altri
Da Internazionale: Dana Mackenzie, Knowable, Stati Uniti
L’edonometro è un sistema informatizzato per valutare la nostra felicità e la nostra disperazione.
L’edonometro è uno strumento relativamente recente in un campo in cui ormai da cinquant’anni gli informatici cercano di valutare lo stato emotivo del mondo usando i computer. Per costruirlo, l’informatico dell’Uvm Chris Danforth ha dovuto insegnare a una macchina a capire le emozioni dietro i tweet analizzati (nessun essere umano potrebbe mai leggerli tutti). Questo processo, chiamato analisi del sentimento, ha fatto grandi progressi negli ultimi anni, trovando molteplici applicazioni.