Gli algoritmi premiano l’engagement emotivo sulla qualità dei contenuti. La ricerca “Misinformation exploits outrage to spread online” dimostra come l’indignazione sia il principale motore della disinformazione online.
Scientificamente, quindi non empiricamente, sono stati esaminati una serie di dataset legati all’universo social statunitense (compatibile con la blogosfera e l’universo europei nei meccanismi essenziali), declinati in otto studi e due esperimenti comportamentali, per un totale di quasi un milione di link Facebook e oltre 44mila “tweet”, i post dell’X attualmente in capo ad Elon Musk prima della sua acquisizione.
L'algoritmo. Il Manifesto pubblica l'inchiesta dei siti di informazione israeliani +972 e Local Call: l’intelligenza artificiale dietro il massacro di Gaza. 37mila palestinesi «marcati» dalla Ia e colpiti nelle loro case. Poca o nulla supervisione umana: «Per l’assassinio dei comandanti senior, si era disposti a uccidere centinaia di civili. Avevamo un calcolo: quanti per un comandante di brigata, quanti per uno di battaglione»
Nel 2021 è stato pubblicato in inglese un libro intitolato The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World, sotto lo pseudonimo «Brigadier General Y.S.». In esso, l’autore – un uomo che abbiamo confermato essere l’attuale comandante dell’unità di intelligence d’elite israeliana 8200 – sostiene la necessità di creare una macchina speciale, in grado di processare rapidamente enormi quantità di dati per generare migliaia di potenziali «obiettivi» per gli attacchi militari nel mezzo di una guerra. Una tecnologia del genere, scrive, risolverebbe quelle che ha descritto come «strettoie umane, sia nell’individuazione di nuovi obiettivi che nel processo decisionale per approvarli».
Una tale macchina, si è scoperto, esiste davvero.
Una nuova inchiesta condotta da +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come Lavender, di cui qui si scrive per la prima volta.
Fragili dal punto di vista sia tecnico sia organizzativo. Si presentano così le aziende sanitarie italiane di fronte agli attacchi informatici, per lo più di tipo ransomware (cioè diretti al pagamento di un riscatto), dei gruppi criminali internazionali che, ormai da anni, le prendono di mira. La conseguenza è la pubblicazione di informazioni estremamente sensibili riguardanti migliaia di cittadini.
Secondo quanto è stato possibile ricostruire da Guerre di Rete, attraverso le informazioni rilasciate sui siti ufficiali delle cyber gang, solo negli ultimi due mesi del 2023 sono stati diffusi oltre 1,5 terabyte di dati sanitari (circa due milioni di file) sottratti a diverse strutture del nostro Paese. Dati che includono cartelle cliniche, fotografie di pazienti affetti da tumori cutanei, referti di abusi sessuali, esami per le malattie ereditarie, e liste dei vaccinati al Covid-19. Stando alle nostre fonti, alcuni file contengono persino nome, cognome e data di nascita di persone che sono state assistite dai centri di salute mentale, o dai servizi per le dipendenze patologiche. Un patrimonio enorme pubblicato sul dark web, la parte della Rete a cui si può accedere tramite specifici software, e che è alla portata di tutti.
Un'inchiesta in Francia. Uno dei pezzi più importanti del welfare, la Caisse d’allocations familiales (Caf), l’ente che si occupa degli aiuti sociali alle famiglie in difficoltà, per molto più di un decennio ha funzionato affidandosi solo a un algoritmo che discriminava i precari e i più svantaggiati. Dopo anni di battaglia Quadrature du Net è riuscita ad analizzare il codice sorgente. Ecco i risultati
La Quadrature du Net, una delle più serie, autorevoli, combattive associazioni per i diritti sociali e digitali in Europa – non una delle tante che si limita a firmare appelli on line – assieme a due collettivi di ricerca – Stop Controls e Changer de Cap – dopo una lunga, estenuante battaglia è riuscita ad ottenere il codice sorgente dell’algoritmo utilizzato dalla Caf.
Il codice sorgente è quello che definisce il “flusso d’esecuzione” di un programma, è la sequenza di istruzioni. Per usare l’espressione della Quadrature è la “formula” utilizzata per istruire il suo funzionamento.
Quel codice sorgente è stato analizzato in ogni dettaglio (codice, elenco delle variabili, ponderazioni, ecc), anche qui con un lavoro lunghissimo. E dettagliatissimo. E’ venuta fuori la foto di una moderna distopia. Dove la filosofia della sorveglianza automatizzata si sposa con la “caccia” agli ultimi, ai precari, a chi è in difficoltà. “Sospettati” di essere imbroglioni quasi di default.
Il nuovo presidente della Commissione algoritmi
Con la conferenza stampa di inizio anno della premier, la classe dirigente della destra meloniana ha perso un pistolero e imbarcato un frate. È il francescano cinquantenne Paolo Benanti, messo in quattro e quattr’otto a capo della cosiddetta «commissione algoritmi» al posto di Giuliano Amato dal sottosegretario Alberto Barachini. La commissione dovrà consigliare il governo sulle norme in materia di tecnologie digitali e informazione. È un doppione di un’altra commissione governativa sullo stesso tema nominata dall’altro sottosegretario Alessio Butti. Per non sbagliarsi, Benanti fa parte anche di quella.
In molti hanno storto il naso: chiedere a un sacerdote di regolare le nuove tecnologie è un oscurantismo da ayatollah. Macché, hanno risposto gli altri (non solo da destra): rispetto all’ottantacinquenne Amato, il religioso è giovane e competente. Benanti è un prete, ma anche uno studioso di «altissimo profilo», «esperto della materia e unico italiano componente del Comitato sull’Intelligenza artificiale delle Nazioni Unite».
Leggi l'articolo su "Il Manifesto"
Secondo il tribunale, il sistema non tiene conto delle condizioni individuali e discrimina i lavoratori. Per questo va modificato, sentiti i sindacati
Scegliere le migliori e le maggiori opportunità di lavoro e smistarle tra i rider è discriminatorio. Il principio è stato confermato da una sentenza del tribunale di Palermo che ha accolto un ricorso promosso da Nidil, Filcams e Filt Cgil provinciali e ha bocciato il sistema di selezione usato da Foodinho, società del gruppo Glovo.
Al centro della questione, l’algoritmo usato dalla piattaforma di food delivery.
Pennellate digitalmente perfette di statistiche del mondo, video di telecamere di sorveglianza da guardare sugli orologi del personale di sala, esplorazione di mondi su schermi verticali, come video istantanei e allo stesso tempo infiniti: la mostra Digital Antibodies al museo MAXXI di Roma riesce nell’intento di de-condizionare la mente dei visitatori nel consumare contenuti digitali in modi del tutto inaspettati.
È la “Spectacular miscalculation of global asymmetry” (Spettacolari errori di calcolo di globale asimmetria) di Correale ad aprire lo spazio espositivo, che diventa una sorta di ufficio di una multinazionale dove si passeggia tra computer che proiettano video in loop come se le macchine avessero una vita propria in nostra assenza, mentre sulle pareti le tele di apparenti pennellate astratte rappresentano dati e statistiche ben definite su fenomeni che riguardano la popolazione mondiale.
In queste tele la scelta di Correale è “usare i dati come strumenti di decolonizzazione e nuovo lessico realista”, come ha spiegato durante una Conversazione d’artista insieme al duo Eva e Franco Mattes, una strategia di resistenza alle decisioni algoritmiche arbitrarie che usano i dati perpetuando discriminazioni e disuguaglianze.
La puntata si apre con il commento a una notizia di attualità: le graduatorie per l'insegnamento nella scuola pubblica sono state gestite da un sistema automatizzato che ha creato molto scontento. Perché? È un bug? Di chi è la colpa? Allarghiamo il discorso tenendo insieme trasparenza, complessità, accessibilità. Ma gli algoritmi come funzionano?
Seconda notizia commenta è relativa a Kiwi Farms: gruppo di estrema destra che fa violenza mediata da Internet su attivisti e persone trans. Una di queste ha lanciato una campagna per il "deplatforming" di questo sito, chiedendo a Cloudflare di negargli i servizi. Per cloudflare non è affar suo... o forse sì.
Infine le canoniche notiziole
Ascolta la trasmissione sul sito di Radio Onda Rossa
Negli anni, Google ha cambiato in modo significativo il processo di ricerca di informazioni, aprendo intricate questioni etiche
I risultati di una ricerca su Google si sono evoluti. In risposta a un quesito, il sito da qualche anno mostra non soltanto la classica lista di link blu, ma la risposta a domande dirette e il cosiddetto "Knowledge panel", un riquadro posizionato sulla destra della pagina che fornisce informazioni generali riassuntive su un determinato argomento.
Il desiderio di Google di rispondere alle domande per noi, invece di lasciarci liberi di trovare le risposte in modo autonomo, è poco problematico se riguarda domande fattuali come la conversione tra chilometri e miglia, ma diventa pericoloso se offre informazioni sintetiche (che sono generate da un mix di algoritmi e interventi di persone interessate) su questioni più controverse.
In quest'ultimo caso il rischio di creare circoli viziosi di disinformazione è reale e accentuato dalla grande autorevolezza che gli utenti attribuiscono a Google, che da parte sua punta sempre di più su questa modalità.
(tratto da un messaggio Telegram di Etica Digitale)
Leggi l'articolo completo in inglese su wired
Negli ultimi anni molte società in tutto il mondo hanno cominciato a usare l’intelligenza artificiale per selezionare il personale da assumere, con lo scopo di eliminare dalla scelta eventuali pregiudizi e rischi di discriminazioni. Ma secondo gli esperti di tecnologia affidarsi a un algoritmo non è una soluzione, perché gli strumenti utilizzati tendono a imitare i preconcetti umani.
La mancanza di inclusività nelle squadre di programmatori e tecnici informatici, composte principalmente da uomini bianchi, si riflette infatti nei meccanismi automatici di selezione, penalizzando le donne e le persone lgbt+ o appartenenti alle minoranze.
Guarda il video della Thomson Reuters Foundation.