Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Come temevamo i nodi relativi al nudging (spinta gentile) verso l'accettazione delle "decisioni" dell'Intelligenza Artificiale in campo medico stanno venendo al pettine.

Il WSJ racconta del caso di una esperta infermiera specializzata in oncologia che si è trovata di fronte a una diagnosi, secondo lei sbagliata, fatta da una IA. La diagnosi era di sepsi. L'allarme dell'algoritmo ha messo in relazione un elevato numero di globuli bianchi con un'infezione settica. A quanto pare l'IA non avrebbe tenuto conto che il paziente fosse affetto da leucemia, che può causare valori di globuli bianchi simili. L'algoritmo attiva l'allarme quando rileva modelli che corrispondono a precedenti pazienti con sepsi. Peraltro il sistema non ha spiegato la sua decisione.

Le regole dell'ospedale in questione prevedono che gli infermieri seguano il protocollo quando c'è una segnalazione di setticemia a meno che non ricevano un'approvazione da parte del medico responsabile. Secondo l'infermiera, Melissa Beebe, però anche con l'autorizzazione, in caso di errore rischia un procedimento disciplinare.

Risultato: l'infermiera ha eseguito gli ordini e ha effettuato il prelievo di sangue mettendo a rischio il malato. Alla fine la diagnosi dell'algoritmo si è rivelata sbagliata, come sosteneva l'infermiera.

Certamente l'uso di Intelligenza Artificiale, sempre più usata nella diagnosi medica, costituisce un grande aiuto per la cura della salute dei pazienti. Allo stesso tempo sta sollevando un grande interrogativo: chi prende le decisioni in caso di emergenza: gli umani o il software?

Temiamo che per un/una medico o un/una infermiere sarà sempre più difficile assumersi la responsabilità di contraddire la diagnosi di una Intelligenza Artificiale. Speriamo di sbagliarci, ma le avvisaglie sembrano andare in questa direzione.

Leggi la storia sul sito del WSJ o nella newsletter "Guerre di Rete"

Lo Spazio Europeo dei Dati Sanitari (SEDS) è una proposta europea per rendere i trasferimenti tra strutture sanitarie più semplici - che siano tra Stati diversi o all'interno dello stesso Paese.

L'idea è di creare per ogni Stato un ente governativo che faccia da custode di tali dati sanitari, forzando le strutture (ospedali, medici di famiglia ecc.) a condividerli con esso. Lɜ pazienti non avrebbero tuttavia nessun diritto a rifiutare e, considerando che i dati non possono essere anonimizzati al 100%, si perderebbe quella confidenzialità garantita dal giuramento d'Ippocrate.

Le informazioni sensibili verrebbero accentrate tutte in un unico posto, rendendo la vita di hacker e governi molto più semplice: è infatti da anni che i primi sottraggono dati sanitari per rivenderli su internet, mentre i secondi potrebbero comprendere con più facilità quando vengono eseguite procedure ritenute illegali (come gli aborti in Polonia).

L'ente governativo può poi condividere i dati sanitari con terzi, se a fini di ricerca. Questo permette ad aziende come Google di impadronirsi di tali dati (in quanto investono anche in campo medico) e, una volta nelle loro sedi, non sarebbero più tutelati dalle leggi europee

Leggi l'articolo originale sul sito European Digital Rights (EDRi)

Leggi altre informazioni nel canale Telegram di Etica Digitale