L’introduzione dell’intelligenza artificiale in medicina dovrebbe essere valutata caso per caso, e con grande attenzione. È una tecnologia tutt’altro che neutra, soggetta al problema delle “allucinazioni” e non sempre rispettosa dei protocolli tipici della ricerca scientifica. Errori metodologici pericolosi che un certo marketing asfissiante vuole cancellare. L’analisi di Stefano Borroni Barale
“Cosa succede quando abbiamo messo la decisione [sulla vita o morte di un paziente, ndr] nelle mani di un’inesorabile macchina a cui dobbiamo porre le giuste domande in anticipo, senza comprendere appieno le operazioni o il processo attraverso cui esse troveranno risposta?”. Norbert Wiener, “God and Golem, Inc.”, 1963.
Questa citazione ha aperto un recente congresso sull’uso dell’Intelligenza artificiale (Ai) in ambito sociosanitario durante il quale era intenzione di chi scrive provocare un dibattito per cercare di uscire dallo “spettro delle opinioni accettabili” (Noam Chomsky) e -al contempo- ampliare la comprensione del fenomeno, ripercorrendone la storia.
Come temevamo i nodi relativi al nudging (spinta gentile) verso l'accettazione delle "decisioni" dell'Intelligenza Artificiale in campo medico stanno venendo al pettine.
Il WSJ racconta del caso di una esperta infermiera specializzata in oncologia che si è trovata di fronte a una diagnosi, secondo lei sbagliata, fatta da una IA. La diagnosi era di sepsi. L'allarme dell'algoritmo ha messo in relazione un elevato numero di globuli bianchi con un'infezione settica. A quanto pare l'IA non avrebbe tenuto conto che il paziente fosse affetto da leucemia, che può causare valori di globuli bianchi simili. L'algoritmo attiva l'allarme quando rileva modelli che corrispondono a precedenti pazienti con sepsi. Peraltro il sistema non ha spiegato la sua decisione.
Le regole dell'ospedale in questione prevedono che gli infermieri seguano il protocollo quando c'è una segnalazione di setticemia a meno che non ricevano un'approvazione da parte del medico responsabile. Secondo l'infermiera, Melissa Beebe, però anche con l'autorizzazione, in caso di errore rischia un procedimento disciplinare.
Risultato: l'infermiera ha eseguito gli ordini e ha effettuato il prelievo di sangue mettendo a rischio il malato. Alla fine la diagnosi dell'algoritmo si è rivelata sbagliata, come sosteneva l'infermiera.
Certamente l'uso di Intelligenza Artificiale, sempre più usata nella diagnosi medica, costituisce un grande aiuto per la cura della salute dei pazienti. Allo stesso tempo sta sollevando un grande interrogativo: chi prende le decisioni in caso di emergenza: gli umani o il software?
Temiamo che per un/una medico o un/una infermiere sarà sempre più difficile assumersi la responsabilità di contraddire la diagnosi di una Intelligenza Artificiale. Speriamo di sbagliarci, ma le avvisaglie sembrano andare in questa direzione.
Leggi la storia sul sito del WSJ o nella newsletter "Guerre di Rete"
Lo Spazio Europeo dei Dati Sanitari (SEDS) è una proposta europea per rendere i trasferimenti tra strutture sanitarie più semplici - che siano tra Stati diversi o all'interno dello stesso Paese.
L'idea è di creare per ogni Stato un ente governativo che faccia da custode di tali dati sanitari, forzando le strutture (ospedali, medici di famiglia ecc.) a condividerli con esso. Lɜ pazienti non avrebbero tuttavia nessun diritto a rifiutare e, considerando che i dati non possono essere anonimizzati al 100%, si perderebbe quella confidenzialità garantita dal giuramento d'Ippocrate.
Le informazioni sensibili verrebbero accentrate tutte in un unico posto, rendendo la vita di hacker e governi molto più semplice: è infatti da anni che i primi sottraggono dati sanitari per rivenderli su internet, mentre i secondi potrebbero comprendere con più facilità quando vengono eseguite procedure ritenute illegali (come gli aborti in Polonia).
L'ente governativo può poi condividere i dati sanitari con terzi, se a fini di ricerca. Questo permette ad aziende come Google di impadronirsi di tali dati (in quanto investono anche in campo medico) e, una volta nelle loro sedi, non sarebbero più tutelati dalle leggi europee
Leggi l'articolo originale sul sito European Digital Rights (EDRi)
Leggi altre informazioni nel canale Telegram di Etica Digitale