Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Come temevamo i nodi relativi al nudging (spinta gentile) verso l'accettazione delle "decisioni" dell'Intelligenza Artificiale in campo medico stanno venendo al pettine.

Il WSJ racconta del caso di una esperta infermiera specializzata in oncologia che si è trovata di fronte a una diagnosi, secondo lei sbagliata, fatta da una IA. La diagnosi era di sepsi. L'allarme dell'algoritmo ha messo in relazione un elevato numero di globuli bianchi con un'infezione settica. A quanto pare l'IA non avrebbe tenuto conto che il paziente fosse affetto da leucemia, che può causare valori di globuli bianchi simili. L'algoritmo attiva l'allarme quando rileva modelli che corrispondono a precedenti pazienti con sepsi. Peraltro il sistema non ha spiegato la sua decisione.

Le regole dell'ospedale in questione prevedono che gli infermieri seguano il protocollo quando c'è una segnalazione di setticemia a meno che non ricevano un'approvazione da parte del medico responsabile. Secondo l'infermiera, Melissa Beebe, però anche con l'autorizzazione, in caso di errore rischia un procedimento disciplinare.

Risultato: l'infermiera ha eseguito gli ordini e ha effettuato il prelievo di sangue mettendo a rischio il malato. Alla fine la diagnosi dell'algoritmo si è rivelata sbagliata, come sosteneva l'infermiera.

Certamente l'uso di Intelligenza Artificiale, sempre più usata nella diagnosi medica, costituisce un grande aiuto per la cura della salute dei pazienti. Allo stesso tempo sta sollevando un grande interrogativo: chi prende le decisioni in caso di emergenza: gli umani o il software?

Temiamo che per un/una medico o un/una infermiere sarà sempre più difficile assumersi la responsabilità di contraddire la diagnosi di una Intelligenza Artificiale. Speriamo di sbagliarci, ma le avvisaglie sembrano andare in questa direzione.

Leggi la storia sul sito del WSJ o nella newsletter "Guerre di Rete"

Quali sono le relazioni che stabiliamo attraverso le App di messagistica instantanea? Come lo strumento ci induce a preferire dei comportamenti piuttosto che altri? E perche? Abbiamo esplorato le caratteristiche di questi strumenti e delle interazioni che si stabiliscono tra esseri umani ed esseri macchinici quando inviamo dei messaggi istantanei; perché scriviamo molti messaggi? Che effetto ha su di noi questa enorme produzione di messaggi?

In parte, questo è dovuto alla tecnologia dell'instant messaging in sé; in parte questo è alimentato con tecniche inserite negli strumenti da chi li ha progettati, tecniche finalizzate a farci produrre sempre più dati, in un'epoca dove i dati sono il nuovo petrolio. Ma non è tutto nero quello che appiccica e in chiusura proponiamo delle tecniche di autodifesa che ripartendo dall'idea di relazioni conviviali e consapevoli ci permettono di usare questi strumenti senza essere posseduti dai loro demoni!

Ascolta sul sito di Radio Onda Rossa

Ascolta direttamente