Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Cassandra Crossing/ Com'era prevedibile, ChatGPT evolve verso un'architettura di API e plugin. Questo rappresenta un rischio, perché deresponsabilizza sia chi vende i servizi di GPT4 sia chi li usa.

Circa due mesi fa un annuncio di OpenAI ha reso nota la realizzazione di plugin che consentono di interfacciare ChatGPT con fonti esterne di dati e servizi.

Tecnicamente, si tratta di una API che permette la realizzazione di plugin che interfacciano, anche in maniera bidirezionale, una fonte di dati o un servizio con ChatGPT (per esempio) e viceversa.

In questo modo ChatGPT può utilizzare risorse informative per produrre le sue "risposte". E nella direzione opposta gli "oggetti intelligenti", i servizi e i siti possono far generare testi, programmi e immagini alla falsa IA di turno, e utilizzarli per produrre i risultati o le pagine che devono fornire.

È perfettamente chiaro come questa architettura permetta un immediato inserimento delle false Intelligenze Artificiali nei tessuti profondi della Rete come la conosciamo oggi.

Leggi l'articolo completo su ZEUS News

Nella puntata del 16 luglio, un'ospite speciale ci aiuta a capire meglio le implicazioni più sottili dell'approccio "big data" (basato cioè sull'accumulazione di archivi di dati caratterizzati dalla quantità prima che dalla qualità) nello specifico della linguistica.

Puntata con focus sui problemi più prettamente linguistici, osservando come i modelli di intelligenza artificiale che generano testo (insomma i vari ChatGPT) creano a tutti gli effetti la lingua; la raccolta di dati "a strascico", lungi dall'essere un metodo per ascoltare tutte le voci si dimostra un modo per selezionare le voci legittime; così, quello che poteva sembrare un problema semplice per un algoritmo innocuo apre il problema, per niente banale, della rappresentazione.

Lo facciamo seguendo, in parte, l'articolo che è costato il licenziamento di Timnit Gebru e accompagnati da musiche centroasiatiche.

Ascolta la puntata sul sito di Radio Onda Rossa

Le immagini che metti sui socialnework sono molto più di un ricordo. Il video che ogni genitore dovrebbe guardare

Il 75% dei genitori condivide immagini e dati dei propri figli sui social media. Otto genitori su 10 sono seguiti sui propri social da gente che conoscono e non hanno mai incontrato. Inizia così un video targato Telekom, uno dei maggiori operatori di telecomunicazione tedeschi - ma questo conta poco o, forse nulla perché i suoi contenuti non riguardano un prodotto o un servizio commerciale – tutti, da genitori, dovremmo guardare e riguardare.

La storia raccontata nel video è quella di Ella, una bambina di 9 anni, i cui genitori, appartengono a quel 75% che usa condividere foto, video e dati dei propri figli online, momenti e scene di vita vissuta innocenti, naturali, magari semplici ricordi.

Leggi l'articolo di Guido Scorza

Guarda il video su youtube

Smontare l’”illusione quantitativa” con cui un certo fanatismo tecnologico guarda al linguaggio, e in particolare la traduzione, non è difficile

Appreso dal capo di una grande società italiana di traduzione automatica, nel corso di un recente convegno al Senato, che entro cinque anni il suo lavoro verrà svolto dall’intelligenza artificiale, Silvia Pareschi, nota traduttrice, ha reagito rilasciando un’intervista su La Stampa che nei giorni scorsi ha fatto molto discutere.

Il rischio – ha detto – è che ci si abitui gradualmente e inconsapevolmente a traduzioni automatiche a basso costo di qualità scadente, non accorgendosi dei danni che questo arrecherà al pensiero umano, così come la rana non si accorge che l’acqua in cui nuota è quella di una pentola che sta sul fuoco. Si tratta di un allarme giustificato?

Puntata andata in onda il 13 luglio.

Accanto ai disastri e agli abusi di cui si parla tanto, nell'intelligenza artificiale ci sono moltissimi episodi di uso positivo e costruttivo, già adottabili in pratica nel lavoro di tutti i giorni di tantissime persone. Dalla semplice scrittura di una mail fino all’aiuto alle persone con disabilità, ecco una rassegna ragionata di applicazioni utili, insieme alla storia di un "ostacolo inatteso" nella corsa frenetica allo sviluppo di questa tecnologia, con i due semplici criteri che permettono di decidere se un uso dell’IA è buono o cattivo.

Ascolta l'audio della puntata di Paolo Attivissimo sulla Radiotelevisione Svizzera

La città impone alle aziende che usano la Ai per le assunzioni di non discriminare sulla base di razza e genere

Le aziende di New York City che utilizzano dei programmi d’intelligenza artificiale per gestire le assunzioni dovranno dimostrare che il software che impiegano non segue criteri discriminatori, sessisti o razzisti. Questa nuova legge, entrata in vigore mercoledì, è la prima al mondo del suo genere, e sicuramente detterà la linea da seguire per le aziende che vogliono avvalersi dell’ausilio di intelligenze artificiali per assumere personale

Questi software, chiamati automatic employment decision tool, strumento di decisione automatica sull’occupazione, o Aedt, hanno la funzione sia di segnalare i candidati promettenti, che di scartare quelli ritenuti non idonei, aprendo così la strada a tutta una serie di preoccupazioni riguardanti i criteri di valutazione delle intelligenze artificiali. Una donna in età fertile è una candidata appetibile al pari di un uomo della stessa età? E una persona non bianca?

Leggi l'articolo su "Il Manifesto"

In questo podcast uno scambio di opinioni sull'AI Act con l'ospite speciale Alessandro Longo, direttore responsabile di agendadigitale.eu. l'AI Act è il regolamento Europeo per l'intelligenza artificiale, il primo al mondo. E' stato approvato dal Parlamento Europeo ed è l'inizio di una nuova negoziazione con le altre due istituzioni - Commissione e Consiglio. Non è ancora la versione definitiva, né è ancora in vigore.

Diversi spunti interessanti a cominciare dalla mancanza di regolamentazione delle applicazioni di intelligenza artificiale per applicazioni di tipo militare. Il secondo punto di attenzione è la questione dell'appropriazione dei dati pubblicati nel web, poiché il fatto che siano accessibili a tutti non vuol dire automaticamente che siano utilizabili per l'addestramento di AI senza consenso.

E poi c'è una questione che non è legata direttamente al regolamento: "l'intelligenza artificiale cambierà tutto in un momento in cui non siamo sicuri che quelli che rischiano di rimanere indietro siano in grado invece di avere voce in capitolo e quindi non siamo sicuri che tutta questa grande rivoluzione poi porterà benessere a tutti".

Ascolta il podcast

Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori.

Quando sono stati annunciati pubblicamente i primi software di intelligenza artificiale capaci di generare immagini e testi, per molti imprenditori la reazione istintiva è stata un entusiasmo sconfinato di fronte all’idea di poter tagliare i costi di produzione dei contenuti mettendo al lavoro questi nuovi servitori digitali al posto delle persone. Ma per molti altri, anche non esperti di informatica, la reazione è stata ben diversa. Paura, pura e semplice. Paura per il proprio posto di lavoro e paura per i possibili abusi, facilmente prevedibili, di questa tecnologia.

Questa è la storia di come quella paura del possibile è oggi diventata reale, raccontata attraverso tre casi recenti che sono un campanello d’allarme urgente. Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori. La politica nazionale e internazionale si china su queste questioni con i suoi tempi inevitabilmente lunghi, ma nel frattempo i danni personali e sociali sono già gravi e tangibili, ed è decisamente il momento di chiedersi se si possa fare qualcosa di più di un coro tedioso di meritatissimi “Ve l’avevamo detto”.

Benvenuti alla puntata del 30 giugno 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane – e questa settimana inquietanti – dell’informatica. Io sono Paolo Attivissimo.

Ascolta il podcast sul blog di Paolo Attivissimo

Come temevamo i nodi relativi al nudging (spinta gentile) verso l'accettazione delle "decisioni" dell'Intelligenza Artificiale in campo medico stanno venendo al pettine.

Il WSJ racconta del caso di una esperta infermiera specializzata in oncologia che si è trovata di fronte a una diagnosi, secondo lei sbagliata, fatta da una IA. La diagnosi era di sepsi. L'allarme dell'algoritmo ha messo in relazione un elevato numero di globuli bianchi con un'infezione settica. A quanto pare l'IA non avrebbe tenuto conto che il paziente fosse affetto da leucemia, che può causare valori di globuli bianchi simili. L'algoritmo attiva l'allarme quando rileva modelli che corrispondono a precedenti pazienti con sepsi. Peraltro il sistema non ha spiegato la sua decisione.

Le regole dell'ospedale in questione prevedono che gli infermieri seguano il protocollo quando c'è una segnalazione di setticemia a meno che non ricevano un'approvazione da parte del medico responsabile. Secondo l'infermiera, Melissa Beebe, però anche con l'autorizzazione, in caso di errore rischia un procedimento disciplinare.

Risultato: l'infermiera ha eseguito gli ordini e ha effettuato il prelievo di sangue mettendo a rischio il malato. Alla fine la diagnosi dell'algoritmo si è rivelata sbagliata, come sosteneva l'infermiera.

Certamente l'uso di Intelligenza Artificiale, sempre più usata nella diagnosi medica, costituisce un grande aiuto per la cura della salute dei pazienti. Allo stesso tempo sta sollevando un grande interrogativo: chi prende le decisioni in caso di emergenza: gli umani o il software?

Temiamo che per un/una medico o un/una infermiere sarà sempre più difficile assumersi la responsabilità di contraddire la diagnosi di una Intelligenza Artificiale. Speriamo di sbagliarci, ma le avvisaglie sembrano andare in questa direzione.

Leggi la storia sul sito del WSJ o nella newsletter "Guerre di Rete"

Un testo del sociologo Antonio Casilli che è interventuo alla giornata di dibattito presso il Monk di Roma dal titolo «C’è vita oltre il lavoro», organizzata da Tlon

Angelica, giovane donna di 27 anni, vive a Tambaú, a nord della megalopoli di San Paolo. Il suo lavoro: «addestrare» robot aspirapolvere, piccoli elettrodomestici dotati di telecamere intelligenti che riconoscono e evitano ostacoli. Anche i più inattesi, come gli escrementi degli animali domestici. Angelica è retribuita per scattare foto delle deiezioni del suo cane. Le sue immagini, etichettate e catalogate, vengono pagate solo pochi reais su una delle cinquantaquattro piattaforme di micro-lavoro attive in Brasile. L’esempio di Angelica è tratto dal rapporto Micro-lavoro in Brasile. I lavoratori dietro l’IA? pubblicato il 19 giugno dal centro Latraps (Brasile), in collaborazione con il mio gruppo di ricerca DiPLab (Francia). Per anni, con i miei colleghi e studenti ho condotto inchieste come questa in diciannove paesi in Europa, Africa e America Latina. Alla domanda: «Dove viene prodotta l’intelligenza artificiale?», oggi noi diamo una risposta originale: non nella Silicon Valley o in grandi centri tecnologici dei paesi del Nord. I dati, ingredienti fondamentali dell’IA, vengono prodotti nei paesi emergenti e in via di sviluppo.

Leggi l'articolo sul sito de Il Manifesto

Sarà valido fino a fine 2025, e non era scontato visto che piacciono molto al ministro dell'Interno, Matteo Piantedosi

La Camera ha approvato decreto-legge 51 del 2023 che tra le altre cose contiene l’estensione della moratoria sui sistemi di riconoscimento facciale in scadenza alla fine dell’anno. Fino al 31 dicembre 2025, e non più fino al 31 dicembre 2023, le autorità pubbliche e i privati non potranno installare impianti di videosorveglianza con sistemi di riconoscimento facciale in luoghi pubblici e aperti al pubblico. L’emendamento che ha confermato il divieto in scadenza era stato presentato da Marianna Madia, Lia Quartapelle e Filiberto Zaratti del Partito Democratico, e approvato la scorsa settimana in commissione.

La conferma della moratoria non era scontata perché alla fine di aprile il ministro dell’Interno, Matteo Piantedosi, aveva sostenuto la necessità di installare sistemi di riconoscimento facciale nelle stazioni, negli ospedali e nelle zone commerciali delle grandi città per garantire più sicurezza. «La videosorveglianza è uno strumento ormai unanimemente riconosciuto come fondamentale», aveva detto Piantedosi, intervistato dal Quotidiano Nazionale. «La sua progressiva estensione è obiettivo condiviso con tutti i sindaci. Il riconoscimento facciale dà ulteriori e significative possibilità di prevenzione e indagine». L’estensione del divieto fino al 2025 non era scontata anche perché negli ultimi anni molti sindaci, soprattutto di centrodestra, avevano cercato di installare telecamere a riconoscimento facciale: tutti i tentativi fatti finora erano stati bloccati dal Garante della privacy.

Leggi l'articolo su Il Post

Naomi Klein, The Guardian, Regno Unito
Le aziende tecnologiche sostengono che l’intelligenza artificiale risolverà molti problemi e migliorerà la vita delle persone. Ma senza regole adeguate produrrà sfruttamento e povertà

Tra i molti dibattiti in corso sulla rapida diffusione della cosiddetta intelligenza artificiale (ia) ce n’è uno relativamente sconosciuto sulla scelta della parola “allucinazioni”. È il termine che i programmatori e i sostenitori dell’ia generativa (quella in grado di generare a richiesta testi, immagini o altro in risposta a una richiesta) usano per descrivere le sue risposte quando sono completamente inventate o semplicemente sbagliate. Per esempio, quando chiediamo a un chatbot (un software che simula la conversazione di un essere umano) la definizione di una cosa che non esiste e il programma, in modo piuttosto convincente, ce ne dà una con tanto di note a piè di pagina false. “Nel nostro campo nessuno è ancora riuscito a risolvere il problema delle allucinazioni”, ha detto di recente Sundar Pichai, l’amministratore delegato di Google e dell’Alphabet, l’azienda che controlla il motore di ricerca californiano.

Leggi l'articolo sul sito di Internazionale

Respiro . La MeMa che sta prendendo forma è immersa nel mondo degli automi che ci inquietano, ma la sua intenzione è quella di testimoniare che esistono modi sicuri e socialmente sani per utilizzare le tecnologie cosiddette “intelligenti”

Con Sal avevamo spesso fantasticato di fare qualcosa insieme. Lui ‘hacker’ creativo e situazionista, io infiltrato nella realtà di una ‘big tech’ multinazionale ma molto presente nelle viscere tecnologiche d’Italia. Condividevamo molte intuizioni, l’amore per la ricerca, lo spirito anti-accademico, l’allergia per il soluzionismo e le buzzword del marketing informatico.

[...]

Leggi l'articolo su "Il Manifesto"

Sul sito è possibile leggere un primo risultato di MeMa: La nostra Intelligenza Artificiale alla ricerca di Berlusconi

p.s. per leggere gli articoli de "Il Manifesto" è necessario registrarsi. La registrazione è gratuita

Il testo normativo più avanzato al mondo sull’intelligenza artificiale è stato approvato dal Parlamento ed entra così nella fase finale della negoziazione europea. Ma solo l’applicazione pratica dirà quanto il testo sarà rispettoso del “mondo libero” di cui ci fregiamo di far parte

Le pratiche di AI vietate

Il Regolamento prosegue con le pratiche di AI vietate, cui è dedicato il Titolo II; nella relazione della Bozza si legge che “Il titolo II stabilisce un elenco di pratiche di IA vietate. Il regolamento segue un approccio basato sul rischio, differenziando tra gli usi dell’IA che creano: i) un rischio inaccettabile; ii) un rischio alto; iii) un rischio basso o minimo. L’elenco delle pratiche vietate di cui al titolo II comprende tutti i sistemi di IA il cui uso è considerato inaccettabile in quanto contrario ai valori dell’Unione, ad esempio perché viola i diritti fondamentali.

Vietati:

  • Sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
  • sistemi di identificazione biometrica a distanza “a posteriori”, con l’unica eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
  • sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, sesso, razza, etnia, cittadinanza, religione, orientamento politico);
  • sistemi di polizia predittiva (basati su profili, ubicazione o comportamenti criminali passati);
  • sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni scolastiche; e
  • lo scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

Leggi l'intero articolo

Si sa ancora poco di Giove, il nuovo sistema di polizia predittiva italiano che il Ministero dell’Interno vorrebbe dare in dotazione a tutte le questure d’Italia.

Sviluppato dentro il Dipartimento di pubblica sicurezza del Ministero dell’Interno – sulla base delle sperimentazioni portate avanti dal 2008 dalla questura di Milano con il software KeyCrime – Giove si presenta come “un sistema di elaborazione e analisi automatizzata per l’ausilio delle attività di polizia”, come riporta Il Sole 24Ore, e sarebbe in grado di predire dove e quando i reati di maggior impatto sociale, come molestie sessuali, furti in abitazione e truffe agli anziani, potrebbero verificarsi nuovamente.

Uno scenario che richiama la fantascienza e che solleva dubbi e perplessità tra gli addetti ai lavori, soprattutto per la comprovata incapacità attuale di questi sistemi di trovare corrispondenze con la realtà e per la loro tendenza a discriminare le persone in base all’etnia e alla provenienza geografica. Non solo, ad aumentare la preoccupazione è il fatto che nulla sia ancora stato detto circa alcuni aspetti fondamentali, come quali banche dati e dati verranno usati per addestrare l’algoritmo, chi sarà il responsabile del trattamento dei dati e se l’uso del sistema comporterà o meno arresti preventivi. Domande che hanno spinto alcuni senatori a depositare, qualche giorno fa, un’interrogazione parlamentare dedicata.

Uno scenario inquietante, insomma, che potrebbe materializzarsi se il sistema otterrà il parere positivo del Garante della privacy.
Ne parliamo con Jacopo, parte del gruppo di ricerca C.I.R.C.E

Ascolta l'audio dell'intervento di Jacopo sul sito di Radio Onda D'Urto

Esperimenti e allucinazioni di e con ChatGPT

Si potrebbe continuare così per molte pagine. Palmiro Togliatti è stato assassinato nel 1964 da un membro di un gruppo neofascista, gli scioperi a rovescio “sono una forma di protesta in cui i lavoratori continuano a lavorare nonostante sia stato proclamato uno sciopero”, nella lista degli appartenenti alla loggia massonica P2 figura anche Renzo Arbore, e così via

Non si tratta, però, degli errori commessi da una macchina allo stadio iniziale dell’“apprendimento”, ma di quelle che nel gergo tecnico vengono definite “allucinazioni”, risposte completamente inventate prodotte di frequente dagli strumenti di intelligenza artificiale

leggi l'articolo sul sito de "Gli Asini"

Sarebbe in grado di prevedere crimini futuri, ma alcuni parlamentari chiedono al ministero dell'Interno più informazioni su privacy e algoritmo utilizzati

È stata depositata in Senato un'interrogazione parlamentare sul sistema Giove, il software italiano di “polizia predittiva” annunciato ieri dal Dipartimento di pubblica sicurezza del ministero dell'Interno e che sarebbe destinato a tutte le questure italiane.

Il testo, che vede come primo firmatario il senatore dem Filippo Sensi (già attivo nella precedente legislatura sul tema delle intelligenze artificiali), chiede al ministero dell'Interno delucidazioni in merito alla “capacità di previsione di una serie di reati in base allo sviluppo di un algoritmo di intelligenza artificiale - sulla carta controllato e gestito da operatori della Polizia di Stato - come supporto alle indagini preliminari” e di chiarire “quali interventi intenda mettere in atto per introdurre il sistema Giove in Italia, se esistono altri software di questo tipo già in uso o dei quali si prospetta l'utilizzo, quali aziende siano state coinvolte nella definizione di questa tecnologia, della sua implementazione e del suo sviluppo”.

Un software, Giove, che dovrebbe essere in grado infatti di “prevedere” i cosiddetti crimini predatori, che molto spesso sono esemplificati dal furto e dalla rapina...

Leggi l'articolo

Prosegue il dibattito sull'AI.

Nella Newsletter del 28 maggio si parla di:

  • AI, copilota o dirottatore?
  • Bengio sui rischi e la sicurezza nell’AI
  • Spyware, GDPR e altro

Microsoft ha annunciato che nei prossimi mesi integrerà Copilot, il suo assistente AI, in Windows 11. Sarà quindi possibile, fra le altre cose, chiedere all'assistente di "regolare le impostazioni" o di eseguire altre azioni su un computer (The Verge). “Stiamo introducendo Windows Copilot, rendendo Windows 11 la prima piattaforma per computer ad annunciare un’assistenza AI centralizzata per aiutare le persone a intervenire facilmente e a realizzare le cose”, scrive Microsoft nel suo blog...

leggi la newsletter nel sito di Guerre di Rete

I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani: funzioni quali la traduzione di testi, il riconoscimento facciale, la ricerca per immagini o l’identificazione di contenuti musicali, non trattabili con l’intelligenza artificiale simbolica, sono affrontate con crescente successo dai sistemi di apprendimento automatico (machine learning).

Questi sistemi, di natura sostanzialmente statistica, consentono infatti di costruire modelli a partire da esempi, purché si abbiano a disposizione potenti infrastrutture di calcolo e enormi quantità di dati. Le grandi aziende tecnologiche che, intorno al 2010, in virtù di un modello di business fondato sulla sorveglianza, detenevano già l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati, hanno potuto perciò raggiungere, con l’applicazione di algoritmi in gran parte noti da decenni, traguardi sorprendenti1.

Nella generale euforia per i genuini progressi, le imprese del settore hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti», ben oltre l’effettivo stadio di sviluppo della tecnologia. Con la formula di marketing «intelligenza artificiale», hanno diffuso e messo in commercio sistemi di apprendimento automatico per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono

  • le auto a guida autonoma,
  • i sistemi di ottimizzazione predittiva,
  • i generatori di linguaggio naturale.

Leggi l'articolo completo di Daniela Tafani

Grazie alla AI, non è più possibile fermare il processo di autocostruzione dell’automa globale. Missione conclusa per il genere umano?

[...]

L’attuale stadio di sviluppo dell’AI sta probabilmente portandoci sulla soglia di un salto alla dimensione che definirei Automa cognitivo globale pervasivo. L’automa non è un analogo dell’organismo umano, ma la convergenza di innumerevoli dispositivi generati da intelligenze artificiali disseminate.

[...]

Questa superiorità (o piuttosto irriducibilità alla computazione) del pensiero umano è una magra consolazione, perché essa non serve a molto quando si tratta di interagire con dispositivi di generazione (e di distruzione) basati sul calcolo.

[...]

Il progetto di inserire regole etiche nella macchina generativa è una vecchia utopia della fantascienza, su cui per primo scrisse Isaac Asimov, quando formulò le tre leggi fondamentali della robotica. Lo stesso Asimov dimostra narrativamente che queste leggi non funzionano.

Leggi l'articolo completo di Bifo sul sito di Nero edizioni