Naomi Klein, The Guardian, Regno Unito
Le aziende tecnologiche sostengono che l’intelligenza artificiale risolverà molti problemi e migliorerà la vita delle persone. Ma senza regole adeguate produrrà sfruttamento e povertà
Tra i molti dibattiti in corso sulla rapida diffusione della cosiddetta intelligenza artificiale (ia) ce n’è uno relativamente sconosciuto sulla scelta della parola “allucinazioni”. È il termine che i programmatori e i sostenitori dell’ia generativa (quella in grado di generare a richiesta testi, immagini o altro in risposta a una richiesta) usano per descrivere le sue risposte quando sono completamente inventate o semplicemente sbagliate. Per esempio, quando chiediamo a un chatbot (un software che simula la conversazione di un essere umano) la definizione di una cosa che non esiste e il programma, in modo piuttosto convincente, ce ne dà una con tanto di note a piè di pagina false. “Nel nostro campo nessuno è ancora riuscito a risolvere il problema delle allucinazioni”, ha detto di recente Sundar Pichai, l’amministratore delegato di Google e dell’Alphabet, l’azienda che controlla il motore di ricerca californiano.
Respiro . La MeMa che sta prendendo forma è immersa nel mondo degli automi che ci inquietano, ma la sua intenzione è quella di testimoniare che esistono modi sicuri e socialmente sani per utilizzare le tecnologie cosiddette “intelligenti”
Con Sal avevamo spesso fantasticato di fare qualcosa insieme. Lui ‘hacker’ creativo e situazionista, io infiltrato nella realtà di una ‘big tech’ multinazionale ma molto presente nelle viscere tecnologiche d’Italia. Condividevamo molte intuizioni, l’amore per la ricerca, lo spirito anti-accademico, l’allergia per il soluzionismo e le buzzword del marketing informatico.
[...]
Leggi l'articolo su "Il Manifesto"
Sul sito è possibile leggere un primo risultato di MeMa: La nostra Intelligenza Artificiale alla ricerca di Berlusconi
p.s. per leggere gli articoli de "Il Manifesto" è necessario registrarsi. La registrazione è gratuita
Il testo normativo più avanzato al mondo sull’intelligenza artificiale è stato approvato dal Parlamento ed entra così nella fase finale della negoziazione europea. Ma solo l’applicazione pratica dirà quanto il testo sarà rispettoso del “mondo libero” di cui ci fregiamo di far parte
Il Regolamento prosegue con le pratiche di AI vietate, cui è dedicato il Titolo II; nella relazione della Bozza si legge che “Il titolo II stabilisce un elenco di pratiche di IA vietate. Il regolamento segue un approccio basato sul rischio, differenziando tra gli usi dell’IA che creano: i) un rischio inaccettabile; ii) un rischio alto; iii) un rischio basso o minimo. L’elenco delle pratiche vietate di cui al titolo II comprende tutti i sistemi di IA il cui uso è considerato inaccettabile in quanto contrario ai valori dell’Unione, ad esempio perché viola i diritti fondamentali.
Vietati:
Si sa ancora poco di Giove, il nuovo sistema di polizia predittiva italiano che il Ministero dell’Interno vorrebbe dare in dotazione a tutte le questure d’Italia.
Sviluppato dentro il Dipartimento di pubblica sicurezza del Ministero dell’Interno – sulla base delle sperimentazioni portate avanti dal 2008 dalla questura di Milano con il software KeyCrime – Giove si presenta come “un sistema di elaborazione e analisi automatizzata per l’ausilio delle attività di polizia”, come riporta Il Sole 24Ore, e sarebbe in grado di predire dove e quando i reati di maggior impatto sociale, come molestie sessuali, furti in abitazione e truffe agli anziani, potrebbero verificarsi nuovamente.
Uno scenario che richiama la fantascienza e che solleva dubbi e perplessità tra gli addetti ai lavori, soprattutto per la comprovata incapacità attuale di questi sistemi di trovare corrispondenze con la realtà e per la loro tendenza a discriminare le persone in base all’etnia e alla provenienza geografica. Non solo, ad aumentare la preoccupazione è il fatto che nulla sia ancora stato detto circa alcuni aspetti fondamentali, come quali banche dati e dati verranno usati per addestrare l’algoritmo, chi sarà il responsabile del trattamento dei dati e se l’uso del sistema comporterà o meno arresti preventivi. Domande che hanno spinto alcuni senatori a depositare, qualche giorno fa, un’interrogazione parlamentare dedicata.
Uno scenario inquietante, insomma, che potrebbe materializzarsi se il sistema otterrà il parere positivo del Garante della privacy.
Ne parliamo con Jacopo, parte del gruppo di ricerca C.I.R.C.E
Ascolta l'audio dell'intervento di Jacopo sul sito di Radio Onda D'Urto
Esperimenti e allucinazioni di e con ChatGPT
Si potrebbe continuare così per molte pagine. Palmiro Togliatti è stato assassinato nel 1964 da un membro di un gruppo neofascista, gli scioperi a rovescio “sono una forma di protesta in cui i lavoratori continuano a lavorare nonostante sia stato proclamato uno sciopero”, nella lista degli appartenenti alla loggia massonica P2 figura anche Renzo Arbore, e così via
Non si tratta, però, degli errori commessi da una macchina allo stadio iniziale dell’“apprendimento”, ma di quelle che nel gergo tecnico vengono definite “allucinazioni”, risposte completamente inventate prodotte di frequente dagli strumenti di intelligenza artificiale
Sarebbe in grado di prevedere crimini futuri, ma alcuni parlamentari chiedono al ministero dell'Interno più informazioni su privacy e algoritmo utilizzati
È stata depositata in Senato un'interrogazione parlamentare sul sistema Giove, il software italiano di “polizia predittiva” annunciato ieri dal Dipartimento di pubblica sicurezza del ministero dell'Interno e che sarebbe destinato a tutte le questure italiane.
Il testo, che vede come primo firmatario il senatore dem Filippo Sensi (già attivo nella precedente legislatura sul tema delle intelligenze artificiali), chiede al ministero dell'Interno delucidazioni in merito alla “capacità di previsione di una serie di reati in base allo sviluppo di un algoritmo di intelligenza artificiale - sulla carta controllato e gestito da operatori della Polizia di Stato - come supporto alle indagini preliminari” e di chiarire “quali interventi intenda mettere in atto per introdurre il sistema Giove in Italia, se esistono altri software di questo tipo già in uso o dei quali si prospetta l'utilizzo, quali aziende siano state coinvolte nella definizione di questa tecnologia, della sua implementazione e del suo sviluppo”.
Un software, Giove, che dovrebbe essere in grado infatti di “prevedere” i cosiddetti crimini predatori, che molto spesso sono esemplificati dal furto e dalla rapina...
Prosegue il dibattito sull'AI.
Nella Newsletter del 28 maggio si parla di:
Microsoft ha annunciato che nei prossimi mesi integrerà Copilot, il suo assistente AI, in Windows 11. Sarà quindi possibile, fra le altre cose, chiedere all'assistente di "regolare le impostazioni" o di eseguire altre azioni su un computer (The Verge). “Stiamo introducendo Windows Copilot, rendendo Windows 11 la prima piattaforma per computer ad annunciare un’assistenza AI centralizzata per aiutare le persone a intervenire facilmente e a realizzare le cose”, scrive Microsoft nel suo blog...
I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani: funzioni quali la traduzione di testi, il riconoscimento facciale, la ricerca per immagini o l’identificazione di contenuti musicali, non trattabili con l’intelligenza artificiale simbolica, sono affrontate con crescente successo dai sistemi di apprendimento automatico (machine learning).
Questi sistemi, di natura sostanzialmente statistica, consentono infatti di costruire modelli a partire da esempi, purché si abbiano a disposizione potenti infrastrutture di calcolo e enormi quantità di dati. Le grandi aziende tecnologiche che, intorno al 2010, in virtù di un modello di business fondato sulla sorveglianza, detenevano già l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati, hanno potuto perciò raggiungere, con l’applicazione di algoritmi in gran parte noti da decenni, traguardi sorprendenti1.
Nella generale euforia per i genuini progressi, le imprese del settore hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti», ben oltre l’effettivo stadio di sviluppo della tecnologia. Con la formula di marketing «intelligenza artificiale», hanno diffuso e messo in commercio sistemi di apprendimento automatico per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono
Grazie alla AI, non è più possibile fermare il processo di autocostruzione dell’automa globale. Missione conclusa per il genere umano?
[...]
L’attuale stadio di sviluppo dell’AI sta probabilmente portandoci sulla soglia di un salto alla dimensione che definirei Automa cognitivo globale pervasivo. L’automa non è un analogo dell’organismo umano, ma la convergenza di innumerevoli dispositivi generati da intelligenze artificiali disseminate.
[...]
Questa superiorità (o piuttosto irriducibilità alla computazione) del pensiero umano è una magra consolazione, perché essa non serve a molto quando si tratta di interagire con dispositivi di generazione (e di distruzione) basati sul calcolo.
[...]
Il progetto di inserire regole etiche nella macchina generativa è una vecchia utopia della fantascienza, su cui per primo scrisse Isaac Asimov, quando formulò le tre leggi fondamentali della robotica. Lo stesso Asimov dimostra narrativamente che queste leggi non funzionano.
Le macchine estraggono modelli statistici dalle grandi basi dati di testi e immagini costruite da noi. Basterebbe proibirgli di usare i nostri contenuti per addestrarsi
[...]
Hinton si iscrive nella lista degli scienziati pentiti dopo aver contribuito allo sviluppo dell’intelligenza artificiale, di cui viene considerato addirittura il ‘padrino’. Si consola pensando che comunque qualcun altro lo avrebbe fatto al posto suo. È importante mantenere uno sguardo critico nei confronti di questi atteggiamenti dei grandi esperti di tecnologia. Il rimedio potrebbe essere peggiore del male.
[...]
Leggi l'articolo di Teresa Numerico sul sito de "Il Manifesto"