Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Un esperimento di Dan Savage, che tiene una rubrica di consigli sessuali e di coppia pubblicata su The Stranger, con ChatGPT. Savage ha chiesto al chatBOT di rispondere ad alcune lettere che arrivano alla sua rubrica. Ha poi reso pubbliche le sue risposte e quelle di ChatGPT invitando i suoi lettori a capire quali fossero scritte dall'IA e quali dall'autore.

"ChatGpt è un chatbot basato sull’intelligenza artificiale e creato dalla fondazione OpenAi che può produrre saggi, romanzi, sceneggiature – qualsiasi tipo di testo scritto -–più velocemente di quanto degli esseri umani viventi/respiranti/digitanti/rivedenti/correggenti potrebbero mai fare. Non solo: inserendo il nome di qualsiasi scrittore, vivente o defunto, nel giro di pochi secondi ChatGpt può tirare fuori un saggio, una sceneggiatura o un editoriale nello stile di quell’autore.

O una rubrica di consigli nello stile di un certo rubrichista di consigli.

Ho preso una lettera dalla posta in arrivo a Savage Love – una cosa semplice, innocua e abastanza generica – sono andato sul sito di ChatGpt e ho chiesto a ChatGpt di “rispondere a questa domanda nello stile della rubrica di consigli di Dan Savage”. Forse che il chatbot basato sull’intelligenza artificiale ChatGpt è in grado di fornire consigli sessuali migliori dei miei? Lo scopriremo a breve. Ecco la domanda che ho scelto."

Leggi tutto sul sito di Internazionale.

Nella puntata si parla di scienza e intelligenza artificale. Meta ha rilasciato da poco (e subito ritirato) Galactica, un'intelligenza artificiale che analizza e produce review scientifiche in maniera automatica. Si è ragionato delle motivazioni dietro questo strumento, dei problemi che Meta ha creato, e dei problemi che invece sono strutturali e complessi da affrontare in ogni caso.

Poi avanti con le notiziole: dal "rinnovo" di Twitter, alle politiche antisindacali della Apple, al tracciamento contro la volontà degli utenti sempre da parte di Apple, ad alcune notizie sulla sorveglianza biometrica.

Ascolta il podcast sul sito di Radio Onda Rossa

La newsletter di Carola Frediani. In questo numero:

  • Ultime dalla Muskeide: ora Twitter sospende alcuni giornalisti
  • Deepfakes e app di AI
  • Il report Facebook sull’industria della sorveglianza
  • Cosa chiedono i tech workers
  • FTX, Binance e inverno criptovalutario
  • E altro

Leggi la newsletter sul sito

L’Intelligenza artificiale è spesso al servizio di progetti autoritari che accrescono le disuguaglianze e mettono a rischio la democrazia. Parla lo studioso Dan McQuillan

Serve «un approccio antifascista all’intelligenza artificiale», scrive Dan McQuillan nel suo recente volume intitolato “Resisting Ai” (Bristol University Press). Non perché l’Ia sia di per sé fascista, ragiona il docente di Computing sociale e creativo al Goldsmiths College dell’università di Londra, ma in quanto motore di dinamiche congruenti, e in modo strutturale, con politiche fasciste. Lungi dall’essere una mera tecnologia, l’Ia è infatti un “apparato” che somma tecnica, istituzioni e ideologia. E se ne comprendiamo le “operazioni di base”, e le situiamo nell’attuale momento storico, è impossibile ignorare che il cambiamento di paradigma sociale portato dall’Ia «non farà che amplificare politiche di austerity e sviluppi autoritari», si legge nel testo, agile ma durissimo di McQuillan.

[...] Per l’autore, che vanta un dottorato in fisica delle particelle e un passato come direttore delle comunicazioni digitali di Amnesty, il legame tra fascismi e Ia si salda prima, all’incrocio tra le crescenti richieste di efficienza e risparmi nella gestione della cosa pubblica e l’ideologia che fa dell’intelligenza artificiale la panacea, infallibile e oggettiva, di ogni male. È il cosiddetto “soluzionismo”, che riduce problemi sociali complessi - la pandemia, l’emergenza climatica, la questione energetica - a questioni tecnologiche, risolvibili tramite Ia. Tutto diventa materia di “ottimizzazione” statistica. E, in fondo, questo è l’Ia secondo McQuillan: non “intelligenza” - l’autore sembra fare sua la fortunata espressione della ricercatrice Kate Crawford, per cui l’Ia «non è né intelligente né artificiale» - ma «elaborate congetture statistiche», informate da una visione «astrattamente utilitarista» che finisce per insieme nascondere, riprodurre e amplificare ingiustizie e storture sociali, automatizzandole.

Leggi l'articolo di Fabio Chiusi sul sito dell'Espresso

La puntata è dedicata principalmente all'intelligenza artificiale, partendo dalla notizia del licenziamento di Blake Lemoine, dipendente di Google che aveva dichiarato che un chatbot basato su IA poteva essere considerato senziente. Evidentemente, Google non apprezza affermazioni esagerate sulle IA che sviluppa e preferisce avere un profilo più basso. Come spiegare, altrimenti, la collaborazione tra Google e il governo israeliano in tema di sorveglianza basata su intelligenza artificiale?

Diamo anche alcune altre notizie - di serietà variabile - riguardanti gli sviluppi dell'intelligenza artificiale.

Ma esiste anche una sorveglianza "stupida": niente IA, ma tanto cloud, dall'uso della domotica al prelevamento del DNA alla nascita, tutto fa brodo.

Infine alcune notiziole: ancora problemi per Google dal GDPR; i giudici americani fanno ricerche come gli studenti delle superiori (su wikipedia); il trenino "Termini-Centocelle", grazie ai lavori di ammodernamento, viaggerà su un futuristico binario unico per 1,5km; ma soprattutto, pare che stavolta il copyright per Topolino scada sul serio!

Ascolta il podcast sul sito di Radio Onda Rossa

Una interessante inchiesta sul discutibile uso dell'Intelligenza Artificiale per la selezione di domande di lavoro.

I software per la selezione del personale promettono di identificare i tratti della personalità dei candidati al lavoro sulla base di brevi video. Con l'aiuto dell'Intelligenza Artificiale (IA), dovrebbero rendere il processo di selezione dei candidati più obiettivo e veloce.

L'inchiesta di alcuni giornalisti della BR (Bavarian Broadcasting) ha verificato che un'Intelligenza Artificiale può essere influenzata dalle apparenze. Ciò potrebbe riprodurre stereotipi e costare il lavoro ai candidati.

Leggi l'inchiesta e scopri cosa hanno analizzato i giornalisti

In seguito a una sentenza, la società non venderà più il suo database ad aziende private

Clearview AI, oltre a essere un’azienda che punta a raccogliere un database di 100 miliardi di foto di volti utilizzando di fatto il riconoscimento biometrico per mappare pressoché tutta la popolazione mondiale, è un grande tema etico. Su questa linea, a quanto pare, si sta giocando una nuova partita e si sta aprendo un nuovo fronte, in seguito a un accordo giuridico in attesa di una conferma da pate di un tribunale in Illinois. American Civil Liberties Union, una associazione che si occupa della tutela dei diritti fondamentali, ha vinto la sua battaglia contro Clearview AI: l’azienda ha accettato di non vendere i suoi prodotti, i suoi database a società private.

Leggi l'articolo completo

Meta è alla ricerca di titoli di giornale che dimostrino il suo impegno per la privacy — ma la storia della cancellazione dei dati biometrici su Facebook è più complessa.

In un post sul blog aziendale, il vicepresidente all’intelligenza artificiale Jerome Pesenti spiega che Facebook vuole limitare il proprio uso di tecnologie di riconoscimento facciale su larga scala, perché “anche nei molti casi in cui il riconoscimento facciale può essere utile, bisogna confrontarsi con le crescenti preoccupazioni della società sull’uso della tecnologia stessa.”

Il post non menziona, tuttavia, la cancellazione di DeepFace, l’algoritmo di riconoscimento facciale che Facebook ha allenato proprio sulle foto dei propri utenti, e che l’azienda quindi potrebbe utilizzare in qualsiasi momento in prodotti futuri.

Se l’intelligenza artificiale automatizzerà del tutto la produzione di funzioni applicative anche complesse e articolate ad avere la peggio non saranno solo i programmatori, ma l’intelligenza collettiva come la conosciamo ora. E non sarà indolore.

[...]

Al di là di come evolverà il lavoro dei programmatori, che comunque è già profondamente cambiato dai tempi non troppo remoti delle origini, un fenomeno sembra emergere con chiarezza: l’attacco che l’intelligenza artificiale generativa muove oggi all’intelligenza collettiva per come l’abbiamo pensata e costruita negli ultimi venti anni. L’idea che le conoscenze umane possano essere ingerite dai ‘modelli generali’ di giganteschi sistemi neurali centralizzati nelle cloud di pochi monopolisti e da lì usate in modo opaco da una moltitudine di soggetti passivi, è infatti diametralmente opposta alla visione dell’intelligenza collettiva mediata dalle tecnologie, che è invece un’attività decentralizzata, trasparente, partecipativa e critica.

Leggi l'articolo completo di Guido Vetere

La redazione di Dataninja ha intervistato Ivana Bartoletti, Technical Director – Privacy in Deloitte e Co-Founder di Women Leading in AI Network.

Tra le altre cose Bartoletti dice: "Siamo abituati alla neutralità dei dati, all’idea – sbagliata – che i dati siano oggettivi e che, pertanto, ci informino sul mondo. E che quando dati in pasto agli algoritmi possono produrre predizioni e decisioni obiettive. Non c’è nulla di più sbagliato. I dati sono lo specchio della società e ne rappresentano le gerarchie e disuguaglianze. Lo stesso esercizio di raccogliere dati e di tralasciarne altri è il prodotto di un giudizio e una scelta che io definerei politica."

Leggi tutta l'intervista nel magazine di Dataninja

La proposta lascia spazio all’uso ostile delle tecnologie da parte delle forze dell’ordine, e lascia troppe libertà alle aziende che le usano per profitto, minacciando il futuro dei diritti di tutti i cittadini

Da quando la presidente della Commissione europea Ursula Von Der Leyen ha promesso di consegnare un regolamento per l’intelligenza artificiale “all’avanguardia, ma affidabile” nei suoi primi 100 giorni di mandato, i riflettori della politica tecnologica globale sono stati puntati sulla risposta dell’Ue. E mercoledì è stato finalmente presentato dalla Commissione il progetto di regolamento UE sull’IA.

Ad una prima lettura il regolamento sembra incentrato sulla tutela dei diritti fondamentali e sul divieto di utilizzo di tecnologie di sorveglianza di massa. In realtà, secondo diversi esperti e diverse organizzazioni non governative del settore, il progetto di legge non proibisce tutti gli usi inaccettabili dell’IA e in particolare tutte le forme di sorveglianza biometrica di massa, permettendo un margine troppo ampio di autoregolamentazione da parte delle aziende che usano queste tecnologie per profitto.

Leggi l'articolo su the submarine

Un bellismo documentario in quattro parti sulle nuove forme di lavoro e di sfruttamento rese possibili dalle piattaforme digitali.

Moderatori di contenuti, riders, crowd workers, magazzinieri: tutti lavori uniti dal controllo software sulla propria attività, dalla pressione, dai rischi e dallo stress che ne derivano. Francia, Madagascar, Irlanda... è la globalizzazione.

Un'inchiesta su cosa significa oggi lavorare dentro e per le piattaforme e sulle realtà distopiche che hanno creato.

Episodio 1 Pedalare, ragazzi, pedalare!

Bilel ha 24 anni e tre fratelli. A parte il più piccolo, che va ancora alle medie, lavorano tutti per Uber Eats. Ogni giorno, compreso il week end, iniziano alle nove di mattina e staccano anche alle 4 del mattino per un totale di 400 euro lordi al mese - ammesso che nel frattempo non finiscano sotto a una macchina nel disperato tentativo di vincere un bonus. Come dovremmo chiamarla, flessibilità o schiavitù?

Episodio 2 La trappola dei micro-lavori

Sono tra i 45 e i 90 milioni i micro-lavoratori del web nel mondo. Nathalie vive in Francia, ha 42 anni, due figli ed è separata. Con il suo lavoro quotidiano - rispondere a delle domande idiote - aiuta l’algoritmo di Google a diventare sempre più umano, condannando se stessa a diventare sempre più un robot. In Madagascar, addirittura, le sfruttate del clic sono capaci di lavorare 336 ore al mese alla corte di clienti come Disneyland Paris per ritrovarsi a guadagnare 200 euro. Ecco le loro testimonianze.

Episodio 3 Traumatizzati senza moderazione

Amélie fa la moderatrice di contenuti a Barcellona presso una delle tante aziende che Facebook subappalta per svolgere questo tipo di attività. Chris fa lo stesso a Dublino. Entrambi hanno cominciato a lavorare senza prevedere che essere esposti tutti i giorni al lato peggiore dell’umanità li avrebbe catapultati in un inferno dal quale non sarebbero più riusciti a venire fuori, anche dopo aver cambiato mestiere.

Episodio 4 Il mio padrone non è un algoritmo

I proletari del clic hanno il divieto assoluto di parlare del lavoro che svolgono, persino con i propri famigliari. Eppure la consapevolezza di essere vittime di un traffico di manodopera al limite della legalità li spinge sempre più spesso a rompere il silenzio, a insorgere e a organizzarsi in forme cooperative alternative in grado di tutelare maggiormente i loro diritti.

Fra le applicazioni pratiche, esaltate dagli entusiasti e sminuite dagli scettici, ricordiamo: i servizi di assistenza alla clientela (in particolare i chatbot delle compagnie telefoniche); gli acquisti, sempre più personalizzati e rapidi; i social network, in particolare le notifiche e i feed (ad esempio, la timeline di FB, costruita in base al profilo di ciascun utente); la finanza, dove gli algoritmi di trading da parecchio hanno soppiantato gli obsoleti negoziatori umani; viaggi e trasporti, dai suggerimenti del navigatore alla pianificazione degli spostamenti fino alle occasioni di ospitalità; le case furbe (smart), disseminate di sensori in grado di regolare la temperatura dell’acqua, l’illuminazione e così via; le automobili furbe (smart), con tanti accorgimenti per assistere la guida, in prospettiva delle auto a guida autonoma; la sorveglianza e il controllo, nelle strade come a casa propria, spesso attraverso sistemi di riconoscimento facciale e vocale; l’assistenza sanitaria, nella diagnosi precoce così come nella ricerca farmaceutica di nuove molecole, nella gestione dei dati dei pazienti, nella chirurgia di precisione.

E, infine, nell’educazione: per abbassare l’ansia dell’apprendimento, personalizzare l’insegnamento, ma soprattutto controllare e monitorare, valutare, schedare…

Sgombrare il campo dagli equivoci sull’IA non è banale.

Leggi l'articolo di Carlo Milani su La ricerca

Cassandra Crossing/ Un robot assassino potrebbe già oggi entrarvi in casa senza bussare.

Un aspirapolvere commerciale può muoversi da solo per casa, rilevare la pianta dell'appartamento e trasmetterla al fabbricante. Se lo fa un aspirapolvere, perché non potrebbe farlo un robot assassino?

I droni luminosi usati in molti eventi sono incredibilmente efficienti nel posizionarsi, formando disegni e volando in formazione. Se lo fanno i droni, perché non potrebbero farlo sciami di robot assassini?

Leggi l'articolo originale su ZEUS News