Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Meta è alla ricerca di titoli di giornale che dimostrino il suo impegno per la privacy — ma la storia della cancellazione dei dati biometrici su Facebook è più complessa.

In un post sul blog aziendale, il vicepresidente all’intelligenza artificiale Jerome Pesenti spiega che Facebook vuole limitare il proprio uso di tecnologie di riconoscimento facciale su larga scala, perché “anche nei molti casi in cui il riconoscimento facciale può essere utile, bisogna confrontarsi con le crescenti preoccupazioni della società sull’uso della tecnologia stessa.”

Il post non menziona, tuttavia, la cancellazione di DeepFace, l’algoritmo di riconoscimento facciale che Facebook ha allenato proprio sulle foto dei propri utenti, e che l’azienda quindi potrebbe utilizzare in qualsiasi momento in prodotti futuri.

Se l’intelligenza artificiale automatizzerà del tutto la produzione di funzioni applicative anche complesse e articolate ad avere la peggio non saranno solo i programmatori, ma l’intelligenza collettiva come la conosciamo ora. E non sarà indolore.

[...]

Al di là di come evolverà il lavoro dei programmatori, che comunque è già profondamente cambiato dai tempi non troppo remoti delle origini, un fenomeno sembra emergere con chiarezza: l’attacco che l’intelligenza artificiale generativa muove oggi all’intelligenza collettiva per come l’abbiamo pensata e costruita negli ultimi venti anni. L’idea che le conoscenze umane possano essere ingerite dai ‘modelli generali’ di giganteschi sistemi neurali centralizzati nelle cloud di pochi monopolisti e da lì usate in modo opaco da una moltitudine di soggetti passivi, è infatti diametralmente opposta alla visione dell’intelligenza collettiva mediata dalle tecnologie, che è invece un’attività decentralizzata, trasparente, partecipativa e critica.

Leggi l'articolo completo di Guido Vetere

La redazione di Dataninja ha intervistato Ivana Bartoletti, Technical Director – Privacy in Deloitte e Co-Founder di Women Leading in AI Network.

Tra le altre cose Bartoletti dice: "Siamo abituati alla neutralità dei dati, all’idea – sbagliata – che i dati siano oggettivi e che, pertanto, ci informino sul mondo. E che quando dati in pasto agli algoritmi possono produrre predizioni e decisioni obiettive. Non c’è nulla di più sbagliato. I dati sono lo specchio della società e ne rappresentano le gerarchie e disuguaglianze. Lo stesso esercizio di raccogliere dati e di tralasciarne altri è il prodotto di un giudizio e una scelta che io definerei politica."

Leggi tutta l'intervista nel magazine di Dataninja

La proposta lascia spazio all’uso ostile delle tecnologie da parte delle forze dell’ordine, e lascia troppe libertà alle aziende che le usano per profitto, minacciando il futuro dei diritti di tutti i cittadini

Da quando la presidente della Commissione europea Ursula Von Der Leyen ha promesso di consegnare un regolamento per l’intelligenza artificiale “all’avanguardia, ma affidabile” nei suoi primi 100 giorni di mandato, i riflettori della politica tecnologica globale sono stati puntati sulla risposta dell’Ue. E mercoledì è stato finalmente presentato dalla Commissione il progetto di regolamento UE sull’IA.

Ad una prima lettura il regolamento sembra incentrato sulla tutela dei diritti fondamentali e sul divieto di utilizzo di tecnologie di sorveglianza di massa. In realtà, secondo diversi esperti e diverse organizzazioni non governative del settore, il progetto di legge non proibisce tutti gli usi inaccettabili dell’IA e in particolare tutte le forme di sorveglianza biometrica di massa, permettendo un margine troppo ampio di autoregolamentazione da parte delle aziende che usano queste tecnologie per profitto.

Leggi l'articolo su the submarine

Un bellismo documentario in quattro parti sulle nuove forme di lavoro e di sfruttamento rese possibili dalle piattaforme digitali.

Moderatori di contenuti, riders, crowd workers, magazzinieri: tutti lavori uniti dal controllo software sulla propria attività, dalla pressione, dai rischi e dallo stress che ne derivano. Francia, Madagascar, Irlanda... è la globalizzazione.

Un'inchiesta su cosa significa oggi lavorare dentro e per le piattaforme e sulle realtà distopiche che hanno creato.

Episodio 1 Pedalare, ragazzi, pedalare!

Bilel ha 24 anni e tre fratelli. A parte il più piccolo, che va ancora alle medie, lavorano tutti per Uber Eats. Ogni giorno, compreso il week end, iniziano alle nove di mattina e staccano anche alle 4 del mattino per un totale di 400 euro lordi al mese - ammesso che nel frattempo non finiscano sotto a una macchina nel disperato tentativo di vincere un bonus. Come dovremmo chiamarla, flessibilità o schiavitù?

Episodio 2 La trappola dei micro-lavori

Sono tra i 45 e i 90 milioni i micro-lavoratori del web nel mondo. Nathalie vive in Francia, ha 42 anni, due figli ed è separata. Con il suo lavoro quotidiano - rispondere a delle domande idiote - aiuta l’algoritmo di Google a diventare sempre più umano, condannando se stessa a diventare sempre più un robot. In Madagascar, addirittura, le sfruttate del clic sono capaci di lavorare 336 ore al mese alla corte di clienti come Disneyland Paris per ritrovarsi a guadagnare 200 euro. Ecco le loro testimonianze.

Episodio 3 Traumatizzati senza moderazione

Amélie fa la moderatrice di contenuti a Barcellona presso una delle tante aziende che Facebook subappalta per svolgere questo tipo di attività. Chris fa lo stesso a Dublino. Entrambi hanno cominciato a lavorare senza prevedere che essere esposti tutti i giorni al lato peggiore dell’umanità li avrebbe catapultati in un inferno dal quale non sarebbero più riusciti a venire fuori, anche dopo aver cambiato mestiere.

Episodio 4 Il mio padrone non è un algoritmo

I proletari del clic hanno il divieto assoluto di parlare del lavoro che svolgono, persino con i propri famigliari. Eppure la consapevolezza di essere vittime di un traffico di manodopera al limite della legalità li spinge sempre più spesso a rompere il silenzio, a insorgere e a organizzarsi in forme cooperative alternative in grado di tutelare maggiormente i loro diritti.

Fra le applicazioni pratiche, esaltate dagli entusiasti e sminuite dagli scettici, ricordiamo: i servizi di assistenza alla clientela (in particolare i chatbot delle compagnie telefoniche); gli acquisti, sempre più personalizzati e rapidi; i social network, in particolare le notifiche e i feed (ad esempio, la timeline di FB, costruita in base al profilo di ciascun utente); la finanza, dove gli algoritmi di trading da parecchio hanno soppiantato gli obsoleti negoziatori umani; viaggi e trasporti, dai suggerimenti del navigatore alla pianificazione degli spostamenti fino alle occasioni di ospitalità; le case furbe (smart), disseminate di sensori in grado di regolare la temperatura dell’acqua, l’illuminazione e così via; le automobili furbe (smart), con tanti accorgimenti per assistere la guida, in prospettiva delle auto a guida autonoma; la sorveglianza e il controllo, nelle strade come a casa propria, spesso attraverso sistemi di riconoscimento facciale e vocale; l’assistenza sanitaria, nella diagnosi precoce così come nella ricerca farmaceutica di nuove molecole, nella gestione dei dati dei pazienti, nella chirurgia di precisione.

E, infine, nell’educazione: per abbassare l’ansia dell’apprendimento, personalizzare l’insegnamento, ma soprattutto controllare e monitorare, valutare, schedare…

Sgombrare il campo dagli equivoci sull’IA non è banale.

Leggi l'articolo di Carlo Milani su La ricerca

Cassandra Crossing/ Un robot assassino potrebbe già oggi entrarvi in casa senza bussare.

Un aspirapolvere commerciale può muoversi da solo per casa, rilevare la pianta dell'appartamento e trasmetterla al fabbricante. Se lo fa un aspirapolvere, perché non potrebbe farlo un robot assassino?

I droni luminosi usati in molti eventi sono incredibilmente efficienti nel posizionarsi, formando disegni e volando in formazione. Se lo fanno i droni, perché non potrebbero farlo sciami di robot assassini?

Leggi l'articolo originale su ZEUS News