Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Negli ultimi anni molte società in tutto il mondo hanno cominciato a usare l’intelligenza artificiale per selezionare il personale da assumere, con lo scopo di eliminare dalla scelta eventuali pregiudizi e rischi di discriminazioni. Ma secondo gli esperti di tecnologia affidarsi a un algoritmo non è una soluzione, perché gli strumenti utilizzati tendono a imitare i preconcetti umani.

La mancanza di inclusività nelle squadre di programmatori e tecnici informatici, composte principalmente da uomini bianchi, si riflette infatti nei meccanismi automatici di selezione, penalizzando le donne e le persone lgbt+ o appartenenti alle minoranze.

Guarda il video della Thomson Reuters Foundation.

Puntata ricca quella del 4 ottobre di Le Dita Nella Presa a Radio Onda Rossa.

Si comincia con le notizie serie: una tazza speciale che analizza tutto sulla vostra cacca. Sembra una stupidaggine, ma non è affatto il primo sistema di monitoraggio della salute. Si tratta di sistemi piuttosto invasivi, la cui utilità è discutibile ma il marketing è forte.

Parliamo poi di WhatsApp.

Un'inchiesta di ProPublica mostra che l'azienda era in grado di leggere almeno una parte dei messaggi che i suoi utenti scambiavano, cosa che era stata esplicitamente negata dai suoi vertici. Con la scusa del controllo degli abusi - finalizzata a bloccare utenti che hanno comportamenti giudicati inadeguati - non solo i moderatori possono leggere i messaggi che vengono segnalati e quelli ad essi collegati, ma la app stessa analizza i messaggi che gli utenti inviano alla ricerca di possibili violazioni, e si autodenuncia in tale caso.

Proseguiamo con Facebook - che invece si è sempre saputo che modera i contenuti - che secondo l'alta corte australiana è responsabile per i commenti calunniosi al suo interno, quando questi non si possono configurare come una conversazione con l'autore del post.

Notiziole:

  • le grandi aziende del cloud fanno un manifesto d'intenti che dovrebbe rassicurarci... nel difendere i loro interessi
  • la politica di non tenere log sui server - strumento semplice ed efficace per evitare delazioni inutili - è attaccata: alcuni produttori televisivi sostengono che questa non sia valida quando viene implementata con l'esplicito proposito di facilitare la pirateria.
  • viceversa scaricare musica e video da piattaforme video potrebbe essere legale secondo la legge francese; peccato che i dettagli siano un po' confusi.
  • la California emana una legge che per la prima volta cerca di mettere ordine nel mondo dei lavori gestiti da algoritmi, chiarendo che questi ultimi non possono non essere noti ai lavoratori o al governo; e che non devono adottare metriche che penalizzino l'esercizio dei normali diritti dei lavoratori (vedi notizia di apertura!)

Ascolta il podcast sul sito di Radio Onda Rossa

Se l’intelligenza artificiale automatizzerà del tutto la produzione di funzioni applicative anche complesse e articolate ad avere la peggio non saranno solo i programmatori, ma l’intelligenza collettiva come la conosciamo ora. E non sarà indolore.

[...]

Al di là di come evolverà il lavoro dei programmatori, che comunque è già profondamente cambiato dai tempi non troppo remoti delle origini, un fenomeno sembra emergere con chiarezza: l’attacco che l’intelligenza artificiale generativa muove oggi all’intelligenza collettiva per come l’abbiamo pensata e costruita negli ultimi venti anni. L’idea che le conoscenze umane possano essere ingerite dai ‘modelli generali’ di giganteschi sistemi neurali centralizzati nelle cloud di pochi monopolisti e da lì usate in modo opaco da una moltitudine di soggetti passivi, è infatti diametralmente opposta alla visione dell’intelligenza collettiva mediata dalle tecnologie, che è invece un’attività decentralizzata, trasparente, partecipativa e critica.

Leggi l'articolo completo di Guido Vetere

Molto ricco il programma dell'hackmeeting di quest'anno che si svolgerà dal 3 al 5 settembre presso la Casona di Ponticelli (Bologna).

"Che Cos’è un Hackmeeting?

L’hackmeeting è l’incontro annuale delle controculture digitali italiane, di quelle comunità che si pongono in maniera critica rispetto ai meccanismi di sviluppo delle tecnologie all’interno della nostra società. Ma non solo, molto di più. Lo sussuriamo nel tuo orecchio e soltanto nel tuo, non devi dirlo a nessuno: l’hackit è solo per veri hackers, ovvero per chi vuole gestirsi la vita come preferisce e sa s/battersi per farlo. Anche se non ha mai visto un computer in vita sua.

Tre giorni di seminari, giochi, dibattiti, scambi di idee e apprendimento collettivo, per analizzare assieme le tecnologie che utilizziamo quotidianamente, come cambiano e che stravolgimenti inducono sulle nostre vite reali e virtuali, quale ruolo possiamo rivestire nell’indirizzare questo cambiamento per liberarlo dal controllo di chi vuole monopolizzarne lo sviluppo, sgretolando i tessuti sociali e relegandoci in spazi virtuali sempre più stretti.

L’evento è totalmente autogestito: non ci sono organizzatori e fruitori, ma solo partecipanti."

Tutte le informazioni sul programma e sulla logistica le trovate sul sito dell'hackmeeting.

Attenti ai dinosauri. I ‘dati’, ma soprattutto gli ‘algoritmi’, sono sempre più in grado di incidere nelle scelte politiche e manageriali ma soprattutto sono fattori determinanti per assicurare il principio di uguaglianza e la tenuta della stessa democrazia della nostra società.

Le contraddizioni tra le parole di Colao (Ministro per l’innovazione tecnologica e la transizione digitale) e quanto scritto nel Piano nazionale di Rinascita e Resilienza. La mancanza di una struttura di confronto tra il piano di interventi sul Digitale e le altre missioni del PNRR costituisce una grave criticità che potrebbe metterne in crisi la tenuta e l’attuazione. Nel PNRR il riferimento alla rilevanza del ‘diritto alla connessione’ come leva per la realizzazione del principio di uguaglianza non è previsto.

Leggi l'articolo di Germano Paini, Alessio De Luca

Un bellismo documentario in quattro parti sulle nuove forme di lavoro e di sfruttamento rese possibili dalle piattaforme digitali.

Moderatori di contenuti, riders, crowd workers, magazzinieri: tutti lavori uniti dal controllo software sulla propria attività, dalla pressione, dai rischi e dallo stress che ne derivano. Francia, Madagascar, Irlanda... è la globalizzazione.

Un'inchiesta su cosa significa oggi lavorare dentro e per le piattaforme e sulle realtà distopiche che hanno creato.

Episodio 1 Pedalare, ragazzi, pedalare!

Bilel ha 24 anni e tre fratelli. A parte il più piccolo, che va ancora alle medie, lavorano tutti per Uber Eats. Ogni giorno, compreso il week end, iniziano alle nove di mattina e staccano anche alle 4 del mattino per un totale di 400 euro lordi al mese - ammesso che nel frattempo non finiscano sotto a una macchina nel disperato tentativo di vincere un bonus. Come dovremmo chiamarla, flessibilità o schiavitù?

Episodio 2 La trappola dei micro-lavori

Sono tra i 45 e i 90 milioni i micro-lavoratori del web nel mondo. Nathalie vive in Francia, ha 42 anni, due figli ed è separata. Con il suo lavoro quotidiano - rispondere a delle domande idiote - aiuta l’algoritmo di Google a diventare sempre più umano, condannando se stessa a diventare sempre più un robot. In Madagascar, addirittura, le sfruttate del clic sono capaci di lavorare 336 ore al mese alla corte di clienti come Disneyland Paris per ritrovarsi a guadagnare 200 euro. Ecco le loro testimonianze.

Episodio 3 Traumatizzati senza moderazione

Amélie fa la moderatrice di contenuti a Barcellona presso una delle tante aziende che Facebook subappalta per svolgere questo tipo di attività. Chris fa lo stesso a Dublino. Entrambi hanno cominciato a lavorare senza prevedere che essere esposti tutti i giorni al lato peggiore dell’umanità li avrebbe catapultati in un inferno dal quale non sarebbero più riusciti a venire fuori, anche dopo aver cambiato mestiere.

Episodio 4 Il mio padrone non è un algoritmo

I proletari del clic hanno il divieto assoluto di parlare del lavoro che svolgono, persino con i propri famigliari. Eppure la consapevolezza di essere vittime di un traffico di manodopera al limite della legalità li spinge sempre più spesso a rompere il silenzio, a insorgere e a organizzarsi in forme cooperative alternative in grado di tutelare maggiormente i loro diritti.

L'identificazione e il controllo biometrico di massa sono incompatibili con una democrazia rispettosa dei diritti umani?

Il Progetto Winston Smith e l'Hermes Center for Transparency and Digital Human Rights stanno organizzando l'edizione primaverile di e-privacy, che si terrà (solo in videoconferenza) il 21 e il 22 maggio 2021, con streaming pubblico su Youtube.

Si parlerà di una società in cui una sorveglianza di massa viene considerata "accettabile" da una maggioranza della popolazione, spaventata da criminalità e pandemia. Siamo nelle migliori condizioni per riscrivere le più fosche pagine dei libri di storia e della letteratura distopica.

Leggi l'articolo completo su ZEUS News

Puntata dedicata a 3 casi piuttosto diversi, di interazione tra grandi aziende teconogiche e lavoratori:

  • nel primo caso Google licenzia (o accompagna alle dimissioni...) una sua ricercatrice, Timnit Gebru, perché un suo articolo sul bias algoritmico non rispettava gli standard aziendali
  • nel secondo Amazon assolda la Pinkerton, azienda famosa nella storia delle relazioni tra aziende e lavoratori, per indagini di intelligence sui suoi stessi lavoratori;
  • nel terzo troviamo la Microsoft impegnata a studiare software per rendere più efficienti i lavoratori ("Productivity Score") o le riunioni in base ai comportamenti registrati, confrontati con l'"ideale" da una AI e aggregati in punteggi ipersemplificati.

Ascolta il podcast sul sito di Radio Onda Rossa

“All’inizio c’era l’idea che la tecnologia potesse risolvere i problemi”, dice nel video Andrew G. Ferguson, saggista e docente di diritto statunitense. “Offriva alle forze dell’ordine la possibilità di fare di più con meno risorse”.

Le attività di polizia predittiva si basano sull’uso di metodi statistici per anticipare e quindi evitare la commissione di reati, come nel film di Steven Spielberg Minority Report. Negli ultimi anni questa tecnologia è diventata sempre più sofisticata e in varie città statunitensi sono stati sperimentati dei software che, attraverso la combinazione di diversi tipi di dati, avrebbero dovuto individuare i soggetti più inclini a commettere un crimine violento. Il loro uso ha scatenato polemiche e preoccupazioni per la tutela dei diritti umani.

I sostenitori di questi sistemi sostengono che questi software, escludendo la valutazione umana con i suoi pregiudizi, permetterebbero alle forze di polizia di agire in maniera più equa. Ma anche su questo sono stati sollevati dei dubbi: “Se nei dati inseriti è presente un pregiudizio razziale, anche i risultati conterranno lo stesso pregiudizio”, spiega Ferguson.

Guarda il video della Thomson Reuters Foundation sul sito di Internazionale.

Tempi presenti. Un percorso di letture sull’azienda di Bezos e il suo potere contrattuale. Il dietro le quinte di Angioni, «country manager» per l’Italia e la resistenza dello scrittore Carrión. Un’impresa nata sfruttando la quantità enorme di dati che i clienti sono pronti a consegnare in tutte le forme possibili e la debolezza dei governi di fronte alla sua volontà di dettare regole

Articolo di Maria Teresa Carbone. Leggi tutto

«Il tuo capo è un algoritmo» di Antonio Aloisi e Valerio De Stefano (Laterza). Gli autori intervistati da il manifesto descrivono le strategie politiche per non finire «schiavi» delle piattaforme. Districarsi tra obblighi di cura, isolamento e lavoro è una prova ardua per le categorie vulnerabili. La tecnologia non è neutra. Il suo impiego è spesso fonte di abusi. Con l’irrompere della pandemia, i fanatici del «soluzionismo tech» sostengono che le «macchine non si ammalano». Lo smart working ha aumentato produttività e soddisfazione, malgrado i disagi. Anche se pensato per le professioni impiegatizie, estende i suoi benefici agli altri

Leggi tutto

Da Internazionale: Dana Mackenzie, Knowable, Stati Uniti

L’edonometro è un sistema informatizzato per valutare la nostra felicità e la nostra disperazione.

L’edonometro è uno strumento relativamente recente in un campo in cui ormai da cinquant’anni gli informatici cercano di valutare lo stato emotivo del mondo usando i computer. Per costruirlo, l’informatico dell’Uvm Chris Danforth ha dovuto insegnare a una macchina a capire le emozioni dietro i tweet analizzati (nessun essere umano potrebbe mai leggerli tutti). Questo processo, chiamato analisi del sentimento, ha fatto grandi progressi negli ultimi anni, trovando molteplici applicazioni.

Leggi tutto