Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Il lancio precipitoso di chatbot AI da parte delle Big Tech ha una fortissima probabilità di degradare l'ecosistema informativo della rete. Molte voci chiedono nuove regole per arginare un'imminente invasione di artefatti prodotti da reti generative sempre più precise che renderà potenzialmente impossibile distinguere il vero dal falso.

Nel suo breve racconto Agnese Trocchi immagina un mondo futuro dove questo è già accaduto...

Leggi il racconto sul sito di CIRCE

Possibili giacimenti di litio nel Lazio. Lo stato degli scavi e gli interessi in gioco.

Nella città di Campagnano, a pochi chilometri dalla Capitale, inizia a diffondersi un crescente interesse per le risorse minerarie del territorio. A seguito di rilevamenti geologici si inizia a parlare infatti della possibile presenza nel suolo di giacimenti di litio ovvio un metallo prezioso probabilmente nascosto nel sottosuolo a migliaia di metri di profondità e disciolto nell'acqua.

Anche chiamato oro bianco, si tratta di una risorsa preziosa per le batterie che sarà cruciale nei processi produttivi della transizione energetica per la costruzione delle batterie presenti nelle auto elettriche, nei cellulari o ancora quelle integrate nei impianti solari.

leggi l'articolo completo

Giudizi e decisioni che hanno effetti rilevanti sulle vite delle persone sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. Tali malfunzionamenti non sono occasionali e non sono scongiurabili con interventi tecnici: essi rivelano, anzi, il funzionamento ordinario dei sistemi di apprendimento automatico, utilizzati impropriamente per compiti che non è loro possibile svolgere o che sono impossibili tout court.

Le decisioni basate su tali sistemi sono costitutivamente discriminatorie, e dunque, in alcuni ambiti, infallibilmente lesive di diritti giuridicamente tutelati, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.

Alla vasta documentazione degli esiti ingiusti, nocivi e assurdi di tali decisioni, le grandi aziende tecnologiche – paventando un divieto generalizzato – hanno risposto, in evidente conflitto di interessi, con un discorso sull'etica: è nata così, come operazione di cattura culturale, con l'obiettivo di rendere plausibile un regime di mera autoregolazione, l'«etica dell'intelligenza artificiale». Si tratta di una narrazione che le aziende commissionano e acquistano perché è loro utile come capitale reputazionale, che genera un vantaggio competitivo; è cioè un discorso, rispetto al quale le università hanno il ruolo, e l'autonomia, di un megafono; è «un'esca per catturare la fiducia» dei cittadini: un discorso pubblicitario che, in quanto declamato da altri, non appare neppure come tale.

La funzione di tale discorso è quella di tutelare, legittimandolo, un modello di business – fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali – il cui nucleo consiste nella vendita, alle agenzie pubblicitarie, della promessa di un microtargeting fondato sulla profilazione algoritmica.

Negli ultimi anni, l'opera di demistificazione della natura meramente discorsiva e del carattere strumentale dell'«etica dell'intelligenza artificiale», che trasforma l'etica nella questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici, è stata così efficace da indurre molti a liquidare come inutile o dannosa – in quanto disarmata alternativa al diritto o vuota retorica aziendale – l'intera filosofia morale.

Al dissolversi della narrazione sull'etica dell'intelligenza artificiale, compare il convitato di pietra ch'essa aveva lo scopo di tenere alla larga: si sostiene infatti ora, da più parti, l'urgenza che ad intervenire, in modo drastico, sia il diritto. L'adozione di sistemi di apprendimento automatico a fini decisionali, in ambiti rilevanti per la vita delle persone, quali il settore giudiziario, educativo o dell'assistenza sociale, equivale infatti alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani».

A chi, in nome dell'inarrestabilità dell'innovazione tecnologica, deplori gli interventi giuridici, giova ricordare che il contrasto non è, in realtà, tra il rispetto dei diritti umani e un generico principio di innovazione, ma tra il rispetto dei diritti umani e il modello di business dei grandi monopoli del capitalismo intellettuale.

Leggi l'articolo completo

Grandi e piccole imprese digitali pagano il prezzo della crisi finanziaria. Ma il ciclo tecnologico è pronto a ripartire con le prime applicazioni su larga scala delle tecnologie di intelligenza artificiale. Sarà la regolamentazione, figlia di una politica che inizia a occuparsi del digitale, a far capire che la crescita non è infinita.

Intervista con l'imprenditore e informatico Stefano Quintarelli

Leggi l'intervista completa

Vogliamo riaccendere la miccia di una forma di comunicazione ed espressione potentissima, dando spazio a chi sviluppa, a chi vorrebbe formarsi e iniziare a sviluppare, o anche solo a chi vuole giocare e divertirsi.

Il mondo del videogioco in Italia è sempre più monopolizzato dalle logiche del profitto. Viene raccontato solo nei suoi aspetti commerciali e per questo il suo potenziale sociale e sovversivo viene disinnescato.

Il mondo del videogioco in Italia è sempre più monopolizzato dalle logiche del profitto. Viene raccontato solo nei suoi aspetti commerciali e per questo il suo potenziale sociale e sovversivo viene disinnescato.

leggi le date del tour e tutte le informazioni sul sito

La quantità è una parte importante dei ragionamenti; a volte diventa qualità, diceva un tale. Cose piccole sono trattabili, cose grandi meno. I computer (in generale le macchine) servono a rendere trattabili cose troppo grandi per noi. Ma anche loro hanno dei limiti, pratici o teorici.

Per esempio GPT-3 (la cosa che sta dietro ChatGPT, ma anche dietro DALLE-E, per quanto si faccia fatica a capire cosa c'entrano l'una con l'altra ed entrambe col T9) è una cosa grossa assai. GPT significa Generative Pre-trained Transformer. Grosso modo, per quel che anche un ignorante come me capisce, è un modello linguistico con un sacco di parametri che è stato costruito nel 2020 a partire da diverse sorgenti utilizzare come dati di partenza una "copia di internet, Wikipedia, archivi di immagini, etc." Un oggetto "molto, molto grande".

Quanti parametri, cioè quanti possibili modi di configurare il modello? Dicono 175 miliardi. Un numero talmente grande che solo un altro software è in grado di enumerarli o verificarli.

Leggi l'articolo completo sul sito di Stefano Penge

Nella puntata di Le Dita Nella Presa del 16 Aprile 2023 si è parlato di:

  • Il TorProject presenta un nuovo browser che... non include tor! Raccontiamo di cosa si tratta e, già che ci siamo, ne approfittiamo per parlare un po' di Tor, VPN e affini.
  • Finalmente compiuta la sottomissione del capitalismo californiano alle volontà popolari in India, dove finalmente sarà il governo, con apposita commissione, a indicare quali notizie sono false e vanno rimosse dai social network.
  • Ancora azioni legali contro la possibilità di scaricare i video di Youtube. Questa volta a farne le spese è il provider del sito di presentazione di youtube-dl.
  • L'intelligenza artificiale inventa. A proposito di notizie false, vediamo quanto sono brave le IA a crearne, focalizzandoci sul fenomeno dello swatting as a service.
  • Nuovo passo nella paradossale lotta tra Google e Apple sulla protezione della privacy. Google cerca di rimontare obbligando le app presenti nel Play Store ad includere funzioni di cancellazione dell'account e dei dati.
  • Finalmente un alto esponente del Pentagono sostiene che un oggetto spaziale potrebbe essere una sonda aliena, e lo scrive addirittura su un articolo (non pubblicato). Non tutti sono d'accordo.

Ascolta la trasmissione sul sito di Radio Onda Rossa

I Garanti privacy dell'Unione europea (EDPB), finalmente, hanno deciso: Meta deve interrompere il trasferimento dei dati degli utenti di Facebook nei suoi server negli Stati Uniti. E in base a questa decisione, il Garante privacy irlandese, il principale regolatore sulla protezione dei dati di Meta, perché la sua sede europea è in Irlanda, deve adottare questa decisione vincolante entro al massimo un mese dalla decisione finale dell'EDPB.

[...]

Si sta, quindi, per scrivere una storica pagina per la protezione dei dati personali dei cittadini dell'Unione Europea. E dopo l'ordine di stop, Meta cosa farà?

Bloccherà Facebook nell'Unione Europea? In passato ha già minacciato questa ipotesi… vedremo. E il Garante italiano riprenderà con i provvedimenti come a Caffeina Media, dopo essersi “bloccato da quando c'è l'ordine esecutivo di Biden”?

Leggi l'articolo sul sito "key4biz"

Per ora è solo una proposta nelle sue prime fasi ma, per come è scritto, il Cyber Resilience Act potrebbe consegnare delle responsabilità a chi programma codice open source.

La Python Software Foundation (PSF) ha messo in luce un particolare della proposta di legge europea Cyber Resilience Act (CRA) che, per come è attualmente scritta, potrebbe compromettere lo sviluppo e la distribuzione di software open source in Europa, perché renderebbe le organizzazioni open source e i singoli individui responsabili per la distribuzione di codice che si rivelasse non sicuro.

[...]

La PSF, l'organizzazione non-profit che ha cura di promuovere la distribuzione del linguaggio di programmazione open source Python, ha scritto una lettera (come anche Eclipse Foundation e NLnet Labs) per evidenziare che il modo in cui è stato scritto il CRA rischia di bloccare lo sviluppo dell’open source in Europa.

Leggi l'articolo completo

A giudicare dai dati sul primo trimestre del 2023, il mercato dei PC è in crisi: secondo IDC, rispetto allo stesso periodo dell’anno scorso le vendite sono crollate del 29%, arrivando a 56,9 milioni di unità contro gli 80,2 milioni dell’anno scorso.

[...]

Eppure anche le vendite dei telefonini non stanno brillando, anzi; i dati sull’ultimo trimestre del 2022 hanno riportato il maggior declino della loro storia, pari al -18,3%, per un -11,3% su base annuale. Il dato che più ha preoccupato gli analisti è che per la prima volta le consegne durante il periodo delle vacanze invernali, da sempre il momento “caldo” dell’anno per gli acquisti legati alle feste, sono diminuite rispetto all’anno precedente.

Leggi l'articolo su Kwy4biz

Cassandra Crossing/ Esiste una scuola di pensiero che ritiene possibile l'evoluzione "spontanea" dei modelli linguistici in "vera" intelligenza artificiale. Di che cosa si parla esattamente?

È un concetto interessante in cui Cassandra non si era mai imbattuta. Ha invece scoperto che l'ipotesi è, pur in un ambiente molto ristretto, oggetto di dibattito filosofico e anche scientifico. Molto interessante, e vediamo di spiegare il perché.

Perdonate però la vostra profetessa preferita, perché sono necessarie un bel po' di premesse. Speriamo che almeno i 24 indomiti lettori mi seguano senza esitare.

Leggi l'articolo su ZEUS News

Intervista ad Antonio Casilli, autore di «Schiavi del Clic»: «Dietro questa tecnologia c'è un'enorme quantità di lavoro sui dati fatto da grandi masse di persone. C'è un filo rosso che lega chi allena ChatGpt e i suoi utilizzatori»

Nel comunicato del garante della Privacy che blocca l’assistente virtuale ChatGpt c’è un passaggio illuminante in cui si osserva che l’illecita raccolta dei dati personali avviene in mancanza di una «base giuridica» e «allo scopo di addestrare gli algoritmi sottesi al funzionamento della piattaforma».

L’«addestramento» è stato effettuato dagli utenti di questo software che, stimolati dalla stupefacente operazione di marketing basata sull’immaginario apocalittico della sostituzione del lavoro, e persino degli esseri umani, da parte dei robot nelle ultime settimane hanno lavorato gratuitamente, e probabilmente inconsapevolmente, allo sviluppo di ChatGpt bombardandolo con le richieste più singolari e divertenti. Ciò ha permesso alla società OpenAI che ha lanciato anche ChatGpt, fondata a San Francisco nel 2015, di raccogliere fondi da decine di miliardi di dollari, e investimenti cospicui da parte di Microsoft.

Leggi l'intervista sul sito de "Il Manifesto"

L'AGID (Agenzia per l'Italia Digitale) ha pubblicato le statistiche di errori rilevati sui siti Web della Pubblica Amministrazione svelando lo strumento di analisi Muve++ (Multiguideline Accessibility and Usability Validation Environment) sviluppato dall’Istituto di Scienza e Tecnologie dell’Informazione “Alessandro Faedo” (ISTI) del Consiglio Nazionale delle Ricerche (CNR).

Leggi l'articolo completo sul sito di Scacco al web

Mondo digitale ha pubblicato un bel articolo di Carlo Milani e Vivien García. Di seguito potete leggere il sommario mentre l'articolo completo è sul sito di Mondo Digitale

"L'IA affascina e spaventa. Uno spauracchio si aggira per il mondo: il timore che esseri tecnologici intelligenti sostituiranno gli esseri umani in (quasi) tutte le loro attività, a partire dal lavoro. L'IA se ne occuperebbe automaticamente, agendo come un aiutante magico, capace di svolgere qualsiasi compito assegnato.

Attingendo alla prospettiva di Gilbert Simondon sull'alienazione tecnica,sosterremo che l'automazione è in realtà il livello più basso possibile di interazione uomo-macchina. L'analisi di Simondon offre un metodo per prendere le distanze sia dalla tecnofobia che dalla tecnofilia, promuovendo una cultura tecnica capace di sviluppare "macchine aperte", caratterizzate da un certo livello di variabilità nel loro funzionamento reciproco con gli umani.
Ricordando alcune tappe fondamentali nella storia dell'IA, sosterremo che le cosiddette macchine digitali "intelligenti", basate su algoritmi di riduzione dei dati, sono caratterizzate da una modellazione statistica che talvolta tende, a prescindere dall’intenzione degli esseri umani coinvolti, a incorporarne alcuni presupposti ideologici, credenze e valori. Usando la nostra analisi dell'interazione umana con i motori di ricerca potenziati dall'IA, mostreremo come i sistemi automatizzati stiano diffondendo il condizionamento reciproco tra umani e macchine. Più gli esseri umani si rivolgono a queste macchine in modo meccanicamente semplice e non ambiguo, più esse agiscono "automaticamente" e sembrano "intelligenti".

Infine analizzeremo lo sfruttamento di questi sistemi di condizionamento reciproco in una miriade di micro-attività digitali a scopo di lucro. L'IA in questo contesto si manifesta come un essere tecnico di formazione antropologica e manipolazione comportamentale, molto lontano dall'ideale di "macchina aperta" proposto da Simondon."

Leggi l'articolo completo su Mondo Digitale

Uno dei fenomeni che hanno segnato il mondo dell’industria tecnologica mondiale nel 2022 è sicuramente l’ondata di licenziamenti dei dipendenti delle Big Tech.
Con questo termine – almeno in questo articolo – intendiamo generalmente le grandi piattaforme digitali basate negli Stati Uniti: i cosiddetti GAFAM (Google, Amazon, Facebook o Meta, Apple e Microsoft), Twitter, ma anche altri attori del settore, come Uber o Spotify. Sotto questa espressione si raggruppano solitamente le aziende tecnologiche leader nei rispettivi settori, con alte valutazioni di mercato e una significativa influenza sullo sviluppo dell’industria.

Dopo un momento di crescita che pareva inarrestabile, culminato durante la pandemia del 2020 – 2021, aziende come Google, Facebook, Twitter, Microsoft hanno iniziato a lasciare a casa i loro lavoratori, a blocchi di centinaia o di migliaia, o a interrompere le assunzioni.

Leggi l'articolo completo sul sito di guerre di rete

Puntata di Doppio Click su Radio Popolare Milano interamente dedicata all'Intelligenza Artificiale con ospite Carlo Milani.

Prima parte di trasmissione dedicata alla limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGPT, disposta dal Garante per la protezione dei dati personali.

La seconda parte approfondisce i temi generali dell'Intelligenza Artificiale con l'aiuto di Carlo Milani, autore insieme a Vivien García di un importante articolo, pubblicato su Mondo Digitale, dal titolo: "L'evoluzione dell'Intelligenza Artificiale: dall'automazione del lavoro al condizionamento reciproco".

Ascolta la puntata di Doppio Click sul sito di Radio Popolare Milano

Leggi l'articolo su Mondo Digitale

“La normativa è chiara e di semplice attuazione. Si usino le risorse del PNRR per una transizione digitale trasparente a tutela della scuola democratica.”

CUB SUR ha deciso di lanciare la campagna “libero insegnamento con libero software”, che si pone l’obiettivo di mobilitare i colleghi e le colleghe per richiamare le dirigenze al pieno rispetto delle normative, utilizzando l’abbondante dotazione che hanno ricevuto dal Piano Scuola 4.0 per garantire l’utilizzo di tecnologie compatibili con una transizione digitale trasparente a tutela della democrazia nella scuola. Non si tratta di una battaglia legalista, ma di un impegno per il futuro della nostra scuola, messo a rischio dalla continua violazione di tre leggi poste a difesa del bene comune.

Leggi l'articolo completo sul sito della CUB

La lettera di Musk&Co. è stata fortemente criticata dalla scienziata Timnit Gebru, diventata famosa per essere stata licenziata da Google accusata da lei di sviluppare un'IA con pregiudizi.

La ricercatrice sostiene che GPT-4 sia solo come "un pappagallo stocastico" ripete il meglio che trova sul web, senza averne comprensione. No Panic, quindi. Per Gebru non serve ascoltare i firmatari dell'appello, ma sviluppare da subito un'IA che "funzioni per noi".

leggi l'articolo completo

La pandemia ha avuto un forte impatto sul mondo del lavoro, anche se molti effetti sono poco chiari oppure figli di processi ancora in corso. Openpolis ha analizzato il fenomeno insieme ad altre 6 redazioni di Edjnet, soffermandosi in questa analisi sul lavoro da remoto.

  • Il mondo del lavoro ha subito molte modifiche durante la pandemia, alcune ancora difficili da interpretare.
  • Nel 2021 circa 1 europeo su 4 lavora da remoto.
  • In Italia, prima della pandemia l'88% dei lavoratori non aveva mai lavorato da casa.
  • Dopo la pandemia, il 54% di chi lavora da remoto dichiara di avere almeno una difficoltà nel farlo.
  • L'ostacolo principale è legato alla connessione internet.

Leggi l'articolo completo sul sito di Openpolis

Sabato 1 aprile 2023 h 15.00-18.00 la CUB Scuola Università e Ricerca di Torino organizza il seminario Tecnologie didattiche e PNRR: che fare?

Partecipano: Carlo B. Milani (C.I.R.C.E. - autore di Tecnologie conviviali), Gruppo di Lavoro Nazionale su Tecnologia nella Scuola (CUB SUR), Luca Malgioglio (Ass. Agorà 33 – La Nostra Scuola), Paolo Dongilli (FUSS), Giorgio Favaro (Continuity), Marco Ciurcina (Studiolegale.it)

Partendo dalle esperienze pionieristiche del progetto FUSS attivo fin dai primi anni 2000 proviamo a fare due proposte concrete, una orientata alla scuola secondaria superiore e l'altra invece più adatta alle scuole secondarie inferiori e alla primaria. Entrambe queste proposte sono in grado, a nostro parere, di permetterci di raggiungere i seguenti obbiettivi:

  1. evitare sprechi in tecnologie a rapida obsolescenza o totalmente inutili per la scuola
  2. evitare la violazione massiva e reiterata delle legislazioni GDPR, CAD e statuto dei lavoratori
  3. evitare l'intrusione massiva nelle vite di discenti e docenti da parte di agenti esterni all'interesse della scuola pubblica

Leggi altre informazioni sull'incontro