La spesa pubblica italiana ha creato un mercato nazionale oramai saturo pronto a spingersi all’estero. Ma l’Italia non è pronta per controllarlo
Un'inchiesta di IRPI media Italia.
Il 10 marzo 2022 il Parlamento europeo ha istituito la commissione speciale PEGA per investigare sugli abusi compiuti da alcuni Stati membri che hanno usato lo spyware Pegasus, prodotto dall’azienda israeliana NSO, contro giornalisti e avversari politici. Questa tecnologia, considerata tra le più efficaci nel mondo della sorveglianza, ha dato prova di essere in grado di rivelare il contenuto e le attività degli smartphone sui quali viene installata all’insaputa del bersaglio. Tuttavia la strutturale mancanza di controlli su chi l’acquista ha spesso fatto sì che gli spyware venissero utilizzati da governi o forze di polizia repressive, se non da vere e proprie organizzazioni criminali.
Ma l’attività di PEGA, concentrata esclusivamente sui prodotti dell’azienda israeliana, rischia di lasciare campo libero alle altre aziende europee. Gli Stati membri possono contare infatti su una vasta offerta assicurata dalla grande quantità di società, prime fra tutte quelle italiane. Lo ha ricordato, lo scorso agosto, l’esperto di sicurezza informatica membro del Security Lab di Amnesty International, Claudio Guarnieri, quando è stato audito dalla commissione investigativa speciale: in Europa ci sono almeno nove aziende note produttrici di spyware, e sei di queste in Italia.
Leggi l'inchiesta sul siti di IRPI Italia
Fin dal 2015, con il referendum sulla Brexit e l’elezione di Donald Trump, sappiamo che la manipolazione dell’opinione pubblica nell’epoca di internet è passata a un livello industriale. Ma la vera sorpresa della vicenda Team Jorge, rivelata il 15 febbraio da un consorzio di giornalisti di tutto il mondo tra cui anche quelli di Radio France, non riguarda l’esistenza di queste pratiche, bensì la loro portata.
Nella notizia arrivata il 15 febbraio c’è qualcosa di specifico (e nuovo): la passività degli stati e la complicità, attiva o meno, delle grandi multinazionali della tecnologia, soprattutto statunitensi.
L’inchiesta, avviata dall’ong francese Forbidden stories, ha rivelato l’esistenza di un’azienda israeliana, Team Jorge, fondata da ex militari, che vende prestazioni diverse da qualsiasi altra
Leggi l'articolo sul sito di Internazionale
La registrazione di un webinar in cui Maria Chiara Pievatolo e Giacomo Tesio hanno provato a spiegare i problemi di Google & friends ad un gruppo di docenti delle superiori.
Il webinar è avvenuto sulla piattaforma di videoconferenza BBB messa a disposizione dal GARR.
Potete vederla nella piattaforma del GARR
La possibilità di usufruire di dispositivi digitali – ma anche il possesso di competenze adeguate per sfruttarli al meglio – rappresenta una delle sfide che il sistema educativo italiano è chiamato ad affrontare nei prossimi anni. Per raggiungere questo obiettivo, il nostro paese ha adottato il cosiddetto piano “Scuola 4.0“. A questo progetto contribuisce anche il Pnrr con un investimento da 2,1 miliardi di euro.
Un decreto del ministero dell’istruzione pubblicato lo scorso settembre ha distribuito tra gli istituti scolastici italiani una parte di questi fondi destinati in particolare a progetti nuovi. Altri atti pubblicati in precedenza invece avevano dirottato parte degli investimenti su progetti già in essere. La palla adesso passa agli istituti scolastici che dovranno presentare a stretto giro i progetti che intendono realizzare con i fondi assegnati. Un passaggio non scontato. Anche nel caso delle scuole infatti la carenza di personale amministrativo e di competenze adeguate può costituire un ostacolo.
Leggi l'approfondimento completo su Openpolis
Programmatori, gig workers, personale di logistica, sistemiste, grafici, ma anche minatori di metalli rari o chi lavora alla catena di montaggio dell’hardware: sono accomunati dall’appartenenza a un unico, complesso sistema produttivo che in molti casi ha tradito le promesse di benessere sociale. Chi li tutela?
Indice degli argomenti
Nella trasmissione del 12/02/2023 si parla di applicazioni che non fanno quello che ci si aspetta.
Ascolta la puntata sul sito di Radio Onda Rossa
Tanto, secondo una stima americana che ha valutato i ricavi pubblicitari associati agli account sospesi che Musk ha reintegrato
La riattivazione da parte di Elon Musk di dieci account di Twitter sospesi dalla precedente gestione ha suscitato una quota di reazioni ed engagement che può generare ricavi pubblicitari per circa 19 milioni di dollari in un anno, secondo il calcolo di un’organizzazione non profit dedicata a contrastare il cosiddetto hate speech, ovvero i discorsi di incitamento all’odio, su internet. Il Centro per la lotta all’odio digitale (Center for Countering Digital Hate – CCDH) riferisce che i dieci account in questione sono tra le centinaia di profili riattivati in occasione dell’“amnistia generale” annunciata da Elon Musk a fine novembre.
Leggi l'articolo su "il Post"
Né intelligente né artificiale. La nostra tentazione di vedere il senso nella macchina. Dovremo scegliere un modo per conviverci che non stravolga la sfera cognitiva umana
[...]
Le parole per noi non hanno solo una dimensione sintattica rituale e probabilistica, stanno per qualcosa che le trascende. Le scegliamo consapevoli della loro inadeguatezza nel rappresentare cose, emozioni, eventi e concetti. Ogni tentativo di limitarsi al piano della sintassi ha condotto la logica nei vicoli ciechi dei risultati negativi. Il dispositivo ChatGpt non conosce altro che la probabilità delle frequenze relative delle parole e il sistema di addestramento non riconosce alcuna esternalità.
Leggi l'articolo su "il Manifesto"
Una recente analisi mostra che l'utima versione del sistema di Microsoft invia un sacco di informazioni anche a terze parti sin dal primo avvio.
La "telemetria" di Windows 11 non si limita a fornire informazioni tecniche al produttore del sistema operativo, ma contatta anche aziende specializzate in ricerche di mercato, editori pubblicitari e domini legati alla geolocalizzazione senza che l'utente apra un browser, e soprattutto senza chiedere il permesso ad alcuno.
Leggi l'articolo su Zeus News
Con l'arrivo sulla scena di ChatGPT, la necessità di riconoscere se un testo è stato scritto da un'intelligenza artificiale o meno ha già invaso l'ambito scolastico.
La città di New York e la città di Los Angeles hanno deciso di impedire l’accesso al chatbot sviluppato da OpenAI dalle reti e dai dispositivi scolastici. La preoccupazione è che l’abuso dello strumento possa rendere più facile per gli studenti imbrogliare sui compiti. O che il suo utilizzo possa diffondere informazioni inesatte.
Leggi l'articolo sul sito di "guerre di rete" dove potrai leggere anche l'ultima newsletter di Carola Frediani.
Un webinar di Elena Pesaresi, Funzionario del Garante per la protezione dei dati personali.
Senza nominarle esplicitamente Pratesi mette in guardia sull'uso di piattaforme per la didattica a distanza, per le videoconferenze, per gli esami a distanza che non sono conformi al GDPR e costituiscono una violazione del diritto alla privacy degli studenti e dei lavoratori di scuole e università, oltre che essere un problema per la libertà di insegnamento. Il video dura circa un'ora.
Il Garante della privacy ferma “Replika”. Il chatbot, dotato di una interfaccia scritta e vocale che basandosi sull’intelligenza artificiale genera un “amico virtuale”, per il momento non potrà usare i dati personali degli utenti italiani. Il Garante della privacy ha infatti disposto con effetto immediato, nei confronti della società statunitense che sviluppa e gestisce l’applicazione, la limitazione provvisoria del trattamento dei dati.
[...]
“Replika” viola il Regolamento europeo sulla privacy, non rispetta il principio di trasparenza ed effettua un trattamento di dati personali illecito, in quanto non può essere basato, anche solo implicitamente, su un contratto che il minorenne è incapace di concludere.
Leggi l'articolo completo sul sito del Garante Italiano per la Protezione dei Dati Personali
Il caos nel quale sono precipitati nello scorso weekend numerosi server molto importanti in Francia, Germania, Canada, Italia, Usa, Turchia, Uk, Finlandia e altri paesi non è necessariamente un caso. Non è neppure una dimostrazione di grande bravura degli attaccanti. Non mancano dubbi sul fatto che possa essere addirittura una manifestazione di lentezza dei difensori.
Secondo una ricostruzione del Computer Emergency Response Team (Cert) francese, infatti, si tratta di un attacco ai server VMware ESXi che non erano stati aggiornati con una patch per una vulnerabilità che era stata scoperta due anni fa (BleepingComputer). In effetti, patch su questi prodotti sono presenti sul servizio VMware da due anni (VMware).
Leggi l'articolo completo di Luca De Biase
La scorsa settimana ho inviato la prima newsletter di Pillole di Informazione Digitale. IL numero 0 è stato dedicato completamente all'Intelligenza Artificiale.
La newsletter sarà aperiodica (quando ho tempo), ma quasi certamente non sarà più frequente di una volta al mese. Raccoglierà alcune delle segnalazioni più interessanti del mese, a volte a tema a volte no.
Quì potete leggere il numero 0
Se vi piace potete iscrivervi per ricevere la prossima
A presto!
Monitora-PA chiede di smettere di usare GMail e i servizi ad esso associati (Google Drive, Google Workspace for Education etc...)
Dopo le diverse iniziative volte a fare pressione su PA, scuole e università affinché rispettino il GDPR, Monitora-PA torna alla carica inviando una PEC a 45 Atenei.
Infatti, a seguito della sentenza Schrems II della Corte di Giustizia dell'Unione Europea, l'uso dei servizi delle GAFAM (Google, Aple, Facebook, Amazon, Microsoft) non è attualmente conforme, in assenza di misure tecniche supplementari efficaci che non ci risultano indicate sul vostro sito, alle disposizioni del GDPR in ordine al trasferimento transfrontaliero dei dati personali verso gli Stati Uniti o altri Paesi la cui legislazione non fornisca ai cittadini europei una protezione equivalente a quella garantita nell'Unione.
Un progetto di digitalizzazione sostenibile del 3° Circolo didattico di Bolzano
E' stata avviata una riflessione ed una ricerca di quale possa essere la modalità più adatta al contesto educativo che caratterizza la realtà della scuola, partendo dall’esplorazione delle risorse che già qualificano il sistema scolastico altoatesino in ambito tecnologico, come ad esempio le soluzioni sviluppate grazie al progetto Fuss.
L’evoluzione del progetto è avvenuta attraverso la collaborazione con i membri del Linux User Group di Bolzano (Lugbz); gli strumenti offerti (software e hardware), il prezioso accompagnamento dei volontari del progetto SchoolSwap e l’ospitalità di ADA (Associazione per i Diritti degli Anziani) hanno fatto in modo che questo tipo di tecnologia potesse effettivamente essere utilizzata in base al senso che ha nel processo di cambiamento strutturale auspicato.
Il governo sta privatizzando la gestione informatica dei dati degli italiani. Ieri in un convegno all’Istat la comunità scientifica nazionale e internazionale ha bocciato il progetto.
Gli italiani potrebbero perdere il controllo sui propri dati se l’Istat affiderà i servizi informatici a una società esterna. È questa la conclusione a cui sono giunti gli esperti nazionali e internazionali intervenuti al convegno «Informatica e statistica pubblica» organizzato ieri in maniera autonoma dai ricercatori e dai tecnici dell’Istat presso la sede romana dell’istituto. Il tema è all’ordine del giorno da quando il governo Draghi ha deciso la creazione di una società di diritto privato denominata 3-I SpA – nata ufficialmente lo scorso 12 dicembre – a cui saranno devoluti i servizi informatici di Inps, Inail e, appunto, Istat.
Leggi l'articolo di Andrea Capocci su "Il Manifesto"
Mi hanno fatto notare che Il terreno per l'esternalizzazione dei servizi è stato preparato con la Modernizzazione dell'Istat di qualche anno fa (2015). All'epoca chi contestava e lanciava l'allarme era considerato esagerato dagli stessi che ora esprimono dubbi partecipando a convegni. Purtroppo chi contestava aveva ragione: era tutto scritto sui documenti relativi a questa riorganizzazione.
Una palaquium gutta matura poteva produrre circa 300 grammi di lattice. Ma nel 1857, il primo cavo transatlantico era lungo circa 3000 km e pesava 2000 tonnellate – richiedeva quindi circa 250 tonnellate di guttaperca. Per produrre una sola tonnellata di questo materiale erano necessari circa 900.000 tronchi d'albero. Le giungle della Malesia e di Singapore furono spogliate, e all'inizio del 1880 la palaquium gutta si estinse.
Questa è una delle storie più interessanti che racconta il libro della studiosa di media digitali Kate Crawford, Né artificiale né intelligente. Il lato oscuro dell’IA (Il Mulino, 2021, 312 pp., versione italiana dell’originale inglese Atlas of AI. Power, Politics and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021).
Ma cosa c’entra il disastro ambientale vittoriano della guttaperca con l’intelligenza artificiale?
È proprio questo il merito del libro della Crawford, unire i puntini che legano la storia dello sviluppo tecnologico con il nostro presente. La storia di come si estinse l’albero di palaquium gutta è un’eco giunta fino a noi dalle origini della società dell’informazione globale, per mostrarci come siano intrecciate le relazioni tra la tecnologia e la sua materialità, l’ambiente e le diverse forme di sfruttamento.
[...]
Crawford costruisce una visione dell’IA non come una semplice tecnologia o un insieme di scoperte tecnologiche, ma come un apparato socio-tecnico, o socio-materiale, animato da una complessa rete di attori, istituzioni e tecnologie. L’IA per Crawford è “un’idea, un’infrastruttura, un’industria, una forma di esercizio del potere; è anche una manifestazione di un capitale altamente organizzato, sostenuto da vasti sistemi di estrazione e logistica, con catene di approvvigionamento che avviluppano l’intero pianeta” (p. 25).
Leggi l'articolo intero di Tiziano Bonini sul sito di DOPPIOZERO
Nella quarta puntata del ciclo "Estrattivismo dei dati", focus su Intelligenza Artificiale con Daniela Tafani, docente di filosofia politica presso il Dipartimento di Scienze Politiche dell'Università di Pisa.
Nella prima parte Tafani introduce l'Intelligenza Artificiale. Cosa è; le distorsioni con cui viene volutamente presentata; cos'è l'apprendimento automatico e gli ingredienti tecnologici fondamentali: dati, potenza di calcolo e algoritmi.
Nella seconda parte: come vengano occultati i costi ambientali, estrattivistici ed energetici dei sistemi di IA; come viene in realtà sfruttato massicciamente il lavoro umano, sottopagato e delocalizzato.
Nella terza parte: i rischi delle decisioni automatizzate prese attraverso i sistemi di Intelligenza Artificiale, con la convinzione che siano capaci di prevedere il comportamento di singoli individui. Perché si parla di bolla giuridica e perché si propone l’illegalità di default dei sistemi di IA.
Ascolta la registrazione sul sito di Radio Onda Rossa
Numero molto interessante della newsletter di Carola Frediani, dedicata in larga misura all'hype (tradotto da wordreference con battage publicitario) sull'Intelligenza Artificiale
L'indice del numero N.150 - 21 gennaio 2023
Leggi la newsletter sul sito.
Riporto una definizione di ChatGPT frutto del dibattito nella mailing-list pubblica del Centro NEXA su Internet & Società del Politecnico di Torino (Dipartimento di Automatica e Informatica):
"ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili a quelle presenti nei testi scelti dai programmatori."