Rischiano nella migliore delle ipotesi di essere ignorate, nella peggiore di mandare il tilt le procure.
Non solo una svolta “autoritaria” per bloccare i pirati che trasmettono in streaming la Serie A: gli emendamenti del governo approvati in questi giorni contengono un errore clamoroso che rischia di rendere la vita impossibile agli operatori del web e intasare le procure con miliardi di segnalazioni perfettamente inutili.
Ha senso una norma del genere in un paese come l’Italia? Secondo Giovanni Ziccardi, professore di Informatica Giuridica all’Università degli Studi di Milano, qualche problema c’è. “Nel prevedere interventi legislativi che riguardano il mondo dell’informatica è necessario avere delle competenze tecniche importanti”, spiega Ziccardi. “Risolvere in poche righe il tema del controllo delle attività online è impossibile, soprattutto considerando le complessità legate a strumenti come le vpn”.
Non solo: i problemi nascono anche dal fatto che qualsiasi intervento in merito dovrebbe tenere conto del quadro normativo europeo. “Quando si parla di obblighi di comunicazione o segnalazione da parte dei provider internet – prosegue - bisogna tenere presente che l’Unione Europea sta portando avanti un’azione coordinata tra i vari paesi, sulla base per esempio del Digital Services Act”.
Durante "L'ora di buco", la trasmissione di Radio Onda Rossa in cui lavoratori e lavoratrici della scuola parlano di scuola, sono stati presentati i corsi di Pedagogia Hacker su misura per docenti delle scuole primarie e secondarie. I corsi, anche per l'anno scolastico 2024/2025, sono finanziati dal PNRR. Sono gratuiti per le insegnanti e gli insegnati.
Possono partecipare ai corsi i docenti delle scuole secondarie o primarie, sia di ruolo che precari/e. Per ogni corso seguito verrà rilasciato un attestato di partecipazione.
Durante la corrispondenza si è paralto anche di cosa è il metodo della Pedagogia Hacker.
Ascolta l'audio sul sito di Radio Onda Rossa
Si tratta di 3 corsi:
Tutte le informazioni su edizizoni, date, orari, modalità di iscrizioni, si trovano nell'apposita pagina sul sito web di CIRCE.
Dopo un anno di spietata offensiva israeliana su Gaza, il conflitto si allarga a macchia d’olio in tutta la regione mediorientale. Anche se l’escalation in corso assorbe l’attenzione dei media principali, non possiamo distogliere lo sguardo da quello che succede sul campo.
Coltiva la solidarietà insieme ad ACS. Sottoscrivi per far vivere gli alberi della rete.
La prima parte della trasmissione è dedicata al secondo tentativo di Microsoft di lanciare un sistema di ricerca all'interno di Windows basato su intelligenza artificiale. Se il primo tentativo era stato un disastro di sicurezza, cosa possiamo dire del secondo? Indubbiamente il nuovo design sembra più solido; ma come leggere complessivamente questo progetto di accumulazione di grossi dataset in locale e di spostamento del carico computazionale sull'hardware utente?
La seconda parte della trasmissione è invece legata ad NSO e alle cause che ha con Apple e Whatsapp (avete letto bene). Benché per entrambe le aziende è chiaro che si tratti di processi il cui fine ultimo è il miglioramento della propria reputazione, rileviamo come entrambi i processi siano molto appesantiti dall'ostruzionismo e dalla copertura di Israele.
L'Alta Corte dell'Unione Europea ha emesso una sentenza che limita l'uso dei dati personali degli utenti da parte di Meta e altre piattaforme social per scopi pubblicitari. La decisione, in linea con un parere precedente di un consulente della corte, impone restrizioni sulla durata della conservazione delle informazioni personali per il targeting degli annunci.
La sentenza fa riferimento al Regolamento Generale sulla Protezione dei Dati (GDPR) dell'UE, istituito nel 2018. In particolare, si basa sul Recital 65 del GDPR, che stabilisce il "diritto all'oblio" e il diritto alla rettifica e cancellazione dei dati personali. La mancata conformità al GDPR potrebbe comportare sanzioni fino al 4% del fatturato annuo globale, cifra che per colossi come Meta potrebbe ammontare a miliardi di euro.
Guardare avanti, si dice. Guardare fisso, invece, la propria mano che sostiene un apparecchietto nero con schermo, detto smartphone. Consultare, sbirciare, controllare, scrollare, ascoltare, pagare, scrivere, parlare, filmare… Al ristorante, per strada, in chiesa, nel passeggino, al cinema, in arrampicata, al supermercato, in auto, in classe, in ospedale, sul bus, sul water, a letto, in bici, al lavoro, ai mari e ai monti… in tasca, in mano. A testa bassa.
Paesaggio umano smisuratamente social. Ognuno di noi al guinzaglio del proprio smartphone. Ad ogni latitudine, più o meno. Ad ogni età, neonato e pensionato, per ogni sesso. Super intersezionale. La psichiatria, che ha il naso fino, ha inventato il problematic smartphone use (PSU) Ma quale problematic? Obvious smartphone use. Non è un gingillo, è una Lampada di Aladino dai mille favori. È un essere più che uno strumento tecnico. Non sono un filosofo e torno a incantarmi con questo congegno luccicante che ci ha catturati, dionisiacamente “sussunti” direbbero gli intenditori. Se fossi nato vent’anni fa non mi stupirebbe toccar quotidianamente con mano la nostra universale dedizione all’Angelo Custode che ogni giorno ci accompagna e ci nutre, mi sarebbe risuonato perfettamente naturale, oggettivo, da sempre. Una felice evoluzione dell’umanità.
Di chi è figlia questa alchimia universale? Del capitalismo digitale, di quello cognitivo, di quello zombi? Di un neo colonialismo psichico? Di una fantomatica tecnodittatura? Di un dio cattivo, o anche buonino, che escogita una nuova religione? Di quei cinque o sei giovanottoni diventati paperon de’ paperoni giocando con il web e inventando questo e quello? Di un presente a capitalismo morto, che sarebbe ancora peggio del capitalismo vivo? Di me boccalone e dei miei simili che ci facciamo accalappiare da questa sbalorditiva pietra filosofale rettangolare?
Lo sostiene uno studio dell'Università della California, che rivela come le TV LG e Samsung registrano i contenuti visualizzati e li usano per profilare gli utenti.
Molti conosceranno Shazam, l'applicazione che è in grado di riconoscere una canzone "ascoltando" pochi secondi di essa. Qualcosa del genere avviene con le Smart TV e i programmi televisivi, solo che il funzionamento è automatico e prescinde dalla volontà dell'utente.
A svelarlo è uno studio dell'Università della California, che ha analizzato i televisori di LG e Samsung nel Regno Unito e negli Stati Uniti.
Il 176° Mercoledì di Nexa si terrà mercoledì 9 ottobre, alle ore 17.30, con un incontro dal titolo "An anti-fascist approach to AI means decomputing".
Ospite: Dan McQuillan (Goldsmiths, University of London), autore del libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence.
Tutte le informazioni per partecipare sono sul sito del Centro Nexa for Internet Societty
Leggi una recensione del libro
"AI’s apparatus of computation and social relations produces a nested set of inevitable harms, from states of exception to environmental degradation. A common thread running through its mathematical operations, its c2ontemporary applications and its accompanying ideologies is the reemergence of eugenics and authoritarian social logics.
In this talk I will argue for an anti-fascist approach to AI that aims for alternative technopolitical outcomes. I will suggest a strategy of decomputing which combines degrowth and decolonialism in order to delegitimise AI’s extractivism and its use as a diversion from the structural failures of the status quo. In practice, this would consist of forms of action that reject hyperscale machinery hurtful to the commonality, and instead attempt to transform collective subjectivities and technical arrangements at the same time."
AlphaGo è un’Intelligenza artificiale creata dalla società DeepMind, oggi controllata da Google, per battere gli esseri umani al gioco orientale del Go. Nel 2016 ha sconfitto il campione mondiale con una mossa ritenuta “sbagliata”, spingendo diversi osservatori a parlare di intelligenza quasi magica. Una visione “tecnoentusiasta” che agita l’imperscrutabile ma dimostra di ignorare la statistica. E non solo.
La tecnologia odierna si presenta, software o hardware che sia, sotto forma di “scatole oscure” che i produttori confezionano in maniera da renderci impossibile comprenderla, studiarla e -soprattutto- modificarla. Questa impossibilità si traduce spesso in una forte sensazione di alienazione che fa sì che più di una persona si trovi a disagio.
Secondo il filosofo Gilbert Simondon, l’alienazione tecnica cresce al crescere del divario tra cultura e tecnica. Questo divario fa sì che la tecnica venga vissuta come pericolosa dai tecnofobici, ossia da coloro che pensano che la tecnica sia inferiore alla vera cultura (quella umanistica “classica”), e come magica dai tecnoentusiasti, ossia da coloro che pensano che il sapere tecnico sia un sapere riservato a pochi eletti.
Alla luce dell'annuncio del gruppo GEDI, l'Autorità per la protezione dei dati personali ha deciso di seguire la situazione molto da vicino.
Nessuna indagine. Nessun approfondimento. Ma un faro acceso per capire l’impatto – in termini di protezione dei dati personali – dell’appena annunciato accordo di “partnership strategica” siglato tra OpenAI e il Gruppo Gedi. L’apertura dei contenuti pubblicati sulle edizioni online dei quotidiani La Repubblica e La Stampa (e gli altri che fanno parte del gruppo editoriale di proprietà della holding Exor) all’addestramento di ChatGPT e al prototipo del motore di ricerca SearchGPT è finita immediatamente sotto l’attenzione del Garante Privacy. Quasi a voler dire: “Uomo avvisato, mezzo salvato”.