Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Il deputato francese Philippe Latombe ha intentato una battaglia legale control il Data privacy framework, il nuovo patto Usa-Ue per lo scambio di dati su base transatlantica.

Latombe, membro del parlamento in patria, chiede di sospendere subito l’accordo e ha depositato la richiesta alla Corte di Giustizia Ue, aprendo la stura ad una valanga di ricorsi contro il nuovo accordo per la trasmissione dati fra le due sponde dell’Atlantico.

Leggi l'articolo

Durante il Festival della Letteratura di Mantova C.I.R.C.E. è stata invitata a partecipare con laboratori e incontri.

Nel sito del festival c'è un articolo che racconta come sono andati i laboratori tenuti da Agnese Trocchi e Carlo Milani. Spoiler: a quanto pare bene!
I laboratori sono stati sul tema "Demoni, Angeli e Social: Pedagogia Hacker"

Se invece volete (ri)vedere la "lavagna" di presentazione del libro "Tecnologie Conviviali" di Carlo Milani, tenuta dall'autore stesso, potete farlo: c'è una registrazione video.

Il Centro sociale occupato e autogestito “Angelina Cartella” di Reggio Calabria ha ospitato fino a domenica 10 settembre l’Hackmeeting 2023, l’incontro annuale che si tiene dal 1998 ed è dedicato alle controculture digitali italiane, “quelle comunità – si legge nell’indizione dell’appuntamento – che si pongono in maniera critica rispetto ai meccanismi di sviluppo delle tecnologie all’interno della nostra società. Ma non solo, molto di più.

l’hackit è solo per hackers, ovvero per chi vuole gestire la propria vita come preferisce e sa s/battersi per farlo. Anche se non ha mai visto un computer in vita sua”.

Il programma una quattro giorni di seminari, giochi, dibattiti, scambi di idee e apprendimento collettivo, per analizzare “assieme le tecnologie che utilizziamo quotidianamente, come cambiano e che stravolgimenti inducono sulle nostre vite reali e virtuali, quale ruolo possiamo rivestire nell’indirizzare questo cambiamento per liberarlo dal controllo di chi vuole monopolizzarne lo sviluppo, sgretolando i tessuti sociali e relegandoci in spazi virtuali sempre più stretti.

Radio Onda d'Urto ha intervistato alcuni partecipanti
Ascolta l'audio sul sito della radio

Cosa ci insegna la storia di ELIZA, il primo chatbot che sembrava conversare come un umano. A partire da come il suo creatore divenne un critico feroce della perdita di autonomia dell’umano.

Tra i tanti ruoli che ChatGPT ha rapidamente iniziato ad assumere nelle vite dei milioni di utenti che lo utilizzano su base quasi quotidiana, ce n’è uno probabilmente inatteso. Per molti, il sistema di OpenAI con cui è possibile conversare su ogni argomento, e spesso in maniera convincente, è diventato un amico, un confidente. Addirittura uno psicologo. Una modalità non prevista (almeno esplicitamente) da OpenAI, ma scelta da un numero non trascurabile di utenti, che si relazionano a ChatGPT come se davvero fosse un analista. Per impedire un utilizzo giudicato (per ragioni che vedremo meglio più avanti) improprio e pericoloso, OpenAI impedisce al suo sistema di intelligenza artificiale generativa di offrire aiuto psicologico, che infatti di fronte a richieste di questo tipo si limita a fornire materiale utile da consultare. Ciò però non ha fermato gli “utenti-pazienti” che, su Reddit, si scambiano trucchi e tecniche per sbloccare ChatGPT affinché fornisca loro consigli psicologici.

Joseph Weizenbaum e il suo chatbot ELIZA

Un risvolto che potrebbe sorprendere molti. Uno dei pochi che sicuramente non si sarebbe sorpreso e che avrebbe avuto moltissimo da dire sull’argomento è Joseph Weizenbaum, scienziato informatico e docente al MIT di Boston, scomparso nel 2008. Colui che già parecchi decenni prima della sua morte aveva preconizzato – o meglio, affrontato e approfondito in prima persona – molti degli aspetti che portano le persone a relazionarsi in maniera intima con le macchine e le cause di questo comportamento.

Leggi l'articolo di Signorelli sul sito di Guerre di rete

L’uso intensivo e precoce degli smartphone nei ragazzini non favorisce l’apprendimento, anzi, riduce le performance scolastiche di una parte consistente della popolazione studentesca. E ora, una ricerca di Milano-Bicocca e SUPSI sui dati INVALSI lo conferma, andando oltre le semplici correlazioni.

La ricerca dal titolo“Earlier smartphone acquisition negatively impacts language proficiency, but only for heavy media users. Results from a longitudinal quasi-experimental study”, condotta da Tiziano Gerosa, ricercatore della Scuola universitaria professionale della Svizzera italiana (SUPSI) e Marco Gui, direttore del Centro Benessere Digitale di Milano-Bicocca (dipartimento di Sociologia e Ricerca sociale) ha testato le principali ipotesi teoriche sul ruolo dello smartphone nei processi di apprendimento, sia quelle che ipotizzano benefici sia quelle che si attendono impatti negativi.

Leggi l'articolo

Nell'ultima puntata dell'estate di DataKnightmare, Vannini prende spunto da un paper per porre alcune domande e diversi avvertimenti.

Il paper si pone due domande semplici. Se l'uso di chat gpt possa veramente migliorare la produttività e se l'uso di chat gpt abbia effetti diversi su lavoratori meno schillati che su lavoratori più schillati.
Le risposte sono chiare.
Con chat gpt il livello medio dei testi migliora e i tempi di produzione si abbassano, quindi siamo autorizzati a dire che la produttività cresce. Inoltre con chat gpt la differenza fra le capacità dei singoli viene fortemente ridotta.

Pur prendendo per buono il risultato del paper, le criticità sono molte.
Tra e altre: avere addestrato le cosiddette intelligenze artificiali in prevalenza su contenuti disponibili in internet, con le virgolette, significa che le intelligenze artificiali sanno scrivere come un marchettaro a cottimo, Perché quelli sono i contenuti prevalenti in internet, marketing, report aziendali senza anima e comunicazione funzionale.

Ieri abbiamo insegnato alle macchine come scrivono gli esseri umani usando come esempio quando gli esseri umani scrivono come macchine.
Il pericolo è che i vari chat gpt diventino il termine di paragone, per cui da domani gli esseri umani dovranno scrivere come macchine per non perdere la competizione contro macchine che scrivono come esseri umani che scrivono come macchine.

Ascolta la puntata e buon ascolto.

il 23 e 24 settembre 2023 due giorni sulla sicurezza dei nostri dispositivi informatici.

Il 23 un membro dell'Hacklab Underscore di Torino verrà a raccontarci cosa hanno scoperto su come sono state portate avanti le indagini di un'operazione contro gli anarchici. Il giorno dopo, il 24 ci sarà un laboratorio più pratico per cercare di demistificare un po' il mondo dell'informatica. Sperimenteremo concretamente come funziona il passaggio dei dati da un dispositivo all'altro, e cercheremo di capire come e in che modo potrebbe avere senso configurare il nostro dispositivo a seconda del livello di sicurezza che vogliamo tenere. Chi vuole può portare il proprio dispositivo( computer o smartphone) e una chiavetta.

L'abbandono dei dispositivi tecnologici suonava come una frase strana una decina d'anni fa, oggi sembra praticamente impossibile e siamo nella condizione di mettere quasi ogni attimo della nostra vita nelle mani delle grandi aziende tecnologiche. Dalle perquisizioni, alle intercettazioni telefoniche, ai metadati che vengono raccolti dai siti e le Big Tech GAFAM, tutti modi di intrufolarsi nelle nostre vite e rapinare le nostre informazioni. Un giro di soldi enorme, certo, ma non solo: il furto di queste informazioni viene poi a piacimento usata dalla polizia contro di noi per umiliarci, reprimerci, e fermare le nostre lotte. In particolare poi se sei o vieni considerato un nemico dello Stato. Quali informazioni vengono usate durante le indagini? Come vengono raccolte? Come proteggere sè stessi, le persone intorno a te e i nostri percorsi collettivi?

Leggi tutte le informazioni sul sito della Villa Occupata di Milano

"Apriamo la trasmissione con una notizia che unisce i nostri principali interessi: "hacker" filorussi fermano dei treni in Polonia. Da quanto si capisce, la tecnica usata è estremamente vecchia, nota, utilizzabile da chiunque con spese modestissime.

A proposito di infrastrutture critiche, andiamo a guardare e commentare la conferma, da parte del Governo, del memorandum con KKR. Di fatto, una cessione di infrastrutture critiche.

Tornando dalle nostre parti, dedichiamo un po' di spazio a rispondere alla campagna di stampa che il Messaggero sta facendo contro i progetti di tram di Roma. Andiamo quindi a guardare quali sono effettivamente gli impatti, gli usi, i vantaggi del tram, capiamo perché non è banalmente rimpiazzabile con le metropolitane o con i bus elettrici e proviamo ad inquadrare questa tecnologia all'interno di un sistema generale di trasporto pubblico. Proviamo anche a rispondere alle domande di un ascoltatore che ci chiama per chiederci un'opinione sul tema delle vibrazioni, degli edifici storici, e delle dimensioni dei tram."

Ascolta la puntata del 5/09/2023 sul sito di Radio Onda Rossa

In anteprima e in uscita progressiva per i donatori, e poi per i lettori, la monografia di guerre di rete sull'intelligenza artificiale

Guerre di Rete - una newsletter di notizie cyber a cura di Carola Frediani N.167 - 4 settembre 2023

La newsletter riprende con l'annuncio dell’uscita del primo ebook di Guerre di Rete. Si intitola Generazione AI e, indovinate un po’, è dedicato agli ultimi sviluppi dell’intelligenza artificiale generativa, e al loro impatto sulla società, l’economia, la geopolitica. È stato ideato e curato da Carola Frediani, da Sonia Montegiove e da Federico Nejrotti, e i suoi articoli sono firmati da Stefano Casini, Antonio Dini, Carola Frediani, Federica Meta, Giuditta Mosca, Federico Nejrotti, Antonio Piemontese e Andrea Signorelli.

Troverete l’introduzione di Carola Frediani; Andrea Signorelli che racconta la storia del chatbot ELIZA e soprattutto di Joseph Weizenabum, e i suoi riverberi attuali; Antonio Dini ci trasporta in profondità nella “guerra fredda” dell’AI, lo scontro Usa e Cina, e le varie angolature geopolitiche della partita, da Taiwan all’Ucraina; Federica Meta si muove tra Usa, Ue e Cina, tra legislazione e investimenti, e poi analizza alcune delle aziende in campo; Federico Nejrotti racconta e analizza l’impatto dell’AI generativa sul mondo artistico; Giuditta Mosca sviscera un ampio studio, che analizza e critica il ruolo di Big Tech; Antonio Piemontese intervista alcuni esperti fra giornalismo, accademia e politica (Virginia Padovese; Mariarosaria Taddeo; Brando Benifei) sul rischio della generazione automatica di disinformazione; e Stefano Casini descrive alcuni degli strumenti di AI esplosi per il grande pubblico negli ultimi mesi.

Leggi l'introduzione di Frediani sul sito di Guerre di Rete

Cassandra Crossing/ Com'era prevedibile, ChatGPT evolve verso un'architettura di API e plugin. Questo rappresenta un rischio, perché deresponsabilizza sia chi vende i servizi di GPT4 sia chi li usa.

Circa due mesi fa un annuncio di OpenAI ha reso nota la realizzazione di plugin che consentono di interfacciare ChatGPT con fonti esterne di dati e servizi.

Tecnicamente, si tratta di una API che permette la realizzazione di plugin che interfacciano, anche in maniera bidirezionale, una fonte di dati o un servizio con ChatGPT (per esempio) e viceversa.

In questo modo ChatGPT può utilizzare risorse informative per produrre le sue "risposte". E nella direzione opposta gli "oggetti intelligenti", i servizi e i siti possono far generare testi, programmi e immagini alla falsa IA di turno, e utilizzarli per produrre i risultati o le pagine che devono fornire.

È perfettamente chiaro come questa architettura permetta un immediato inserimento delle false Intelligenze Artificiali nei tessuti profondi della Rete come la conosciamo oggi.

Leggi l'articolo completo su ZEUS News