Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Dopo lo stop dello scorso anno, Meta inzierà presto ad addestrare i suoi modelli di intelligenza artificiale in Europa sulla base dei post e dei commenti pubblici degli utenti maggiorenni. L'obiettivo è insegnare all'IA a "comprendere e riflettere meglio culture, lingue e storie" per "consentire di supportare meglio milioni di persone e aziende in Europa", sottolinea la società di Mark Zuckerberg.

Si può scegliere di opporsi compilando un modulo. Con tale modulo non si disattiverà Meta AI (in molti in queste ore vorrebbero eliminarlo da WhatsApp o dalle chat di Instagram e Facebook, ma non sembra possibile). Semplicemente aderendo, i propri dati non dovrebbero più confluire tra quelli usati dall’algoritmo per apprendere e migliorarsi.

C’è però un discrimine importante, come avverte Facebook: “Potremmo comunque trattare le informazioni che ti riguardano per sviluppare e migliorare l’IA su Meta, anche se ti opponi o non usi i nostri Prodotti. Ad esempio, questo potrebbe accadere se tu o le tue informazioni: apparite in un’immagine condivisa con tutti sui nostri Prodotti da qualcuno che li usa; siete menzionati nei post o nelle didascalie che qualcun altro condivide sui nostri Prodotti”. Una deroga che potrebbe aprire un nuovo fronte tra Meta e le autorità europee.

Approfondimenti qui e qui

Iniziamo con GMail che introduce la cifratura "end to end" per aziende. Vediamo come funziona e perché non è quel che vi aspettavate.

Approfondiamo la collaborazione tra X e il governo turco.

Consigli pratici: come impostare un resolver DNS affidabile.

Notiziole varie:

  • In Francia si fanno leggi per semplificare l'autorizzazione per costruire data center per fare l'AI per semplificare la burocrazia
  • Nelle Filippine trovato il modo per far funzionare in modo efficiente l'intelligenza artificiale: il lavoro sottopagato
  • L'IA ha bisogno di energia? Trump esenta le centrali a carbone dai requisiti ambientali
  • da oggi crittovalute libere negli USA: chiusa l'unità che indaga sulle frodi
  • trump cambia idea sul CHIPS Act e sui dazi legati alle tecnologie elettroniche ed informatiche, ma poi la ricambia
  • Google, IBM e Amazon partecipano alla sorveglianza del confine tra Usa e Messico

Requiem per Skype

Ascolta l'audio sul sito di Radio Onda Rossa

Internet è ormai inondata da immagini ghiblizzate grazie alla nuova versione di ChatGPT. Ma, al di là del divertimento o della scocciatura, che conseguenze hanno tecnologie come queste sul mondo dell'animazione?

È passata una settimana da quando OpenAI ha lanciato la nuova versione di ChatGPT, una che consente agli utenti di dilettarsi con il cosiddetto ghibli prompting: prendi questa immagine e restituiscimela come fosse un frame di un film dello Studio Ghibli.

Dovremmo aver subìto abbastanza soprusi da parte della broligarchia da aver capito che niente di quello che fanno è fine a se stesso. Il ghibli prompting non è un passatempo: è un test, è un’indagine di mercato, è un focus group a cui partecipa un bel pezzo di popolazione terrestre. E non ci sarebbe niente di male – ci sarebbe, in realtà, ma l’economia di mercato ce la siamo scelta e ora ce la dobbiamo tenere – se non fosse che a questa festa gli unici a non essere invitati sono stati gli animatori che quello “stile Ghibli” lo hanno inventato e realizzato. È un vizio della broligarchia, questo di considerare la proprietà privata un diritto solo in precise circostanze, cioè quelle in cui la proprietà privata è la loro.

Articolo completo qui

In nemmeno 50 anni le aziende della Silicon Valley sono passate dal sognare la pace al realizzare sistemi in grado di sorvegliare silenziosamente qualsiasi smartphone e sistemi d’arma automatici che uccidono con un minimo o nessun intervento umano, i “killer robots”. E sembrano ben felici di mettere queste tecnologie a disposizione di nazioni in guerra e dittatori alla ricerca di sistemi di controllo del dissenso. La rubrica di Stefano Borroni Barale

Qui in Italia non è così noto, ma la controcultura hippie degli anni Sessanta, di cui San Francisco era divenuta la capitale, è stata uno degli ingredienti che ha contribuito, nel decennio successivo, alla creazione di quei gruppi di appassionati di elettronica, come l’Homebrew computer club, in cui hanno mosso i primi passi personaggi come Steve Wozniack e Steve Jobs, i fondatori della Apple.

Il sogno naïf di quella generazione era che i piccoli personal computer avrebbero distribuito il potere di calcolo, cambiando la società. Il poeta Richard Brautigan arrivò a cantare di questa utopia nel suo poema del 1967 “All watched over by machines of loving grace” che conobbe per questo una discreta fortuna.

Leggi l'articolo di Stefano Borroni Barale

Il crepitio dei tasti di un programmatore che scrive codice per comporre un programma è probabilmente uno dei suoni più caratteristici dell'informatica. Da decenni, saper programmare significa avere pieno potere, avere la facoltà di far fare quello che si vuole al computer o tablet o telefono che sia, poter creare app, senza dover dipendere da nessuno.

Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di programmazione, ciascuno con una sintassi e delle regole differenti, e per molte persone questo non è facile o è semplicemente impossibile. Programmare resta così un'arte praticata da pochi e ammirata a rispettosa distanza dai più.

Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di diventare programmatori o sviluppatori, o se siete genitori e pensate che far studiare gli arcani incantesimi della programmazione sia la strada maestra per una carriera informatica garantita per i vostri figli, ci sono due parole che vi conviene conoscere: vibe coding.

[...]

  1. Vibe coding: creare programmi senza saper programmare
  2. Abbandonarsi alle vibrazioni e programmare senza toccare la tastiera
  3. Si riducono tempi e costi, e tutto sembra funzionare
  4. Se ci sono errori o vulnerabilità, sono guai seri
  5. Tutti sono entusiasti. Cosa mai potrebbe andare storto?

Leggi l'articolo di Paolo Attivissimo

Meta AI è comparsa su WhatsApp senza preavviso, generando polemiche e preoccupazioni sulla privacy. Inoltre, l’assistente virtuale introdotto forzatamente dal gruppo Zuckerberg non può essere disattivato e fornisce istruzioni fuorvianti per la rimozione.

Avete notato quel pulsantino bianco con un cerchio blu comparso di recente nella schermata di Whatsapp sul vostro smartphone? Si tratta dell’icona di Meta AI, l’intelligenza artificiale sviluppata dal gruppo di Mark Zuckerberg. Il sistema, progettato per essere semplice e intuitivo, garantisce un accesso immediato alla chatbot, la finestra di conversazione alimentata da Llama 3.2, la versione più avanzata di AI di Meta, dotata di capacità multimodali.

Violazione della privacy?
Nulla di male, in apparenza. Il problema è che Meta AI è entrato a far parte della nostra quotidianità, su milioni di schermi, senza alcuna notifica preventiva, né esplicito consenso.

Leggi l'articolo

La puntata del 6 aprile inizia parlando di Spotify e del suo "Perfect Fit": ovvero di come Spotify vi propone musica sconosciuta ma economica e ottimizzata per un ascolto "distratto".

La celebrazione dei 50 anni di Microsoft è stata interrotta da due lavoratrici che hanno contestato il coinvolgimento della ditta (sia tramite Azure, sia tramite il suo dipartimento di Intelligenza Artificiale) nel genocidio del popolo palestinese. In particolare, i sistemi di trascrizione del parlato sono utilizzati per analizzare automaticamente le intercettazioni delle telefonate tra persone palestinesi.

Trump annuncia i suoi "contro"-dazi: finalmente possiamo divertirci con delle equazioni e capire quale è la logica che gli sta dietro (se c'è). E capire se Chat GPT alla fine ci azzecca.

Piracy Shield: non solo non lascia ma addirittura raddoppia, e si riproduce! Il presidente dell'AGCOM ignora tutte le lamentele e presenta un'estensione di Piracy Shield a praticamente tutti i contenuti protetti da copyright. Allo stesso tempo in Spagna, con un meccanismo diverso, cercano di emularlo.

La puntata si chiude con la rubrica delle notiziole: il riconoscimento facciale si diffonde nel mondo, mentre si diffondono anche a YouTube le posizioni contro la tutela dell'identità di genere promosse dal governo USA.

Ascolta la puntata sul sito di Radio Onda Rossa

Il comunicato del collettivo studentesco Scuola di Carta denuncia la condotta di due agenti di polizia “in divisa e con la pistola addosso” mentre tenevano un incontro sul tema del cyberbullismo, a cui hanno partecipato circa cinque classi dell'ISIS Niccolini Palli di Livorno, a fine marzo.
Dal comunicato emerge che durante l’incontro sono stati diretti rimproveri poco appropriati, commenti razzisti, un atteggiamento di sfiducia e cinismo nei confronti della nuova generazione. Questo comunicato, leggiamo, «è un atto di riappropriazione dei luoghi che il governo sta cercando di svuotare».

Gli studenti e le studentesse si sono sentiti umiliati e impossibilitati a reagire perché subordinati/e dal loro status e denunciano fortemente quanto successo, insieme al fatto che il corpo docente e la presidenza non si sono espressi in merito ad atti di razzismo interni all’istituto.

Leggi tutto sul sito di pressenza

Puntata monografica quella del 2 aprile, in cui abbiamo intervistato Giorgia, una ricercatrice in linguistica riguardo alla definizione, applicazione e limiti dei modelli linguistici nell’ambito dell’intelligenza artificiale.

  • Come definiamo una lingua,
  • Cosa vuol dire un modello linguistico,
  • Come avviene la costruzione di questi mitici modelli linguistici,
  • Come definiamo l'addestramento su una lingua.
  • E' ancora valida la definizione di pappagalli stocastici per gli LLM (Large Language Model)?
  • Cosa è cambiato negli ultimi anni?

Ascolta il podcast della trasmissione sul sito di Radio Blackout

"Qualche giorno fa, su LinkedIn, un recruiter dichiarava di scartare tutti i candidati che non indicano competenze sull’intelligenza artificiale. Secondo lui, chi oggi non sa usare (o non dichiara di usare) l’AI non è più “occupabile”. Mi sono chiesto: cosa scriverei io, dopo trent’anni passati a lavorare con le informazioni, a progettare conoscenza, senso, orientamento? Sono forse meno competente solo perché non ho scritto “AI” nel curriculum? E allora ho provato a rispondere. Non con uno slogan. Ma con un saggio. Un saggio che parla di incertezza, di etica, di design cognitivo, di consapevolezza come forma di libertà. Un saggio che collega filosofia, teoria dell’informazione, architettura digitale e intelligenza artificiale. Perché non è l’AI che definisce la competenza, ma la capacità di dare forma al sapere. Anche — e soprattutto — quando è incerto.

Introduzione — Il valore euristico dell’incertezza

L’incertezza, lungi dall’essere un accidente della conoscenza, ne costituisce la matrice originaria. Fin dalle prime speculazioni epistemologiche, dalla aporia socratica alla sospensione del giudizio pirroniano, l’incertezza ha accompagnato la riflessione umana come segno di vitalità del pensiero e non della sua debolezza. In tempi più recenti, la filosofia della scienza ha sancito definitivamente il primato del dubbio sull’assoluto, riconoscendo nella fallibilità e nella revisione continua dei modelli conoscitivi l’unica via percorribile per l’accesso alla verità, sempre provvisoria. In questo scenario, l’informazione e le sue architetture assumono un ruolo cruciale, non tanto come dispositivi di certezza, quanto come sistemi di orientamento nell’incertezza."

Leggi l'articolo