La Commissione Ue ha multato Apple per 500 milioni di euro e Meta per 200 milioni per violazioni del regolamento sui mercati digitali Dma. Si tratta di importi relativamente modesti rispetto a multe precedentemente comminate per simili infrazioni. Possibile che la scelta di Bruxelles di limitare l’ammontare delle sanzioni sia anche un “segnale” all’amministrazione Trump della volontà europea di non andare ad uno scontro su questioni commerciali. Il presidente statunitense ha definito le normae Ue sul settore tecnologici una barriera commerciale non tariffaria che i suoi dazi reciproci mirano a colpire.
Un’ipotesi formalmente smentita dalla Commissione. “Si tratta di applicazione delle normative, non di commercio. Sono questioni distinte, completamente separate. Abbiamo un regolamento e lo stiamo applicando”, ha detto la portavoce della Commissione europea Arianna Podestà.
Il libro di Carlo Milani e Davide Fant, edito da elèuthera è leggibile online sul sito dell'editore, rilasciato in licenza creative commons CC BY-NC-SA (condividi, riusa allo stesso modo per scopi non commerciali, attribuendo l'opera all'autore).
I dispositivi digitali oggi più diffusi limitano i nostri spazi di autonomia, ci sottraggono tempo ed energie, riducono le persone a profili mercificati. In un contesto del genere è sempre più urgente sviluppare strumenti educativi e autoeducativi capaci di aprire nuovi spazi di consapevolezza e libertà.
Per ridurre l'alienazione tecnica, la pedagogia hacker ci propone di indagare le nostre relazioni con le tecnologie, guardando dietro lo schermo per riconoscere le dinamiche oppressive e sperimentare pratiche di immaginazione liberatoria. È un approccio critico e creativo che procede per attivazioni grazie alle quali gli schermi incontrano i corpi, la tecnologia è interrogata anche attraverso l'arte, il teatro, la poesia, e il gioco torna a essere spazio di emancipazione. Questa esplorazione invita a costruire relazioni appropriate con il digitale, rivolgendosi in particolare a chi educa e insegna, a chi si cura della psiche, a chi fa arte, a chi lavora con la tecnica, ma anche a chiunque sia alla ricerca di pratiche concrete per decolonizzarsi e abitare la tecnologia con un'attitudine conviviale.
"Con l'invenzione e lo sviluppo della televisione, e il progresso tecnico che rese possibile di ricevere e trasmettere simultaneamente sullo stesso apparecchio, il concetto di vita privata si poteva considerare del tutto scomparso. Ogni cittadino, o meglio ogni cittadino che fosse abbastanza importante e che valesse la pena di sorvegliare, poteva essere tenuto comodamente sotto gli occhi della polizia e a portata della propaganda ufficiale"
George Orwell, l'autore del celeberrimo libro distopico 1984 dal quale sono tratte queste parole, era un ottimista. Pensava che la sorveglianza tramite la tecnologia sarebbe stata applicata solo a chi fosse abbastanza importante. Oggi, invece, la sorveglianza tecnologica si applica a tutti, in massa, e per di più siamo noi utenti a pagare per i dispositivi che la consentono.
Uno di questi dispositivi è il televisore, o meglio la "Smart TV", come va di moda chiamarla adesso. Sì, perché buona parte dei televisori moderni in commercio è dotata di un sistema che raccoglie informazioni su quello che guardiamo sullo schermo e le trasmette a un archivio centralizzato. Non a scopo di sorveglianza totalitaria, ma per mandarci pubblicità sempre più mirate, basate sulle nostre abitudini e i nostri gusti. In sostanza, molti televisori fanno continui screenshot di quello che state guardando, non importa se sia una serie di Netflix, un videogioco o un vostro video personale, e li usano per riconoscere cosa state guardando e per suggerire ai pubblicitari quali prodotti o servizi mostrarvi.
È possibile impedire che l'intelligenza artificiale usi per l'addestramento ciò che abbiamo pubblicato sui social network. Ecco come
L’annuncio è arrivato lo scorso 14 aprile: Meta comincerà ad addestrare il suo modello di intelligenza artificiale Meta AI con i dati pubblicati dagli utenti di Facebook e Instagram anche in Europa. La mossa dell’azienda di Mark Zuckerberg ha immediatamente provocato un vero tsunami di reazioni (prevedibilmente) negative e la maggiore preoccupazione degli utilizzatori dei social network targati Meta, al momento, è quella di sapere come impedire l’utilizzo dei loro contenuti per foraggiare l’algoritmo.
L’azienda ha annunciato la possibilità di opporsi all’uso delle informazioni pubblicate, ma le cose non sono semplici come potrebbe sembrare. Nell’addestramento del modello, infatti, potremmo finirci anche se ci opponiamo all’utilizzo dei nostri dati.
Come anticipato da Wired, Meta AI verrà addestrata usando i “contenuti pubblici condivisi da utenti adulti”. Sono esclusi, quindi, i post e i commenti pubblicati da utenti minori di 18 anni e i messaggi privati scambiati con altri contatti. Il riferimento ai commenti pubblici escluderebbe, almeno in teoria, tutti i contenuti che vengono pubblicati con restrizioni di visualizzazione. Se abbiamo cioè impostato l’account di Facebook per consentire l’accesso ai post solo ai nostri contatti o usiamo un account Instagram privato, questi dovrebbero essere esclusi dall’addestramento di Meta AI. Vi rientrerebbero, comunque, il nome, l’immagine profilo e altri contenuti come i commenti a post pubblici, le valutazioni o recensioni su Marketplace e su un account Instagram pubblico.
Il rapporto della Fair Tax Foundation sulle "Silicon six", che continuano a pagare molte meno tasse rispetto a quelle che risulterebbero applicando le normali aliquote fiscali in vigore per le altre aziende
Alphabet/Google, Amazon, Apple, Meta/Facebook, Microsoft e Netflix, le sei maggiori aziende tecnologiche Usa, nell’ultimo decennio hanno eluso imposte per 277,8 miliardi di dollari. È questa, secondo un rapporto della Fair Tax Foundation, la differenza tra le aliquote fiscali nominali che sulla carta si applicano a tutte le altre società e le cifre effettivamente versate all’erario da quelle che la fondazione definisce “Silicon six“, il cui fatturato annuo di 1.800 miliardi di dollari è superiore al pil di quasi tutti i Paesi del mondo. Nel periodo 2015-2024 le sei Big tech – che lo scorso anno, en passant, hanno speso 115 milioni di dollari in attività di lobbying negli Stati Uniti e in Ue – hanno registrato ricavi per 11mila miliardi e profitti per 2.500 miliardi. E questi ultimi sono stati tassati con un’aliquota media globale pari solo all’18,8% nonostante quella ufficiale fosse in media del 29,7% negli Stati Uniti e del 27% a livello mondiale. Se non si considerano le tasse pagate su utili esteri rimpatriati, frutto di pregressa elusione fiscale, l’aliquota effettiva scende addirittura al 16,1%.
Dopo lo stop dello scorso anno, Meta inzierà presto ad addestrare i suoi modelli di intelligenza artificiale in Europa sulla base dei post e dei commenti pubblici degli utenti maggiorenni. L'obiettivo è insegnare all'IA a "comprendere e riflettere meglio culture, lingue e storie" per "consentire di supportare meglio milioni di persone e aziende in Europa", sottolinea la società di Mark Zuckerberg.
Si può scegliere di opporsi compilando un modulo. Con tale modulo non si disattiverà Meta AI (in molti in queste ore vorrebbero eliminarlo da WhatsApp o dalle chat di Instagram e Facebook, ma non sembra possibile). Semplicemente aderendo, i propri dati non dovrebbero più confluire tra quelli usati dall’algoritmo per apprendere e migliorarsi.
C’è però un discrimine importante, come avverte Facebook: “Potremmo comunque trattare le informazioni che ti riguardano per sviluppare e migliorare l’IA su Meta, anche se ti opponi o non usi i nostri Prodotti. Ad esempio, questo potrebbe accadere se tu o le tue informazioni: apparite in un’immagine condivisa con tutti sui nostri Prodotti da qualcuno che li usa; siete menzionati nei post o nelle didascalie che qualcun altro condivide sui nostri Prodotti”. Una deroga che potrebbe aprire un nuovo fronte tra Meta e le autorità europee.
Iniziamo con GMail che introduce la cifratura "end to end" per aziende. Vediamo come funziona e perché non è quel che vi aspettavate.
Approfondiamo la collaborazione tra X e il governo turco.
Consigli pratici: come impostare un resolver DNS affidabile.
Notiziole varie:
Requiem per Skype
Internet è ormai inondata da immagini ghiblizzate grazie alla nuova versione di ChatGPT. Ma, al di là del divertimento o della scocciatura, che conseguenze hanno tecnologie come queste sul mondo dell'animazione?
È passata una settimana da quando OpenAI ha lanciato la nuova versione di ChatGPT, una che consente agli utenti di dilettarsi con il cosiddetto ghibli prompting: prendi questa immagine e restituiscimela come fosse un frame di un film dello Studio Ghibli.
Dovremmo aver subìto abbastanza soprusi da parte della broligarchia da aver capito che niente di quello che fanno è fine a se stesso. Il ghibli prompting non è un passatempo: è un test, è un’indagine di mercato, è un focus group a cui partecipa un bel pezzo di popolazione terrestre. E non ci sarebbe niente di male – ci sarebbe, in realtà, ma l’economia di mercato ce la siamo scelta e ora ce la dobbiamo tenere – se non fosse che a questa festa gli unici a non essere invitati sono stati gli animatori che quello “stile Ghibli” lo hanno inventato e realizzato. È un vizio della broligarchia, questo di considerare la proprietà privata un diritto solo in precise circostanze, cioè quelle in cui la proprietà privata è la loro.
In nemmeno 50 anni le aziende della Silicon Valley sono passate dal sognare la pace al realizzare sistemi in grado di sorvegliare silenziosamente qualsiasi smartphone e sistemi d’arma automatici che uccidono con un minimo o nessun intervento umano, i “killer robots”. E sembrano ben felici di mettere queste tecnologie a disposizione di nazioni in guerra e dittatori alla ricerca di sistemi di controllo del dissenso. La rubrica di Stefano Borroni Barale
Qui in Italia non è così noto, ma la controcultura hippie degli anni Sessanta, di cui San Francisco era divenuta la capitale, è stata uno degli ingredienti che ha contribuito, nel decennio successivo, alla creazione di quei gruppi di appassionati di elettronica, come l’Homebrew computer club, in cui hanno mosso i primi passi personaggi come Steve Wozniack e Steve Jobs, i fondatori della Apple.
Il sogno naïf di quella generazione era che i piccoli personal computer avrebbero distribuito il potere di calcolo, cambiando la società. Il poeta Richard Brautigan arrivò a cantare di questa utopia nel suo poema del 1967 “All watched over by machines of loving grace” che conobbe per questo una discreta fortuna.
Il crepitio dei tasti di un programmatore che scrive codice per comporre un programma è probabilmente uno dei suoni più caratteristici dell'informatica. Da decenni, saper programmare significa avere pieno potere, avere la facoltà di far fare quello che si vuole al computer o tablet o telefono che sia, poter creare app, senza dover dipendere da nessuno.
Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di programmazione, ciascuno con una sintassi e delle regole differenti, e per molte persone questo non è facile o è semplicemente impossibile. Programmare resta così un'arte praticata da pochi e ammirata a rispettosa distanza dai più.
Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di diventare programmatori o sviluppatori, o se siete genitori e pensate che far studiare gli arcani incantesimi della programmazione sia la strada maestra per una carriera informatica garantita per i vostri figli, ci sono due parole che vi conviene conoscere: vibe coding.
[...]
Meta AI è comparsa su WhatsApp senza preavviso, generando polemiche e preoccupazioni sulla privacy. Inoltre, l’assistente virtuale introdotto forzatamente dal gruppo Zuckerberg non può essere disattivato e fornisce istruzioni fuorvianti per la rimozione.
Avete notato quel pulsantino bianco con un cerchio blu comparso di recente nella schermata di Whatsapp sul vostro smartphone? Si tratta dell’icona di Meta AI, l’intelligenza artificiale sviluppata dal gruppo di Mark Zuckerberg. Il sistema, progettato per essere semplice e intuitivo, garantisce un accesso immediato alla chatbot, la finestra di conversazione alimentata da Llama 3.2, la versione più avanzata di AI di Meta, dotata di capacità multimodali.
Violazione della privacy?
Nulla di male, in apparenza. Il problema è che Meta AI è entrato a far parte della nostra quotidianità, su milioni di schermi, senza alcuna notifica preventiva, né esplicito consenso.
La puntata del 6 aprile inizia parlando di Spotify e del suo "Perfect Fit": ovvero di come Spotify vi propone musica sconosciuta ma economica e ottimizzata per un ascolto "distratto".
La celebrazione dei 50 anni di Microsoft è stata interrotta da due lavoratrici che hanno contestato il coinvolgimento della ditta (sia tramite Azure, sia tramite il suo dipartimento di Intelligenza Artificiale) nel genocidio del popolo palestinese. In particolare, i sistemi di trascrizione del parlato sono utilizzati per analizzare automaticamente le intercettazioni delle telefonate tra persone palestinesi.
Trump annuncia i suoi "contro"-dazi: finalmente possiamo divertirci con delle equazioni e capire quale è la logica che gli sta dietro (se c'è). E capire se Chat GPT alla fine ci azzecca.
Piracy Shield: non solo non lascia ma addirittura raddoppia, e si riproduce! Il presidente dell'AGCOM ignora tutte le lamentele e presenta un'estensione di Piracy Shield a praticamente tutti i contenuti protetti da copyright. Allo stesso tempo in Spagna, con un meccanismo diverso, cercano di emularlo.
La puntata si chiude con la rubrica delle notiziole: il riconoscimento facciale si diffonde nel mondo, mentre si diffondono anche a YouTube le posizioni contro la tutela dell'identità di genere promosse dal governo USA.
Il comunicato del collettivo studentesco Scuola di Carta denuncia la condotta di due agenti di polizia “in divisa e con la pistola addosso” mentre tenevano un incontro sul tema del cyberbullismo, a cui hanno partecipato circa cinque classi dell'ISIS Niccolini Palli di Livorno, a fine marzo.
Dal comunicato emerge che durante l’incontro sono stati diretti rimproveri poco appropriati, commenti razzisti, un atteggiamento di sfiducia e cinismo nei confronti della nuova generazione. Questo comunicato, leggiamo, «è un atto di riappropriazione dei luoghi che il governo sta cercando di svuotare».
Gli studenti e le studentesse si sono sentiti umiliati e impossibilitati a reagire perché subordinati/e dal loro status e denunciano fortemente quanto successo, insieme al fatto che il corpo docente e la presidenza non si sono espressi in merito ad atti di razzismo interni all’istituto.
Puntata monografica quella del 2 aprile, in cui abbiamo intervistato Giorgia, una ricercatrice in linguistica riguardo alla definizione, applicazione e limiti dei modelli linguistici nell’ambito dell’intelligenza artificiale.
Ascolta il podcast della trasmissione sul sito di Radio Blackout
"Qualche giorno fa, su LinkedIn, un recruiter dichiarava di scartare tutti i candidati che non indicano competenze sull’intelligenza artificiale. Secondo lui, chi oggi non sa usare (o non dichiara di usare) l’AI non è più “occupabile”. Mi sono chiesto: cosa scriverei io, dopo trent’anni passati a lavorare con le informazioni, a progettare conoscenza, senso, orientamento? Sono forse meno competente solo perché non ho scritto “AI” nel curriculum? E allora ho provato a rispondere. Non con uno slogan. Ma con un saggio. Un saggio che parla di incertezza, di etica, di design cognitivo, di consapevolezza come forma di libertà. Un saggio che collega filosofia, teoria dell’informazione, architettura digitale e intelligenza artificiale. Perché non è l’AI che definisce la competenza, ma la capacità di dare forma al sapere. Anche — e soprattutto — quando è incerto.
Introduzione — Il valore euristico dell’incertezza
L’incertezza, lungi dall’essere un accidente della conoscenza, ne costituisce la matrice originaria. Fin dalle prime speculazioni epistemologiche, dalla aporia socratica alla sospensione del giudizio pirroniano, l’incertezza ha accompagnato la riflessione umana come segno di vitalità del pensiero e non della sua debolezza. In tempi più recenti, la filosofia della scienza ha sancito definitivamente il primato del dubbio sull’assoluto, riconoscendo nella fallibilità e nella revisione continua dei modelli conoscitivi l’unica via percorribile per l’accesso alla verità, sempre provvisoria. In questo scenario, l’informazione e le sue architetture assumono un ruolo cruciale, non tanto come dispositivi di certezza, quanto come sistemi di orientamento nell’incertezza."
Cristina Iurissevich ha scritto un piccolo libro (65 pagine), "E se i troll mangiassero i cookie? Spunti per la sopravvivenza digitale", Eris Edizioni, ma utilissimo. Il libro, partendo dal presupposto che la tecnologia digitale è entrata ormai stabilmente nella nostra vita, semplifica concetti, metodi e strumenti di autodifesa digitale della propria privacy, riservatezza, libertà.
Lo fa in maniera molto chiara e leggibile, ma il suo pregio maggiore non è il riepilogo delle buone pratiche per difendersi. Iurissevich affronta, infatti, il tema delle molestie e della violenza online puntando il dito su due aspetti: la fiducia verso le persone con cui si hanno relazioni online e la responsabilità collettiva nella diffusione di materiali sensibili. Per esempio condividere pasword e account, o prestare il proprio smartphone sono azioni che richiedono grande fiducia tra le persone ma le relazioni cambiano nel tempo, la fiducia si può modificare.
Il problema della diffusione di media a sfondo sessuale è spesso legata alla pratica, molto diffusa, di scambiarsi messaggi o media sessualmente espliciti (sexting). Di per se non costituisce un problema; non è moralmente giusto o sbagliato e la sua pratica è in crescita soprattutto tra le persone giovani. Tuttavia, vale la pena ragionare sui pericoli che derivano dal sexting, anche alla luce delle considerazioni sulla fiducia, per arrivare a scelte individuali consapevoli. Anche in questo caso, nel libro ci sono una serie di consigli per praticare il sexting in maniera meno rischiosa possibile.
Quanto è successo dopo l'elezione di Trump alla presidenza degli USA ha svelato ciò che sono i proprietari delle grandi aziende tecnologiche nord americane: un gruppo di tecnocrati che vogliono eliminare qualsiasi vincolo che impedisca loro di fare profitti sfruttando le persone. Se vuoi la versone lunga di questa storia leggi tutti i bro del presidente. Lo fanno con tutti i mezzi a loro disposizione comprese le piattaforme social. Qui puoi approfondire perché conviene abbandonare le piattaforme delle Big Tech.
Spesso la domanda che ci si pone è: ma come si fa ad abbandonare le piattaforme delle Big tech? Come quasi sempre accade, non è un problema tecnico, poiché le alternative tecniche esistono. Come (quasi) sempre accade, il problema è di decidere di fare il passo, accettare la possibilità che a volte i software liberi funzionino in maniera diversa ed abituarsi al cambiamento. Capita la stessa cosa anche quando si cambia l'automobile, o ci si trasferisce, o si cambia un elettrodomestico.
Ho scritto un'elenco di possibili alternative ai software delle grandi imprese USA per le nostre attività in rete. Non è un elenco completo ed è in aggiornamento. Si tratta per lo più di software liberi, tendenzialmente conviviali, che consentono vari gradi di libertà, controllo e modifica.
Il ragionamento è l’abilità dell’intelletto di elaborare informazioni, stabilire relazioni tra esse e giungere a conclusioni coerenti e giustificate. Esso consiste nel processo mediante il quale si formulano inferenze a partire da un insieme di premesse o dati. In altre parole, si tratta di un meccanismo formale, cioè esplicitabile, che consente di transitare dal già noto al non ancora noto, dalla specificità alla generalità, o viceversa, assicurando coerenza e validità in ciascuna tappa del percorso. Dunque potremmo dire ‘ragioni!‘ a chiunque (o qualsiasi cosa) si mostri in grado di compiere tragitti di questo tipo.
La Commissione europea e la Consumer Protection Cooperation Network (CPC) hanno chiesto a Star Stable una serie di informazioni su diversi pratiche che violano la legge sulla protezione dei consumatori. La software house svedese deve rispondere entro un mese e comunicare le misure correttive per evitare sanzioni.
Dopo aver valutato la risposta fornita dall’azienda svedese, la CPC Network ha identificato quattro pratiche che violano la legislazione UE sulla tutela dei consumatori e che potrebbero essere particolarmente dannose per i bambini: appelli diretti ai bambini nelle pubblicità, spingendoli ad acquistare (o convincendo gli adulti ad acquistare per loro) valuta o oggetti in-game, uso di tecniche di pressione, come acquisto a tempo limitato, per influenzare indebitamente i bambini ad acquistare valuta virtuale o contenuti in-game, mancanza di informazioni chiare e trasparenti, adattate ai bambini, sull’acquisto e l’utilizzo di valuta virtuale in-game che porta i consumatori a spendere di più, incapacità dell’azienda di garantire che gli influencer che promuovono i loro prodotti divulghino chiaramente i contenuti commerciali e non influenzino indebitamente i bambini con le loro tecniche di marketing.
Il 21 marzo 2025 ha aperto al pubblico la nuova sede del Museo Interattivo di Archeologia Informatica (MIAI)!
Dopo lo stop imposto dalla pandemia e dopo un complicato trasloco, siamo finalmente in grado di inaugurare la nostra nuova esposizione permanente – fresca di allestimento!
Gli ultimi 5 anni di chiusura al pubblico dell’esposizione ci hanno visti impegnati in numerose attività divulgative, educative e di ricerca. Contemporaneamente abbiamo portato avanti i lavori di adeguamento della nuova sede e di allestimento della nuova esposizione, divertendoci ad arricchirla con opere di arte visiva ed installazioni multimediali a tema, realizzate appositamente per i nuovi spazi.
Il museo comprende centinaia di reperti di informatica storica risalenti fino agli anni ’60, tra mastodontici mainframe, una timeline di personal computer, workstation professionali, arcaiche console giochi, periferiche hardware di ogni genere e una nutrita biblioteca con documentazione tecnica, manuali e letteratura scientifica.