Dedichiamo la prima ora di trasmissione a commentare le "ultime" uscite dei vari social media e dei loro proprietari, uscite che ci confermano il loro orientamento destrorso (da ben prima dell'arrivo di Trump). Facciamo un passo indietro e cerchiamo di capire come sono progettati i social media commerciali; di contro, diamo qualche spunto su come si possa approcciarsi alle tecnologie in maniera conviviale e non alienante.
Nella seconda parte, riprendiamo una vecchia puntata sulla cessione di Tim a KKR. La cessione è stata "necessaria", ci dicevano, per via dell'alto indebitamento di Tim. Ma da dove viene questo debito? Non certo dalle sue operazioni economiche reali, bensì proprio dalla privatizzazione che, a fine anni 90, avrebbe dovuto diminuire l'indebitamento dello Stato.
Commentiamo poi quel che sappiamo della vicenda Paragon, in cui i silenzi del governo confermano tutti i nostri sospetti.
Notiziole di chiusura:
Ascolta la trasmissione e i vari argomenti sul sito di Radio Onda Rossa
Riassunto: la settimana scorsa, Meta ha avvisato che Graphite, uno dei sistemi per lo spionaggio digitale prodotti da Paragon (azienda israeliana), era stato utilizzato per spiare una novantina di persone che utilizzano la sua applicazione WhatsApp, in diversi paesi del mondo, tra i quali Francesco Cancellato, direttore di Fanpage e Luca Casarini, capomissione edell’organizzazione non governativa Mediterranea. Paragon fornisce i propri servizi esclusivamente ai governi e alle loro istituzioni, offrendo per lo più sistemi che possono essere impiegati per spiare comunicazioni e altre attività sui dispositivi elettronici
Il governo italiano ha minimizzato la vicenda, affermando di aver monitorato solo sette numeri senza includere giornalistɜ o attivistɜ. Ma, in tutta risposta, la società israeliana ha reagito sospendendo il contratto con l'Italia, segnalando che il Paese ne aveva violato le condizioni.
Per capire meglio la situazione di seguito trovate alcuni aggiornamenti.
Cogliamo l'occasione della nascita del sito degli appuntamenti di Roma, roma.convoca.la, per parlare di Gancio. Un software progettato e realizzato con i principi delle tecnologie conviviali, distribuito con licenza libera, federato, nato dalla comunità per la comunità.
Una volta tanto vogliamo segnalare cose positive. Perché è importante che esista questo software e venga usato? Intanto perché si tratta di una possibilità concreta che associazioni, collettivi, centri sociali, smettano di pubblicare i propri appuntamenti nella pagina eventi di Facebook o su Instagram. A questo proposito, consiglio la lettura di "Perché conviene abbandonare le piattaforme delle Big Tech"
Ma c'è anche un altro motivo, forse ancor più importante. Utilizzare piattaforme basate su software libero, decentralizzate, in cui le regole d'uso non sono definite da altri fuori dalla nostra vita, ci costringe a ragionare insieme su quelle regole, cominciando a diminuire l'alienazione tecnica che fa si che venga delegato a 4 multinazionali americane la decisione su quale debba essere lo sviluppo della tecnologia digitale. Una tecnologia che permea completamente le nostre vite. Forse è il caso che a deciderne lo sviluppo siano anche le comunità che la usano.
L'adozione dal basso di piattaforme del genere necessita che siano definite delle regole comuni condivise: la policy. Che vuol dire? Si tratta di rispondere a delle domande, e rispondere insieme. Per esempio nel caso della piattaforma degli appuntamenti:
E' un processo che necessariamente porta le persone a parlarsi, a comprendersi, anche a mediare, per giungere ad una policy condivisa.
Sul sito di Gancio ci sono tutte (o quasi) le città che hanno adottato il software (non sono poche e sono in aumento)
Ci vediamo a... :)
Nell’attacco informatico con lo spyware Paragon, che ha colpito attivisti e giornalisti in tutto il mondo ci sarebbe anche Luca Casarini di Mediterranea Saving Humans.
Venerdì 31 gennaio, Meta, la società proprietaria di WhatsApp, ha notificato ufficialmente a Luca Casarini, attivista e tra i fondatori di Mediterranea Saving Humans, che il suo telefono è stato violato attraverso uno spyware tra i più sofisticati al mondo. Il software utilizzato è sviluppato dalla società israeliana Paragon Solutions, che lo ha fornito a "governi alleati degli Stati Uniti", senza dare ulteriori spiegazioni. Nello stesso giorno, testate giornalistiche internazionali hanno rivelato che circa 90 persone in oltre venti Paesi sono state prese di mira, tra cui attivisti per i diritti umani e giornalisti investigativi. Tra i "target" italiani anche il cellulare del direttore di Fanpage, Francesco Cancellato.
Il prodotto di Paragon, considerato uno spyware di sorveglianza avanzato, opera in modo simile a Pegasus di NSO Group: una volta infettato il dispositivo, l'operatore ha accesso completo ai dati dell'utente, potendo leggere anche messaggi inviati su app crittografate come WhatsApp o Signal. WhatsApp ha contattato le presunte vittime in privato, senza rilasciare dettagli pubblici sull'identità degli obiettivi colpiti.
Ascolta l'intervista a Casarini sul sito di Radio Onda d'Urto
Il colosso ha rimosso dalle sue linee guida sull'intelligenza artificiale il divieto di utilizzare la tecnologia a scopi potenzialmente dannosi.
Il 4 febbraio Google ha annunciato di aver aggiornato i principi che regolano l'utilizzo della sua intelligenza artificiale e di altre tecnologie avanzate. Il colosso ha eliminato i riferimenti in cui prometteva di non perseguire "tecnologie che causano o possono causare danni", "armi o altre tecnologie il cui scopo principale o la cui implementazione causa o facilita direttamente lesioni alle persone", "tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando norme accettate a livello internazionale", e ancora "tecnologie il cui scopo contravviene a principi ampiamente accettati del diritto internazionale e dei diritti umani".
Diversi dipendenti di Google hanno espresso la loro apprensione per le novità. “È profondamente preoccupante vedere che Google abbandona il suo impegno per l'uso etico della tecnologia AI senza alcun input da parte dei suoi dipendenti o del pubblico in generale – dice Parul Koul, sviluppatore di software di Google e presidente di un sindacato che rappresenta i lavoratori di Alphabet, la holding che controlla l'azienda –, nonostante la posizione storica del personale sia che l'azienda non dovrebbe entrare nel business della guerra”.
Apriamo la puntata parlando delle ultime svolte in maniera di Intelligenza Artificiale, in particolare facendo il quadro dell'ingresso delle industrie cinese nel mercato dei Large Language Models e provando a discutere dei risultati del CHIPS Act: è servito, o i recenti sviluppi mostrano che era ormai troppo tardi?
Ci spostiamo poi al mondo dei social media, segnalando la decisione di ValigiaBlu di uscire, oltre che da X, anche dalle piattaforme di Meta. Evidentemente il video di Zuckerberg che si inchina a Trump ha segnato un precedente, per quanto ci sembra che le principali criticità fossero già insite.
Nuovo caso di Malware sviluppato da aziende israeliane, e diffuso tramite Whatsapp. Molte le persone coinvolte, in decine di paesi, tra cui l'Italia. L'unico nome che conosciamo è proprio quello di un giornalista italiano, Francesco Cancellato, direttore di Fanpage.it.
Notiziole varie: dall'impatto delle sanzioni sul software libero, a come battere il boss finale della Nintendo, passando per l'utilizzo dell'Intelligenza Artificiale nelle indagini.
La reputazione liberale del settore è fuorviante. Le sue tendenze reazionarie, che celebrano ricchezza, potere e mascolinità tradizionale, sono state chiare sin dalla mania delle dotcom degli anni Novanta.
Questo crescente "tecnofascismo", come lo avevano chiamato i critici dell'epoca, fu temporaneamente scongiurato dal crollo del mercato azionario delle dotcom del 2000. [...] Elon Musk , Peter Thiel e altri avevano assorbito le lezioni degli anni '90. All'inizio del nuovo millennio, erano pronti a lasciare il segno sul futuro, guidati dai sogni reazionari del passato.
I titani della Silicon Valley del 2025 stanno seguendo lo stesso schema. La scorsa settimana, Mark Zuckerberg ha annunciato che Meta avrebbe terminato i suoi programmi DEI (sulla diversità e identità di genere) e modificato le sue policy di piattaforma per consentire post più discriminatori e molesti. Nel podcast di Joe Rogan, Zuckerberg ha chiarito le sue motivazioni: ha affermato che la cultura aziendale si era allontanata dall'"energia maschile" e aveva bisogno di ripristinarla dopo essere stata "castrata".
Elon Musk ha rimodellato Twitter in X, una piattaforma che opera in gran parte come risposta alle affermazioni di un "virus del woke", l'ultima iterazione del "politicamente corretto". E lo stesso Marc Andreessen, il "bambino genio" degli anni '90, ha tratto sempre più ispirazione dai futuristi italiani, un movimento di artisti fascisti all'inizio del XX secolo che glorificavano la tecnologia mentre cercavano di "demolire" il femminismo.
Ma la storia della valle suggerisce che non si tratta di un glitch o di un'anomalia. È un crescendo di forze centrali per l'industria tecnologica, e l'attuale ondata di titani della tecnologia di destra sta costruendo sulle fondamenta della Silicon Valley.
Primo di una serie di articoli di CIRCE sulla rivista Gli Asini.
Il secondo mandato presidenziale di Donald Trump è un nuovo capitolo della saga “Tecnologie e politica”. Un uomo anziano, miliardario, bianco, plurindagato e pluricondannato, un autocrate violento e vendicativo, si circonda di suoi simili per governare gli Stati Uniti d’America, un paese che appare sempre più lacerato e sempre meno affidabile anche per i suoi alleati storici in Europa. Fra gli alleati di Trump, spiccano alcuni fra i più ricchi e potenti manager e investitori delle cosiddette nuove tecnologie. Il più in vista è il padrone di Tesla, di SpaceX e di X (ex Twitter), il controverso Elon Musk. Molti altri si contendono il fronte del palco trumpiano: si pensi al vicepresidente J.D. Vance, ma anche al padrone di Amazon nonché proprietario del Washington Post, Jeff Bezos, che ha interferito con la decisione del consiglio di redazione del giornale di sostenere la candidata democratica Kamala Harris, provocando le dimissioni indignate di alcuni giornalisti e la cancellazione di decine di migliaia di abbonamenti.
L’argomento è vasto e complesso. Anche al nostro interno abbiamo opinioni diverse, che non trovano una sintesi unitaria. Ci limiteremo quindi a presentare alcuni elementi della nostra discussione, tuttora in corso.
Il punto d’avvio, che ritorna in tanti dibattiti, può essere sintetizzato così: qual è la relazione fra governi eletti e multinazionali della tecnologia digitale? Sono queste ultime a essere strumenti dei primi, o viceversa? Come stanno cambiando forma, influenzandosi reciprocamente? Qualcosa è cambiato? Studiamo da decenni l’impatto delle tecnologie su individui e società (in particolare delle tecnologie digitali) ma i social media sono un caso a parte. Non è la prima volta che rileviamo uno stretto rapporto fra chi si presenta come innovatore a livello tecnologico, bisognoso di avere le mani libere rispetto a una legislazione percepita come ostacolo all’innovazione, e programmi politici che si raccontano come stravolgimenti dello status quo e rottamatori dell’inefficienza burocratico-statale.
Dal 2 febbraio entrano in vigore i divieti per l’utilizzo di sistemi di identificazione in tempo reale negli spazi pubblici, ma secondo numerose ong le eccezioni previste per le forze dell’ordine rischiano di portare ad abusi.
Dal 2 febbraio 2025 si applicheranno negli stati membri il Capitolo I e il Capitolo II del regolamento, che includono le proibizioni sui sistemi di AI a rischio inaccettabile.
Vietati d’ora in poi i sistemi di intelligenza artificiale che potrebbero indurre le persone a compiere scelte attraverso tecniche manipolatorie; inutilizzabili i sistemi che sfruttano vulnerabilità di persone o gruppi di persone (come ad esempio la condizione di disabilità, o quella economica); vietati i sistemi di polizia predittiva, e quelli che si basano su pregiudizi etnici o comportamentali.
Il capo di OpenAI ha annunciato a inizio anno che il suo nuovo modello di intelligenza artificiale avrebbe ottenuto risultati simili a quelli umani in una sorta di test del quoziente intellettivo. Un esito ottenuto però facendo allenare la macchina sulle stesse domande e in modo poco trasparente, con costi ecologici ed economici fuori scala. È ora di disertare questa agenda, fatta di macchine mangia-soldi e mangia-risorse.
Il 2025 si apre con fuochi d’artificio superiori a quelli a cui ci eravamo abituati sul fronte della propaganda attorno all’intelligenza artificiale (Ai).
Il nuovo modello prodotto da OpenAI avrebbe infatti raggiunto risultati comparabili con gli esseri umani nel risolvere il test ARC-AGI. Il video qui sopra contiene un esempio delle domande contenute in tale test, che ricorda molto da vicino i test del quoziente intellettivo (Qi) utilizzati in psicologia per “misurare l’intelligenza” degli esseri umani. Sorvoleremo in questa sede su due fatti chiave che richiederebbero invece una seria analisi: non esiste un consenso scientifico su che cosa sia l’intelligenza umana e animale, ossia una definizione condivisa e, anche fingendo di aver raggiunto un consenso, misurarla resterebbe tutta un’altra faccenda. Dal punto di vista “teorico” ci limiteremo a richiamare l’etimologia: “inter” più “ligere”, “leggere tra (le cose)”, leggere in profondità.
Sam Altman (più in generale l’intero comparto dell’Ai) ci ha abituato a trucchi degni degli artisti della truffa che giravano il suo Paese a inizi Ottocento, usati a supporto di affermazioni-bomba come quella appena citata (e immediatamente seguita da affermazioni ancora più esplosive sulla “Superintelligenza”). Ricordiamo, a titolo d’esempio non esaustivo, la figuraccia di Google alla presentazione del suo Gemini, quando i suoi padroni raccontarono che il modello in questione sapeva riconoscere il gioco della morra cinese al primo colpo (zero-shot), mentre -guardando il video completo- si scopriva che la verità era molto diversa (e i dettagli, in questo campo, sono molto importanti).
Potenziamenti in vista per la piattaforma nazionale anti-pirateria a un anno dal lancio: nuove sanzioni, stop ai limiti dei domini bloccati e guai a diffondere informazioni sulla tecnologia.
Prime televisive, trasmissioni esclusive, forse anche le serie: non è chiaro quale sia l’orizzonte che Piracy Shield vorrebbe raggiungere. Ma è chiara la preoccupazione degli internet service provider, che sono stati convocati in una serie di tavoli tecnici a gennaio di quest’anno per una presentazione delle novità in arrivo.
Tra queste l’eliminazione del limite alla quantità di risorse web che possono essere bloccate, stabilita originariamente proprio a tutela degli internet service provider più piccoli, per i quali tutta l’operazione è un costo vivo che non porta alcun guadagno. Un altro punto all’ordine del giorno è il reindirizzamento degli indirizzi Ip verso una pagina che informa l’utente che il sito richiesto offre contenuti illegali ed è per questa ragione bloccato. Come vedremo, si tratta di una misura tecnicamente irrealizzabile. Infine, la grande novità sarà l’introduzione di sanzioni nei confronti degli stessi internet service provider.
Con l'autrice Cristina Iurissevich presentiamo "E se i troll mangiassero i cookie?" (Eris) un libro per sopravvivere nell'era digitale. Con lei ragioniamo del senso dell'autodifesa digitale con un occhio, oltre che alla sorveglianza statale e aziendale, alle relazioni con le persone a noi vicine. Parliamo quindi di sexting, di diffusione non consensuale di immagini intime, di nudifier, di fiducia nelle persone e nelle tecnologie.
Concludiamo un commento sulle recenti rivelazioni che mostrano un ruolo dello stato francese nella trasformazione dell'AI Act in una direzione che desse sempre più potere alle polizie e ai militari.
L’authority italiana chiede alle società cinesi una risposta entro 20 giorni.
Il Garante per la protezione dei dati personali ha inviato una richiesta di informazioni a Hangzhou DeepSeek Artificial Intelligence e a Beijing DeepSeek Artificial Intelligence, le società che forniscono il servizio di chatbot DeepSeek, sia su piattaforma web che su App. E’ quanto si legge in una nota dell’autorità che ha valutato «l’eventuale alto rischio per i dati di milioni di persone in Italia».
Il Garante «ha chiesto alle due società e alle loro affiliate di confermare quali siano i dati personali raccolti, da quali fonti, per quali finalità, quale sia la base giuridica del trattamento, e se siano conservati su server collocati in Cina».
Lunedì 3 febbraio alle ore 15.00 presso la sede Cobas di Terni, via Cesi 15/a, presentazione di “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” di Stefano Borroni Barale. Ne parlano l'autore e Franco Coppoli.
Intelligenza artificiale (Ai) è un termine che raggruppa tecnologie molto diverse tra loro, con una lunga storia. I tifosi dell’Ai sostengono che questa tecnologia abbia il potenziale di risolvere alcuni dei problemi più urgenti del mondo, come il cambiamento climatico, la povertà e le malattie. I critici, invece, sostengono che questa tecnologia sia pericolosa e ingannevole.
Ma perché tutti parlano di Ai? Perché è un’eccezionale operazione di marketing: una delle meglio organizzate degli ultimi anni. Su questa le imprese della Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend negativo fatto di tagli al personale e cambi drastici dei loro programmi di sviluppo. Per comprendere quali siano le aspettative di queste aziende – e quali dovrebbero essere le nostre – in questo libro si ricostruiscono le tappe, le intuizioni e i paradossi che hanno attraversato la comunità scientifica, provando a tracciare una linea che collega Alan Turing, primo sostenitore dell’Ai forte, con i creatori di ChatGPT, il software in grado di sostenere un dialogo credibile con un essere umano.
L’incontro sarà fruibile anche online usando il software Jitsi a questo link https://meet.jit.si/altercobas
Gli algoritmi premiano l’engagement emotivo sulla qualità dei contenuti. La ricerca “Misinformation exploits outrage to spread online” dimostra come l’indignazione sia il principale motore della disinformazione online.
Scientificamente, quindi non empiricamente, sono stati esaminati una serie di dataset legati all’universo social statunitense (compatibile con la blogosfera e l’universo europei nei meccanismi essenziali), declinati in otto studi e due esperimenti comportamentali, per un totale di quasi un milione di link Facebook e oltre 44mila “tweet”, i post dell’X attualmente in capo ad Elon Musk prima della sua acquisizione.
Dopo le rivelazioni di Snowden, sappiamo che gli Stati Uniti sono impegnati nella sorveglianza di massa degli utenti dell'UE, raccogliendo dati personali dalle Big Tech statunitensi. Il "Privacy and Civil Liberties Oversight Board" (PCLOB) è la principale autorità di controllo statunitense per queste leggi. I media statunitensi riportano orache i membri democratici del PCLOB sono stati rimossi e i loro account di posta elettronica sono stati chiusi. Questo porta il numero di membri nominati al di sotto della soglia necessaria per il funzionamento del PCLOB. Il fatto che il Presidente degli Stati Uniti abbia semplicemente rimosso delle persone da un'autorità (presumibilmente) indipendente, mette in dubbio l'indipendenza di tutti gli altri organi di ricorso esecutivo negli Stati Uniti.
L'Unione europea si è basata su queste commissioni e tribunali statunitensi per ritenere che gli Stati Uniti offrano una protezione "adeguata" dei dati personali. Basandosi sul PCLOB e su altri meccanismi, la Commissione europea permette ai dati personali europei di fluire liberamente verso gli Stati Uniti nel cosiddetto "Quadro transatlantico sulla privacy dei dati" (TADPF). Il PCLOB è l'unico elemento di "supervisione" rilevante dell'accordo. Gli altri elementi fungono solo da organi di ricorso. Migliaia di aziende, agenzie governative o scuole dell'UE fanno affidamento su queste disposizioni. Senza il TADPF, dovrebbero smettere immediatamente di utilizzare i fornitori di cloud statunitensi come Apple, Google, Microsoft o Amazon.
Impazza DeepSeek, nuova AI cinese: per gli Usa un nuovo "momento Sputnik. Made in China 2025: per il progetto voluto da Xi è tempo di bilanci. E buon anno del serpente :)
Allora: la nuova versione è uscita poco dopo Natale, pare sia all’altezza di OpenAI e affini, è realizzata con solo una parte dei chip (ad esempio quelli Nvidia) bloccati dagli Usa verso la Cina. E fa parlare di sé come la prima forma di AI che riporta in qualche modo all’AGI (Artificial General Intelligence) specie la release R1. Insomma in ogni caso un po’ tutti hanno detto la stessa cosa: DeepSeek ha colmato un divario. E per gli Usa è arrivato un altro “momento Sputnik”, quello nel quale ci si rende conto che un competitor è più avanti (come capitò nel caso dello Sputnik sovietico, appunto, o come capitò alla Cina dopo la vittoria delle AI di Google contro il campione del mondo di go, allora si parlò di momento Sputnik, ma per la Cina)
Ora, ci sono molti tecnicismi al riguardo ma non solo perché DeepSeek ha segnato l’inizio di una nuova era nell’AI cinese, quella del risparmio: “DeepSeek è stato rapidamente soprannominato il "Pinduoduo dell'IA" e altri grandi giganti della tecnologia come ByteDance, Tencent, Baidu e Alibaba non hanno potuto trattenersi, tagliando i prezzi uno dopo l'altro. Una guerra dei prezzi per i modelli di grandi dimensioni in Cina era imminente”. E a differenze di aziende di stato “che bruciano soldi, in sussidi, DeepSeek è redditizia”.
Vediamo intanto di cosa stiamo parlando. DeepSeek è un'azienda cinese di intelligenza artificiale che sviluppa modelli linguistici di grandi dimensioni open-source. L'azienda è finanziata esclusivamente dal fondo speculativo cinese High-Flyer. Sia DeepSeek che High-Flyer hanno sede a Hangzhou, Zhejiang. DeepSeek è stata fondata nel maggio 2023 da Liang Wenfeng, un ex studente dell'Università di Zhejiang che ha iniziato a fare trading durante la crisi finanziaria del 2007-2008.
Un ministero X decide di rifare il “portale” del suo dipartimento Y e la sua parte riservata ai dipendenti, che sono due oggetti separati anche se i contenuti sono gli stessi. Perché lo vuole rifare? Perché usa un software vecchio e perché ci sono i soldi del PNRR da spendere.
Perché, pur avendo una struttura informatica interna, non l’ha fatto in passato? Perché ci hanno provato e non sono stati capaci. Quindi incarica un Grande Fornitore di Soluzioni, che ha tutte le caratteristiche di solvibilità, certificazioni, assicurazioni, le cravatte giuste etc.
Solo che il Grande Fornitore ha molti bravissimi commerciali e molti ragazzetti sottopagati, quindi non è in grado nemmeno di capire il problema.
Allora chiama un Medio Fornitore, che ha meno certificazioni eccetera ma almeno ha competenze tecniche su “portali”.
Il Medio Fornitore accetta perché anche se il GF si è preso la metà dei soldi, il budget è ancora interessante.
Solo che non ha personale qualificato per quello specifico software. Lo sa, ma accetta lo stesso.
Allora va alla fiera dell’este e trova un topolino, cioè una micro impresa che invece su quel software (senza nessuna certificazione) un po’ di esperienza ce l’ha. Gli promette un decimo del totale, ma per la microimpresa sono bei soldi lo stesso.
«Solo gli imprenditori sanno cosa c’è nella salsiccia: come funzionano sistemi tecnici complessi. Per questo gli industriali sono i più adatti a fissare le regole per la tecnologia». Così il 20 dicembre a Mar-a-Lago Tarek Waked, capo di Type One Ventures, sintetizzò il senso dell’incontro tra imprenditori, tecnologi e funzionari del futuro governo Trump intitolato dal promotore, il nuovo zar dell’intelligenza artificiale, David Sacks, «America First: il futuro di tecnologia, AI e spazio».
I capi di big tech che ieri hanno reso omaggio a Donald Trump alla cerimonia del giuramento vengono descritti come genuflessi davanti al nuovo potere politico. In realtà, però, loro — o, meglio, alcuni di loro — «sono» il nuovo potere politico.
E non si tratta solo di Elon Musk, ormai presenza fissa al fianco del nuovo presidente con la missione di ridisegnare uno Stato più «magro» ed efficiente: mentre i capi di Amazon, Apple, Microsoft, OpenAI, Google, saltano sul carro del vincitore per non essere lasciati indietro (o rischiare punizioni), e Mark Zuckerberg (Meta-Facebook) compie acrobazie ancor più spregiudicate alla ricerca di un posto al tavolo della rivoluzione tecnologica da portare nel cuore dello Stato e del sistema politico, l’occupazione dei centri nervosi del governo e delle agenzie federali è già iniziata.
Link all'articolo originale qui
L’11 settembre 1973 viene rovesciato il governo di Salvador Allende. L’episodio segna storicamente l’ascesa del neoliberismo. Insieme al colpo di stato politico, però, ve ne è stato un altro che ha segnato la storia dell’informatica e che ha portato all’attuale sviluppo dell’Intelligenza Artificiale secondo una direzione determinata da un preciso apparato politico-economico-militare-culturale. Ne parliamo con il professore Andrea Cerroni, docente all’Università Bicocca di Milano, che, da sempre, approfondisce questi e altri temi e che ci ha spiegato la correlazione tra Salvador Allende e l’informatica.
Storicizzare, criticizzare, conoscere sono, oggi, le armi fondamentali per scalfire la retorica che avvolge sia il neoliberismo sia la tecnologia digitale e decostruire la loro capacità di imporsi “ontologicamente”, come necessità e dato di fatto incontrovertibile, inibendo la possibilità di immaginare altro: altre strade, altre soluzioni, altri digitali, altre società.
Abbiamo incontrato il professore Andrea Cerroni, docente all’Università Bicocca di Milano, che, da sempre, approfondisce questi e altri temi e ci ha spiegato la correlazione tra Salvador Allende e l’informatica. Che cosa lega IA e neoliberismo; per quale motivo è stato modificato il titolo di uno dei testi più importanti della cibernetica cancellando l’originale “uso umano degli esseri umani”; come è possibile ipotizzare una “tecnologia umanistica”, che da Dante arriva ad Adriano Olivetti (che ha inventato il primo PC della storia). Cerroni ci fa anche una raccomandazione: chiamiamola “Artificial Intelligence, perché nella traduzione italiana si perde il collegamento con i Servizi (segreti o meno)”.