"Qualche giorno fa, su LinkedIn, un recruiter dichiarava di scartare tutti i candidati che non indicano competenze sull’intelligenza artificiale. Secondo lui, chi oggi non sa usare (o non dichiara di usare) l’AI non è più “occupabile”. Mi sono chiesto: cosa scriverei io, dopo trent’anni passati a lavorare con le informazioni, a progettare conoscenza, senso, orientamento? Sono forse meno competente solo perché non ho scritto “AI” nel curriculum? E allora ho provato a rispondere. Non con uno slogan. Ma con un saggio. Un saggio che parla di incertezza, di etica, di design cognitivo, di consapevolezza come forma di libertà. Un saggio che collega filosofia, teoria dell’informazione, architettura digitale e intelligenza artificiale. Perché non è l’AI che definisce la competenza, ma la capacità di dare forma al sapere. Anche — e soprattutto — quando è incerto.
Introduzione — Il valore euristico dell’incertezza
L’incertezza, lungi dall’essere un accidente della conoscenza, ne costituisce la matrice originaria. Fin dalle prime speculazioni epistemologiche, dalla aporia socratica alla sospensione del giudizio pirroniano, l’incertezza ha accompagnato la riflessione umana come segno di vitalità del pensiero e non della sua debolezza. In tempi più recenti, la filosofia della scienza ha sancito definitivamente il primato del dubbio sull’assoluto, riconoscendo nella fallibilità e nella revisione continua dei modelli conoscitivi l’unica via percorribile per l’accesso alla verità, sempre provvisoria. In questo scenario, l’informazione e le sue architetture assumono un ruolo cruciale, non tanto come dispositivi di certezza, quanto come sistemi di orientamento nell’incertezza."
Il ragionamento è l’abilità dell’intelletto di elaborare informazioni, stabilire relazioni tra esse e giungere a conclusioni coerenti e giustificate. Esso consiste nel processo mediante il quale si formulano inferenze a partire da un insieme di premesse o dati. In altre parole, si tratta di un meccanismo formale, cioè esplicitabile, che consente di transitare dal già noto al non ancora noto, dalla specificità alla generalità, o viceversa, assicurando coerenza e validità in ciascuna tappa del percorso. Dunque potremmo dire ‘ragioni!‘ a chiunque (o qualsiasi cosa) si mostri in grado di compiere tragitti di questo tipo.
Il luddismo, l'agire di quelle operaie e di quegli operai che agli inizi del 1800 prendevano a martellate o a zoccolate le macchine che toglievano loro lavoro, è comunemente giudicato atteggiamento retrogrado ed infantile. Ad uno sguardo più attento, il luddismo appare invece il primo passo, del tutto comprensibile ed anzi necessario, di reazione ad una novità. L'energia inizialmente indirizzata verso l'inutile attacco alla macchina trova negli anni immediatamente successivi una destinazione costruttiva. Nascono così le mutue, i sindacati, i partiti dei lavoratori. Oggi ci troviamo esattamente nella stessa situazione: seguire i luddisti nel non subire passivamente, trovare vie per rispondere costruttivamente. Questo articolo è stato rifiutato nel 2017 dalla rivista 'Prometeo'. Il motivo: è pessimista, fosco. Ma come scrivo nella conclusione "Credo che ci convenga essere turbati, spaventati, come lo erano i luddisti". Il turbamento è il necessario passaggio iniziale verso una presa di coscienza che si traduce in azione. Ripubblico qui l'articolo senza cambiare una virgola.
Secondo Meta, l'uso di Torrent per scaricare copie pirata dei libri non è illegale, se non vengono distribuite tramite seeding dopo il download.
Emergono nuovi dettagli relativi al processo che vede Meta sul banco degli imputati. L’azienda di Menlo Park, accusata di violazione del copyright da diversi autori per aver addestrato i modelli Llama con copie digitali pirata di numerosi libri, ha dichiarato che il torrenting senza seeding non è illegale.
I documenti depositati in tribunale hanno confermato che i dipendenti di Meta sono stati autorizzati a scaricare circa 82 TB di dati tramite Torrent dal sito Anna’s Archive. Le copie pirata dei libri sono state utilizzate per il training dei modelli Llama. L’azienda californiana sostiene che il “fair use” è consentito dalla legge.
Articolo completo qui
Il colosso ha rimosso dalle sue linee guida sull'intelligenza artificiale il divieto di utilizzare la tecnologia a scopi potenzialmente dannosi.
Il 4 febbraio Google ha annunciato di aver aggiornato i principi che regolano l'utilizzo della sua intelligenza artificiale e di altre tecnologie avanzate. Il colosso ha eliminato i riferimenti in cui prometteva di non perseguire "tecnologie che causano o possono causare danni", "armi o altre tecnologie il cui scopo principale o la cui implementazione causa o facilita direttamente lesioni alle persone", "tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando norme accettate a livello internazionale", e ancora "tecnologie il cui scopo contravviene a principi ampiamente accettati del diritto internazionale e dei diritti umani".
Diversi dipendenti di Google hanno espresso la loro apprensione per le novità. “È profondamente preoccupante vedere che Google abbandona il suo impegno per l'uso etico della tecnologia AI senza alcun input da parte dei suoi dipendenti o del pubblico in generale – dice Parul Koul, sviluppatore di software di Google e presidente di un sindacato che rappresenta i lavoratori di Alphabet, la holding che controlla l'azienda –, nonostante la posizione storica del personale sia che l'azienda non dovrebbe entrare nel business della guerra”.
Apriamo la puntata parlando delle ultime svolte in maniera di Intelligenza Artificiale, in particolare facendo il quadro dell'ingresso delle industrie cinese nel mercato dei Large Language Models e provando a discutere dei risultati del CHIPS Act: è servito, o i recenti sviluppi mostrano che era ormai troppo tardi?
Ci spostiamo poi al mondo dei social media, segnalando la decisione di ValigiaBlu di uscire, oltre che da X, anche dalle piattaforme di Meta. Evidentemente il video di Zuckerberg che si inchina a Trump ha segnato un precedente, per quanto ci sembra che le principali criticità fossero già insite.
Nuovo caso di Malware sviluppato da aziende israeliane, e diffuso tramite Whatsapp. Molte le persone coinvolte, in decine di paesi, tra cui l'Italia. L'unico nome che conosciamo è proprio quello di un giornalista italiano, Francesco Cancellato, direttore di Fanpage.it.
Notiziole varie: dall'impatto delle sanzioni sul software libero, a come battere il boss finale della Nintendo, passando per l'utilizzo dell'Intelligenza Artificiale nelle indagini.
Lunedì 3 febbraio alle ore 15.00 presso la sede Cobas di Terni, via Cesi 15/a, presentazione di “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” di Stefano Borroni Barale. Ne parlano l'autore e Franco Coppoli.
Intelligenza artificiale (Ai) è un termine che raggruppa tecnologie molto diverse tra loro, con una lunga storia. I tifosi dell’Ai sostengono che questa tecnologia abbia il potenziale di risolvere alcuni dei problemi più urgenti del mondo, come il cambiamento climatico, la povertà e le malattie. I critici, invece, sostengono che questa tecnologia sia pericolosa e ingannevole.
Ma perché tutti parlano di Ai? Perché è un’eccezionale operazione di marketing: una delle meglio organizzate degli ultimi anni. Su questa le imprese della Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend negativo fatto di tagli al personale e cambi drastici dei loro programmi di sviluppo. Per comprendere quali siano le aspettative di queste aziende – e quali dovrebbero essere le nostre – in questo libro si ricostruiscono le tappe, le intuizioni e i paradossi che hanno attraversato la comunità scientifica, provando a tracciare una linea che collega Alan Turing, primo sostenitore dell’Ai forte, con i creatori di ChatGPT, il software in grado di sostenere un dialogo credibile con un essere umano.
L’incontro sarà fruibile anche online usando il software Jitsi a questo link https://meet.jit.si/altercobas
Impazza DeepSeek, nuova AI cinese: per gli Usa un nuovo "momento Sputnik. Made in China 2025: per il progetto voluto da Xi è tempo di bilanci. E buon anno del serpente :)
Allora: la nuova versione è uscita poco dopo Natale, pare sia all’altezza di OpenAI e affini, è realizzata con solo una parte dei chip (ad esempio quelli Nvidia) bloccati dagli Usa verso la Cina. E fa parlare di sé come la prima forma di AI che riporta in qualche modo all’AGI (Artificial General Intelligence) specie la release R1. Insomma in ogni caso un po’ tutti hanno detto la stessa cosa: DeepSeek ha colmato un divario. E per gli Usa è arrivato un altro “momento Sputnik”, quello nel quale ci si rende conto che un competitor è più avanti (come capitò nel caso dello Sputnik sovietico, appunto, o come capitò alla Cina dopo la vittoria delle AI di Google contro il campione del mondo di go, allora si parlò di momento Sputnik, ma per la Cina)
Ora, ci sono molti tecnicismi al riguardo ma non solo perché DeepSeek ha segnato l’inizio di una nuova era nell’AI cinese, quella del risparmio: “DeepSeek è stato rapidamente soprannominato il "Pinduoduo dell'IA" e altri grandi giganti della tecnologia come ByteDance, Tencent, Baidu e Alibaba non hanno potuto trattenersi, tagliando i prezzi uno dopo l'altro. Una guerra dei prezzi per i modelli di grandi dimensioni in Cina era imminente”. E a differenze di aziende di stato “che bruciano soldi, in sussidi, DeepSeek è redditizia”.
Vediamo intanto di cosa stiamo parlando. DeepSeek è un'azienda cinese di intelligenza artificiale che sviluppa modelli linguistici di grandi dimensioni open-source. L'azienda è finanziata esclusivamente dal fondo speculativo cinese High-Flyer. Sia DeepSeek che High-Flyer hanno sede a Hangzhou, Zhejiang. DeepSeek è stata fondata nel maggio 2023 da Liang Wenfeng, un ex studente dell'Università di Zhejiang che ha iniziato a fare trading durante la crisi finanziaria del 2007-2008.
Spesso succede che l’avvento di nuove tecnologie sia accompagnato da paure e catastrofismi, e così succede anche per gli sviluppi degli ultimi anni delle tecnologie di Machine Learning, che oggi va di moda chiamare “Intelligenza Artificiale”. Ma le reazioni emotive vanno sempre approfondite, a costo di trovarsi alla mercé di interessi manipolatòri: le big tech companies sono molto motivate a far pensare che si tratti di tecnologie pericolosissime che solo loro possono gestire e controllare (magari con tanto di eccezioni legislative), e contemporaneamente usano questo piano emotivo come distrazione dalle considerazioni sull’utilizzo delle tecnologie nel contesto sociale.
Non facciamoci distrarre, è invece necessario studiare e capire limiti e potenzialità del Machine Learning, così come con qualunque altra tecnologia. Ma condurre questo tipo di ricerche in proprio in questo caso è complicato e dispendioso, per via dei necessari requisiti software e hardware.
Il collettivo Autistici/Inventati vuole cambiare questo stato di cose! Per questo movito ha realizzato un Laboratorio Popolare Condiviso di Machine Learning, offrendo hardware con relativi ambienti software preparati per il ML a gruppi e progetti selezionati, a costo zero.
Nessun accordo. Per ora. Ma c’è un’istruttoria in corso: e comunque non ci sono alternative ai servizi offerti dall’azienda di Musk. È questa la sintesi di quanto detto in conferenza stampa della presidente del Consiglio Meloni in merito al possibile contratto con SpaceX da 1,5 miliardi di euro per fornire comunicazioni satellitari al governo e ai militari. Istruttoria che - secondo l’agenzia Bloomberg, che per prima aveva dato la notizia e il cui articolo mi sembra sia rimasto centrale per inquadrare la vicenda - sarebbe stata in fase avanzata. Chiariamo subito che Bloomberg non ha scritto che l’accordo fosse chiuso. Ha però affermato che il progetto fosse già stato approvato dai servizi segreti italiani e dal Ministero della Difesa. E che i negoziati, in corso dal 2023, osteggiati da alcuni funzionari italiani e arenatisi fino a poco tempo fa, avrebbero ripreso ad avanzare dopo il recente incontro a sorpresa di Meloni con Trump in Florida.
In questo numero della newsletter Guerre di Rete