L.I.C.I.A - Laboratorio Informale per la Critica dell'Intelligenza Artificiale - è un laboratorio che ha avuto per oggetto i servizi di creazione automatica di artefatti (testi, immagini, video, audio) a partire da indicazioni verbali generiche che va sotto il nome generico di "Intelligenza Artificiale Generativa"
Perché
Pur avendo sperimentato un certo numero di servizi di IAG online, noi non siamo in grado di fare un esame tecnico dell’IAG (cos’è, come funziona), né pretendiamo di sapere come sarà utilizzata nei vari ambiti lavorativi, come quello educativo. Possiamo però criticare i discorsi correnti sull’IAG. Criticare significa “valutare le pretese di universalità”:
Per leggere e, eventualmente, aderire al Manifesto vai sul sito
L’infrastruttura grazie alla quale miliardi di persone comunicano realizza i due sogni del potere: sapere chi parla con chi e influenzare le conversazioni
L’arresto in Francia del fondatore di Telegram sta provocando forti reazioni, anche a livello politico. Come però già in casi precedenti, basti pensare alle controversie relative a Facebook o a TikTok, le polemiche contingenti rischiano di oscurare le questioni strutturali di fondo. Si tende a dimenticare, infatti, che le tecnologie della comunicazione sono sempre state cruciali strumenti di potere e quindi sono sempre state – e oggi, più che mai, sono – tecnologie intrinsecamente politiche. Chi comunica con chi, quando, con quale frequenza, di che cosa e in quali circostanze sono informazioni che il potere – nelle sue varie forme e articolazioni, sia pubbliche, sia private – ha sempre desiderato possedere.
Inoltre, il potere ha sempre desiderato controllare il più possibile il flusso di informazioni che in qualche modo potevano influenzarne l’azione o intaccarne la legittimità. Due pulsioni, quella di tutto conoscere e quella di tutto controllare, rese entrambe ancora più intense in periodi di guerra o, comunque, di tensioni politico-sociali.
La Francia ha arrestato Pavel Durov, fondatore di Telegram, ma allo stato delle norme e della giurisprudenza sembra impossibile che in Europa il gestore di un servizio digitale globale possa essere considerato concorrente in possibili reati compiuti dagli utenti della piattaforma, al punto di subire un ordine di custodia cautelare per il fondatore.
In che misura il gestore di un servizio di messaggistica istantanea può essere considerato concorrente in possibili reati compiuti dagli utenti della piattaforma, al punto di subire un ordine di custodia cautelare per il fondatore?
Attenzione che la responsabilità penale è personale, e per poter concorrere in un reato occorre la coscienza e volontà di commettere un reato, anche se sotto forma di una condotta agevolativa, non basta ipotizzare che attraverso il servizio di messaggistica che ha milioni di utenti, possano essere compiuti degli illeciti dai singoli utenti.
Centinaia di studenti a Singapore non hanno potuto accedere a Internet e ai materiali in classe dai propri dispositivi didattici personali per almeno un giorno a causa di un problema tecnico in un’app di gestione installata su questi dispositivi.
Alcuni studenti hanno riferito di non essere in grado di accendere o spegnere il proprio iPad. Altri problemi che gli studenti hanno dovuto affrontare includevano l'impossibilità di connettersi al Wi-Fi e la ricezione di un messaggio di errore: "App di accesso guidato non disponibile. Contatta l'amministratore."
Quando gli studenti hanno finalmente potuto riavviare i propri dispositivi, hanno riferito di aver perso gli appunti salvati.
Ad aprile, il portale di gestione degli utenti di Mobile Guardian presso la sua sede nel Surrey, in Gran Bretagna, è stato violato, provocando una fuga di dati che coinvolgeva nomi e indirizzi e-mail di genitori e insegnanti di cinque scuole primarie e 122 scuole secondarie.
Bruce Daisley è stato vicepresidente per Europa, Medio Oriente e Africa presso Twitter, dove ha lavorato tra il 2012 e il 2020.
Adesso lancia l'allarme su Elon Musk, definito "un fragile narcisista che pubblica incessantemente su un social network che ha fatto suo".
Daisley sostiene che Musk sta utilizzando X in modo personalistico, come quando ha diffuso un post parlando di teorie complottiste di estrema destra su presunti "campi di concentramento" alle isole Falkland.
Il problema di fondo é che le piattaforme digitali sono più o meno tutte gestite in modo oligarchico e influenzano l'agenda pubblica col proprio flusso di notizie, vere o false non importa, influendo anche in modo consistente sulla generazione di consenso.
Probabilmente, per quanto le opinioni di Daisley siano fondate, non vanno alla radice del problema: i social media mainstream non si possono "usare bene", sono pensati per produrre un uso compulsivo da parte degli utenti, per influenzarne le scelte e i comportamenti.
Chiaramente, ogni piattaforma riflette anche le scelte e la filosofia di chi la detiene, come é evidente nel caso di Musk/X.
La storia recente ha insegnato che ogni ondata tecno entusiasta genera un effetto economico e sociale, il quale tende poi a rimodularsi, o meglio a sgonfiarsi, via via che quell'innovazione tecnologica perde di appeal, o magari si rivela proprio come un flop, come già accaduto negli anni scorsi con fenomeni come NFT, criptovalute, metaverso.
Troppa spesa, poca resa, questo lo dice addirittura Goldman Sachs rispetto all'AI generativa. Se questa grande attesa sarà mai ripagata in termini di vantaggi e rendimenti, é un grosso dubbio per l'industria: figuriamoci per gli utenti finali.
D'altro canto, un player che ha iniziato la corsa all'oro da tempo come OpenAI, potrebbe perdere 5 miliardi di dollari solo quest'anno a causa degli ingenti costi di ChatGPT. Nel frattempo, altri mega investitori, come Meta e Google, affilano le armi per scalzare la creatura di Sam Altman.
La domanda, chiaramente, é quali sono i benefici reali di questa corsa all'AI? La bolla sta forse iniziando già a sgonfiarsi, o è destinata a durare ancora per qualche anno?
Lo spiega l'esperto mondiale Bruce Schneier.
È facile considerare l'intelligenza artificiale come nient'altro che l'ennesima novità tecnologica, uno strumento informatico in più, un ausilio al quale ci abitueremo presto. Nessuno si è agitato o ha proclamato la catastrofe sociale per l'introduzione del controllo ortografico o del riconoscimento vocale. Quindi perché così tanto clamore, e in alcuni casi panico, proprio intorno all'intelligenza artificiale?
L'esperto di sicurezza informatica Bruce Schneier, autore di numerosi libri sulle tematiche digitali e membro del direttivo della Electronic Frontier Foundation, una delle associazioni di punta nella tutela dei diritti digitali, ha pubblicato un saggio, intitolato AI and Trust, nel quale spiega molto bene questa anomalia partendo da un concetto sociale, non tecnologico: la fiducia. E spiega perché noi, come esseri umani, siamo particolarmente vulnerabili alla natura seducente dell'intelligenza artificiale.
Materia oscura. La versione aggiornata 4o di ChatGpt commette meno errori delle precedenti, ma ancora ce n'è di strada da fare
Gli studenti lo sanno bene: quando si tratta di matematica e fisica non ci si può fidare del tutto dell’intelligenza artificiale generativa – ChatGpt e le sue colleghe, per capirci. Se si pone all’intelligenza artificiale un problema di qualche complessità, non sempre si ottiene la risposta giusta. Anche un esercizio di terzo o quarto anno di liceo può metterla in difficoltà, mentre se la cava benissimo con temi e traduzioni. Per questo ragazze e ragazzi, più saggi dei loro genitori, hanno inizialmente mantenuto qualche diffidenza nei confronti della nuova tecnologia e le verifiche di fisica e matematica integralmente copiate da ChatGpt sono state sporadiche.
Può sorprendere che l’intelligenza artificiale sviluppata e studiata da alcuni dei più brillanti matematici del mondo fatichi proprio in questi campi, mentre brilla con una versione dal greco. Ma la rete neurale che costituisce il «motore» di ChatGpt non impara sulla base di regole formali come i postulati della geometria euclidea o le leggi della meccanica newtoniana.
Il presidente di estrema destra del paese Javier Milei questa settimana ha creato l' Unità di intelligenza artificiale applicata alla sicurezza , che secondo la legislazione utilizzerà "algoritmi di apprendimento automatico per analizzare i dati storici sulla criminalità per prevedere crimini futuri".
Si prevede inoltre di implementare un software di riconoscimento facciale per identificare le “persone ricercate”, pattugliare i social media e analizzare i filmati delle telecamere di sicurezza in tempo reale per rilevare attività sospette.
Uno scenario alla Minority Report, tanto che Amnesty International sostiene che la mossa potrebbe violare i diritti umani.
“La sorveglianza su larga scala influisce sulla libertà di espressione perché incoraggia le persone ad autocensurarsi o ad astenersi dal condividere le proprie idee o critiche se sospettano che tutto ciò che commentano, postano o pubblicano sia monitorato dalle forze di sicurezza”, ha affermato Mariela Belski, il direttore esecutivo di Amnesty International Argentina.
Un articolo di Stefano Borroni Barale e Rinaldo Mattera sulla rivista Educazone aperta.
"Per capire di cosa stiamo parlando dovremmo iniziare, anzitutto, provando a dare una definizione dei termini “hacker” e “attitudine hacker”, compito piuttosto complicato, anche perché sull’argomento sono state scritte vere e proprie catene montuose di carta. Il tema è anche interessante, e meriterebbe di essere esplorato[1] in maniera critica e approfondita, ma i limiti di questo scritto non ce lo permettono.
Per evitare almeno le pericolose ambiguità create dall’immaginario collettivo dell’hacker come criminale informatico (stereotipicamente maschio, bianco, europeo, cisgender, deviante), nel prosieguo faremo ampio ricorso al discorso di Carlo Milani (2022), anche con Federico Cabitza (2024) e Davide Fant (2024).
Con hacker intenderemo un essere umano che mira, con il suo operato, a ridurre le varie forme di alienazione legate a relazioni e interazioni tra esseri umani ed esseri tecnici, sia presi singolarmente che socialmente.
Immaginiamo, a questo punto, qualche sguardo interrogativo. Ma gli hacker non erano i maghi del computer? Ecco alcune coordinate per comprende il significato che diamo noi di CIRCE (Centro Internazionale di Ricerca per le Convivialità Elettriche ) a questa parola, un significato non per forza migliore di altri, ma che illustra aspetti da noi scelti con cura, perché parte della nostra storia e delle nostre radici."