Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Open Ai, che produce Chat-Gpt, potrebbe chiudere il 2024 con un passivo di 5 miliardi di dollari. La corsa di big tech all’intelligenza artificiale rischia di essere insostenibile

Se governi e opinione pubblica stanno affrontando l’avvento dell’intelligenza artificiale con qualche (fondata) preoccupazione relativa a possibili utilizzi “indesiderabili” della tecnologia, l’impetuosa crescita di servizi e piattaforme basate su Ai mette a rischio anche la tenuta di tutti i protagonisti di questa ennesima rivoluzione digitale. La corsa all’Ia, per le Big Tech, rischia di essere un vero terreno minato. Il primo “rischio bolla” interessa proprio OpenAI, società che ha sviluppato (come no-profit) e commercializzato (dopo la trasformazione in for-profit) la celeberrima ChatGPT. Se in queste ore si parla di una raccolta fondi miliardaria che dovrebbe coinvolgere anche Apple e Nvidia e di una valutazione della società nell’ordine dei 150 miliardi di dollari, i suoi conti sono in profondo rosso. Secondo un report pubblicato da The Information, l’azienda di Sam Altman potrebbe chiudere il 2024 con un passivo di 5 miliardi di dollari.

leggi l'articolo su "Il Manifesto"

La storia recente ha insegnato che ogni ondata tecno entusiasta genera un effetto economico e sociale, il quale tende poi a rimodularsi, o meglio a sgonfiarsi, via via che quell'innovazione tecnologica perde di appeal, o magari si rivela proprio come un flop, come già accaduto negli anni scorsi con fenomeni come NFT, criptovalute, metaverso.

Troppa spesa, poca resa, questo lo dice addirittura Goldman Sachs rispetto all'AI generativa. Se questa grande attesa sarà mai ripagata in termini di vantaggi e rendimenti, é un grosso dubbio per l'industria: figuriamoci per gli utenti finali.

D'altro canto, un player che ha iniziato la corsa all'oro da tempo come OpenAI, potrebbe perdere 5 miliardi di dollari solo quest'anno a causa degli ingenti costi di ChatGPT. Nel frattempo, altri mega investitori, come Meta e Google, affilano le armi per scalzare la creatura di Sam Altman.

La domanda, chiaramente, é quali sono i benefici reali di questa corsa all'AI? La bolla sta forse iniziando già a sgonfiarsi, o è destinata a durare ancora per qualche anno?

Articolo originale qui

L’AI di massa, che tutto sommato è ancora da venire e dimostrare, avanza per supernove. La propulsione è quella di capitali ingentissimi e ad ogni passo semina morte e distruzione su chiunque altro ci abbia provato.

Iniziò allo stesso modo di tante storie incidentali, il 30 Novembre 2022 partì l’AI Race.

La bandiera a scacchi la diede un servizio di un’azienda poco nota, la OpenAI che lo aprì al pubblico con il nome di ChatGPT. L’AI è una materia che riguarda la scienza dell’informazione, molto più antica di questo software, ma l’effetto WoW fu così forte che segnò di per se una pietra miliare per l’intero settore. La profonda influenza di questo prodotto, soprattutto nella versione del lancio, non riguardava le effettive capacità, quanto piuttosto l’interesse del pubblico che attirava.

Leggi l'articolo

Se l'inglese come lingua franca è molto diffusa, permettendo di allenare IA inglesi in gran parte del mondo (anche a costi irrisori in condizioni di sfruttamento), non è lo stesso per lingue come il finlandese: è per questo che la compagnia finlandese Metroc allena il suo modello linguistico tra le carceri del Paese.

Da un lato c'è chi ritiene questo lavoro (€1,54 all'ora) uno fra tanti che offre il carcere, che non sfrutta gente nel terzo mondo (vedasi OpenAI in Kenia (https://t.me/eticadigitale/753)) e che permette di mantenere vivo il patrimonio linguistico-culturale, senza lasciare il predominio linguistico ed economico all'inglese.

Dall'altro c'è invece chi critica come Metroc faccia milioni sottopagando carceratɜ, temendo che la mancanza di freni possa portare a far fare loro lavori del clic provanti, come l'esposizione a immagini disturbanti per etichettarle (vedasi Facebook, sempre in Kenia (https://t.me/eticadigitale/592))

Leggi l'articolo su Wired.com

Occorre studiare l’interfaccia di Bing se si vuole capire come sarà Google post-AI.

Google pospone l’implementazione della sua intelligenza artificiale Bard nella sua UI (User Interface) in Europa per motivi legali ma possiamo già curiosare sulla sua anteprima attraverso l’area sperimentale di Google in diversi paesi nel mondo (no Europa).

Se però vogliamo avere un’idea su come sarà l’impatto dell’AI (Artiicial Intelligence) sui motori di ricerca sia a livello di SERP (Search Engine Results Page) che a livello di ranking possiamo andare a studiare ‘dal vivo’ cosa sta già presentando Bing di Microsoft grazie alla partnership con Open AI e quindi all’integrazione nella sua interfaccia di Chat-GPT (Generative Pretrained Transformer). A livello di (top) ranking non credo che il fattore X della SEO (Search Engine Optimization) ovvero la link popularity sarà messa in discussione (qualche idea di ottimizzazione post intelligenza generativa la propongo più avanti), mentre è a livello di pagina dei risultati di ricerca che, davvero, tutto, sta per cambiare drammaticamente.

Leggi l'articolo completo sul sito di Scacco al Web

Guerre di Rete - una newsletter di notizie cyber a cura di Carola Frediani
N.171 - 28 ottobre 2023

In questo numero:

  • Blackout su Gaza
  • AI, chi vuole avvelenare il dato
  • Lettera sull’AI
  • LLM e sanità
  • Italia, AI e comitati

INTERNET E CONFLITTO Blackout su Gaza

"Nella scorsa newsletter avevo raccontato come la Striscia di Gaza stesse subendo una progressiva riduzione della connettività. Negli ultimi tre giorni questa ha visto un ulteriore tracollo. Mentre le Forze di Difesa israeliane annunciavano di "espandere le operazioni di terra", il servizio che monitora internet Netblocks riferiva di un "crollo della connettività nella Striscia di Gaza". Vuol dire no internet, no comunicazioni telefoniche. Uno dei principali e ormai ultimi fornitori di telecomunicazioni palestinesi, Paltel, è stato fortemente colpito dagli intensi attacchi aerei, e ha dichiarato di aver subito "un'interruzione completa di tutti i servizi di comunicazione e internet" a seguito del bombardamento.
Interruzione confermata da Netblocks."

[...]

Leggi la newsletter sul sito di guerre di rete

Insieme a centinaia di altri siti di tutto il mondo, il manifesto ha bloccato i software che "alimentano" le enormi banche dati private delle IA

  • L'uso dei contenuti del manifesto per programmi di machine learning e IA è vietato salvo accordo scritto preventivo con la cooperativa
  • Tra i principali siti del mondo, uno su quattro sta bloccando l'accesso illimitato delle IA ai propri contenuti
  • E' una dichiarazione politica che mira a difendere il pubblico e la società da una espropriazione che potrebbe essere irreversibile

Leggi l'articolo su "Il Manifesto"

Juan Carlos De Martin, autore di “Contro lo smartphone. Per una tecnologia più democratica”, sarà ospite del Festival del Pensare contemporaneo il 23 settembre a Piacenza. Il suo intervento verterà sullo smartphone, strumento simbolo del nostro tempo, e sul ruolo che ha nelle vite di tutti. A cominciare dai piccolissimi e dalla scuola. Tanto che la Svezia (e non solo) dall’ed-tech sta iniziando a fare retromarcia

Dispositivi tecnologici che impattano pesantemente sulle nostre vite e il cui controllo è nelle sole mani delle big tech. Algoritmi e sensori che predano i dati di cittadini spesso inconsapevoli, talvolta senza strumenti. La politica che fatica a tenere il passo: scarsa conoscenza, inquadramenti tardivi e qualche volta inefficaci. Eppure il governo della tecnologia ha bisogno della politica e delle democrazie, di decisori e di cittadini.

Leggi l'intervista completa su Vita

Cosa ci insegna la storia di ELIZA, il primo chatbot che sembrava conversare come un umano. A partire da come il suo creatore divenne un critico feroce della perdita di autonomia dell’umano.

Tra i tanti ruoli che ChatGPT ha rapidamente iniziato ad assumere nelle vite dei milioni di utenti che lo utilizzano su base quasi quotidiana, ce n’è uno probabilmente inatteso. Per molti, il sistema di OpenAI con cui è possibile conversare su ogni argomento, e spesso in maniera convincente, è diventato un amico, un confidente. Addirittura uno psicologo. Una modalità non prevista (almeno esplicitamente) da OpenAI, ma scelta da un numero non trascurabile di utenti, che si relazionano a ChatGPT come se davvero fosse un analista. Per impedire un utilizzo giudicato (per ragioni che vedremo meglio più avanti) improprio e pericoloso, OpenAI impedisce al suo sistema di intelligenza artificiale generativa di offrire aiuto psicologico, che infatti di fronte a richieste di questo tipo si limita a fornire materiale utile da consultare. Ciò però non ha fermato gli “utenti-pazienti” che, su Reddit, si scambiano trucchi e tecniche per sbloccare ChatGPT affinché fornisca loro consigli psicologici.

Joseph Weizenbaum e il suo chatbot ELIZA

Un risvolto che potrebbe sorprendere molti. Uno dei pochi che sicuramente non si sarebbe sorpreso e che avrebbe avuto moltissimo da dire sull’argomento è Joseph Weizenbaum, scienziato informatico e docente al MIT di Boston, scomparso nel 2008. Colui che già parecchi decenni prima della sua morte aveva preconizzato – o meglio, affrontato e approfondito in prima persona – molti degli aspetti che portano le persone a relazionarsi in maniera intima con le macchine e le cause di questo comportamento.

Leggi l'articolo di Signorelli sul sito di Guerre di rete

Nell'ultima puntata dell'estate di DataKnightmare, Vannini prende spunto da un paper per porre alcune domande e diversi avvertimenti.

Il paper si pone due domande semplici. Se l'uso di chat gpt possa veramente migliorare la produttività e se l'uso di chat gpt abbia effetti diversi su lavoratori meno schillati che su lavoratori più schillati.
Le risposte sono chiare.
Con chat gpt il livello medio dei testi migliora e i tempi di produzione si abbassano, quindi siamo autorizzati a dire che la produttività cresce. Inoltre con chat gpt la differenza fra le capacità dei singoli viene fortemente ridotta.

Pur prendendo per buono il risultato del paper, le criticità sono molte.
Tra e altre: avere addestrato le cosiddette intelligenze artificiali in prevalenza su contenuti disponibili in internet, con le virgolette, significa che le intelligenze artificiali sanno scrivere come un marchettaro a cottimo, Perché quelli sono i contenuti prevalenti in internet, marketing, report aziendali senza anima e comunicazione funzionale.

Ieri abbiamo insegnato alle macchine come scrivono gli esseri umani usando come esempio quando gli esseri umani scrivono come macchine.
Il pericolo è che i vari chat gpt diventino il termine di paragone, per cui da domani gli esseri umani dovranno scrivere come macchine per non perdere la competizione contro macchine che scrivono come esseri umani che scrivono come macchine.

Ascolta la puntata e buon ascolto.

In anteprima e in uscita progressiva per i donatori, e poi per i lettori, la monografia di guerre di rete sull'intelligenza artificiale

Guerre di Rete - una newsletter di notizie cyber a cura di Carola Frediani N.167 - 4 settembre 2023

La newsletter riprende con l'annuncio dell’uscita del primo ebook di Guerre di Rete. Si intitola Generazione AI e, indovinate un po’, è dedicato agli ultimi sviluppi dell’intelligenza artificiale generativa, e al loro impatto sulla società, l’economia, la geopolitica. È stato ideato e curato da Carola Frediani, da Sonia Montegiove e da Federico Nejrotti, e i suoi articoli sono firmati da Stefano Casini, Antonio Dini, Carola Frediani, Federica Meta, Giuditta Mosca, Federico Nejrotti, Antonio Piemontese e Andrea Signorelli.

Troverete l’introduzione di Carola Frediani; Andrea Signorelli che racconta la storia del chatbot ELIZA e soprattutto di Joseph Weizenabum, e i suoi riverberi attuali; Antonio Dini ci trasporta in profondità nella “guerra fredda” dell’AI, lo scontro Usa e Cina, e le varie angolature geopolitiche della partita, da Taiwan all’Ucraina; Federica Meta si muove tra Usa, Ue e Cina, tra legislazione e investimenti, e poi analizza alcune delle aziende in campo; Federico Nejrotti racconta e analizza l’impatto dell’AI generativa sul mondo artistico; Giuditta Mosca sviscera un ampio studio, che analizza e critica il ruolo di Big Tech; Antonio Piemontese intervista alcuni esperti fra giornalismo, accademia e politica (Virginia Padovese; Mariarosaria Taddeo; Brando Benifei) sul rischio della generazione automatica di disinformazione; e Stefano Casini descrive alcuni degli strumenti di AI esplosi per il grande pubblico negli ultimi mesi.

Leggi l'introduzione di Frediani sul sito di Guerre di Rete

Nella puntata del 16 luglio, un'ospite speciale ci aiuta a capire meglio le implicazioni più sottili dell'approccio "big data" (basato cioè sull'accumulazione di archivi di dati caratterizzati dalla quantità prima che dalla qualità) nello specifico della linguistica.

Puntata con focus sui problemi più prettamente linguistici, osservando come i modelli di intelligenza artificiale che generano testo (insomma i vari ChatGPT) creano a tutti gli effetti la lingua; la raccolta di dati "a strascico", lungi dall'essere un metodo per ascoltare tutte le voci si dimostra un modo per selezionare le voci legittime; così, quello che poteva sembrare un problema semplice per un algoritmo innocuo apre il problema, per niente banale, della rappresentazione.

Lo facciamo seguendo, in parte, l'articolo che è costato il licenziamento di Timnit Gebru e accompagnati da musiche centroasiatiche.

Ascolta la puntata sul sito di Radio Onda Rossa

Esperimenti e allucinazioni di e con ChatGPT

Si potrebbe continuare così per molte pagine. Palmiro Togliatti è stato assassinato nel 1964 da un membro di un gruppo neofascista, gli scioperi a rovescio “sono una forma di protesta in cui i lavoratori continuano a lavorare nonostante sia stato proclamato uno sciopero”, nella lista degli appartenenti alla loggia massonica P2 figura anche Renzo Arbore, e così via

Non si tratta, però, degli errori commessi da una macchina allo stadio iniziale dell’“apprendimento”, ma di quelle che nel gergo tecnico vengono definite “allucinazioni”, risposte completamente inventate prodotte di frequente dagli strumenti di intelligenza artificiale

leggi l'articolo sul sito de "Gli Asini"

Prosegue il dibattito sull'AI.

Nella Newsletter del 28 maggio si parla di:

  • AI, copilota o dirottatore?
  • Bengio sui rischi e la sicurezza nell’AI
  • Spyware, GDPR e altro

Microsoft ha annunciato che nei prossimi mesi integrerà Copilot, il suo assistente AI, in Windows 11. Sarà quindi possibile, fra le altre cose, chiedere all'assistente di "regolare le impostazioni" o di eseguire altre azioni su un computer (The Verge). “Stiamo introducendo Windows Copilot, rendendo Windows 11 la prima piattaforma per computer ad annunciare un’assistenza AI centralizzata per aiutare le persone a intervenire facilmente e a realizzare le cose”, scrive Microsoft nel suo blog...

leggi la newsletter nel sito di Guerre di Rete

Le macchine estraggono modelli statistici dalle grandi basi dati di testi e immagini costruite da noi. Basterebbe proibirgli di usare i nostri contenuti per addestrarsi

[...]

Hinton si iscrive nella lista degli scienziati pentiti dopo aver contribuito allo sviluppo dell’intelligenza artificiale, di cui viene considerato addirittura il ‘padrino’. Si consola pensando che comunque qualcun altro lo avrebbe fatto al posto suo. È importante mantenere uno sguardo critico nei confronti di questi atteggiamenti dei grandi esperti di tecnologia. Il rimedio potrebbe essere peggiore del male.

[...]

Leggi l'articolo di Teresa Numerico sul sito de "Il Manifesto"

Nel corso dell’evento ASU+GSV tenutosi a San Diego, Bill Gates ha affrontato un interrogativo posto da alcuni partecipanti riguardo alla possibilità che, in futuro, ChatGPT possa sostituire i docenti.

Leggi l'articolo completo su orizzonte scuola

La newsletter di Carola Frediani questa settimana tratta principalmente temi legati all'IA N.159 - 7 maggio 2023

In questo numero:

  • Geoff Hinton è uscito dal gruppo
  • Samsung vieta l'uso di ChatGPT
  • ChatGPT e i servizi di "tutoraggio" online
  • Moderatori di contenuti uniti
  • La storia dell'hacking è ancora da scrivere
  • E altro

Leggi la newsletter sul sito di Guerre di rete

La quantità è una parte importante dei ragionamenti; a volte diventa qualità, diceva un tale. Cose piccole sono trattabili, cose grandi meno. I computer (in generale le macchine) servono a rendere trattabili cose troppo grandi per noi. Ma anche loro hanno dei limiti, pratici o teorici.

Per esempio GPT-3 (la cosa che sta dietro ChatGPT, ma anche dietro DALLE-E, per quanto si faccia fatica a capire cosa c'entrano l'una con l'altra ed entrambe col T9) è una cosa grossa assai. GPT significa Generative Pre-trained Transformer. Grosso modo, per quel che anche un ignorante come me capisce, è un modello linguistico con un sacco di parametri che è stato costruito nel 2020 a partire da diverse sorgenti utilizzare come dati di partenza una "copia di internet, Wikipedia, archivi di immagini, etc." Un oggetto "molto, molto grande".

Quanti parametri, cioè quanti possibili modi di configurare il modello? Dicono 175 miliardi. Un numero talmente grande che solo un altro software è in grado di enumerarli o verificarli.

Leggi l'articolo completo sul sito di Stefano Penge

Nella puntata di Le Dita Nella Presa del 16 Aprile 2023 si è parlato di:

  • Il TorProject presenta un nuovo browser che... non include tor! Raccontiamo di cosa si tratta e, già che ci siamo, ne approfittiamo per parlare un po' di Tor, VPN e affini.
  • Finalmente compiuta la sottomissione del capitalismo californiano alle volontà popolari in India, dove finalmente sarà il governo, con apposita commissione, a indicare quali notizie sono false e vanno rimosse dai social network.
  • Ancora azioni legali contro la possibilità di scaricare i video di Youtube. Questa volta a farne le spese è il provider del sito di presentazione di youtube-dl.
  • L'intelligenza artificiale inventa. A proposito di notizie false, vediamo quanto sono brave le IA a crearne, focalizzandoci sul fenomeno dello swatting as a service.
  • Nuovo passo nella paradossale lotta tra Google e Apple sulla protezione della privacy. Google cerca di rimontare obbligando le app presenti nel Play Store ad includere funzioni di cancellazione dell'account e dei dati.
  • Finalmente un alto esponente del Pentagono sostiene che un oggetto spaziale potrebbe essere una sonda aliena, e lo scrive addirittura su un articolo (non pubblicato). Non tutti sono d'accordo.

Ascolta la trasmissione sul sito di Radio Onda Rossa

Puntata di Doppio Click su Radio Popolare Milano interamente dedicata all'Intelligenza Artificiale con ospite Carlo Milani.

Prima parte di trasmissione dedicata alla limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGPT, disposta dal Garante per la protezione dei dati personali.

La seconda parte approfondisce i temi generali dell'Intelligenza Artificiale con l'aiuto di Carlo Milani, autore insieme a Vivien García di un importante articolo, pubblicato su Mondo Digitale, dal titolo: "L'evoluzione dell'Intelligenza Artificiale: dall'automazione del lavoro al condizionamento reciproco".

Ascolta la puntata di Doppio Click sul sito di Radio Popolare Milano

Leggi l'articolo su Mondo Digitale