AI Intelligenza Artificiale guerra LLM
La fallacia del “modello linguistico” sarebbe rimasta confinata nel mondo della matematica astratta se le multinazionali della Silicon Valley non avessero un bisogno disperato di ripagare, almeno in parte, gli enormi investimenti fatti al buio nell’intelligenza artificiale. Il mercato non ripaga: le grasse commesse pubbliche, meglio se militari, sì. Con esiti fatali, come dimostra il bombardamento della scuola Minab, in Iran, a fine febbraio
“È la generazione, attraverso modelli, di un reale privo di origine o di realtà: un iper reale. Il territorio non precede più la mappa, né le sopravvive. È tuttavia la mappa che precede il territorio -la precessione dei simulacri- a generare il territorio”, Jean Baudrillard, “Simulacres et Simulation”, 1981.
[...]
Dopo lo sversamento all’esterno dei laboratori di ricerca dei modelli linguistici seguito al lancio di ChatGPT, informatica e politica sembrano preda di un pensiero molto simile a quello dei cartografi del racconto di Borges. La sana fiducia nell’utilità di modelli matematici per predire il comportamento del mondo fisico si è tramutata in fede cieca e assoluta. Secondo le imprese della Silicon Valley (e i loro protettori alla Casa Bianca) dovremmo prendere questi modelli a nostra “mappa del mondo”, per orientarci nel prendere decisioni importanti, soprattutto in emergenza.