AI Intelligenza Artificiale DataKnightmare LLM
Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un difetto risolvibile. I tentativi di controllo qualità sui dati richiedono risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali addestrati su dati limitati
I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile – dell’industria dell’intelligenza artificiale. Tra promesse di precisione e realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo.
L‘insistenza criminale sui sistemi predittivi fallimentari
C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed è la criminale, idiota insistenza a volersene dotare.
Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo un discorso più generale.
leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)