profilazione dati pubblicità chatgpt manipolazione
Zoe Hitzig, ricercatrice che ha lavorato negli ultimi due anni in OpenAI, ha rassegnato le dimissioni nello stesso giorno in cui l'azienda ha iniziato a testare gli annunci pubblicitari all'interno del chatbot. La decisione è stata spiegata in un editoriale ospitato dal New York Times, in cui Hitzig collega direttamente il lancio della pubblicità in ChatGPT a un cambio di rotta che, a suo giudizio, allontana OpenAI dalle domande di sicurezza ed etica per cui aveva scelto di unirsi all'azienda.
Al centro delle critiche di Hitzig non c'è la pubblicità in sé, che la ricercatrice non definisce intrinsecamente immorale, ma la combinazione tra annunci e natura dei dati raccolti da ChatGPT. Nel suo intervento, descrive le interazioni con il chatbot come un "archivio di candore umano" senza precedenti, costruito a partire da conversazioni in cui gli utenti condividono timori medici, problemi di coppia, fragilità psicologiche e convinzioni religiose, spesso nella convinzione di dialogare con uno strumento neutrale e privo di interessi propri. Il timore è che un sistema di annunci inserito in questo contesto possa evolvere verso forme di targeting profondamente personali, difficili da comprendere e da controllare sia per gli utenti sia per i regolatori.
Secondo Hitzig, la fase iniziale dei test potrebbe rispettare linee guida relativamente prudenti, ma il problema emergerebbe nel lungo periodo, man mano che si consolida il modello di business basato sulla pubblicità. La ricercatrice richiama esplicitamente la traiettoria dei grandi social network, e in particolare di Facebook, dove gli impegni iniziali sulla tutela della privacy sarebbero stati progressivamente erosi dalla pressione di un motore economico centrato su engagement, profilazione e microtargeting. Nel caso di ChatGPT, la combinazione tra dati conversazionali intimi e ottimizzazione algoritmica degli annunci potrebbe creare incentivi a spingere contenuti capaci di influenzare decisioni sensibili, dagli acquisti alla salute, fino alle opinioni politiche, sfruttando contesti emotivi particolarmente vulnerabili.
Articolo completo qui
Fonte originale New York Times qui