La città impone alle aziende che usano la Ai per le assunzioni di non discriminare sulla base di razza e genere
Le aziende di New York City che utilizzano dei programmi d’intelligenza artificiale per gestire le assunzioni dovranno dimostrare che il software che impiegano non segue criteri discriminatori, sessisti o razzisti. Questa nuova legge, entrata in vigore mercoledì, è la prima al mondo del suo genere, e sicuramente detterà la linea da seguire per le aziende che vogliono avvalersi dell’ausilio di intelligenze artificiali per assumere personale
Questi software, chiamati automatic employment decision tool, strumento di decisione automatica sull’occupazione, o Aedt, hanno la funzione sia di segnalare i candidati promettenti, che di scartare quelli ritenuti non idonei, aprendo così la strada a tutta una serie di preoccupazioni riguardanti i criteri di valutazione delle intelligenze artificiali. Una donna in età fertile è una candidata appetibile al pari di un uomo della stessa età? E una persona non bianca?
Pennellate digitalmente perfette di statistiche del mondo, video di telecamere di sorveglianza da guardare sugli orologi del personale di sala, esplorazione di mondi su schermi verticali, come video istantanei e allo stesso tempo infiniti: la mostra Digital Antibodies al museo MAXXI di Roma riesce nell’intento di de-condizionare la mente dei visitatori nel consumare contenuti digitali in modi del tutto inaspettati.
È la “Spectacular miscalculation of global asymmetry” (Spettacolari errori di calcolo di globale asimmetria) di Correale ad aprire lo spazio espositivo, che diventa una sorta di ufficio di una multinazionale dove si passeggia tra computer che proiettano video in loop come se le macchine avessero una vita propria in nostra assenza, mentre sulle pareti le tele di apparenti pennellate astratte rappresentano dati e statistiche ben definite su fenomeni che riguardano la popolazione mondiale.
In queste tele la scelta di Correale è “usare i dati come strumenti di decolonizzazione e nuovo lessico realista”, come ha spiegato durante una Conversazione d’artista insieme al duo Eva e Franco Mattes, una strategia di resistenza alle decisioni algoritmiche arbitrarie che usano i dati perpetuando discriminazioni e disuguaglianze.