Le aziende di New York City, che utilizzano l’intelligenza artificiale per aiutare a trovare assunzioni, ora devono dimostrare che il processo era libero da sessismo e razzismo. Secondo una nuova legge della “Grande Mela”, entrata in vigore mercoledì – la prima del suo genere al mondo – il software di assunzione che si basa sull’apprendimento automatico o sull’intelligenza artificiale per aiutare i datori di lavoro a scegliere i candidati preferiti o eliminare quelli negativi, chiamato strumento di decisione automatica sull’occupazione o AEDT, deve superare un audit da parte di una società di terze parti per mostrare di essere privo di pregiudizi razzisti o sessisti. Anche le aziende che gestiscono software di assunzione AI devono pubblicare tali risultati. Le aziende che utilizzano software AEDT di terze parti non possono più utilizzare legalmente tali programmi se non sono stati controllati. Le aziende utilizzano sempre più strumenti automatizzati nei loro processi di assunzione. Cathy O’Neil, CEO di Orca a, una società di consulenza che ha condotto audit sugli strumenti di assunzione per le aziende che vogliono essere in regola con la nuova legge di New York, ha affermato che l’aumento degli strumenti che giudicano automaticamente i candidati al lavoro è diventato necessario perché le persone in cerca di lavoro utilizzano anche strumenti che inviano un numero enorme di domande. “Nell’era di Internet, è molto più facile candidarsi per un lavoro. E ci sono strumenti per i candidati per semplificare tale processo. Come ‘dacci il tuo curriculum e faremo domanda per 400 posti di lavoro’ – ha dichiarato O’Neil – Ricevono troppe domande. Devono abbattere l’elenco in qualche modo, quindi questi algoritmi lo fanno per loro”. I programmi di assunzione basati sull’intelligenza artificiale hanno attirato l’attenzione, in particolare sul fatto che potrebbero mostrare pregiudizi basati sui dati su cui sono formati. Gli studi hanno scoperto da tempo che i programmi che utilizzano l’apprendimento automatico o l’intelligenza artificiale spesso mostrano razzismo, sessismo e altri pregiudizi. Poiché le applicazioni di intelligenza artificiale generativa come ChatGPT eMidjourney sono aumentate di popolarità, i legislatori federali e persino molti dirigenti di società tecnologiche hanno ripetutamente chiesto la regolamentazione. Gli esperti dicono che mentre la legge di New York è importante per i lavoratori, è ancora molto limitata. Julia Stoyanovich, professoressa di informatica alla New York University e membro fondatore dell’Automatic Decisions Systems Task Force della città, ha affermato che si tratta di un inizio importante ma ancora molto limitato. “Primadi tutto, sono davvero contento che la legge sia sui libri, che ora ci siano delle regole e inizieremo a farle rispettare – ha affermato la Stoyanovich – Maci sono anche molte lacune. Ad esempio, l’audit di bias è molto limitato in termini di categorie. Non consideriamo la discriminazione basata sull’età, ad esempio, che nelle assunzioni è un grosso problema, o le disabilità”. Inoltre, non è chiaro come verrà applicata la legge o in che misura. Un portavoce del Dipartimento per la protezione dei consumatori e dei lavoratori di New York, incaricato di far rispettare la legge, ha dichiarato che raccoglierà e indagherà sui reclami delle aziende accusate di violarla. Jake Metcalf, un ricercatore specializzato in AI per Data & Society, un gruppo senza scopo di lucro che studia gli effetti della tecnologia sulla società, ha affermato che, per la legge, questa tecnologia aiuterà o sostituirà sostanzialmente il processo decisionale discrezionale. “Ci sono parecchi studi legali del lavoro a New York che stanno avvisando i loro clienti di non conformarsi – ha dichiarato Metcalf – Tuttavia, è molto difficile capire cosa significhi il termine sostanzialmente”.