Diversity Hiring & AI
Quando anche i sistemi di Intelligenza Artificiale tendono a perpetuare stereotipi
Per natura i sistemi di intelligenza artificiale apprendono in maniera differenziale, comparando le caratteristiche dei membri di una classe contro quelle dei membri delle altre. Questo approccio porta alla fairness o alla discriminazione? Ne ho parlato con Enrico Santus, Senior Data Scientist alla Bayer e NLP Advisor per MindPhi, precedentemente Postdoc in Computer Science e Artificial Intelligence al MIT.
La diversity è al momento uno dei temi cardine del mondo aziendale. Molte aziende stanno quindi implementando nuove modalità di recruiting che la assicurino e l’utilizzo di sistemi di intelligenza artificiale è una di queste.
L’intelligenza artificiale è un investimento non solo per automatizzare alcune operazioni che sottraggono tempo alle Risorse Umane, coordinando in modo intelligente il salvataggio dei dati e incrociandoli con quelli che sono i bisogni dell’azienda, ma anche per superare un limite umano che è quello di essere influenzato dalla prima impressione avuta sul candidato o dalle proprie naturali inclinazioni.
Sebbene siano stati fatti dei progressi enormi nel perfezionamento di sistemi di intelligenza artificiale contro i bias, la strada da percorrere è ancora lunga.
Nel 2015 – ad esempio – Amazon si rese conto che il suo sistema di intelligenza artificiale non classificava in modo neutro rispetto al genere le candidature ricevute per la posizione di software developer.
Questo perché la macchina era stata “addestrata” a selezionare candidati a partire dai curricula pregressi presentati alla società per quella data posizione. E la maggior parte dei curricula, per quella posizione, proveniva da uomini. Quindi la macchina stessa aveva deciso che erano preferibili i candidati maschi e penalizzava tutti i curricula che includessero la parola “femminile”, come “capitano del club di scacchi femminile”.
Questo episodio evidenzia quindi due ordini di problemi legati al machine learning: l’interpretabilità delle decisioni e il bilanciamento dei dati.
Ne ho parlato con Enrico Santus, Senior Data Scientist alla Bayer e NLP Advisor per MindPhi, in precedenza Postdoc in Computer Science e Artificial Intelligence al MIT. Enrico – tra l’altro – in questi giorni sta lavorando a Safe Paths, l’app del MIT per tracciare i contagi e la diffusione del Coronavirus – una combinazione di GPS e Bluetooth che ci avvisa se abbiamo incrociato una persona positiva, garantendo però in modo assoluto sia la nostra che la sua privacy.
Enrico, a tuo parere, l’intelligenza artificiale può svolgere un lavoro di recruitment più accurato, preciso, imparziale e non condizionato rispetto ad un essere umano? Come e perché?
Dipende dai dati sui quali il sistema di intelligenza artificiale è stato “addestrato”. Se tu hai dati storici che contengono dei bias – ad esempio, le infermiere nei tuoi storici sono principalmente donne e i CEO principalmente uomini – la macchina preferirà assumere donne come infermiere e uomini come CEO. Un modo per girare intorno alle distorsioni create dai bias nei dati di addestramento è sfruttare sistemi di normalizzazione. Per evitare che il sistema faccia selezioni preferenziali, si può ad esempio normalizzare il colore della pelle – così da eliminare bias etnici – oppure il genere – sicché non vi siano selezioni preferenziali per uomini o donne. Queste normalizzazioni possono avvenire in tanti modi, per esempio rimuovendo dei dati anagrafici (come il genere) o rendendo uniformi foto, video e suoni. Per esempio, video interviste possono rimuovere tratti etnici (come il colore della pelle) o di genere (come la frequenza della voce).
Questo tipo di normalizzazioni però non risolvono tutti i problemi, perché le macchine apprendono in maniera differenziale, confrontando migliaia o milioni di dati. Quando si confrontano i dati in questa maniera è chiaro che emergono le differenze tra i candidati scelti e quelli non scelti. Alcune di queste differenze sono realmente importanti (per esempio le competenze), mentre altre sono solo casuali (per esempio, potrebbe accadere che la maggior parte dei candidati scelti ha le orecchie lunghe o il naso piatto). I sistemi di intelligenza artificiale possono sopravvalutare l’importanza delle differenze casuali e basare le proprie decisioni anche su esse. Un po’ quel che accade anche tra gli umani, con coloro che credono alle teorie Lombrosiane.
Diventa pertanto fondamentale capire perché la macchina prende determinate decisioni. Se siamo in grado di interpretare perché la macchina ha deciso una cosa piuttosto che un’altra, allora possiamo supervisionare le scelte ed essere sicuri che la macchina stia seguendo il procedimento logico corretto. Ma, per rispondere alla tua domanda, la macchina può certamente sostituirsi al recruiter. La domanda però è se ci si può fidare ciecamente del suo lavoro, e chi paga in caso di errori.
Quello che la macchina può fare bene e milioni di volte più velocemente degli esseri umani è automatizzare semplici processi ripetitivi a scarsa responsabilità. Esempio tra tutti, l’inserimento dei dati dei candidati nei database. Oggi ci saranno migliaia di persone che riscrivono i dati dei candidati, passandoli dai curricula a tabelle Excel o database su Access. Beh, questo può essere fatto dalle macchine in minuti.
Sulle attività che richiedono responsabilità usare sistemi di machine learning non interpretabili e basati su dati storici è rischioso. Il machine learning è uno strumento, e come tale può essere utilizzato in maniera positiva o negativa. Utilizzarlo in maniera positiva significa che chi lo ha implementato ha fatto il possibile per educare la macchina, strutturando reti ed algoritmi su dati che siano quantomeno bilanciati per le categorie sensibili. Questo non vuol dire che il sistema agirà in maniera perfetta, ma almeno c’è stato uno sforzo di ottimizzazione. Sappiamo che anche le persone non sono perfette, e che soffrono di vari margini di errore. In fin dei conti, la situazione nelle macchine non è diversa.
Pensi che l’intelligenza artificiale rischi di violare principi etici e in qualche modo non considerare le regole fondamentali della selezione (ad esempio il principio di non discriminazione o la tutela della privacy)?
Sicuramente esistono topic etici nell’uso di tecnologie nel recruitment. Uno tra tanti, il problema di quanto duri nei database l’esito di un colloquio di lavoro. Supponiamo che io vada male in un colloquio, se la mia performance viene salvata in un database, quanto a lungo ci rimane? Il mio dato viene riutilizzato per addestrare altre macchine? Può essere benissimo che io quel giorno stessi male. Non sarebbe corretto essere bollato per il resto della mia vita e magari influire nelle scelte dei futuri sistemi addestrati anche sul mio colloquio.
Un altro topic etico è connesso alla privacy. Uno degli strumenti più efficaci per individuare automaticamente i migliori candidati è fare un matching tra i loro profili e le posizioni aperte. Questi matching però oltre ad essere basati su dati che i candidati rilasciano, spesso sfruttano anche informazioni private degli stessi, monitorando i profili social e facendo una stima della reputazione. Qualche anno fa andava di moda un sito che produceva informazioni sulla reputazione di ciascuno di noi sul Web…
Può l’intelligenza artificiale essere la nuova frontiera per la ricerca del lavoro anche da parte del candidato (già oggi navigando fra le Skill di Alexa può capitare di imbattersi in Skill come Job Search, Job Finder, Interview Prep)?
Assolutamente. Quando fai un matching lo puoi fare in tutte e due le direzioni. Anche un candidato può servirsi di un sistema che gli permetta di classificare le aziende che sono più appropriate per sé, per la sua persona, per i propri valori etici e morali.
Ti faccio un’ultima domanda, in che modo a tuo avviso l’intelligenza artificiale condizionerà il mondo HR e il recruiting (nel breve-medio-lungo termine)?
Le Risorse Umane avranno sempre più un ruolo di supervisione. Gli algoritmi faranno pre-selezioni e produrranno report sui candidati migliori, ma passerà del tempo prima che potremo dare agli algoritmi anche l’ultima parola. Come dicevo prima, l’intelligenza artificiale automatizza dei compiti laboriosi e ripetitivi, liberando l’essere umano e lasciandogli la possibilità di sfruttare le sue skills più importanti: l’intelligenza e la creatività. Un po’ come quando i buoi iniziarono a trainare l’aratro… Il contadino non smise di lavorare, ma anzi impiegò meglio il suo tempo e aumentò la produttività.
In conclusione: al momento non sono poche le aziende che hanno fatto degli investimenti per il perfezionamento dei propri sistemi di intelligenza artificiale al fine di ridurre i bias, rendendo i sistemi più solidi e rispettosi per tutti, anche per quei gruppi o per quei soggetti che attualmente non sono consapevoli di essere discriminati. Ma quanto spesso il politically correct è solo un modo per emergere rispetto ad altri? Quanto invece la diversity è sentita davvero come un valore aggiunto?
Sicuramente la diversity non è solo tema etico, ma anche una chiave per la redditività – come dimostra una ricerca pubblicata a gennaio del 2018 da McKinsey & Company – e se sempre più aziende si doteranno di sistemi di intelligenza artificiale per il recruiting, come già sta avvenendo, è essenziale che vengano progettati sempre più sistemi che tendano all’inclusione e che riducano i bias quanto più possibile, fino a rasentare lo zero.
Questo articolo è offerto da: