Che lezione possiamo trarre dall'algoritmo sessista di Amazon?
Tre anni fa, Amazon ha sperimentato l'automazione della selezione dei curriculum. L'algoritmo escludeva sistematicamente i curriculum delle donne. Quali lezioni può trarre l'HR da questo esperimento fallito?
Riassumi questo articolo con:
Se lavori nelle risorse umane in qualsiasi ruolo (e soprattutto nel recruiting), hai sicuramente visto la notizia...
BREAKING NEWS
Immagine: Screenshot LinkedIn
(https://media-exp1.licdn.com/dms/image/C4E12AQFdj7J0Jlx-ZQ/article-inline_image-shrink_1500_2232/0/1539515104318)
Decine e decine di post come questo sono stati pubblicati dall'ultimo fine settimana (siti di notizie, LinkedIn...) per diffondere la notizia...
#InBreve... di cosa si tratta davvero?
Tre anni fa, Amazon ha condotto un esperimento per automatizzare la preselezione basata sui curriculum.
L'idea: creare un algoritmo capace di analizzare 100 curriculum, valutarli su una scala a 5 stelle e selezionare i 5 profili con la maggiore probabilità di successo in azienda.
E poi... incredibile!
Si è scoperto che non funzionava.
Ancora peggio, l'algoritmo escludeva sistematicamente i curriculum delle donne.
#NonÈGiusto #SvelaIlTuoAlgoritmo #LIAÈIlNuovoPregiudizio
Come professionisti HR, quale lezione dobbiamo trarre da questo "esperimento fallito"?
Un algoritmo non nasce "sessista"... lo diventa.
Un algoritmo non è mai parziale, sessista, razzista o discriminatorio "per natura".
È semplicemente la formalizzazione di un processo configurato... dagli esseri umani.
Nel caso di Amazon, l'IA è stata addestrata su dati provenienti dai curriculum di persone già impiegate nell'azienda.
Ha quindi riprodotto le decisioni prese dai team HR nel corso di diversi anni.
1 — Prima di tutto, la questione del curriculum
Addestrando un'IA sui curriculum, le si fornisce solamente:
– il percorso accademico (titoli di studio, scuole)
– il percorso professionale (posizioni, durata, settori)
2 — La natura del campione
All'epoca, la forza lavoro di Amazon era composta per oltre il 60% da uomini.
Un'IA addestrata su un campione prevalentemente maschile apprende logicamente... regole con pregiudizi maschili.
3 — I pregiudizi umani del team HR
Gli esseri umani sono fallibili e soggetti a numerosi pregiudizi.
L'algoritmo ha semplicemente modellato questo sistema, riproducendone quindi i pregiudizi.
Importante:
Se si applicasse la stessa IA ai curriculum di altre aziende, si otterrebbero probabilmente algoritmi che discriminano:
– le donne
– le persone over 45
– le persone con disabilità
– le persone con nomi di origine straniera
... e altri ancora.
Dobbiamo abbandonare gli algoritmi nel recruiting?
Perdere il 50% dei talenti è un problema enorme.
Ma concludere che gli algoritmi sono "pericolosi" o "non pronti" sarebbe un errore paragonabile a dire che dovremmo vietare le automobili perché un guidatore ubriaco ha avuto un incidente...
Il vero problema non è forse... la selezione basata sui curriculum stessa?
Tutti concordano che i curriculum non sono un buon predittore del successo lavorativo.
Eppure praticamente ogni azienda continua a usarli come filtro principale.
Immagine: "What the f*** is wrong with you people?"
(https://media-exp1.licdn.com/dms/image/C4E12AQHyx6aj7tqWnA/article-inline_image-shrink_1000_1488/0/1539534799488)
Utilizzando dati deboli (curriculum), provenienti da un campione a predominanza maschile, e facendoli elaborare da un'IA... è difficile aspettarsi risultati diversi da quelli distorti.
Inoltre, anche nelle aziende del CAC40 con Data Scientist, l'HR rimane spesso la "parente povera": abbondanza di risorse per il marketing e il business... ma raramente per l'HR.
Eppure oggi qualsiasi azienda può fare una preselezione genuinamente migliore.
Confrontiamo:
Da un lato:
il curriculum
(percorso accademico e professionale)
Dall'altro:
chi è davvero la persona
(agilità intellettuale, capacità di apprendimento, motivazioni, personalità, comportamenti sul lavoro)
Quale di queste due categorie predice davvero la performance, l'integrazione e la compatibilità culturale?
Puoi automatizzare la tua preselezione... senza riprodurre l'"effetto Amazon"
Usare i test di selezione da soli non è sufficiente.
Devono essere abbinati a un modello predittivo, ovvero alla definizione di:
– i criteri attesi
– e il loro legame con la performance lavorativa
Come si crea un modello predittivo?
Passo 1:
Valuta i dipendenti attuali utilizzando questionari che riguardano:
– la personalità
– le motivazioni
– il ragionamento
Passo 2:
Valuta il loro livello di performance sui criteri che stai cercando di prevedere.
"Non lo sappiamo, non abbiamo i dati!"
Se un'azienda non è in grado di valutare la performance, nessuno strumento sarà in grado di migliorare la qualità delle sue assunzioni.
Potrà migliorare l'esperienza del candidato, generare statistiche... ma non predirà mai il successo.
Se un "esperto" sostiene di poterti aiutare senza chiedere questi dati, scappa.
"E se la mia azienda ha storicamente assunto principalmente uomini?"
Nessun rischio di riprodurre un pregiudizio in stile Amazon.
I criteri psicologici e comportamentali sono distribuiti molto bene nella popolazione, indipendentemente dal genere, dall'età o dalle origini.
I risultati del recruiting predittivo
In media, le aziende che utilizzano il recruiting predittivo:
– selezionano dipendenti più performanti del 20%
– accelerano i loro processi del 30%
– riducono i costi di circa il 20%
– diminuiscono il turnover del 50% sulle posizioni sensibili
È magia?
Assolutamente no.
Hanno semplicemente iniziato a fare selezione concentrandosi su chi sono davvero le persone, piuttosto che sul loro solo curriculum.
E sai cosa?
Quando ci si concentra davvero sulle persone... si ottengono risultati migliori.
Sorprendente, vero?



