Amazon e Big Data, un connubio ormai inscindibile. Ma non basta raccogliere immense quantità di input: occorre trovare un senso, elaborare informazioni che riescano a innescare un piano d’azione. Tanto più se i dati in questione riguardano le persone.
Nel campo della selezione delle risorse umane, le aziende cominciano a fare ricorso a tecniche basate sull’Intelligenza Artificiale e il Machine Learning, per scoprire forme di raccolta e analisi dei dati di cui le persone non sarebbero capaci. Ma se mal impostate, le analisi fatte dall’IA possono essere, semplicemente, pessime.
Il gigante dell’e-commerce l’ha imparato a sue spese, quando ha pensato di sfruttare le proprie competenze per creare un programma di selezione del personale che scansionasse i CV per individuare automaticamente i primi 5 ogni 100 profili raccolti.
Per insegnare al programma come selezionare i candidati, si è deciso di sottoporre alla macchina le candidature arrivate in azienda negli ultimi 10 anni. In teoria, il programma avrebbe imparato a riconoscere le caratteristiche dei candidati di successo e quelle da scartare. In pratica, il programma ha imparato a respingere le candidature femminili.
L’indesiderato effetto collaterale altro non era che il risultato dei modelli di assunzione di Amazon: la maggior parte dei dipendenti in azienda sono uomini. Sulla base di questa informazione, il programma ha auto-appreso che i candidati maschi erano da preferirsi: ogni volta che trovava la parola “femminile” o il nome di un college femminile, abbassava la valutazione di quel profilo. Non c’era alcuna garanzia che il programma non avesse adottato altri atteggiamenti palesemente discriminatori: i vertici di Amazon non hanno potuto fare altro che staccare la spina.
L’errore è stato quello di usare un criterio basato sul pregiudizio e poi lasciare che il programma facesse tutto autonomamente. Senza considerare che se i criteri sono incompleti, contaminati o in qualunque modo sistematicamente iniqui, gli algoritmi ingloberanno quei preconcetti nei loro calcoli, presentando risultati distorti.
I computer di oggi hanno una potenza di calcolo incommensurabile. Ma fanno quello che si dice loro di fare: non importa quanto siano potenti, se hai impostato parametri sbagliati, lo saranno anche i risultati. L’errore di Amazon è stato facile da individuare, ma ci sono anche errori invisibili, e possono portare a risultati catastrofici.
Che cosa impariamo dal caso Amazon? Che i big data hanno sempre e comunque bisogno del tocco umano. Qualunque tipo di analisi ha bisogno di parametri chiaramente definiti ancora prima di accendere il computer. Se iniziamo a raccogliere dati senza una struttura, faremo sforzi a vuoto.
Gli assessement di Hogan sono concepiti per essere scevri da ogni possibile pregiudizio. Il database di riferimento contiene milioni di assessment e ha un elevato livello di complessità: eppure, i risultati rimangono validi perché la struttura è estremamente chiara e focalizzata. Ciò che ha ispirato Joyce e Robert Hogan quando hanno deciso di creare sviluppare test psicometrici per il mercato è stato anche l’esplicito proposito di eliminare il bias dagli assessment.
Tradotto e adattato da: What the Amazon Blunder Teaches Us About Big Data, di Robert Evatt, Managing Editor di Hogan Assessment Systems