AI Recruiting: 4 criticità nell’usare un’Intelligenza Artificiale al posto di un selezionatore

Non è facile selezionare il candidato giusto per un’azienda, ed è per questo che molte realtà vogliono appoggiarsi alle Intelligenze Artificiali per ridurre al minimo la possibilità di errori di selezione. Tuttavia, la decisione di utilizzare un robot porta con sé tutta una serie di criticità che analizzo alla luce delle ricerche scientifiche e alla consapevolezza che i robot non sono altro che un prodotto realizzato da esseri umani, portatori di errori cognitivi inconsapevoli che influenzano ciò che costruiscono.

La rivoluzione tecnologica degli ultimi anni ha portato le aziende di tutto il mondo a razionalizzare i propri costi relativi al personale per sostituirlo con dei surrogati elettrotecnici. Oggi e domani, robot e software dotati di Intelligenza Artificiale lavoreranno a fianco e al posto di numerose figure professionali, per ottimizzare tempi e costi lavorativi, riducendo al minimo la possibilità di errore.

« Errare humanum est » (Seneca)

Perché l’errore, si sa, è un’azione del tutto umana. E in ambiti relazionali, e quindi a forte impatto umano, la possibilità di prendere una decisione sbagliata – che può costare molto all’azienda – è decisamente elevata.

Il recruiting

All’interno delle aziende, essere reclutatore significa avere una particolare sensibilità nel cogliere, attraverso il modo di rapportarsi dell’altro, quelle caratteristiche che possono essere allineate con i bisogni dei committenti.

Mentre lo screening dei curricula rimane un’azione piuttosto meccanica, in cui la relazione umana è ridotta quasi a zero – e che già, soprattutto nelle multinazionali che vedono entrare migliaia di CV per ogni offerta, viene affidata alle Intelligenze Artificiali – nella fase di pre-selezione (con la lettura più attenta di CV e lettere di presentazione) si possono già intravedere le prime abilità relazionali del selezionatore.

Il recruiter, infatti, non analizzerà soltanto i fatti lavorativi esposti dei potenziali candidati, ma ne coglierà il modo di porsi, la convinzione e la motivazione al lavoro, la comprensione dell’annuncio e dell’obiettivo aziendale, e tante altre caratteristiche tutte umane che rendono quindi difficile credere che un software possa comprenderle nella loro complessità.

Figurarsi durante la fase di colloquio: come può un’Intelligenza Artificiale capire se un candidato è allineato con i bisogni aziendali attraverso il suo modo di porsi durante un primo contatto faccia a faccia con il recruiter virtuale?

Il Virtual Recruiter 

Se a svolgere il colloquio di selezione è una macchina, significa che il candidato si trova di fronte a un surrogato umano/umanoide che in qualche modo è posto in una posizione di potere superiore alla sua, poiché lo deve giudicare al fine dell’assunzione.

Il software dovrà essere dotato di Intelligenza Artificiale, e sarà quindi in grado non soltanto di percepire tutte le informazioni utili per effettuare la selezione, ma saprà anche imparare ad agire in base a quanto osserverà dall’analisi dei dati aziendali dei recruiting passati e dalle informazioni osservate nei nuovi candidati.

Molte aziende, in particolare le banche, hanno iniziato a rivolgersi a industrie tecnologiche avanzate per affidare a un software il processo di selezione del candidato ideale. Gli errori umani del recruiter, che può scartare o selezionare profili sulla base di inconsapevoli bias (errori) cognitivi (le cosiddette “euristiche” studiate dai ricercatori Khaneman e Tversky nel 1979), costano troppo alle aziende, che non vogliono assumersi il rischio di sbagliare per colpa di un fattore umano.

bias cognitivi

Gli errori di valutazione che l’essere umano compie nella presa decisionale sono molti, e hanno la peculiarità di essere per lo più inconsapevoli. Secondo la Teoria del Prospetto di Khaneman e Tversky sopra citata, quando cerchiamo di prendere una decisione utilizziamo delle euristiche, cioè delle strategie cognitive sbagliate a livello logico, che gli autori descrivono nei dettagli attraverso numerose ricerche (per una spiegazione più accurata di queste, vi rimando alla pagina di Wikipedia dove ne sono esposte alcune).

Più la situazione è ambigua, e più ci si affida a queste euristiche, che permettono di risparmiare energia cognitiva utilizzando la soluzione che è più veloce da reperire in memoria, che più ci ha coinvolto emotivamente, eccetera, portandoci spesso a prendere una decisione fuori dal rigor di logica, e quindi errata.

Siccome la situazione del colloquio di lavoro è molto complessa e quindi ambigua, spesso i selezionatori cadono in questi errori, ed è per questo che le aziende vogliono risolvere tale problema attraverso l’Intelligenza Artificiale.

Quattro Criticità nell’uso di un’AI al posto del recruiter

Il vero problema, a mio parere, non riguarda la sostituzione del recruiter con un software (se quest’ultimo è in grado di svolgere un lavoro corretto quasi al 100%, non vedo perché non dovrebbe essere utilizzato), ma si rivolge al fattore tutto umano di chi programma e gestisce queste Intelligenze Artificiali.

Esistono quattro punti estremamente critici di questo approccio:

  1. Le informazioni passate 

Come spiegato prima, il software basa il suo algoritmo sull’analisi dei dati dei professionisti assunti e di quelli che sono stati scartati in passato: il problema, e che queste selezioni sono state effettuate da recruiter in carne ed ossa, soggetti quindi a quei bias cognitivi tipici dell’essere umano. Quindi il software basa gran parte del suo “apprendimento” per reclutare su una mole di dati soggetti ad ampi margine di errore.

2. Le nuove informazioni 

I tecnici che svilupperanno il software dovranno fare in modo che il recruiter virtuale sia in grado di percepire alcune caratteristiche specifiche del candidato durante il colloquio di selezione. Non dovrà soltanto comprendere ed elaborare i contenuti del discorso, ma analizzare anche le modalità espositive del candidato, il suo utilizzo del linguaggio verbale e non verbale, il suo modo di gestire lo stress del colloquio, quanto la sua motivazione al lavoro dichiarata coincide con il suo profilo lavorativo e con la sua personalità, quanto è veritiero il livello di competenze che il candidato può aver gonfiato all’interno di CV e lettera di presentazione.

Per elaborare tutte queste informazioni, i recruiter si basano non solo sulle proprie inclinazioni personali di empatia ed esperienza, ma anche su quelle che vengono chiamate dallo psicologo Albert Bandura “intuizioni”, cioè quell’elaborazioni di dati sociali complessi all’interno di una visione d’insieme, che permette alle persone di rispondere di conseguenza in modo adeguato (Bandura, 1977). Può un software avere questa visione d’insieme, nel momento in cui dentro il suo algoritmo vengono inseriti soltanto un cumulo di dati da prelevare dal mondo esterno?

3. Le richieste del committente 

Spesso, diamo per scontato che le richieste dell’azienda siano in qualche modo assolutamente corrette. Quando questa richiede uno specifico profilo per una posizione nel suo organico, ecco che elenca una serie di caratteristiche imprescindibili che devono essere proprie del candidato, tra cui trapelano termini ambigui e spesso soggetti alle tendenze del momento come “passione per i risultati”, “ottime capacità di comunicazione” o richiesta di profili dotati di forte “entrepreneurship” anche per ruoli che in cui le doti imprenditoriali di sé sono controproducenti.

E sono loro, i committenti, che esplicitano quello che desiderano ricercare alle aziende dedicate al recruiting, e i reclutatori devono attenersi scrupolosamente alle loro indicazioni. Ma, come i recruiter, anche i committenti sono umani, soggetti alle stesse euristiche durante la presa di decisione. I lavoratori degli HR, umani anche loro, sanno perfettamente come combaciare la reale richiesta del committente con i profili dei candidati pervenuti. Come può una macchina leggere tra le righe di una commessa aziendale? Sarà talmente evoluta da comprendere non solo le personalità dei candidati ma anche quella del committente? E riuscirà a comprendere anche le personalità con cui il futuro assunto si dovrà confrontare?

4. Human-Computer Interface 

Nonostante Reeves e Nass sostengano che le persone attuino, di fronte a un computer con qualche aspetto anche solo vagamente “umanoide”, dei comportamenti tutti umani, bisogna considerare che il candidato si troverà di fronte a una macchina, con tutto ciò che può comportare in termini di genuinità di comportamento.

Bisognerà quindi prestare attenzione a quanto rendiamo “umanoide” la macchina: secondo lo studioso di robotica Masahiro Mori, infatti, le persone sono inclini ad accettare una macchina simile a loro stessi finché questa non è troppo vicina alla realtà umana (Masahiro Mori, 1970). Superata un certo livello di somiglianza, le emozioni nei confronti del robot hanno un brusco calo della positività, portando gli esseri umani ad allontanarsi dalla macchina come percependo in essa un qualche pericolo. Mori la chiamò Uncanny Valley (“Valle Perturbante”), poiché posto in un grafico è possibile vedere che, dopo un aumento graduale della familiarità nei confronti del robot umanoide, rappresentato da una curva che tende verso l’alto,  la linea cade bruscamente in basso per poi risalire man mano che ci si avvicina all’essere umano che tutti conosciamo (Grafico 1).

Grafico 1 – Uncanny Valley in un grafico (Masahiro Mori, 1970).

Ciò significa che i candidati, posti di fronti a una macchina, possono avere un grado di familiarità che è fortemente correlato con la somiglianza che il robot ha con loro, ma questa similitudine possiede un confine sottilissimo tra ciò che viene accettato emotivamente dall’uomo (e che quindi lo porta a comportarsi quasi naturalmente, come se fosse di fronte a un selezionatore umano) e ciò che viene repulso, inficiando la performance del colloquio.

Quindi come deve essere la macchina-recruiter? Troppo lontana dall’aspetto umanoide non andrebbe bene, perché il candidato si troverebbe a sinistra nel grafico. Ma non potrà essere nemmeno troppo simile ad esso, altrimenti si avrà la sensazione di avere a che fare con un umano da rifuggire, come ad esempio uno zombie. Dovrà quindi essere umanoide ma non troppo, e non è affatto facile generare qualcosa di simile.

Oltre all’Uncanny Valley, dobbiamo anche porci il problema che le Intelligenze Artificiali possono essere facilmente raggirate, e non bisogna essere nemmeno degli hacker geniali per farlo: ne è un esempio il bot di Microsoft chiamato “Tay” introdotto su Twitter per studiare le conversazioni degli utenti, che si è trasformato in un’Intelligenza Artificiale razzista e inneggiante al nazismo grazie alle trollate degli utenti.

Questo perché le AI sono create da umani per altri esseri umani, e sono quindi anch’esse soggette a quei bias cognitivi che ci caratterizzano.

Come risolvere queste criticità?

L’ambizione di creare un’Intelligenza Artificiale perfettamente priva di questi bias cognitivi sembra molto irrealistica: l’AI entra in contatto con dati passati e presenti relativi all’essere umano, svolge consegne installate da umani e interpretate da ingegneri che sono anch’essi esseri umani.

Bisogna accettare che anche creando una machine learning super-potente, tale macchinario raccoglierà le sue informazioni sempre attraverso le persone e i loro comportamenti, imparando ad adattarsi come faremmo noi dopo aver imparato a conoscere e prevedere le reazioni altrui attraverso le relazioni. Sarà tuttavia sempre priva di morale, ragionamento critico ed emotività, che non sempre intaccano la nostra presa decisionale, ma spesso ci permettono di discriminare tra ciò che è giusto e ciò che è sbagliato tenendo in considerazione una linea di demarcazione molto più sfumata e ambigua rispetto a quella che può interpretare un robot.

Le AI sono strumenti molto interessanti per apprendere come rinforzare il nostro ragionamento, ma non dovremmo utilizzarle per sostituire la nostra imprescindibile presa decisionale.

Per evitare errori nel recruiting, quindi, è forse più conveniente assumere più reclutatori anziché un unico robot, e portare i selezionatori a confrontarsi tra loro in supervisioni costanti e mirate a ciascun candidato. Ciò può proteggere gli eventuali bias cognitivi di un selezionatore attraverso il lavoro di team, i cui membri che non hanno assistito al colloquio possono elaborare le motivazioni profonde attraverso cui il recruiter ha scelto o scartato quel particolare candidato.

Per farlo, è necessario creare una cultura aziendale improntata alla supervisione, alla messa in discussione del proprio operato come possibile soggetto di euristiche inconsapevoli, che non si rileva giudicante verso il singolo dipendente ma che consiste in un’elaborazione di gruppo per raggiungere la decisione ottimale.

Alle aziende conviene, quindi, investire il proprio denaro in qualche stipendio in più, anziché spendere alte somme di denaro per un robot costoso e che va mantenuto in termini di alimentazione elettrica e di manutenzione. Evitando di dover spendere molti più soldi per gli errori fatti da un singolo selezionatore, sia esso umano o umanoide.

Annalisa Viola

Annunci

Informazioni su Annalisa Viola

Psicologa
Questa voce è stata pubblicata in Professioni Emergenti (HR) e contrassegnata con , , , , , , . Contrassegna il permalink.

7 risposte a AI Recruiting: 4 criticità nell’usare un’Intelligenza Artificiale al posto di un selezionatore

  1. Márcia Cristina Noé ha detto:

    Ottimo articolo , tuttavia credo che non sarà un bene per noi Psicologos essere sostituito da un intelligenza artificiale , ” i robot ” non hanno l’ascolto tagliente , e non hanno la percezione di uno psicologo , al di là di quello che avrebbe generato più disoccupazione per la nostra classe psicologi . Credo che abbiamo per permetterci di più in modo che possiamo selezionare il miglior candidato per il lavoro richiesto …

    Mi piace

    • Annalisa Viola ha detto:

      Esatto, sono d’accordo con te. Infatti credo che l’ideale sia assumere più di un recruiter, anziché sostituire l’unico esistente con un’Intelligenza Artificiale. Tante teste possono essere molto più efficaci di una super-intelligenza! 🙂

      Mi piace

  2. Pingback: Data Scientist: come trovare il profilo migliore per la tua azienda | Psybernetic and More

  3. Pingback: Data Scientist: i 5 volti del mago dei Big Data | Psybernetic and More

  4. Pingback: Data Scientist: i 5 volti del mago dei Big Data - NEO

  5. Pingback: Neuromanagement: una nuova disciplina scientifica? | Psybernetic and More

  6. Pingback: Psicologo: una professione in crisi? | Psybernetic and More

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...