Les solutions d’intelligence artificielle se démocratisent depuis quelques années. Utilisées initialement à des fins marketing ou d’optimisation (production, supply chain…), de plus en plus de fonctions régaliennes y trouvent un intérêt, notamment les directions des ressources humaines.

En effet, les solutions d’aide au recrutement faisant usage de l’IA et de la donnée se sont massivement développées au cours de la dernière décennie – le profiling, la recherche par mots-clés ou l’utilisation d’un réseau comme LinkedIn en sont les exemples. La première étape d’un processus de recrutement est principalement basée sur l’utilisation de données caractérisant le candidat (diplôme, expérience, compétences, ancienneté dans un poste, etc). Toutes ces informations, accessible sur un CV ou un profil, permettent d’effectuer efficacement des recherches, des filtrages, et aboutissent à une pré-sélection de candidats à rencontrer. L’utilisation des technologies permet d’automatiser tout ou partie de cette première phase avec une grande efficacité. Dans ce cadre, les outils d’IA établissent des scores de pertinence sur les profils, en fonction des fiches de poste (rapprochement par similarité par exemple).

Cependant, la crise sanitaire a été un accélérateur de nouveaux cas d’utilisation, jusque-là confidentiels. Dès mars 2020, 89% des employeurs américains ont commencé à réaliser des entretiens en ligne (source journal du net, mars 2021). Pour pallier l’impossibilité de se rencontrer, et puisque l’enregistrement vidéo était quasi-systématique, les méthodes d’analyse par intelligence artificielle post-entretien ont été massivement utilisées. L’éditeur HireVue, spécialiste de l’analyse de video « comportementales » a communiqué sur une hausse de 80% de sa technologie par rapport à l’année précédente (en nombre de video analysées). Si cette adoption s’est majoritairement faite aux États-Unis, ce mouvement est nettement engagé en Europe.

Les ressources humaines sont un domaine par nature profondément humain, et donc variant. L’intelligence artificielle, a contrario, est systématique et analytique. Dans l’usage, quelles problématiques techniques et éthiques cela pose-t-il ? Quelles sont les limites ?

Interprétabilité et variables : les biais possibles de l’intelligence artificielle

Pour réaliser une prédiction (par exemple recommandation d’embauche ou non), l’intelligence artificielle va apprendre à faire sa prédiction sur l’analyse de différentes variables descriptives du phénomène observé. Ces variables sont déterminées par les data scientists, ou directement par l’IA (on parle alors d’approche non supervisée), en fonction du jeu de donnée d’apprentissage soumis.

Comme le souligne Frédéric Brajon, Co-fondateur de Saegus en charge de la Data et de l’IA, cette phase critique est souvent sous-estimée : “l’attention est trop souvent portée sur la performance des modèles mathématiques ; mais les premiers biais, absolument majeurs, apparaissent dans les phases préparatoires. La pertinence des variables descriptives retenues bien-sûr, mais également la nature même des données d’apprentissage ; les données sont-elles représentatives du phénomène observé ? Y a-t-il un risque de discrimination dans l’échantillonnage retenu ? Un risque éthique ? Ces questions fondamentales sont souvent négligées, par manque de temps, limite de budget ou inexpérience. Or, le meilleur modèle mathématique produira toujours des recommandations biaisées s’il n’a pas appris sur une base solide. Par exemple, dans le cas de recrutements, si ma base d’apprentissage a une sur-représentation d’un genre ou d’une tranche d’âge, il y a fort à parier que l’algorithme “pénalise” les candidatures différentes (pas parce qu’elles sont moins pertinentes pour le poste, mais parce que l’apprentissage a montré que celles-ci étaient moins fréquemment recrutées dans le jeu de données).”

L’apprentissage des modèles est donc essentiel, et le champ des possibles est large : quelles caractéristiques définir pour recruter ou non un candidat ? Quel poids leur donner les unes par rapport aux autres ? Comment prendre en compte des notions subjectives (le feeling), ou non liées directement à la personne (un candidat possédant un peu moins d’expertise qu’un autre, peut-être meilleur pour le poste, en raison d’une compatibilité de caractère avec le personnel en poste). En ce sens, l’intelligence artificielle aura tendance à reproduire les mêmes recommandations, or la richesse humaine d’une entreprise tient également à sa multidisciplinarité et sa multiculturalité ; comment prendre en compte ces paramètres ?

Julien Cotte, Directeur des Talents de Saegus, appuie ce point : “l’essence même d’une entreprise est représentée par ses salariés dans toutes leurs singularités. Les idées viennent parce que nous sommes différents, parce que nous avons des expériences différentes et une vision qui nous est propre sur les sujets à adresser dans notre domaine de compétences. Si l’intelligence artificielle suit à la lettre les critères de sélection, deux biais peuvent apparaître : l’impossibilité de recruter car personne ne pourra répondre totalement aux exigences du poste et l’homogénéisation des salariés ce qui, au final, appauvrirait les compétences de l’entreprise. Certes, il s’agit d’une vision très négative de l’utilisation de l’intelligence artificielle mais c’est le risque que je vois si nous souhaitons aller vers le tout IA pour le recrutement. L’IA doit être un outil d’aide, pas la seule décisionnaire. Le manager doit prendre en compte son envie de travailler avec le candidat, le recruteur doit pouvoir identifier si la personne s’intègrera bien à la culture de l’entreprise. Tout cela, en prenant en compte que l’IA n’est pas infaillible et que l’homme non plus.”

Par ailleurs, les exigences de recrutement peuvent varier d’un pays à l’autre et d’une entreprise à l’autre. Il est donc légitime de se poser la question de savoir si un traitement d’IA mis au point au US sera pertinent en France ? Faut-il ré-entrainer les algorithmes en fonction du pays ? Du secteur ? De la culture d’entreprise ?

Enfin, l’expérience du candidat est également à prendre en compte. L’usage de l’intelligence artificielle, invisible, peut être déstabilisante. En Europe, tout candidat doit être informé de l’usage de l’intelligence artificielle dans le cadre de son entretien d’embauche, et donner son accord. On peut s’interroger sur la liberté d’accepter ou de refuser dont dispose réellement le candidat, et sur l’impact de sa décision sur sa candidature.

Un cadre légal qui s’impose

Face à ces possibles discriminations, un cadre légal est nécessaire et commence à se dessiner.

Face à ce phénomène, une proposition de loi a été déposée aux États-Unis, l’Algorithmic Accountability Act, mais n’a finalement pas été adoptée. Toutefois le débat est ouvert.

L’Europe est quant-à elle précurseur de la préservation des droits à l’usage des données personnelles avec la réglementation RGPD. Mais cette règlementation ne protège pas d’une potentielle dérive éthique. En effet, dans le cas cité en exemple (recrutement), l’analyse des données personnelles du candidat peuvent être totalement anonymisées et détruites post traitement (donc en conformité avec la loi), n’en reste pas moins le problème éthique.

En France, certaines commissions parlementaires se sont emparées de ce sujet, et proposeront à l’avenir des recommandations législatives pour encadrer l’éthique non pas de l’IA, mais des usages que l’on en fait.

Car c’est certainement là que se trouve la clé de la solution. Encadrer les usages plutôt que la technologie brute.

“Comme toute nouvelle technologie, il y a du bon et du moins bon. Il est donc essentiel que les pouvoirs publics se saisissent de ce sujet pour encadrer la pratique et permettre une utilisation saine et efficace. Que ce soit le recruteur ou le candidat, je reste persuadé que les nouvelles technologies comme l’Intelligence Artificielle vont permettre de renforcer la relation candidat/recruteur. La technologie avançant très vite, la législation se doit d’être agile et en veille permanent sur ce sujet”, souligne Julien Cotte.

L’intelligence artificielle, une voix décisionnelle ou secondaire ?

Quel poids faut-il donc donner à la recommandation de l’algorithme ? Sa voix doit-elle être décisionnelle ou secondaire ?

L’exhaustivité de l’Intelligence Artificielle la place en dehors de la logique et des spécificités humaines. Les possibilités qu’elle offre sont intéressantes et challengeantes, mais l’IA doit rester une aide. La décision finale doit être humaine, dans toutes les finesses que cela comprend. A minima, une action humaine sera toujours nécessaire à certaines étapes du processus, par exemple par le manager qui travaillera en lien étroit avec la personne recrutée.

Et inversement, l’objectivité de l’intelligence artificielle peut avoir un impact positif : si le recruteur dispose d’un biais négatif ou discriminant, l’IA peut au contraire le contre-balancer.

L’idéal serait de trouver une complémentarité entre l’Intelligence Artificielle et l’humain. La vision de remplacer l’humain par l’Intelligence Artificielle dans le domaine des ressources humaines ne semble pas être la bonne voie. Par contre, identifier les écueils de l’humain dans le domaine du recrutement (lecture trop rapide des CV, non prise en compte des lettres de motivation, fatigue lors d’un entretien, biais culturel…) reste une piste d’innovation et d’optimisation qui pourrait être bénéfique à tous.

Une autre évolution semble nécessaire à explorer : si les recruteurs se dotent de cette technologie, ne serait-il pas intéressant que le candidat puisse avoir le même outil à sa disposition ? Le candidat pourrait alors obtenir une recommandation de l’IA pour identifier si le manager qu’il rencontre semble correspondre à ses attentes, si la présentation de l’entreprise rentre dans ses critères…

Ainsi, toutes les parties prenantes pourraient avoir le même outillage pour mener leurs entretiens. N’est-ce pas ça la véritable innovation ?

Conclusion

Quelles perspectives donner à la place de l’intelligence artificielle dans les processus de recrutement ?  

Comme dans quasiment toutes les fonctions, l’IA a une utilité certaine dans le cadre des ressources humaines et doit être intégrée aux réflexions.

Le paradoxe est que pour rendre une IA réellement efficace… Il faut l’utiliser. On voit bien ce phénomène avec les services de reconnaissance vocale ou visuelle proposés par les GAFA (notamment avec les assistants personnels). Les commandes vocales étaient très succinctes il y a 10 ans, alors que maintenant l’on peut parler et dicter des messages en langage naturel avec son smartphone.

Le phénomène d’apprentissage sera le même avec le domaine RH, plus l’on soumettra des vidéos de recrutement à l’IA, plus son analyse sera pertinente dans la durée.

Par contre, il convient que le législateur harmonise un cadre éthique d’utilisation de ces outils (opt-in du candidat, sans qu’un refus de sa part n’élimine la candidature par exemple), et que chaque entreprise place l’utilisation de ces technologies à la place qui convient, en assistance et en complémentarité à l’humain, et non en remplacement total, particulièrement pour ces domaines ou l’informel, le « bien-être ensemble » et la confiance ont tant de valeur pour construire des équipes performantes et durables. Il est également souhaitable que les candidats puissent également bénéficier des avantages de l’IA afin de rendre l’exercice du recrutement le plus équitable possible.

Rédigé par Frédéric Brajon, Associé et Co-fondateur, et Julien Cotte, Directeur des talents

Articles recents