Appel à contributions

Contactez-nous pour contribuez et apporter vos idées !

Entreprises

Search Our Site

Créez votre compte
lundi octobre 26, 2020

J’ai récemment été recontacté par une amie traductrice qui me demandait des conseils pour réussir son entretien d’embauche (elle a 49 ans et a été freelance dans les 20 dernières années) et s’attendait à ce que je lui dise quoi dire. En réalité, je lui ai demandé de désactiver son profil Facebook voici pourquoi.

Son profil Facebook est remplie de photo d’elle (jeune, moins jeune, plus jeune, avec un petit ami, avec un mari), de sa fille, indique qu’elle est divorcée, qu’elle a beaucoup voyag, qu’elle a prise de position féministe. Comme mon amie a du caractère, elle assume ce qu’elle poste sur Facebook et estime à juste titre qu’il n’y a rien de mal dans ce qu’elle poste.

Et il n’y a rien de mal, puisque le mal implique un jugement de valeur.

Le problème est que de nombreuses personnes se font recaler à cause de ce que l’on a trouvé dans leur profil Facebook : une photo d’une soirée débridée, par exemple, alors que le même recruteur qui va recaler un candidat à cause de cette photo, a lui-même probablement participer à plusieurs soirées débridées dans sa jeunesse. Mais lui, l’a caché à son employeur qui ne sait donc rien. Si vous avez un peu d’expérience, vous savez parfaitement que l’on attend de vous dans le cadre du travail un certain profil et un certain comportement, plutôt lisse ou en tout cas, conforme à la culture de l’entreprise. C’est ce que l’on attend de vous, que vous vous intégriez dans le groupe. Le reste, on ne veut pas le savoir.

Or, mon amie a répondu à une offre d’une multinationale américaine. Les multinationales américaines ont commencé dès 2017 à tester des systèmes de scoring des candidats se fondant sur l’intelligence artificielle : ce système d’évaluation peut s’appuyer sur des entretiens vidéos qui détectent les éventuels mensonges du candidat, sur l’analyse de ce que le candidat publie sur les réseaux, sur une analyse psychologique à partir de clichés du candidat…

Et là, les photos de Facebook peuvent jouer contre lui, la tonalité des publications également car il faut savoir qu’à partir de quelques signaux, en théorie, l’IA peut reconstituer tout votre caractère.

Et très bientôt, les départements Rh et cabinets de recrutement définiront un portrait type du candidat idéal et demanderont à leurs assistants de recrutement de filtrer les candidats correspondant à 100% à ce profil. Un expert comptable à la pointe de l’IA, par exemple, demandera à ces systèmes de lui dégoter des candidats capables de s’adapter à une stratégie qui évolue rapidement, d’être capable de changer de poste rapidement, d’utiliser de nouveaux outils, tandis qu’un expert comptable traditionnel demandera peut être des profils plus stables et moins demandeurs de changement (au risque de décevoir les candidats qui recherchent le changement). Formulé d’une autre façon, les systèmes intelligents, vont permettre de beaucoup mieux apprécier les softskills des candidats. Et là, l’analyse algorithmique des publications Facebook peut s’avérer fatale.

C’est pourquoi j’ai conseillé à mon amie de fermer son profil Facebook à l’extérieur.

L’entretien assistée par l’intelligence artificielle

Dans ses bureaux d'Amsterdam, à environ une heure de route de la plus grande usine de ketchup non américaine de son entreprise, Pieter Schalkwijk passe ses journées à écraser des données sur ses collègues. Et à essayer d'en recruter d'autres : En tant que responsable de l'acquisition de talents pour l'Europe, le Moyen-Orient et l'Afrique, Schalkwijk est chargé de trouver les bons ajouts à l'équipe de 5 600 personnes de sa région.

Il s'agit d'une tâche de grande envergure. Récemment, pour un programme de stagiaires de premier échelon, Schalkwijk a reçu 12 000 candidatures, pour 40 à 50 postes. C'est pourquoi, à partir de l'automne 2018, des milliers de jeunes diplômés universitaires ont passé chacun une demi-heure à jouer à des jeux vidéo. "Je pense que la jeune génération est un peu plus ouverte à cette façon de recruter", déclare M. Schalkwijk.

Les jeux étaient des tests cognitifs et comportementaux mis au point par la start-up Pymetrics, qui utilise l'intelligence artificielle pour évaluer les traits de personnalité des candidats à un poste. Un jeu demandait aux joueurs de gonfler des ballons en tapant sur la barre d'espacement de leur clavier, en collectant de l'argent (factice) pour chaque coup jusqu'à ce qu'ils choisissent d'encaisser ou jusqu'à ce que le ballon éclate, détruisant ainsi le gain. (Traits évalués : appétit et approche du risque.) Un autre jeu mesurait la mémoire et la concentration, demandant aux joueurs de se souvenir et de répéter des séquences de nombres de plus en plus longues. D'autres jeux ont enregistré la générosité et la confiance (ou le scepticisme) des candidats, leur donnant plus d'argent fictif et leur demandant s'ils voulaient en partager avec des partenaires virtuels.

Leurs résultats, mesurés par rapport à ceux des jeux joués par les 250 meilleurs employés de Kraft Heinz, ont indiqué à Schalkwijk quels candidats Pymetrics pensait avoir le plus de chances de réussir, car leurs traits de caractère, représentés par leurs compétences en matière de jeu, correspondaient le plus à ceux des employés à la recherche de risques et émotionnellement intelligents que l'entreprise récompense. Ces données ont à leur tour aidé à décider des offres d'emploi, créant une classe de recrutement assistée par machine.

Schalkwijk fait partie d'une cohorte en pleine croissance de cadres des ressources humaines qui s'appuient sur l'intelligence artificielle pour recruter, évaluer, embaucher et gérer leur personnel. Dans une enquête Deloitte de 2018, 32 % des cadres du monde des affaires et de la technologie ont déclaré qu'ils déployaient l'I.A. pour la "gestion des effectifs". Cette part est presque certainement plus élevée aujourd'hui et elle s'étend à certaines des plus grandes entreprises du monde.

En tant que demandeur d'emploi, vous pouvez faire examiner votre candidature par un chatbot de Mya Systems chez L'Oréal ou PepsiCo. Vous pourriez répondre à une offre d'emploi rédigée par une agence d'intérim et approuvée par Textio, peut-être chez Expedia Group ou ViacomCBS. On pourrait vous demander de jouer à des jeux Pymetrics non seulement chez Kraft Heinz, mais aussi chez Unilever ou JPMorgan Chase. Vous pourriez enregistrer l'une des interviews vidéo automatisées HireVue utilisées par Hilton et Delta Air Lines.

Votre relation avec A.I. peut également s'étendre au-delà de l'offre d'emploi. Une fois engagé, vous pourriez vous retrouver à remplir des enquêtes sur l'engagement des employés conçues par LinkedIn de Microsoft, où vos réponses pourraient aider à fixer les objectifs de performance de votre directeur. Si vous travaillez dans un entrepôt Amazon et que vous n'atteignez pas vos objectifs de productivité, les systèmes internes pourraient recommander votre licenciement. En revanche, si vous travaillez chez IBM et que vous envisagez de démissionner, les systèmes internes pourraient deviner vos projets et avertir vos responsables qu'ils doivent essayer de vous rendre heureux.

Les entreprises délèguent une responsabilité considérable à ces machines, et la liste des tâches du personnel dans lesquelles l'I.A. joue un rôle ne fera probablement que s'allonger. Le faible taux de chômage et le resserrement du marché du travail mettent les employeurs sous pression pour qu'ils tirent parti de tout avantage technologique dans la guerre des talents.

Dans une enquête LinkedIn réalisée auprès des responsables du recrutement et des recruteurs qui utilisent l'I.A., 67 % ont déclaré avoir adopté la technologie parce qu'elle leur permettait de gagner du temps. Et une plus petite cohorte, 43%, a cité une motivation sans doute plus importante : L'I.A., selon eux, les aiderait à combattre les préjugés dans leur prise de décision. "Les gens sont intrinsèquement partiaux", dit Schalkwijk. "Je voulais des décisions d'embauche moins biaisées et davantage de décisions d'embauche basées sur des données".

Dans le meilleur des cas, selon ses créateurs et ses adoptants, l'I.A. peut éliminer les préjugés du processus d'embauche. Cela peut favoriser une plus grande diversité de genre et de race, qui sont toutes deux associées à de meilleures performances commerciales et à un meilleur engagement des employés. A.I. peut aussi soi-disant dépasser un autre type de préjugé, en offrant plus d'opportunités aux candidats qui n'ont pas de formation coûteuse de marque. Avant d'utiliser Pymetrics, les recruteurs de Kraft Heinz avaient tendance à scanner les CV à la recherche d'universités de haut niveau. Aujourd'hui, selon Schalkwijk, "peu importe que vous soyez de Cambridge".

Plus largement, l'I.A. peut aider les employeurs à mieux percevoir les forces de leurs travailleurs. Des concurrents, dont LinkedIn et Workday, spécialiste du cloud d'entreprise, ont mis au point des outils d'I.A. qui, selon eux, peuvent aider les gestionnaires à mieux reconnaître ou suivre les compétences de leurs employés. "Nous pouvons utiliser la technologie pour trouver des modèles que je n'aurais pas pu trouver par le passé en tant que chef d'équipe, pour encadrer et développer les personnes dans un environnement plus t

Pourtant, malgré tout son potentiel, de nombreux employeurs approchent l'I.A. avec prudence. Ils sont confrontés à l'ironie des promesses et des dangers de l'application de l'I.A. aux populations humaines : Bien menée, elle a le potentiel d'éliminer les préjugés et la discrimination ; mal menée, elle peut amplifier ces mêmes problèmes. Et dans un nouveau marché très peu réglementé, de tels problèmes peuvent être difficiles à déceler avant qu'il ne soit trop tard. Même certains cadres qui utilisent l'I.A. expriment en privé leur scepticisme quant à ce que la technologie peut faire - ou quels pourraient être ses inconvénients.

"Nous sommes en quelque sorte les premiers à savoir comment l'I.A. va se frayer un chemin", déclare Gordon Ritter, fondateur de la société de capital-risque Emergence Capital et investisseur dans plusieurs start-ups d'I.A. "Est-ce un ami ou un ennemi ?" Ritter parie que l'I.A. sera bénéfique, mais pour l'instant, pour de nombreux cadres, le suintement semble encore obscur.

"L'I.A., c'est comme le sexe chez les adolescents", dit Frida Polli. "Tout le monde dit qu'ils le font, et personne ne sait vraiment ce que c'est."

La blague fait le tour des cercles d'I.A. depuis un certain temps, et Polli, le cofondateur et PDG de Pymetrics, est là depuis assez longtemps pour y voir la vérité. Après avoir obtenu un doctorat en neuropsychologie et travaillé dans les laboratoires de recherche de Harvard et du MIT, Polli s'est retrouvée divorcée, subvenant aux besoins d'une jeune fille, et s'est épuisée sur les bas salaires de l'université. Elle est retournée à Harvard pour faire des études de commerce et, en 2013, elle a créé une entreprise d'évaluation cognitive avec un ancien collègue du MIT. Pymetrics promet d'aider les employeurs à faire des recrutements meilleurs et plus diversifiés, en se basant sur ce que les candidats pourraient faire plutôt que sur ce que dit leur CV ou l'université dont ils sont issus. La start-up new-yorkaise financée par le capital-risque a maintenant une valeur de 190 millions de dollars, selon PitchBook, et entre 10 et 20 millions de dollars de revenus annuels ; ses jeux sont utilisés par une centaine d'employeurs.

Féroce évangéliste de l'I.A., dont les yeux bleus clairs et les cheveux presque en platine correspondent à l'intensité de sa vitesse de conversation, Polli reconnaît - et parade - les critiques du potentiel d'utilisation abusive de la technologie. Oui, les mauvais acteurs de l'I.A. existent, dit-elle. Mais ce n'est pas comme si les humains étaient tellement meilleurs, comme le montrent les disparités persistantes entre les sexes, les races et les classes. "Il y a une porte d'entrée pour l'embauche et une porte de sortie", affirme Polli, "et la porte d'entrée est cassée."

La startup de Frida Polli, Pymetrics, conçoit des jeux qui fonctionnent en conjonction avec l'I.A. pour évaluer les traits de personnalité des candidats à un emploi. Selon elle, le système aide les entreprises à diversifier leurs recrutements et, par conséquent, à améliorer leurs performances.

L'embauche est le domaine où l'I.A. est actuellement la plus utilisée dans la gestion du personnel. Dans ce domaine, l'"intelligence artificielle" est souvent assimilée à une automatisation de base, comme la recherche de mots-clés dans les CV. Mais il s'agit plus précisément de l'apprentissage automatique, où les logiciels apprennent à établir des corrélations entre les antécédents et le comportement des candidats et leurs performances potentielles.

Le problème, note Matissa Hollister, professeur adjoint en comportement organisationnel à l'université McGill, est qu'un système d'apprentissage automatique n'est pas plus impartial que les informations dont il tire profit. "Dans la mesure où le monde réel contient des biais", dit-elle, "il y a le risque que l'algorithme apprenne ces biais et les perpétue".

Cela s'est déjà produit dans certains cas importants. Amazon a passé des années à mettre au point un algorithme d'analyse de CV, qu'elle n'a jamais utilisé, car il s'est avéré qu'il était discriminatoire envers les femmes. Comme la plupart des CV soumis précédemment qu'il a évalués provenaient d'hommes, l'algorithme s'est enseigné que les hommes étaient toujours préférables à l'embauche.

Plus récemment, HireVue, qui utilise l'I.A. pour vérifier les entretiens vidéo, a attiré l'attention sur les questions de partialité. Le système HireVue demande aux candidats d'utiliser des caméras de téléphones intelligents ou d'ordinateurs portables pour enregistrer les réponses aux questions automatisées ; son logiciel analyse ensuite des facteurs tels que le choix des mots et l'expression du visage. Le fournisseur basé dans l'Utah, détenu majoritairement depuis octobre par la société de capital-investissement Carlyle Group, a lancé son produit d'analyse faciale en 2014. Il a depuis été utilisé par une centaine d'employeurs pour évaluer plus d'un million de candidats.

Son utilisation n'est pas passée inaperçue. L'I.A. qui repose sur la reconnaissance faciale peut souvent mal identifier ou mal interpréter les visages de couleur, en particulier ceux des femmes à la peau plus foncée. HireVue affirme que sa technologie d'analyse faciale ne s'étend pas à la reconnaissance faciale. Mais un éminent défenseur de la vie privée a demandé à la Commission fédérale du commerce d'enquêter sur HireVue pour "pratiques déloyales et trompeuses" - remettant en cause son utilisation de l'analyse faciale et des évaluations algorithmiques qui ne sont pas transparentes.

Le PDG de HireVue, Kevin Parker, minimise l'importance de l'analyse faciale dans les évaluations de HireVue, et il affirme que son entreprise est "très axée sur l'élimination des préjugés". En normalisant la façon dont les candidats sont évalués, affirme-t-il, HireVue offre une alternative supérieure à l'embauche ordinaire. C'est certainement mieux que le jugement rapide typique "je le sais quand je le vois", dit-il.

Mais les critiques auxquelles HireVue est confronté soulignent le problème mis en évidence par Hollister : Les machines sont aussi susceptibles d'amplifier les préjugés que de les contourner. C'est particulièrement problématique lorsque les concepteurs des outils sont majoritairement blancs et masculins, comme c'est le cas dans une grande partie de l'industrie technologique. "Un algorithme d'apprentissage mécanique est comme un enfant ; il apprend de son environnement", explique M. Polli. "Nous n'avons pas eu de groupe diversifié à la table pour créer cette technologie jusqu'à présent".

Tout aussi inquiétant pour les défenseurs des droits des travailleurs est le fait que la plupart des technologies d'I.A. sont à la fois non réglementées et opaques pour les travailleurs concernés. Les employeurs et les fournisseurs doivent se conformer aux directives antidiscriminatoires de la Commission pour l'égalité des chances dans l'emploi, mais l'EEOC n'a pas de règles spécifiques à l'I.A. L'Illinois a récemment adopté une loi qui exige la divulgation lorsque les employeurs utilisent des entretiens vidéo automatisés. Les membres de l'industrie et les critiques sont d'accord pour dire que c'est un bon premier pas, mais seulement un premier pas.

"Nous n'avons peut-être pas de preuve de partialité. Nous n'avons pas non plus de preuve de bienveillance", déclare Meredith Whittaker, ancienne employée de Google et cofondatrice de l'AI Now Institute à l'université de New York. Les systèmes d'embauche basés sur l'I.A. sont "vendus aux employeurs, pas aux travailleurs", souligne-t-elle.

Malgré cela, les employeurs se demandent encore si l'I.A. fera avancer ces intérêts. La plupart n'utilisent l'I.A. dans le domaine des ressources humaines que depuis quelques années, si c'est le cas. "C'est une tendance qui est là pour durer", déclare Ifeoma Ajunwa, professeur adjoint à Cornell qui étudie l'automatisation de l'embauche. "Mais l'I.A. est toujours un outil contondant."

Traduction de cette page