Dès lors, dans quelle mesure ces nouveaux outils influencent-ils les pratiques en lien avec le recrutement au sein des organisations ? Quels sont leurs apports et leurs conséquences, tant pour les professionnels du recrutement, que pour les recrutés ? Et ces apports se limitent-ils à la seule entreprise ? Portés par des discours de promotion vantant leur objectivité et gains en productivité, l’origine et le choix de ces nouveaux outils soulèvent plusieurs interrogations liées au rôle de ceux-ci dans nos vies professionnelles. C’est pourquoi nous proposerons dans cette analyse, un panorama critique des outils numériques de recrutement et de formations.
Pour traiter de la question, nous reviendrons d’abord aux fondements des disciplines du recrutement et de l’orientation, la manière dont elles se sont construites historiquement ainsi que les courants marquants qui les ont façonnées. On observera ce faisant, à rebours d’une idée d’outils neutres, la transposition aujourd’hui, dans les nouveaux outils numériques, de philosophies, dont les algorithmes de recrutement sont les dépositaires. Nous observerons ensuite comment le fonctionnement de ces nouveaux outils, vient, en situation s’hybrider avec les pratiques antérieures des recruteurs sans pour autant normaliser et harmoniser celles-ci. Nous verrons aussi, comment le déploiement et la maîtrise des outils numériques croisent des stratégies de présentation de soi, propres au champ du recrutement et participant de leur légitimation, et ce alors qu’ils sont porteurs de biais techniques. Nous aborderons enfin, les implications plus générales, du déploiement d’outils numériques sur la formation initiale et continue
L’orientation et le recrutement dépendent aujourd’hui de modèles plus anciens, qui se sont construits historiquement et dont on retrouve la philosophie au cœur des outils actuels. Théorisé dès le début du XXe siècle le modèle dit du « matching » (modèle par correspondance, en français) s’impose à partir des années 1960 comme approche majoritaire dans le champ de l’orientation professionnelle. Promue par les conseillers en orientation, elle impulse à cette époque la prise en compte des traits individuels (centres d’intérêts, personnalités) dans la recherche et l’assignation d’un emploi à un candidat . Elle remplace ce faisant une orientation centrée auparavant sur les secteurs en tension, l’état du marché et les compétences techniques . À ces critères, le « matching » propose de superposer des données personnelles, pour correspondre à une grille de métiers compatibles. La popularisation de cette approche entraîne progressivement les futurs employés vers un choix de carrière en fonction de leurs inclinations, loisirs et affinités. Surtout, les candidats doivent désormais s’impliquer activement dans la formulation de leurs projets. À charge pour ces derniers en effet de formuler clairement leurs intérêts et penchants personnels pour trouver le métier en rapport avec leurs aspirations. Les employés deviennent donc, à l’époque, acteurs de leur propre carrière, dans le sens où ils deviennent responsables des choix en rapport et des directions que celle-ci prend. On assiste de fait à un « basculement de la responsabilité de la gestion des cheminements professionnels vers les individus […]. La mobilité des travailleurs est renforcée et elle se bâtit sur une attitude individuelle de liberté, d’autodétermination et de choix fondés sur les valeurs personnelles » .
Le début des années 2000 voit par la suite, l’émergence du concept de « life design » dans le champ de la recherche en orientation. Cette approche propose alors un modèle à destination des conseillers en orientation pour soutenir les candidats dans « la structuration de leur identité narrative » , la mise en récit de leurs besoins et aspirations en lien avec le travail. Surtout, le « life design » promeut une certaine souplesse chez les candidats pour « développer les ressources nécessaires et répondre aux incertitudes inhérentes à tout parcours professionnel au XXIe siècle. »
Ce tournant dans les approches de l’orientation professionnelles marque alors une responsabilisation de l’individu dans la gestion de sa carrière. En effet, se concentrer sur les caractéristiques personnelles des travailleurs, fait porter la responsabilité de sa carrière au seul individu, en mettant de côté les difficultés d’ordre structurel, comme un licenciement ou une crise économique . Il lui revient alors à lui seul de travailler sur des causes internes, afin de concrétiser son projet professionnel. Pourtant, les individus évoluent dans un environnement social, économique et politique, difficiles à séparer de leur parcours d’orientation. On parle alors de pouvoir d’action limité (« bounded agency ») : l’individu possède « une certaine autonomie et un pouvoir décisionnel, mais celui-ci s’exerce dans un environnement aux opportunités limitées » .
C’est dans ce contexte, qu’on observe, à la même époque le déploiement de nouveaux outils numériques dans le champ des ressources humaines, qui, on le verra, renforcent cette individualisation des travailleurs devant leur destin professionnel. À l’instar des conseillers en orientation des années 1960, les créateurs de ces nouveaux outils sont des professionnels du recrutement et du conseil en orientation, se réclamant de différents courants dans leurs champs respectifs. Ils se saisissent au tournant des années 2010 et du boom de l’internet 2.0, de nouvelles possibilités techniques, se positionnant alors sur le marché du recrutement. Ils participent en cela, à la construction d’un nouvel aspect de leurs professions, en même temps qu’à la normalisation des outils qui en découlent. Parmi eux, Monkey Tie est une plateforme en ligne française qui propose des outils pour le recrutement et le développement professionnel basés sur l'intelligence artificielle. Créée en 2012, la plateforme utilise des algorithmes qui font correspondre les compétences et les préférences des candidats avec des offres d'emploi. Elle se propose aussi d’identifier les lacunes en compétences des employés, pour offrir des plans de formation personnalisés .Un de ses fondateurs, Jérémy Lamri, présente l’entreprise de cette manière :
« J’ai fondé Monkey Tie en 2012 afin d’aider les entreprises à identifier et capitaliser les talents grâce au matching affinitaire. Le matching affinitaire est un concept qui vise à prendre en compte, en plus des compétences techniques, les “softs skills”, c’est-à-dire la personnalité et les moteurs de motivations. »
Monkey Tie illustre, par sa notoriété, l’engouement qu’a pu incarner son projet au début des années 2010. Start-up au départ, elle a bénéficié d’une certaine couverture médiatique à son lancement grâce à des levées de fonds réussies , avant de décrocher plusieurs contrats pour l’administration française . Surtout, Jérémy Lamri est un professionnel reconnu dans le champ du recrutement et des ressources humaines . Il participe à la rédaction d’ouvrages de recherche sur les ressources humaines , et s’illustre particulièrement par son investissement dans des laboratoires d’innovation . Le parcours et le fonctionnement de Monkey Tie viennent donc percuter l’illusion d’un outil neutre , pourtant au cœur des stratégies marketing promouvant la plateforme. Sous le vocable de « matching affinitaire », on retrouve en effet la philosophie du « matching » du XXe siècle, transposée dans un outil numérique. Accorder employeurs et candidats sur la base des motivations et affinités personnelles des candidats, en plus de leurs compétences techniques et expériences professionnelles, reprend de fait une approche historique de l’orientation. Surtout, elle en reprend les implications, et individualise également les employés dans leur parcours professionnel. Elle contribue ce faisant à invisibiliser des circonstances structurelles ou extérieures qui échappent aux individus, mais influencent pourtant bel et bien leur carrière.
Plus loin encore, l’emploi de l’expression « soft skills » par Jérémy Lamri permet de rapprocher Monkey Tie du mouvement dit de l’« optimized hiring » (« recrutement optimisé » en français ). Également présent dans les stratégies de marketing, le vocable d’« optimized hiring » concerne les entreprises ayant recours à des processus de recrutement testant les candidats sur des critères non-conventionnels . Au lieu d'évaluer les candidats sur la base de leurs qualifications techniques, de leurs diplômes et d'entretiens personnels, les organisations leur font passer des tests de personnalité (parfois sous la forme de jeux ), avant de les sélectionner selon des corrélations statistiques entre la manière dont un candidat répond à certaines questions, et l’impact qu’elles pourraient avoir sur sa performance au travail. Souvent mise en avant, l’approche allie systématiquement ses processus à des outils numériques, producteurs de données. Les plateformes qui s’en réclament (Hirevue , Pyremetrics …) multiplient de fait les tests, simulations et mises en situation. Dès lors, la numérisation des pratiques du recrutement incarne-t-elle une réponse efficace aux problématiques de gestion des ressources humaines de l’entreprise (acquisition des talents, suivi des carrières) ou suit-elle une économie des données ?
Pour pouvoir être soumis aux algorithmes des plateformes de recrutement, les profils des candidats sont de fait réduits à des données quantifiables et objectives, telles que leurs antécédents académiques et professionnels, leurs compétences techniques ou leurs résultats à des tests standardisés. Or, partir de 2010, l’accès à de grandes quantités de données, combiné à la puissance de traitement des ordinateurs, accessibles à distance et à la demande, marque l’avènement d’algorithmes plus pointus, capables de choix autonomes et se substituant à un raisonnement humain : l’intelligence artificielle . Autoapprenants, ces algorithmes détectent automatiquement les tendances qui ressortent d’un ensemble de données, et peuvent alors être utilisés pour faire correspondre candidats et entreprises. Nouveau paradigme autant qu’argument marketing, l’irruption du principe d’intelligence artificielle vient alors bouleverser des pratiques de recrutement déjà en mutation. Car avant la généralisation d’algorithmes autonomes, le travail en contexte numérique impliquait déjà le recours à de nouveaux outils impulsant des changements de pratiques.
Le premier d’entre eux, l’Applicant Tracking System (ATS) d’une entreprise, constitue une base de données privative reliée au site de l’entreprise et parfois à d’autres job boards . L’ATS permet le suivi des offres et candidatures pour des postes au sein des organisations. En reliant davantage de prospects et différemment (sur les plateformes de recrutement, avec des entretiens différés ou à distance, etc.), il permet aux recruteurs de mettre au point d’importants ensembles de données analysables par des algorithmes. D’autres outils viennent s’y ajouter et permettent aussi d’archiver ces données ou de les manipuler de manière à se constituer, par exemple, des viviers de candidats. Le numérique permet également de multiplier les canaux de diffusion des annonces (sites de réseautage, d’emploi, etc.). Pourtant, les recruteurs, s’ils s’approprient ces nouveaux outils, le font aussi avec des usages plus anciens (comme les tableurs Excel), différant des pratiques de production de masse soutenues par les industriels des plateformes . Dès lors, si les outils algorithmiques prennent le pas sur l’organisation du travail en contexte numérique, on continue d’observer leur hybridation et leur cohabitation avec des pratiques plus traditionnelles : les pratiques de recrutement ne dénotent alors pas d’une « normalisation absolue » . Ainsi, s’ils décalquent parfois leurs pratiques sur les modes de calculs et de représentations portés par les plateformes, les recruteurs n’en conservent pas moins une pratique propre et personnalisée.
On observe d’ailleurs à ce titre un changement dans la relation recruteurs-recrutés. Car si les outils numériques formalisent et rendent objectifs les profils des candidats en les réduisant à des flux d'informations, ils créent en parallèle de nouvelles formes de relations, sur un ton plus conversationnel/informel, avec une attention accrue portée au candidat . Dans le flot des candidatures et de la recherche de talents, les recruteurs doivent en effet se démarquer pour convaincre leurs prospects, sans donner l’impression d’une sollicitation peu pertinente ou désincarnée . Les compétences et les usages effectifs montrent de fait que les outils numériques ne modifient pas complètement les pratiques des recruteurs, même si les algorithmes et les architextes standardisent et automatisent les modes de collecte et de traitement des données.
Pour les recruteurs, les outils numériques consolident un positionnement particulier : leur maîtrise permet de préserver un territoire professionnel dans les jeux entre groupes professionnels . La maîtrise des outils numériques, la « littératie numérique » devient en effet un argument dans la manière de se présenter et de présenter son travail. Le recours au numérique s’analyse même comme une stratégie d’acteur dans les rapports de force et de légitimation des « bonnes pratiques » entre professionnels des RH . Plus loin encore, Jérémy Lamri, dans un entretien à une revue RH consacrée à l’IA, estime en parlant de l’intelligence artificielle, qu’elle appelle à « identifier, en interne et en externe, les personnes qui pourront comprendre et porter ce changement » au sein des entreprises, afin « de demeurer performant professionnellement » . La disparition des tâches parasites que permettrait la maîtrise de ces outils, ainsi que l’accès instantané et illimité à l’information, induiraient selon lui en effet, que les professionnels du recrutement poursuivent un apprentissage continu tout au long de leurs carrières . Et se fait ainsi, l’avocat d’une grande flexibilité, de la part des professionnels.
Enfin, l’intelligence artificielle, elle, est présentée comme une assistance, à même d’alléger la charge de travail d’un recruteur. Le logiciel d’acquisition des talents peut, de fait, parcourir les CV et évaluer des candidats, avant d’éliminer rapidement la plupart d’entre eux du processus de recrutement. Ce « matching » automatique laisse au recruteur humain le loisir de se concentrer sur une tâche moins contraignante, à partir d’un vivier de candidats éligibles plus restreint . Surtout, les candidats ne seraient alors sélectionnés sur la seule base de leurs compétences, sans biais humains . Telle que défendue par ses tenants, la numérisation des pratiques de recrutement présenterait en effet une opportunité pour les entreprises de gagner, à la fois en productivité et en diversité. Or, l’architecture même des algorithmes fait que ces derniers peuvent reproduire des biais existants dans les données utilisées pour les mettre au point. Si les données utilisées au départ présentent par exemple, une sous-représentation de certaines populations, l'algorithme développe à son tour, des biais en rapport et privilégie un profil type . Le processus d’apprentissage automatique des algorithmes requiert en effet que ceux-ci soient exposés à des données d’entraînement, à partir desquelles ils s’établissent. Or, nourrir un processus automatisé de données biaisées, produit des résultats faussés à leur tour. Ainsi, si les profils idéaux de candidats qui nourrissent l’algorithme, contiennent, en soi plusieurs préjugés (« le leadership, un trait « masculin »»), alors ces préjugés seront reproduits dans les recommandations de recrutement. Surtout, si l’échantillon à partir duquel les outils de recrutement prédictif sont étalonnés, comprend moins de candidats d’un groupe donné, alors toute décision de recrutement en rapport désavantagera les candidats sous-représentés dans les données d’apprentissage.
Ajoutons à cela l’influence des caractéristiques sociodémographiques des programmeurs lors de la conception des algorithmes. Dominé par les hommes, le milieu des programmeurs informatiques apporte parfois aux algorithmes plusieurs biais au moment de leur conception. Les algorithmes de traitement du langage illustrent à ce niveau, plusieurs stéréotypes de genre. En usant des techniques de « prolongements de mots » (word embedding) qui repèrent les associations de mots , on observe par exemple une forte association entre le genre de mots apparemment neutres en anglais et leur occurrence : le mot « femme » est ainsi davantage associé aux mots « foyer, bibliothécaire » ; le mot « homme », aux mots « maestro, skipper, philosophe » . Plusieurs articles de recherche mettent également en évidence, une proportion plus importante d’erreurs dans le domaine de la reconnaissance faciale, lors de la détection des expressions du visage de candidats au physique atypique. Le taux d’erreur pour la reconnaissance d’une expression peut ainsi varier de 1 % pour un homme blanc à 35 % pour une femme noire . Or, la reconnaissance faciale (utilisée dans le recrutement, on l’a vu avec Hirevue) illustre particulièrement bien la fiabilité à géométrie variable de certains algorithmes. Comme l’expliquent Lacroux & Martin-Lacroux :
"Les programmeurs (aidés par des psychologues) associent certaines expressions faciales à des traits de personnalité, qui sont à leur tour associés à certaines capacités managériales. Or, la validité prédictive de ce genre d’inférence est un sujet très débattu. Les mécanismes à l’œuvre notamment le rôle des stéréotypes de genre et des théories implicites de la personnalité demeurent un sujet de controverse […] Les travaux récents menés sur la reconnaissance faciale des émotions fondamentales (colère, angoisse…) viennent renforcer les doutes sur la possibilité d’une reconnaissance automatique en montrant que le décodage de ces émotions est culturellement dépendant : une même mimique faciale est interprétée différemment selon les cultures »
Le fonctionnement d’un mécanisme automatisé, « artificiel » donc, dans l’élaboration d’un choix culturel, a dès lors une probabilité plus importante de mal interpréter certains signaux. On retrouve ici une tension au cœur des discours de promotion du recrutement prédictif : vantés comme objectifs, certains de ses outils s’appuient pourtant sur des critères bien arbitraires.
Dans le domaine du recrutement, ces biais se retrouvent majoritairement à l’étape du « sourcing » (la recherche de candidats par les recruteurs). L’algorithme Talent Match de la plateforme LinkedIn utilise par exemple, 15 critères pour faire correspondre candidats et besoins des employeurs, basés sur leurs embauches passées . Mécaniquement, les employeurs discriminants se voient proposer des candidats reflétant leurs choix précédents. Or, les biais liés aux données d’entraînement ou à la sélection, ne sont pas uniquement un vecteur de discrimination sexiste ou raciste : ils ont pour principale caractéristique de cloner la population de salariés existante. On retrouve aussi des biais en phase de choix, qui viennent questionner de même l’importance grandissante des outils automatisés dans le recrutement. Car si les promoteurs des outils de recrutement prédictif arguent que la décision finale revient toujours à un humain, le choix des candidats peut-être fortement impacté par les algorithmes de recommandation. Plusieurs biais décisionnels liés à la présentation des solutions, comme l’effet de cadrage influencent ainsi les décisions. Classés par ordre de « compatiblité », les candidats qui apparaissent en premier bénéficient d’une très forte « surprime » liée à ce mode de présentation . Enfin, un biais dit « d’automation » survient lorsque le recruteur donne un poids déterminant aux informations provenant de l’algorithme. Ainsi, la confiance envers l’algorithme en situation de prise de décision à risque, serait supérieure à celle accordée aux humains, sauf chez les professionnels expérimentés.
Plusieurs pistes existent pourtant pour atténuer les effets des différents biais. Intégrer une part d’aléatoire dans la présentation des résultats au recruteur permet d’éviter les biais de présentation susceptibles d’influencer le choix final au profit des profils apparaissant en première position . Rendre aveugles les systèmes face à certaines caractéristiques sociodémographiques comme le sexe ou l’origine. Limiter les mots-clés de recherche à des termes techniques n’éradique pourtant pas la possibilité, pour le recruteur, de s’appuyer sur des indices subtils permettant d’écarter certains types de candidature . Surtout, bien qu’illégal, il est facile de se représenter un employeur discriminant qui userait de ces critères à mauvais escient. La littérature scientifique retient de fait une méthode efficace mais à double tranchant : redresser les bases d’apprentissage, dans le but d’avantager les catégories discriminées . Contre les biais discriminatoires dans les données de simulation, réviser les résultats obtenus permet en effet de mettre à jour les données utilisées dans l'apprentissage de l'algorithme, et d’aller au-delà de quotas minimums de diversité pour proposer un modèle systématiquement inclusif, à rebours d’une population salariée normée.
Le déploiement des outils numériques de recrutement soulève enfin plusieurs questionnements liés à la formation initiale ou continue. Appliqués aux politiques de gestion des ressources humaines, les algorithmes permettent aux entreprises, une personnalisation accrue de la formation des employés et du contrôle de ceux-ci. En utilisant des données sur les intérêts et performances des travailleurs, les algorithmes adaptent par exemple, le contenu de leurs programmes de formation. Les employés peuvent alors suivre l’évolution de leur carrière plus efficacement, tandis que l’entreprise suit en direct le diagnostic de compétences de ses collaborateurs ainsi que… leur rentabilité . « MySkillCamp » par exemple, est une plateforme d'apprentissage en ligne, développée au Royaume-Uni et en Belgique pour offrir une formation personnalisée aux employés . Les algorithmes de la plateforme analysent les compétences et les intérêts de chaque employé pour recommander du contenu de formation.
Cette approche des individus par les compétences rejoint, ici à nouveau, une vision du monde où l’employé est acteur (et seul en charge) de sa propre carrière. On observe d’ailleurs le même phénomène dans le domaine des études, à travers la numérisation de l’orientation. Mise en place en 2018, la plateforme en ligne pour la gestion en France des admissions dans l'enseignement supérieur, Parcoursup, incarne cette numérisation. Parcoursup permet aux lycéens et étudiants de formuler des vœux pour des formations (universités, écoles, etc.) avant de recevoir des réponses des établissements auxquels ils ont postulé . Les étudiants doivent pour ce faire, saisir leur dossier scolaire complet, depuis l’entrée au lycée, avant de formuler des vœux pour les formations qui les intéressent . Les établissements examinent ensuite les dossiers des candidats et formulent des propositions d'admission en fonction de leurs critères de sélection. Pensée pour renforcer « la transparence et l’équité » à l’entrée des études, Parcoursup, en fonctionnant sur la rédaction systématique de projets d’orientation et en impliquant une connexion permanente pour suivre les propositions d’affectation, renforce dans les faits une responsabilisation-individualisation des candidats. La plateforme fonctionne pourtant à partir d’éléments liés aux algorithmes, sur lesquels les étudiants ne peuvent avoir prise. La plateforme implique par exemple que l’ensemble des formations universitaires aient recours à des algorithmes locaux pour classer leurs candidats . L’algorithme d’affectation (proposant une place pour chaque candidat) fait aussi office « d’algorithme d’appel » (pour des propositions simultanées aux candidats) en insérant au passage des candidats boursiers ou « de secteur », selon des taux définis par académies. Or ces algorithmes, mettent au centre de l’orientation ou de la formation continue les données personnelles des étudiants et employés. Traitées en même temps que produites par ces outils, elles sont indissociables de modèles économiques, marchandant ces données en les partageant avec des tiers, à même de les utiliser à leur tour pour influencer les choix de carrière des étudiants et des travailleurs (performances académiques, intérêts personnels, habitudes de navigation en ligne). C’est dans ce contexte d’ailleurs que certaines entreprises proposent un passeport numérique , qui unirait formation et carrière. Utilisé pour stocker des informations sur les certifications, les compétences et l'expérience professionnelle d'une personne, le passeport permettrait de trouver plus facilement des candidats qualifiés. Il offrirait également une opportunité pour les individus de démontrer leurs compétences de manière transparente et efficace.
Ces systèmes posent pourtant la question du rôle de l’école et des études dans une société : si elles doivent être conçues pour prioriser les compétences et les connaissances considérées comme les plus utiles aux employeurs, ou si un autre horizon leur est permis.
Enfin et surtout, à l’instar du recrutement, le déploiement dans l’orientation d’algorithmes de sélection devrait avant tout garantir aux premiers concernés les moyens de comprendre ses implications. L’« explicabilité », un concept né avec l’IA, est ainsi un critère majeur de responsabilité juridique des processus liés à l’intelligence artificielle. Le livre blanc de l’Union Européenne sur l’Intelligence Artificielle la place par exemple au centre des droits soudés à l’usage de l’IA. La législation française (Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique) impose elle, d’« expliquer une décision administrative obtenue par un traitement automatique lorsque la personne physique concernée en fait la demande ». Car l’opacité autour des choix impulsés par les machines ferait le lit de violences institutionnelles, elles aussi passées à l’échelle.
Vanté pour le renouvellement des pratiques qu’il induit, le déploiement du numérique dans l’entreprise passe par des outils standards qui ont évolué depuis le début de années 2000 vers des équations plus performantes, autonomes, et à même de simuler un raisonnement humain. Dans les champs du recrutement et de l’orientation, le déploiement de ces outils est porté par des discours de promotion de l’intelligence artificielle, mettant en avant des mécanismes, basés sur un raisonnement abstrait et objectif, et supposément dénués de biais humains.
Ces algorithmes sont pourtant loin d’être neutres. Depuis le modèle du « matching » des années 1960, qui vit pour la première fois accoler des facteurs indirectement liés au travail à la recherche de celui-ci, jusqu’au mouvement dit d’ « optimized hiring » qui compile et inventorie les « softs skills » des candidats (intelligence relationnelle, capacités de communication, résolution de problèmes…) avant de les proposer aux recruteurs, les nouveaux outils numériques sont tributaires dans leurs champs respectifs de courants historiques. Leur conception porte en soi des choix d’approches, à rebours des discours de neutralité les promouvant. S’en saisir en contexte conduit de fait à de nouvelles pratiques. En organisation (entreprise, mais aussi association, administration…), le recrutement est en effet au carrefour de plusieurs compétences professionnelles, mêlant gestion des ressources humaines et communication. Or l’usage des outils numériques y apparaît tant comme une réponse à de nouvelles contraintes, qu’un usage valorisé par les recruteurs. Faisant avec des usages plus anciens, en même temps que de nouveaux processus, les recruteurs se représentent ainsi, pour certains, le numérique, comme une opportunité de créer de nouveaux types de médiation (approches informelles des candidats, recherche de la perle rare…) sans pour autant les uniformiser. Les nouvelles pratiques communicationnelles qui en découlent, éloignent même, pour ces promoteurs, un travail routinier et rigide, revivifiant l’attrait pour le métier. Cet apport de l’IA dans la pratique quotidienne du travail, pose dès lors la question de l’intérêt de l’apport technologique au travail. Celui-ci pourrait se mesurer par exemple, à l’aune de l’allègement des tâches pénibles qu’il permettrait. Le rapport français Villani sur l’intelligence artificielle, évoquait en 2018 à ce titre, l’idée d’un « indice de complémentarité » entre l’homme et la machine. L’indice distinguerait les complémentarités souhaitables, dites « capacitantes », révélant le potentiel humain, des modes de complémentarité néfastes créant de la souffrance au travail par une perte d’autonomie du salarié. Ce modèle, servirait alors d’aiguillon, de boussole au déploiement de davantage d’algorithmes prédictifs dans le monde du travail. Car les outils servent aujourd’hui à la légitimation de groupe de professionnels en passe, il semblerait, de s’imposer. Surtout, l’intelligence artificielle et l’architecture de tout outil numérique de recrutement portent en soi des biais. Sans parler « d’opinions intégrées à du code » , le recours à l’intelligence artificielle dans la gestion des ressources humaines implique donc de mettre à distance les discours de promotion et de se concentrer sur les conséquences très concrètes de celle-ci. L’une des promesses du recrutement prédictif propose par exemple de fournir clés en main le ou la candidate idéale à chaque organisation, en fonction de ses besoins. Pourtant, établir un profil type, n’implique-t-il par une uniformisation des recrutements ? L’usage de méthodes statistiques basées sur la classification et la fabrication de profils-type, n’est ainsi pas sans présenter un risque de clonage discriminatoire dans le recrutement.
Surtout, la fiabilité des prédictions de systèmes basés sur le « machine learning » dépend de la quantité de données collectées dans la base d’apprentissage. Cette incitation à collecter et accumuler met alors le fonctionnement même des IA en tension avec les problématiques du respect de la vie privée. Les tensions entre tenants du numérique et juristes autour des solutions fondées sur les big data RH (masse d’informations personnalisées sur les caractéristiques, les compétences et les performances des salariés) se cristallisent par exemple sur les questions de données personnelles. Or, la dimension éthique des outils de recrutement assistés par IA est un enjeu majeur, encore mal appréhendé (notamment en ce qui concerne le respect de la vie privée et les biais algorithmiques). Les exemples de promesses anti-discrimination, percutées par le fonctionnement intrinsèque des algorithmes, montrent ainsi la nécessité de résister à ce que Lacroux et Martin-Lacroux appellent une « illusion technologique » . De même, dans le domaine de l’orientation, perçu comme un domaine éducatif où les individus sont encouragés, soutenus et guidés à réfléchir par eux-mêmes, il convient de remettre en perspective les modalités d’actions face à une numérisation qui atomise les individus, livrés à des algorithmes complexes. Le recours à l’IA doit ainsi, légalement s’accompagner d’une capacité à justifier et expliciter les décisions prises par des logiciels aux personnes qu’elles concernent. Alors que cette explicabilité des systèmes à base d’apprentissage constitue, en soi, un certain défi technique, elle se double également d’un impératif éthique pour ne pas voir favorisée une pseudo-efficacité au détriment de l’équité.
Benoît Debuigne est licencié en sciences géographiques (UCL) et détenteur d’un troisième cycle en aménagement du territoire et développement local (ULB).