logo Info-Social RH
Se connecter
Newsletter

Le grand entretien

« Au contact des utilisateurs, les outils deviennent plus performants »

Le grand entretien | publié le : 18.03.2019 | Sophie Massieu

Image

« Au contact des utilisateurs, les outils deviennent plus performants »

Crédit photo Sophie Massieu

Jean Pralong plaide pour une meilleure définition de ce qu’est l’intelligence artificielle afin de contrecarrer les risques éthiques sous-jacents et de favoriser une meilleure utilisation, par les responsables des ressources humaines en particulier. Objectif final : réintroduire une vision stratégique, notamment au travers d’une meilleure gestion des carrières. Une urgence, pour les salariés et les entreprises.

Depuis quand l’intelligence artificielle est-elle utilisée dans le secteur des ressources humaines ?

Je ne suis pas certain qu’on ait commencé à y recourir en fait… d’abord parce que l’on ignore ce qui se cache derrière cette expression. Une vraie intelligence artificielle, c’est-à-dire une machine qui apprend, et pas une machine qui se contente de traiter des données, moi, je ne sais pas en citer une aujourd’hui, du moins qui ne soit pas expérimentale. De plus en plus de machines traitent les données, oui ; mais peu en deviennent plus intelligentes, et rares sont celles qui font des choses originales.

Pourtant, on ne cesse d’utiliser cette expression, particulièrement dans le champ des ressources humaines…

C’est vrai. Et ne pas définir précisément ce terme peut présenter plusieurs dangers. D’abord, cela donne lieu à une mode. Pour paraître modernes, puisque c’est dans l’air du temps, les entreprises se précipitent pour acheter des solutions de ce type. C’est particulièrement vrai pour les services des ressources humaines qui, depuis 30 ans, cherchent leur identité. Je viens de participer à une étude pour la Harvard Business Review. La question était de savoir comment un DRH choisit un algorithme. Nous en avions choisi un pour trier les CV. Et pour le leur vendre, nous avions inventé deux types d’argumentaires. Un très objectif, qui expliquait de façon sémantique ce qu’il allait faire et comment, sans promesse irrationnelle. L’autre assurait qu’il allait tout changer, faire baisser le turn-over… sans la moindre explication sur le mode de fonctionnement. Résultat ? Sans pression de leur direction générale, les DRH choisissent le premier logiciel, celui qui a été vendu avec les explications. Mais s’ils sont mis sous pression, le deuxième l’emporte. Cela montre bien que les DRH ont peu de liberté pour choisir de façon rationnelle. Ils sont notamment soumis à la pression de la concurrence : les autres sont équipés, je dois y aller, pour ne pas passer pour un ringard. Et puis introduire un tel logiciel peut leur permettre d’exister dans l’organisation, et de damer le pion à d’autres, les directeurs financiers par exemple.

Quels sont les autres dangers liés à cette mode ?

L’autre péril, c’est la confusion que cette expression entretient entre la machine et l’algorithme. L’algorithme, c’est la logique de traitement. La machine informatique, c’est celle qui stocke les résultats ainsi obtenus. On pense trop souvent qu’un algorithme est un logiciel, et on se met à fantasmer sur cette boîte noire que devient alors la machine… Les algorithmes sont en effet entourés d’un halo de mystère. Ce mot veut vous tenir à distance, vous faire croire que vous ne pouvez pas comprendre. En digitalisant, on a prétendu que tout ceci était réservé à une élite. On se dispense d’expliquer alors qu’on aurait vraiment besoin de comprendre ce que fait la machine. On découvrirait notamment qu’en réalité, l’algorithme réalise des opérations qu’on faisait tout aussi bien avant, même avec un papier et un crayon. Mais on le faisait à une moindre échelle. Et aussi peut-être avec plus de transparence…

Avez-vous un exemple d’une tâche plus automatisée que nouvelle ?

D’aussi loin que je me souvienne, les DRH ont toujours fait de la gestion prévisionnelle des emplois et des compétences. Le réflexe de connaître les compétences mobilisées pour occuper un poste n’est pas neuf. Certes, c’était moins précis, avec un simple tableur Excel. Que maintenant des machines le fassent à plus grande échelle ne répond toujours pas aux deux questions de base. Comment repérer des compétences, et qu’est-ce que le travail ?

Pourtant, de nombreux logiciels se donnent pour vocation de trier des CV, donc des compétences…

On ne cesse de dire que la digitalisation va permettre de supprimer des postes inutiles, que le travail deviendra plus qualitatif… Mais alors est-ce que le tri des CV est une tâche trop bête pour la confier à un être humain ou au contraire, est-ce trop intelligent pour lui ? Je n’ai pas la réponse à la question. Je me demande en revanche si un logiciel de tri des CV ne peut pas permettre de réduire les biais des êtres humains… La machine peut bien sûr faire des erreurs, mais par exemple, elle ne choisira, ni n’écartera, un candidat en raison de son lieu d’habitation… Ce dont un homme ou une femme ne peut être certain. Même s’il ne le fait pas volontairement, le recruteur peut introduire des biais venus de son inconscient. La machine, elle, ne le peut pas.

Si ce n’est que le développeur d’une machine peut lui demander n’importe quoi, de choisir n’importe quel critère, sur le principe… Comment se prémunir d’un tel risque ?

Il faudra faire du testing de machine, comme on fait une check-list avant d’entrer dans un avion. Une façon de dire que ce qui est intéressant dans ces machines, c’est ce que vont en faire les hommes. Comment vont-ils se les approprier, voire les détourner, y compris de façon positive. Les développeurs ont une vision abstraite du travail mais, dès que les utilisateurs s’en emparent, le travail fait son grand retour et les activités réelles avec lui. Et donc au contact des utilisateurs, les outils deviennent plus performants.

Les DRH sont-ils assez bien formés pour cela ?

Il y a cinq ans, j’aurais répondu oui à cette question. Aujourd’hui, plus que la formation, le problème selon moi tient à la composition des équipes en charge des ressources humaines. Depuis deux ou trois ans, on confie les missions de recrutement à des profils juniors, voire à des alternants. Ils sont à peine formés et en plus n’ont pas les compétences sur les aspects relationnels et politiques du recrutement. Par exemple, savent-ils que le profil idéal n’existe pas mais qu’un recrutement doit être le fruit d’un consensus entre les différents acteurs ?

Ils ne sauraient donc contrebalancer les décisions d’un algorithme. Cela renforce-t-il les questions éthiques que posent ces outils ?

Sur le plan éthique du traitement des données, il faut d’abord démystifier les data et les algorithmes. Ils ne traitent que les informations dont on dispose et, pour qu’ils fonctionnent, il faut que les données soient propres et situées dans un contexte. Ensuite, il faut encadrer les usages. Et donc comprendre ce que fait la machine et comment, pour ensuite décider de ce que l’on en fait, conclut, ou pas. Enfin, il convient de remettre de la stratégie dans tout ça… Il faut, à l’acquisition d’un nouvel outil, se demander en quoi il est réellement utile à l’entreprise, sur le long terme. Nous arrivons à un tournant. Il y a deux ou trois ans, les entreprises se sont jetées sur ces nouveaux outils sans discernement, pour se copier les unes les autres. D’autres les ont testés sans vraiment avoir les moyens de les évaluer, et ont conclu que ça ne fonctionnait pas. Aujourd’hui, on en revient donc à d’anciennes méthodes. Il faut trouver un point d’équilibre, parce que, par exemple, le tri des CV montre bien que des outils digitaux utilisés à bon escient peuvent apporter beaucoup. En particulier pour les tâches que les humains font mal, comme le tri de CV, le repérage de compétences, ou la gestion de carrière et des mobilités. Or, il est urgent de repenser la relation entre le salarié et son entreprise et, au-delà, le contrat social. Dans ce cadre, si la digitalisation permet aux équipes de s’épargner des tâches opérationnelles pour retrouver du temps afin de s’occuper des collaborateurs, ce sera une bonne chose. Il faudra alors repenser les parcours et les carrières professionnelles, en finir avec l’idée selon laquelle l’emploi n’est que l’affaire de l’individu, qui n’a qu’à bien se former pour rester employable, et pas, aussi, de l’entreprise.

Vous venez de définir ce que pourraient permettre, aux services des ressources humaines, des machines utilisées de façon mature. À l’inverse, y a-t-il des tâches qu’elles ne devront jamais effectuer ?

Décider. Ce ne doit jamais être à elle de déterminer un recrutement. La machine doit juste nourrir la réflexion du recruteur. Sans ça, elle risque d’écarter les bons profils.

Parcours

Psychologue et docteur en sciences de gestion, auteur, en 2009, d’une thèse intitulée Les Mondes de la carrière : approche socioproductive du succès, objectif de carrière des cadres français, soutenue à l’université de Paris-Nanterre, Jean Pralong, 47 ans, enseigne à l’école de management de Normandie. En lien avec le Lab RH, il s’interroge de longue date sur les questions de data et sur leur rôle dans la gestion des ressources humaines. Dernier ouvrage paru : The Good Job, Pearson, 2016.

Auteur

  • Sophie Massieu