loader image

Table-ronde

IA, recrutement & RH : Un chantier pour l'éthique des usages de l'IA

Vendredi 24 juin 2022, 9-12 h

En présentiel :

Université Grenoble Alpes, Maison de la Création et de l’Innovation, salle 208

339, avenue centrale 38400, Saint-Martin-d’Hères

En distanciel :

ID de réunion : 474 381 1375
Code secret : 698063

Table-ronde avec :

Christelle Martin-Lacroux, maîtresse de conférences en science de gestion, UGA, IUT2, département Gestion des entreprises et des administrations, chercheuse au laboratoire CERAG (équipe Comportements Responsables et Enjeux Sociétaux) https://www.cerag.org/membre/christelle-martin-lacroux

Daniel Pélissier, docteur en sciences de l’information et de la communication, maître de conférences en sciences de gestion à l’IUT de Rodez, département GEA, université Toulouse 1 Capitole, chercheur au laboratoire Idetcom https://www.ut-capitole.fr/m-daniel-pelissier–382101.kjsp  

Rencontre animée par Thierry Ménissier, professeur de philosophie « sciences humaines et innovations », Grenoble IAE, chercheur à l’Institut de Philosophie de Grenoble (IPhiG), responsable de la chaire éthique&IA de MIAI

Argument de la table ronde :

Le titre de cette rencontre se comprend à partir d’un leitmotiv méthodologique de la chaire éthique&IA : l’éthique pertinente pour l’IA se situe à la confluence des quatre éthiques de l’IA actuellement en vigueur (à savoir, éthiques algorithmique, robotique, digitale et centrée UX), en soulignant la nécessaire prise en compte de la profondeur des pratiques sociales qui connaissent aujourd’hui l’implémentation des technologies d’intelligence artificielles. Si l’on veut réellement se doter d’une éthique de l’IA pour accompagner ce processus, les expérimentations qui accueillent ces technologies (sous des formes très variées et dans tous les domaines possibles) trouvent toujours un sens renouvelé dans l’observation des effets produits sur ces pratiques, en veillant à confronter les positions des parties prenantes (usagers finaux des technologies, organisations qui les emploient en vie de certaines finalités explicites et implicites, prescripteurs, autorités publiques de régulation – Etat, collectivités, législateur). A la suite de quoi, et seulement, peut se dessiner une évaluation éthique, d’ailleurs toujours circonstancielle à la situation. 

Dans le contexte d’une transformation massive des pratiques, la question de l’implémentation de l’IA dans les procédures de recrutement (et plus généralement dans les procédures adoptées par les services de ressources humaines (RH) des organisations) semble représenter un enjeu important pour l’éthique de l’IA, ainsi appréhendée comme éthique des usages de l’IA. Ce domaine constitue en effet un cas d’usage très important, que les expertises approfondies des invités permettront d’éclairer, de documenter, afin d’espérer l’évaluer sur le plan éthique.  

La fonction RH a de fait investi l’intelligence artificielle pour la communication interne, la gestion de carrières, les formations, etc., et le recrutement. Pour cette dernière pratique, les usages sont variés, des premiers échanges avec les candidats à leur sélection. Comme le recrutement est une mise en relation, la confiance est au cœur du processus. La dimension culturelle de cette activité RH est aussi prégnante, le recrutement pouvant être interprété comme un rite de passage, le franchissement d’une frontière symbolique. Utiliser des algorithmes associés à de l’intelligence artificielle questionne ces pratiques dans leur dimension opérationnelle mais aussi éthique. Le recrutement par ses enjeux économiques et surtout humains est une situation complexe propre à questionner l’usage d’une forme d’intelligence dite artificielle. Entre rejet radical des usages et valorisation naïve des outils, la voie de l’analyse contextualisée peut permettre de prendre un recul nécessaire pour mieux poser des questionnements éthiques. 

Présentation de l’intervention de Christelle Martin-Lacroux : 

La présélection des CV assistée par des systèmes d’aide à la décision intégrant l’intelligence artificielle connaît actuellement un fort développement dans de nombreuses organisations, soulevant des questions techniques, managériales, juridiques et éthiques. L’objectif de la présente communication vise à mieux comprendre les réactions des recruteurs lorsqu’ils se voient proposer des recommandations basées sur des algorithmes lors de la présélection des CV.

Deux attitudes majeures ont été identifiées dans la littérature sur les réactions des utilisateurs aux recommandations basées sur des algorithmes : l’aversion pour les algorithmes, qui reflète une méfiance générale et une préférence pour les recommandations humaines ; et le biais d’automation, qui correspond à une confiance excessive dans les décisions ou les recommandations faites par les systèmes algorithmiques d’aide à la décision (ADSS).  En s’appuyant sur les résultats obtenus dans le domaine de l’aide à la décision automatisée, nous faisons l’hypothèse générale que les recruteurs font plus confiance aux experts humains qu’aux systèmes algorithmiques d’aide à la décision, car ils se méfient des algorithmes pour des décisions subjectives comme le recrutement. 

Une expérimentation sur la sélection des CV a été menée sur un échantillon de professionnels (N=1 100) auxquels il a été demandé d’étudier une offre d’emploi, puis d’évaluer deux CV fictifs dans un plan factoriel 2×2 avec manipulation du type de recommandation (pas de recommandation/recommandation algorithmique/recommandation d’un expert humain) et de la pertinence des recommandations (recommandation pertinente vs non pertinente). Nos résultats confirment l’hypothèse générale de préférence pour les recommandations humaines : les recruteurs font preuve d’un niveau de confiance plus élevé envers les recommandations d’experts humains par rapport aux recommandations algorithmiques. Cependant, nous avons également constaté que la pertinence de la recommandation a un impact différentiel et inattendu sur les décisions : en présence d’une recommandation algorithmique non pertinente, les recruteurs ont favorisé le CV le moins pertinent par rapport au meilleur CV. Ce décalage entre les attitudes et les comportements suggère un possible biais d’automation. Nos résultats montrent également que des traits de personnalité spécifiques (extraversion, neuroticisme et confiance en soi) sont associés à une utilisation différentielle des recommandations algorithmiques. Les implications pour la recherche et les politiques RH sont enfin discutées. Ces résultats plaident pour une vigilance quant à l’usage de ces outils. Suivre aveuglément des recommandations fournies par des outils manquant de transparence et d’explicabilité peut générer des risques juridiques et de réputation en cas de discrimination basée sur les algorithmes pour les entreprises utilisant ces systèmes : des explications insuffisantes sur les décisions basées sur les algorithmes peuvent nuire à la réputation d’une entreprise en cas de discrimination, même si des travaux récents suggèrent que la discrimination algorithmique provoque moins d’indignation morale que la discrimination humaine. 

Références de la communication : 

Glikson, E., & Woolley, A. W. (2020). Human Trust in Artificial Intelligence : Review of Empirical Research. Academy of Management Annals14(2), 627‑660. https://doi.org/10.5465/annals.2018.0057

Lee, J. D., & See, K. A. (2004). Trust in Automation : Designing for Appropriate Reliance. Human Factors, 31.

Parasuraman, R., & Riley, V. (1997). Humans and automation : Use, misuse, disuse, abuse. Human factors39(2), 230‑253.

Présentation de l’intervention de Daniel Pélissier : 

Automatiser la conversation est un rêve fondateur de l’intelligence artificielle (IA). L’imitation et l’anthropomorphisme sont alors au cœur des analyses du concept d’IA. Cette présentation souhaite comprendre comment le premier contact entre robot et utilisateur est conçu. Pour cela, une méthode qualitative, utilisant la sociologie interactionniste, est investie dans un corpus de dix-neuf chatbots et douze entretiens avec des professionnels. Les résultats montrent une anthropomorphisation ambiguë de l’ouverture de la conversation. Cette ambiguïté est liée à une construction conjointe entre plusieurs acteurs aux imaginaires contradictoires. Cette intervention pose finalement la question de la nature sociale de l’IA dont la dimension médiatique sera abordée. La situation créée par ces chatbots de recrutement pose alors des questions éthiques particulières et importantes pour un usage raisonné de ces outils. 

Références de la communication : 

CHERIF, Emna et LEMOINE, Jean-François (2019), L’influence des caractéristiques anthropomorphiques des agents virtuels sur les réactions des internautes : le cas de la voix. Recherche et Applications en Marketing. 2019. Vol. 34, n° 1, pp. 29‑49.

GRIMAUD, Emmanuel et VIDAL, Denis (2012), Aux frontières de l’humain Pour une anthropologie comparée des créatures artificielles. Gradhiva. 2012. Vol. 15, pp. 4‑25.

SCHEGLOFF, Emanuel (2007), Sequence Organization in Interaction: A Primer in Conversation Analysis. Cambridge : Cambridge university press. 

VELKOVSKA, Julia et BEAUDOUIN, Valérie (2014), Parler aux machines, coproduire un service. IA et travail du client dans les services vocaux automatisés. In : La fabrique de la vente. Le travail de la vente dans les télécommunications. Paris : Presse des Mines. pp. 87‑129.