loader image

Colloque international
organisé par la Chaire éthique & IA, Institut MIAI,
Université de Grenoble-Alpes

« Intelligence artificielle et transformations du travail »

20-22 novembre 2023

En présentiel :
Université Grenoble Alpes,
339, avenue centrale 38400, Saint-Martin-d’Hères,
Maison de la Création et de l’Innovation.

En présentiel :

Université Grenoble Alpes,
339, avenue centrale 38400, Saint-Martin-d’Hères,
Maison de la Création et de l’Innovation.

Machanical turk revisité à l'ère numérique
L'Ouvrier informatique - Seddik Benlaksira

Pour la version anglaise de l’argumentaire

Argumentaire du colloque

La chaire éthique & IA (https://www.ethics-ai.fr/) fait partie de l’Institut pluridisciplinaire en intelligence artificielle (MIAI) et est affiliée à l’Institut de philosophie de Grenoble (IPhiG). Elle vise à développer une compréhension philosophique de l’intelligence artificielle à travers un dialogue soutenu avec l’informatique et la robotique, la psychologie cognitive, sociale et clinique, la sociologie des organisations, les études en sciences de l’information et de la communication, ainsi que les études juridiques et les sciences de gestion. Au croisement de la philosophie politique, de l’éthique publique et de la philosophie de la technologie, la chaire cherche à explorer les dimensions sociales, morales et politiques en jeu dans le déploiement des technologies de l’IA, d’une manière à la fois critique et attentive à leurs réalités techniques.

Odile Bellenguez, Professeure des Universités en informatique, Laboratoire des sciences du numérique de Nantes et IMT Atlantique Bretagne-Pays de la Loire Ecole Mines-Telecom.

Thomas Berns, Professeur de philosophie politique, Université Libre de Bruxelles.

Yann Ferguson, docteur en sociologie, Responsable scientifique du LaborIA (MTPEI-Inria), Expert au Partenariat Mondial pour l’Intelligence Artificielle, Icam Toulouse.

Stefania Mazzone, Professeure associée d’histoire des doctrines politiques, Université de Catane.

Manuel Zacklad, Professeur de sciences de l’information et de la communication, CNAM, Paris.

Responsables scientifiques du colloque : 

Chloé Bonifas, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI

Louis Devillaine, PACTE (CNRS & UGA) & chaire éthique&IA MIAI

Thierry Ménissier, Institut de Philosophie de Grenoble (UGA)

Dakota Root, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI  

La Chaire

La chaire éthique & IA (https://www.ethics-ai.fr/) fait partie de l’Institut pluridisciplinaire en intelligence artificielle (MIAI) et est affiliée à l’Institut de philosophie de Grenoble (IPhiG). Elle vise à développer une compréhension philosophique de l’intelligence artificielle à travers un dialogue soutenu avec l’informatique et la robotique, la psychologie cognitive, sociale et clinique, la sociologie des organisations, les études en sciences de l’information et de la communication, ainsi que les études juridiques et les sciences de gestion. Au croisement de la philosophie politique, de l’éthique publique et de la philosophie de la technologie, la chaire cherche à explorer les dimensions sociales, morales et politiques en jeu dans le déploiement des technologies de l’IA, d’une manière à la fois critique et attentive à leurs réalités techniques.

La conférence sera structurée autour des quatre axes suivants :

1) Remplacement des humains par les machines : mythe ou réalité ?

2) Études de cas : analyse du rôle des systèmes actuels

3) Équité et justice au travail : quelles valeurs pour une éthique du travail ?

4) Conditions de travail

Comité scientifique :

Odile Bellenguez, Professeure des Universités en informatique, Laboratoire des sciences du numérique de Nantes et IMT Atlantique Bretagne-Pays de la Loire Ecole Mines-Telecom.

Thomas Berns, Professeur de philosophie politique, Université Libre de Bruxelles.

Yann Ferguson, docteur en sociologie, Responsable scientifique du LaborIA (MTPEI-Inria), Expert au Partenariat Mondial pour l’Intelligence Artificielle, Icam Toulouse.

Stefania Mazzone, Professeure associée d’histoire des doctrines politiques, Université de Catane.

Manuel Zacklad, Professeur de sciences de l’information et de la communication, CNAM, Paris.

Responsables scientifiques du colloque : 

Chloé Bonifas, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI

Louis Devillaine, PACTE (CNRS & UGA) & chaire éthique&IA MIAI

Thierry Ménissier, Institut de Philosophie de Grenoble (UGA)

Dakota Root, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI  

La Chaire

La chaire éthique & IA (https://www.ethics-ai.fr/) fait partie de l’Institut pluridisciplinaire en intelligence artificielle (MIAI) et est affiliée à l’Institut de philosophie de Grenoble (IPhiG). Elle vise à développer une compréhension philosophique de l’intelligence artificielle à travers un dialogue soutenu avec l’informatique et la robotique, la psychologie cognitive, sociale et clinique, la sociologie des organisations, les études en sciences de l’information et de la communication, ainsi que les études juridiques et les sciences de gestion. Au croisement de la philosophie politique, de l’éthique publique et de la philosophie de la technologie, la chaire cherche à explorer les dimensions sociales, morales et politiques en jeu dans le déploiement des technologies de l’IA, d’une manière à la fois critique et attentive à leurs réalités techniques.

Avec cette conférence, nous souhaitons éclairer les questions liées à la transformation du travail humain, en apportant une contribution à ces questions d’un point de vue éthique. Pour ce faire, il est nécessaire de revisiter la place du travail dans la condition humaine et d’analyser les redéfinitions en cours, en se demandant : l’IA est-elle en train de redéfinir le travail et sa valeur ? Nous sollicitons des propositions en français ou en anglais. Les disciplines suivantes sont invitées à la réflexion : philosophie, sociologie, histoire sociale, économie, sciences de l’information et de la communication, psychologie sociale, ergonomie, informatique, robotiques. Veuillez envoyer un résumé de 500 mots accompagné d’un titre, de références bibliographiques ainsi qu’une préférence de session à ai-work-transformations@univ-grenoble-alpes.fr avant le 7 juillet 2023. Des contributions spontanées ne correspondant pas spécifiquement à ces thématiques restent bien entendu bienvenues.

Sessions

La conférence sera structurée autour des quatre axes suivants :

1) Remplacement des humains par les machines : mythe ou réalité ?

2) Études de cas : analyse du rôle des systèmes actuels

3) Équité et justice au travail : quelles valeurs pour une éthique du travail ?

4) Conditions de travail

Comité scientifique :

Odile Bellenguez, Professeure des Universités en informatique, Laboratoire des sciences du numérique de Nantes et IMT Atlantique Bretagne-Pays de la Loire Ecole Mines-Telecom.

Thomas Berns, Professeur de philosophie politique, Université Libre de Bruxelles.

Yann Ferguson, docteur en sociologie, Responsable scientifique du LaborIA (MTPEI-Inria), Expert au Partenariat Mondial pour l’Intelligence Artificielle, Icam Toulouse.

Stefania Mazzone, Professeure associée d’histoire des doctrines politiques, Université de Catane.

Manuel Zacklad, Professeur de sciences de l’information et de la communication, CNAM, Paris.

Responsables scientifiques du colloque : 

Chloé Bonifas, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI

Louis Devillaine, PACTE (CNRS & UGA) & chaire éthique&IA MIAI

Thierry Ménissier, Institut de Philosophie de Grenoble (UGA)

Dakota Root, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI  

La Chaire

La chaire éthique & IA (https://www.ethics-ai.fr/) fait partie de l’Institut pluridisciplinaire en intelligence artificielle (MIAI) et est affiliée à l’Institut de philosophie de Grenoble (IPhiG). Elle vise à développer une compréhension philosophique de l’intelligence artificielle à travers un dialogue soutenu avec l’informatique et la robotique, la psychologie cognitive, sociale et clinique, la sociologie des organisations, les études en sciences de l’information et de la communication, ainsi que les études juridiques et les sciences de gestion. Au croisement de la philosophie politique, de l’éthique publique et de la philosophie de la technologie, la chaire cherche à explorer les dimensions sociales, morales et politiques en jeu dans le déploiement des technologies de l’IA, d’une manière à la fois critique et attentive à leurs réalités techniques.

L’IA amène à repenser l’organisation du travail et le cadre dans lequel il est effectué. L’outillage managérial se dote désormais de méthodes algorithmiques pour encadrer le travail : recrutement (Lacroux & Martin-Lacroux, 2021), planning (Lapègue & Bellenguez, 2013), établissement des tâches à réaliser (Gaborieau, 2012), prospective de la clientèle (Pachidi, 2021). L’introduction de ces systèmes décisionnels au sein des organisations  peut amener à une redistribution des tâches et des rôles et ultimement à des demandes diverses en compétences qui demandent à être prise en compte (Gekara, 2018). Utilisés comme outils d’indicateurs de performance des salariés, ces systèmes sont aussi des outils de contrôle du travail (Kellogg et al., 2020). Ils peuvent malgré tout échouer à prendre significativement en compte le cœur de métier des travailleurs, à l’instar de la relation salarié-client dans les supermarchés (Evans, 2018), et constituer une menace pour la notion de travail bien fait ou de travail de qualité (Clot, 2015).

L’observation de ces transformations organisationnelles et managériales révèle la manière dont les humains participent à la création de l’IA, en tant qu’ingénieurs, programmeurs, analystes de données, entraîneurs (Tubaro et al., 2020), ainsi qu’en qualité d’utilisateurs, dont l’activité alimente le processus d’apprentissage automatique (Cristianini et al. 2023, 93). L’économie de l’attention dépend des contributions des utilisateurs et de l’exploitation de leurs données et activités (Citton, 2014) : dans quelle mesure ceci impacte-t-il le monde du travail ? Si l’on ne peut parler de remplacement, mais plutôt de transformation de l’activité humaine, il s’agit alors de réfléchir aux nouvelles formes de coopération (Sennett, 2012) que cela implique entre les humains et entre l’IA et les humains. Peut-on penser, comme le soutient Villani, que l’IA peut “désautomatiser le travail humain” pour lui permettre de se concentrer sur des tâches plus créatives ? (2018, 105). 

En effet, l’IA nous donne peut-être l’occasion de reconsidérer les conditions de travail, comprises à la fois comme l’environnement de la réalisation d’une tâche et comme organisation du travail, ainsi que notre rapport au travail. De fait, le travail peut être source de sens, notamment à travers la joie de pratiquer un métier (Frayne, 2015), la valeur qu’il nous donne aux yeux des autres (Michaelson, 2021), le fait d’apporter une contribution à la société (Moriarty 2009), ou encore la pratique et le développement de l’autonomie (Schwartz, 1982). Cependant, il est également le lieu de souffrances directement liées à sa pratique. La centralité du travail dans l’organisation de la société (Habermas, 1985) en conduit certains à devoir accepter des emplois précaires (Cholbi 2018, 13-15). De ce fait, même dans les cas où le travail est vécu comme une contrainte, les travailleurs sont obligés d’y chercher du sens. La complexité de cette recherche dans différentes conditions de travail est exacerbée par les transformations induites par l’IA dans l’organisation et les activités de travail. Il s’agit finalement d’interroger les effets de l’insertion de l’IA dans ce rapport ambigu qui existe entre travail et emploi (Méda & Vendramin, 2013).

Objectifs et appel à communications

Avec cette conférence, nous souhaitons éclairer les questions liées à la transformation du travail humain, en apportant une contribution à ces questions d’un point de vue éthique. Pour ce faire, il est nécessaire de revisiter la place du travail dans la condition humaine et d’analyser les redéfinitions en cours, en se demandant : l’IA est-elle en train de redéfinir le travail et sa valeur ? Nous sollicitons des propositions en français ou en anglais. Les disciplines suivantes sont invitées à la réflexion : philosophie, sociologie, histoire sociale, économie, sciences de l’information et de la communication, psychologie sociale, ergonomie, informatique, robotiques. Veuillez envoyer un résumé de 500 mots accompagné d’un titre, de références bibliographiques ainsi qu’une préférence de session à ai-work-transformations@univ-grenoble-alpes.fr avant le 7 juillet 2023. Des contributions spontanées ne correspondant pas spécifiquement à ces thématiques restent bien entendu bienvenues.

Sessions

La conférence sera structurée autour des quatre axes suivants :

1) Remplacement des humains par les machines : mythe ou réalité ?

2) Études de cas : analyse du rôle des systèmes actuels

3) Équité et justice au travail : quelles valeurs pour une éthique du travail ?

4) Conditions de travail

Comité scientifique :

Odile Bellenguez, Professeure des Universités en informatique, Laboratoire des sciences du numérique de Nantes et IMT Atlantique Bretagne-Pays de la Loire Ecole Mines-Telecom.

Thomas Berns, Professeur de philosophie politique, Université Libre de Bruxelles.

Yann Ferguson, docteur en sociologie, Responsable scientifique du LaborIA (MTPEI-Inria), Expert au Partenariat Mondial pour l’Intelligence Artificielle, Icam Toulouse.

Stefania Mazzone, Professeure associée d’histoire des doctrines politiques, Université de Catane.

Manuel Zacklad, Professeur de sciences de l’information et de la communication, CNAM, Paris.

Responsables scientifiques du colloque : 

Chloé Bonifas, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI

Louis Devillaine, PACTE (CNRS & UGA) & chaire éthique&IA MIAI

Thierry Ménissier, Institut de Philosophie de Grenoble (UGA)

Dakota Root, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI  

La Chaire

La chaire éthique & IA (https://www.ethics-ai.fr/) fait partie de l’Institut pluridisciplinaire en intelligence artificielle (MIAI) et est affiliée à l’Institut de philosophie de Grenoble (IPhiG). Elle vise à développer une compréhension philosophique de l’intelligence artificielle à travers un dialogue soutenu avec l’informatique et la robotique, la psychologie cognitive, sociale et clinique, la sociologie des organisations, les études en sciences de l’information et de la communication, ainsi que les études juridiques et les sciences de gestion. Au croisement de la philosophie politique, de l’éthique publique et de la philosophie de la technologie, la chaire cherche à explorer les dimensions sociales, morales et politiques en jeu dans le déploiement des technologies de l’IA, d’une manière à la fois critique et attentive à leurs réalités techniques.

L’IA au travail soulève également des questions liées à l’équité et à la justice (van der Poel et al., 2022, 15). Dans l’imaginaire collectif, les systèmes relevant de l’’IA sont souvent supposés objectifs parce qu’ils n’ont pas d’émotions ni de désirs humains (Guzman, 2020, 48). Cette croyance ne tient pas compte de la subjectivité intégrée dans les systèmes d’IA, où même les nombres “représentent une réalité sociale complexe” (Boucher, 2020, 23). Les données, bien qu’elles ne soient pas intrinsèquement discriminatoires, peuvent s’inscrire dans des schémas qui le sont, ce qui compromet la possibilité d’équité dans l’apprentissage automatique. Par ailleurs, les analystes des données eux-mêmes ne parviennent pas à s’accorder sur des métriques d’équité consensuelles, d’autant qu’elles se contredisent parfois entre elles (Kleinberg et al., 2016). Les difficultés liées à cette valeur fondamentale pour l’éthique de l’IA (Jobin et al., 2019) peuvent nous amener à reconsidérer celle de justice. Au lieu de ne se concentrer que sur les conditions d’un traitement équitable par les systèmes d’IA, la notion de justice permet par ailleurs de questionner les modalités de recours à leur utilisation. Il reste à définir plus précisément ce que signifierait un système d’IA qui soit juste.

Le caractère explicable d’un système peut assurer la satisfaction des exigences de justice liées à ses usages (Doshi-Velez & Kim, 2019). Même si nous pouvons éviter les préjugés, il se peut que nous ne soyons pas en mesure d’expliquer la prise de décision de ce que l’on appelle la boîte noire de l’IA. Par exemple, l’apprentissage profond utilise des milliers, voire des millions, de liens en interaction pour faire des prédictions (Liao 2020, 7). Nous pouvons déterminer si le résultat est correct, mais même la lecture de toute la documentation n’aidera pas à donner un sens aux interactions étendues et complexes qui sont intervenues dans la solution (Wulff et Finnestrand, 2023, 3). Les humains devront être en mesure de rendre compte des résultats et de justifier la prise de décision de l’IA, en assurant à la fois l’équité, la transparence et l’autonomie humaine (Jobin et al., 2019). Dès lors, nous devons nous demander si l’IA reproblématise la responsabilité au travail. Lorsque nous travaillons, une “friction psychique” se fait entre nous, les objets qui nous entourent et les autres, ce pourquoi le travail constitue une “expérience directe de notre responsabilité à l’égard de notre environnement matériel” (Crawford, 2016). Ainsi, travailler avec ou sous l’égide de l’IA pourrait signifier la perte de cette dimension concrète du travail, éloignant les employés des effets directs de leurs actions et conduisant à un déplacement de leur responsabilité.

Conditions de travail

L’IA amène à repenser l’organisation du travail et le cadre dans lequel il est effectué. L’outillage managérial se dote désormais de méthodes algorithmiques pour encadrer le travail : recrutement (Lacroux & Martin-Lacroux, 2021), planning (Lapègue & Bellenguez, 2013), établissement des tâches à réaliser (Gaborieau, 2012), prospective de la clientèle (Pachidi, 2021). L’introduction de ces systèmes décisionnels au sein des organisations  peut amener à une redistribution des tâches et des rôles et ultimement à des demandes diverses en compétences qui demandent à être prise en compte (Gekara, 2018). Utilisés comme outils d’indicateurs de performance des salariés, ces systèmes sont aussi des outils de contrôle du travail (Kellogg et al., 2020). Ils peuvent malgré tout échouer à prendre significativement en compte le cœur de métier des travailleurs, à l’instar de la relation salarié-client dans les supermarchés (Evans, 2018), et constituer une menace pour la notion de travail bien fait ou de travail de qualité (Clot, 2015).

L’observation de ces transformations organisationnelles et managériales révèle la manière dont les humains participent à la création de l’IA, en tant qu’ingénieurs, programmeurs, analystes de données, entraîneurs (Tubaro et al., 2020), ainsi qu’en qualité d’utilisateurs, dont l’activité alimente le processus d’apprentissage automatique (Cristianini et al. 2023, 93). L’économie de l’attention dépend des contributions des utilisateurs et de l’exploitation de leurs données et activités (Citton, 2014) : dans quelle mesure ceci impacte-t-il le monde du travail ? Si l’on ne peut parler de remplacement, mais plutôt de transformation de l’activité humaine, il s’agit alors de réfléchir aux nouvelles formes de coopération (Sennett, 2012) que cela implique entre les humains et entre l’IA et les humains. Peut-on penser, comme le soutient Villani, que l’IA peut “désautomatiser le travail humain” pour lui permettre de se concentrer sur des tâches plus créatives ? (2018, 105). 

En effet, l’IA nous donne peut-être l’occasion de reconsidérer les conditions de travail, comprises à la fois comme l’environnement de la réalisation d’une tâche et comme organisation du travail, ainsi que notre rapport au travail. De fait, le travail peut être source de sens, notamment à travers la joie de pratiquer un métier (Frayne, 2015), la valeur qu’il nous donne aux yeux des autres (Michaelson, 2021), le fait d’apporter une contribution à la société (Moriarty 2009), ou encore la pratique et le développement de l’autonomie (Schwartz, 1982). Cependant, il est également le lieu de souffrances directement liées à sa pratique. La centralité du travail dans l’organisation de la société (Habermas, 1985) en conduit certains à devoir accepter des emplois précaires (Cholbi 2018, 13-15). De ce fait, même dans les cas où le travail est vécu comme une contrainte, les travailleurs sont obligés d’y chercher du sens. La complexité de cette recherche dans différentes conditions de travail est exacerbée par les transformations induites par l’IA dans l’organisation et les activités de travail. Il s’agit finalement d’interroger les effets de l’insertion de l’IA dans ce rapport ambigu qui existe entre travail et emploi (Méda & Vendramin, 2013).

Objectifs et appel à communications

Avec cette conférence, nous souhaitons éclairer les questions liées à la transformation du travail humain, en apportant une contribution à ces questions d’un point de vue éthique. Pour ce faire, il est nécessaire de revisiter la place du travail dans la condition humaine et d’analyser les redéfinitions en cours, en se demandant : l’IA est-elle en train de redéfinir le travail et sa valeur ? Nous sollicitons des propositions en français ou en anglais. Les disciplines suivantes sont invitées à la réflexion : philosophie, sociologie, histoire sociale, économie, sciences de l’information et de la communication, psychologie sociale, ergonomie, informatique, robotiques. Veuillez envoyer un résumé de 500 mots accompagné d’un titre, de références bibliographiques ainsi qu’une préférence de session à ai-work-transformations@univ-grenoble-alpes.fr avant le 7 juillet 2023. Des contributions spontanées ne correspondant pas spécifiquement à ces thématiques restent bien entendu bienvenues.

Sessions

La conférence sera structurée autour des quatre axes suivants :

1) Remplacement des humains par les machines : mythe ou réalité ?

2) Études de cas : analyse du rôle des systèmes actuels

3) Équité et justice au travail : quelles valeurs pour une éthique du travail ?

4) Conditions de travail

Comité scientifique :

Odile Bellenguez, Professeure des Universités en informatique, Laboratoire des sciences du numérique de Nantes et IMT Atlantique Bretagne-Pays de la Loire Ecole Mines-Telecom.

Thomas Berns, Professeur de philosophie politique, Université Libre de Bruxelles.

Yann Ferguson, docteur en sociologie, Responsable scientifique du LaborIA (MTPEI-Inria), Expert au Partenariat Mondial pour l’Intelligence Artificielle, Icam Toulouse.

Stefania Mazzone, Professeure associée d’histoire des doctrines politiques, Université de Catane.

Manuel Zacklad, Professeur de sciences de l’information et de la communication, CNAM, Paris.

Responsables scientifiques du colloque : 

Chloé Bonifas, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI

Louis Devillaine, PACTE (CNRS & UGA) & chaire éthique&IA MIAI

Thierry Ménissier, Institut de Philosophie de Grenoble (UGA)

Dakota Root, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI  

La Chaire

La chaire éthique & IA (https://www.ethics-ai.fr/) fait partie de l’Institut pluridisciplinaire en intelligence artificielle (MIAI) et est affiliée à l’Institut de philosophie de Grenoble (IPhiG). Elle vise à développer une compréhension philosophique de l’intelligence artificielle à travers un dialogue soutenu avec l’informatique et la robotique, la psychologie cognitive, sociale et clinique, la sociologie des organisations, les études en sciences de l’information et de la communication, ainsi que les études juridiques et les sciences de gestion. Au croisement de la philosophie politique, de l’éthique publique et de la philosophie de la technologie, la chaire cherche à explorer les dimensions sociales, morales et politiques en jeu dans le déploiement des technologies de l’IA, d’une manière à la fois critique et attentive à leurs réalités techniques.

Tout d’abord, comment l’apparition de l’IA modifie-t-elle le débat préexistant sur les effets de la technologie sur le travail humain ? Des technologies antérieures ont déjà suscité de violentes critiques. Prenons par exemple l’opposition aux métiers à tisser mécanisés chez les luddites du XIXe siècle, ou encore la peur de l’automatisation dans l’Amérique industrielle des années 1960 (Autor, 2015). Les préoccupations liées à l’IA pourraient n’être qu’une réactualisation contemporaine de ces inquiétudes concernant technologies et conditions de travail.

Certains pourraient faire valoir que l’IA ne fait que maintenir l’exploitation préexistante des travailleurs (Casilli, 2019), en y ajoutant des formes de contrôle plus efficaces par le biais de la surveillance et de la gestion algorithmiques (Boltanski & Chiapello, 1999). D’autres montrent comment les systèmes d’IA finissent en fait par se diluer dans le quotidien des travailleurs et se voient réduits à leur seule fonctionnalité (Condé & Ferguson, 2023).

Pourtant, les systèmes d’IA sont capables de prendre des décisions avec ou sans intervention humaine (Shrestha et al., 2019). En outre, alors que les technologies précédentes étaient un moyen pour les humains de communiquer avec d’autres humains, les systèmes d’IA sont impliqués dans la communication avec les humains (Guzmann, 2020). Enfin, nous voyons des systèmes d’IA qui impliquent la coopération humaine pour fonctionner, créant des interconnexions où l’IA apprend et s’adapte au comportement et au travail humains (Cristianini et al. 2023). À bien des égards, l’IA semble fonctionner différemment des technologies précédentes, modifiant peut-être profondément les conditions de travail.

Équité et justice au travail

L’IA au travail soulève également des questions liées à l’équité et à la justice (van der Poel et al., 2022, 15). Dans l’imaginaire collectif, les systèmes relevant de l’’IA sont souvent supposés objectifs parce qu’ils n’ont pas d’émotions ni de désirs humains (Guzman, 2020, 48). Cette croyance ne tient pas compte de la subjectivité intégrée dans les systèmes d’IA, où même les nombres “représentent une réalité sociale complexe” (Boucher, 2020, 23). Les données, bien qu’elles ne soient pas intrinsèquement discriminatoires, peuvent s’inscrire dans des schémas qui le sont, ce qui compromet la possibilité d’équité dans l’apprentissage automatique. Par ailleurs, les analystes des données eux-mêmes ne parviennent pas à s’accorder sur des métriques d’équité consensuelles, d’autant qu’elles se contredisent parfois entre elles (Kleinberg et al., 2016). Les difficultés liées à cette valeur fondamentale pour l’éthique de l’IA (Jobin et al., 2019) peuvent nous amener à reconsidérer celle de justice. Au lieu de ne se concentrer que sur les conditions d’un traitement équitable par les systèmes d’IA, la notion de justice permet par ailleurs de questionner les modalités de recours à leur utilisation. Il reste à définir plus précisément ce que signifierait un système d’IA qui soit juste.

Le caractère explicable d’un système peut assurer la satisfaction des exigences de justice liées à ses usages (Doshi-Velez & Kim, 2019). Même si nous pouvons éviter les préjugés, il se peut que nous ne soyons pas en mesure d’expliquer la prise de décision de ce que l’on appelle la boîte noire de l’IA. Par exemple, l’apprentissage profond utilise des milliers, voire des millions, de liens en interaction pour faire des prédictions (Liao 2020, 7). Nous pouvons déterminer si le résultat est correct, mais même la lecture de toute la documentation n’aidera pas à donner un sens aux interactions étendues et complexes qui sont intervenues dans la solution (Wulff et Finnestrand, 2023, 3). Les humains devront être en mesure de rendre compte des résultats et de justifier la prise de décision de l’IA, en assurant à la fois l’équité, la transparence et l’autonomie humaine (Jobin et al., 2019). Dès lors, nous devons nous demander si l’IA reproblématise la responsabilité au travail. Lorsque nous travaillons, une “friction psychique” se fait entre nous, les objets qui nous entourent et les autres, ce pourquoi le travail constitue une “expérience directe de notre responsabilité à l’égard de notre environnement matériel” (Crawford, 2016). Ainsi, travailler avec ou sous l’égide de l’IA pourrait signifier la perte de cette dimension concrète du travail, éloignant les employés des effets directs de leurs actions et conduisant à un déplacement de leur responsabilité.

Conditions de travail

L’IA amène à repenser l’organisation du travail et le cadre dans lequel il est effectué. L’outillage managérial se dote désormais de méthodes algorithmiques pour encadrer le travail : recrutement (Lacroux & Martin-Lacroux, 2021), planning (Lapègue & Bellenguez, 2013), établissement des tâches à réaliser (Gaborieau, 2012), prospective de la clientèle (Pachidi, 2021). L’introduction de ces systèmes décisionnels au sein des organisations  peut amener à une redistribution des tâches et des rôles et ultimement à des demandes diverses en compétences qui demandent à être prise en compte (Gekara, 2018). Utilisés comme outils d’indicateurs de performance des salariés, ces systèmes sont aussi des outils de contrôle du travail (Kellogg et al., 2020). Ils peuvent malgré tout échouer à prendre significativement en compte le cœur de métier des travailleurs, à l’instar de la relation salarié-client dans les supermarchés (Evans, 2018), et constituer une menace pour la notion de travail bien fait ou de travail de qualité (Clot, 2015).

L’observation de ces transformations organisationnelles et managériales révèle la manière dont les humains participent à la création de l’IA, en tant qu’ingénieurs, programmeurs, analystes de données, entraîneurs (Tubaro et al., 2020), ainsi qu’en qualité d’utilisateurs, dont l’activité alimente le processus d’apprentissage automatique (Cristianini et al. 2023, 93). L’économie de l’attention dépend des contributions des utilisateurs et de l’exploitation de leurs données et activités (Citton, 2014) : dans quelle mesure ceci impacte-t-il le monde du travail ? Si l’on ne peut parler de remplacement, mais plutôt de transformation de l’activité humaine, il s’agit alors de réfléchir aux nouvelles formes de coopération (Sennett, 2012) que cela implique entre les humains et entre l’IA et les humains. Peut-on penser, comme le soutient Villani, que l’IA peut “désautomatiser le travail humain” pour lui permettre de se concentrer sur des tâches plus créatives ? (2018, 105). 

En effet, l’IA nous donne peut-être l’occasion de reconsidérer les conditions de travail, comprises à la fois comme l’environnement de la réalisation d’une tâche et comme organisation du travail, ainsi que notre rapport au travail. De fait, le travail peut être source de sens, notamment à travers la joie de pratiquer un métier (Frayne, 2015), la valeur qu’il nous donne aux yeux des autres (Michaelson, 2021), le fait d’apporter une contribution à la société (Moriarty 2009), ou encore la pratique et le développement de l’autonomie (Schwartz, 1982). Cependant, il est également le lieu de souffrances directement liées à sa pratique. La centralité du travail dans l’organisation de la société (Habermas, 1985) en conduit certains à devoir accepter des emplois précaires (Cholbi 2018, 13-15). De ce fait, même dans les cas où le travail est vécu comme une contrainte, les travailleurs sont obligés d’y chercher du sens. La complexité de cette recherche dans différentes conditions de travail est exacerbée par les transformations induites par l’IA dans l’organisation et les activités de travail. Il s’agit finalement d’interroger les effets de l’insertion de l’IA dans ce rapport ambigu qui existe entre travail et emploi (Méda & Vendramin, 2013).

Objectifs et appel à communications

Avec cette conférence, nous souhaitons éclairer les questions liées à la transformation du travail humain, en apportant une contribution à ces questions d’un point de vue éthique. Pour ce faire, il est nécessaire de revisiter la place du travail dans la condition humaine et d’analyser les redéfinitions en cours, en se demandant : l’IA est-elle en train de redéfinir le travail et sa valeur ? Nous sollicitons des propositions en français ou en anglais. Les disciplines suivantes sont invitées à la réflexion : philosophie, sociologie, histoire sociale, économie, sciences de l’information et de la communication, psychologie sociale, ergonomie, informatique, robotiques. Veuillez envoyer un résumé de 500 mots accompagné d’un titre, de références bibliographiques ainsi qu’une préférence de session à ai-work-transformations@univ-grenoble-alpes.fr avant le 7 juillet 2023. Des contributions spontanées ne correspondant pas spécifiquement à ces thématiques restent bien entendu bienvenues.

Sessions

La conférence sera structurée autour des quatre axes suivants :

1) Remplacement des humains par les machines : mythe ou réalité ?

2) Études de cas : analyse du rôle des systèmes actuels

3) Équité et justice au travail : quelles valeurs pour une éthique du travail ?

4) Conditions de travail

Comité scientifique :

Odile Bellenguez, Professeure des Universités en informatique, Laboratoire des sciences du numérique de Nantes et IMT Atlantique Bretagne-Pays de la Loire Ecole Mines-Telecom.

Thomas Berns, Professeur de philosophie politique, Université Libre de Bruxelles.

Yann Ferguson, docteur en sociologie, Responsable scientifique du LaborIA (MTPEI-Inria), Expert au Partenariat Mondial pour l’Intelligence Artificielle, Icam Toulouse.

Stefania Mazzone, Professeure associée d’histoire des doctrines politiques, Université de Catane.

Manuel Zacklad, Professeur de sciences de l’information et de la communication, CNAM, Paris.

Responsables scientifiques du colloque : 

Chloé Bonifas, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI

Louis Devillaine, PACTE (CNRS & UGA) & chaire éthique&IA MIAI

Thierry Ménissier, Institut de Philosophie de Grenoble (UGA)

Dakota Root, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI  

La Chaire

La chaire éthique & IA (https://www.ethics-ai.fr/) fait partie de l’Institut pluridisciplinaire en intelligence artificielle (MIAI) et est affiliée à l’Institut de philosophie de Grenoble (IPhiG). Elle vise à développer une compréhension philosophique de l’intelligence artificielle à travers un dialogue soutenu avec l’informatique et la robotique, la psychologie cognitive, sociale et clinique, la sociologie des organisations, les études en sciences de l’information et de la communication, ainsi que les études juridiques et les sciences de gestion. Au croisement de la philosophie politique, de l’éthique publique et de la philosophie de la technologie, la chaire cherche à explorer les dimensions sociales, morales et politiques en jeu dans le déploiement des technologies de l’IA, d’une manière à la fois critique et attentive à leurs réalités techniques.

L’intelligence artificielle (IA) renvoie à des systèmes qui présentent des capacités de résolution de problèmes orientés vers un objectif, d’adaptation à la situation, d’apprentissage par l’expérience et de prise de décision avec au moins un niveau minimum d’autonomie (Commission européenne, 2018 ; Liao, 2020). Ces caractéristiques du comportement dit intelligent étaient auparavant associées aux fonctions cognitives des êtres vivants, mais elles sont aujourd’hui simulées par l’apprentissage automatique. L’IA désigne un ensemble relativement hétéroclite d’objets qui sont les sujets d’autant de discours : entre super-intelligence, discipline scientifique, système socio-technique ou socio-économique (Benbouzid et al., 2022).

Les systèmes d’IA peuvent traiter, analyser et classer de grandes quantités de données plus rapidement que les humains, et excellent à générer des modèles et à faire des prédictions précises (Autor, 2015 ; Podolny, 2015). De plus en plus, l’IA permet également d’accomplir des tâches qui étaient auparavant supposées nécessiter la créativité humaine : la production d’articles sur des matchs sportifs et des événements météorologiques, l’interprétation de tests médicaux et la génération de livres et d’images (Miroschnichenko, 2018 ; Topalovic et al., 2019 ; Bensinger, 2023). 

L’application de l’IA dans différents domaines nous amène à nous demander que faut-il faire avec l’IA au travail ? Son efficacité, sa fiabilité et sa rapidité ont donné lieu à des perspectives divergentes. Le pendant socio-pessimiste affirme que les humains seront remplacés, ce qui entraînera des pertes d’emploi et une augmentation des inégalités, tandis qu’une position plus techno-optimiste considère que la coopération entre l’IA et les humains est émancipatrice, permettant aux humains de se concentrer sur des tâches significatives et créatives (Vicsek, 2021). Quelle que soit la perspective, l’IA a des implications sur la valeur du travail et les conditions de travail à l’avenir. Cette conférence vise à proposer une philosophie sociale de l’IA et du travail, ancrée dans un cadre éthique. En nous concentrant sur trois axes de recherche, nous examinerons l’histoire du débat sur le remplacement technologique, les conditions de travail avec l’IA et les transformations de l’équité et de la justice, afin de mettre en exergue ses spécificités. Il s’agit là de questions qui se développent dans le cadre d’une littérature émergente sur les impacts de l’IA sur le travail. (Deranty et Corbin, 2022)

Historique du débat sur le remplacement des machines : mythe ou réalité ?

Tout d’abord, comment l’apparition de l’IA modifie-t-elle le débat préexistant sur les effets de la technologie sur le travail humain ? Des technologies antérieures ont déjà suscité de violentes critiques. Prenons par exemple l’opposition aux métiers à tisser mécanisés chez les luddites du XIXe siècle, ou encore la peur de l’automatisation dans l’Amérique industrielle des années 1960 (Autor, 2015). Les préoccupations liées à l’IA pourraient n’être qu’une réactualisation contemporaine de ces inquiétudes concernant technologies et conditions de travail.

Certains pourraient faire valoir que l’IA ne fait que maintenir l’exploitation préexistante des travailleurs (Casilli, 2019), en y ajoutant des formes de contrôle plus efficaces par le biais de la surveillance et de la gestion algorithmiques (Boltanski & Chiapello, 1999). D’autres montrent comment les systèmes d’IA finissent en fait par se diluer dans le quotidien des travailleurs et se voient réduits à leur seule fonctionnalité (Condé & Ferguson, 2023).

Pourtant, les systèmes d’IA sont capables de prendre des décisions avec ou sans intervention humaine (Shrestha et al., 2019). En outre, alors que les technologies précédentes étaient un moyen pour les humains de communiquer avec d’autres humains, les systèmes d’IA sont impliqués dans la communication avec les humains (Guzmann, 2020). Enfin, nous voyons des systèmes d’IA qui impliquent la coopération humaine pour fonctionner, créant des interconnexions où l’IA apprend et s’adapte au comportement et au travail humains (Cristianini et al. 2023). À bien des égards, l’IA semble fonctionner différemment des technologies précédentes, modifiant peut-être profondément les conditions de travail.

Équité et justice au travail

L’IA au travail soulève également des questions liées à l’équité et à la justice (van der Poel et al., 2022, 15). Dans l’imaginaire collectif, les systèmes relevant de l’’IA sont souvent supposés objectifs parce qu’ils n’ont pas d’émotions ni de désirs humains (Guzman, 2020, 48). Cette croyance ne tient pas compte de la subjectivité intégrée dans les systèmes d’IA, où même les nombres “représentent une réalité sociale complexe” (Boucher, 2020, 23). Les données, bien qu’elles ne soient pas intrinsèquement discriminatoires, peuvent s’inscrire dans des schémas qui le sont, ce qui compromet la possibilité d’équité dans l’apprentissage automatique. Par ailleurs, les analystes des données eux-mêmes ne parviennent pas à s’accorder sur des métriques d’équité consensuelles, d’autant qu’elles se contredisent parfois entre elles (Kleinberg et al., 2016). Les difficultés liées à cette valeur fondamentale pour l’éthique de l’IA (Jobin et al., 2019) peuvent nous amener à reconsidérer celle de justice. Au lieu de ne se concentrer que sur les conditions d’un traitement équitable par les systèmes d’IA, la notion de justice permet par ailleurs de questionner les modalités de recours à leur utilisation. Il reste à définir plus précisément ce que signifierait un système d’IA qui soit juste.

Le caractère explicable d’un système peut assurer la satisfaction des exigences de justice liées à ses usages (Doshi-Velez & Kim, 2019). Même si nous pouvons éviter les préjugés, il se peut que nous ne soyons pas en mesure d’expliquer la prise de décision de ce que l’on appelle la boîte noire de l’IA. Par exemple, l’apprentissage profond utilise des milliers, voire des millions, de liens en interaction pour faire des prédictions (Liao 2020, 7). Nous pouvons déterminer si le résultat est correct, mais même la lecture de toute la documentation n’aidera pas à donner un sens aux interactions étendues et complexes qui sont intervenues dans la solution (Wulff et Finnestrand, 2023, 3). Les humains devront être en mesure de rendre compte des résultats et de justifier la prise de décision de l’IA, en assurant à la fois l’équité, la transparence et l’autonomie humaine (Jobin et al., 2019). Dès lors, nous devons nous demander si l’IA reproblématise la responsabilité au travail. Lorsque nous travaillons, une “friction psychique” se fait entre nous, les objets qui nous entourent et les autres, ce pourquoi le travail constitue une “expérience directe de notre responsabilité à l’égard de notre environnement matériel” (Crawford, 2016). Ainsi, travailler avec ou sous l’égide de l’IA pourrait signifier la perte de cette dimension concrète du travail, éloignant les employés des effets directs de leurs actions et conduisant à un déplacement de leur responsabilité.

Conditions de travail

L’IA amène à repenser l’organisation du travail et le cadre dans lequel il est effectué. L’outillage managérial se dote désormais de méthodes algorithmiques pour encadrer le travail : recrutement (Lacroux & Martin-Lacroux, 2021), planning (Lapègue & Bellenguez, 2013), établissement des tâches à réaliser (Gaborieau, 2012), prospective de la clientèle (Pachidi, 2021). L’introduction de ces systèmes décisionnels au sein des organisations  peut amener à une redistribution des tâches et des rôles et ultimement à des demandes diverses en compétences qui demandent à être prise en compte (Gekara, 2018). Utilisés comme outils d’indicateurs de performance des salariés, ces systèmes sont aussi des outils de contrôle du travail (Kellogg et al., 2020). Ils peuvent malgré tout échouer à prendre significativement en compte le cœur de métier des travailleurs, à l’instar de la relation salarié-client dans les supermarchés (Evans, 2018), et constituer une menace pour la notion de travail bien fait ou de travail de qualité (Clot, 2015).

L’observation de ces transformations organisationnelles et managériales révèle la manière dont les humains participent à la création de l’IA, en tant qu’ingénieurs, programmeurs, analystes de données, entraîneurs (Tubaro et al., 2020), ainsi qu’en qualité d’utilisateurs, dont l’activité alimente le processus d’apprentissage automatique (Cristianini et al. 2023, 93). L’économie de l’attention dépend des contributions des utilisateurs et de l’exploitation de leurs données et activités (Citton, 2014) : dans quelle mesure ceci impacte-t-il le monde du travail ? Si l’on ne peut parler de remplacement, mais plutôt de transformation de l’activité humaine, il s’agit alors de réfléchir aux nouvelles formes de coopération (Sennett, 2012) que cela implique entre les humains et entre l’IA et les humains. Peut-on penser, comme le soutient Villani, que l’IA peut “désautomatiser le travail humain” pour lui permettre de se concentrer sur des tâches plus créatives ? (2018, 105). 

En effet, l’IA nous donne peut-être l’occasion de reconsidérer les conditions de travail, comprises à la fois comme l’environnement de la réalisation d’une tâche et comme organisation du travail, ainsi que notre rapport au travail. De fait, le travail peut être source de sens, notamment à travers la joie de pratiquer un métier (Frayne, 2015), la valeur qu’il nous donne aux yeux des autres (Michaelson, 2021), le fait d’apporter une contribution à la société (Moriarty 2009), ou encore la pratique et le développement de l’autonomie (Schwartz, 1982). Cependant, il est également le lieu de souffrances directement liées à sa pratique. La centralité du travail dans l’organisation de la société (Habermas, 1985) en conduit certains à devoir accepter des emplois précaires (Cholbi 2018, 13-15). De ce fait, même dans les cas où le travail est vécu comme une contrainte, les travailleurs sont obligés d’y chercher du sens. La complexité de cette recherche dans différentes conditions de travail est exacerbée par les transformations induites par l’IA dans l’organisation et les activités de travail. Il s’agit finalement d’interroger les effets de l’insertion de l’IA dans ce rapport ambigu qui existe entre travail et emploi (Méda & Vendramin, 2013).

Objectifs et appel à communications

Avec cette conférence, nous souhaitons éclairer les questions liées à la transformation du travail humain, en apportant une contribution à ces questions d’un point de vue éthique. Pour ce faire, il est nécessaire de revisiter la place du travail dans la condition humaine et d’analyser les redéfinitions en cours, en se demandant : l’IA est-elle en train de redéfinir le travail et sa valeur ? Nous sollicitons des propositions en français ou en anglais. Les disciplines suivantes sont invitées à la réflexion : philosophie, sociologie, histoire sociale, économie, sciences de l’information et de la communication, psychologie sociale, ergonomie, informatique, robotiques. Veuillez envoyer un résumé de 500 mots accompagné d’un titre, de références bibliographiques ainsi qu’une préférence de session à ai-work-transformations@univ-grenoble-alpes.fr avant le 7 juillet 2023. Des contributions spontanées ne correspondant pas spécifiquement à ces thématiques restent bien entendu bienvenues.

Sessions

La conférence sera structurée autour des quatre axes suivants :

1) Remplacement des humains par les machines : mythe ou réalité ?

2) Études de cas : analyse du rôle des systèmes actuels

3) Équité et justice au travail : quelles valeurs pour une éthique du travail ?

4) Conditions de travail

Comité scientifique :

Odile Bellenguez, Professeure des Universités en informatique, Laboratoire des sciences du numérique de Nantes et IMT Atlantique Bretagne-Pays de la Loire Ecole Mines-Telecom.

Thomas Berns, Professeur de philosophie politique, Université Libre de Bruxelles.

Yann Ferguson, docteur en sociologie, Responsable scientifique du LaborIA (MTPEI-Inria), Expert au Partenariat Mondial pour l’Intelligence Artificielle, Icam Toulouse.

Stefania Mazzone, Professeure associée d’histoire des doctrines politiques, Université de Catane.

Manuel Zacklad, Professeur de sciences de l’information et de la communication, CNAM, Paris.

Responsables scientifiques du colloque : 

Chloé Bonifas, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI

Louis Devillaine, PACTE (CNRS & UGA) & chaire éthique&IA MIAI

Thierry Ménissier, Institut de Philosophie de Grenoble (UGA)

Dakota Root, Institut de Philosophie de Grenoble (UGA) & chaire éthique&IA MIAI  

La Chaire

La chaire éthique & IA (https://www.ethics-ai.fr/) fait partie de l’Institut pluridisciplinaire en intelligence artificielle (MIAI) et est affiliée à l’Institut de philosophie de Grenoble (IPhiG). Elle vise à développer une compréhension philosophique de l’intelligence artificielle à travers un dialogue soutenu avec l’informatique et la robotique, la psychologie cognitive, sociale et clinique, la sociologie des organisations, les études en sciences de l’information et de la communication, ainsi que les études juridiques et les sciences de gestion. Au croisement de la philosophie politique, de l’éthique publique et de la philosophie de la technologie, la chaire cherche à explorer les dimensions sociales, morales et politiques en jeu dans le déploiement des technologies de l’IA, d’une manière à la fois critique et attentive à leurs réalités techniques.