Axe numérique Réseau de recherches FrancophoNéa. Réseau néo-Aquitain sur les francophonies
Les impacts sociétaux de l’IA : un monde à réinventer à partir du social technologiquement assisté
Thierry Ménissier
Université Grenoble Alpes, chaire éthique&IA, MIAI / IPhiG
« Intelligence artificielle » est le nom approximatif (grande source de confusion et d’ambiguïtés) donné aux calculateurs algorithmiques qui aujourd’hui nourrissent la connaissance et la pratique humaines, tous champs confondus. Assistée par des flux massifs de données (Big data), l’activité sociale peut s’en trouver considérablement modifiée, au point d’être perturbée dans ses assises traditionnelles. Cette situation évoque les situations d’« innovation « sauvage » (Ménissier, 2021) susceptibles d’engendrer un risque de « disruption » (Stiegler, 2016), qui pourrait lui-même provoquer un phénomène d’« aliénation-du-monde » (Arendt, 2012) : devenue « pauvre en monde », la société technologiquement assistée court le risque d’être moins humaine, moins favorable aux humains – risque paradoxal, puisque les technologies d’IA ont été apparemment inventées pour apporter le progrès à ces derniers.
Dans cette intervention, nous voulons souligner que de tels risques peuvent survenir si l’on ne dispose pas d’une représentation lucide du déploiement de ce genre d’innovation. Plus précisément, il apparaît possible d’« apprivoiser » l’IA à partir de deux conditions. Sont indispensables, d’une part, la connaissance de ses conditions concrètes (techniques, économiques et géopolitiques) de production et, de l’autre, la compréhension de ses potentialités sociales. Peut être qualifiée de « compréhensive » une posture qui saisit les intentions que les acteurs des usages introduisent dans leur pratique afin de la rendre efficace (Schnapper, 2012).
Dans cette optique, plusieurs tâches s’avèrent nécessaires : expérimenter les systèmes d’IA dans leurs contextes sociétaux et en regard du jeu « politique » des parties prenantes (Ménissier, 2020) ; faire naître des méthodologies ad hocd’éthique appliquée, toujours circonstancielles aux projets ; se doter d’une représentation claire des enjeux linguistiques, puisque à travers la langue se jouent des enjeux de socialisation et se confrontent des visions du monde, irréductibles les unes aux autres (Taylor, 1993 & 1998). S’il convient de dépasser l’enthousiasme naïf envers les nouveaux outils de la connaissance et de l’action, c’est qu’il est nourri par une vision du monde « technosolutionnisme » susceptible de dénier la complexité des situations sociales, voire de s’illusionner sur la capacité de la technologie à prendre la place du politique. Aussi apparaît-il nécessaire de repenser la narration collective des parties prenantes dans le contexte du déploiement sociétal des systèmes d’IA. La révolution de l’IA ne sera profitable aux sociétés humaines que si les organisations mises face à ce défi acceptent de se réinventer. De telles démarches permettent en effet d’espérer transformer l’IA en quelque chose de « convivial » (Illich, 2004), objectif qui apparaît à la fois majeur et difficile à réaliser.
Bibliographie :
Arendt, H., (2012) Condition de l’homme moderne [1958], trad. H. Fradier ; La crise de la culture, [1968], trad. sous la dir. de P. Lévy. In Arendt, H., L’humaine condition, éd. sous la dir. de Ph. Raynaud. Paris : Gallimard.
Illich, I. (2004). La convivialité [1973]. In Œuvres complètes. Volume 1. Paris : Fayard. 449-580.
Ménissier, T. (2020) « Un « moment machiavélien » pour l’Intelligence Artificielle. La Déclaration de Montréal pour un développement responsable de l’IA », Raisons Politiques, 2020/1 (n°77), p. 67-81. https://doi.org/10.3917/rai.077.0067
Ménissier, T. (2021). Innovations. Une enquête philosophique, Paris, Editions Hermann.
Taylor, C. (1993). Multiculturalisme. Différence et démocratie [1992], trad. D.-A Canal, Paris, Champ Flammarion.
Taylor, C. (1998). Les Sources du moi [1989], trad. C. Melançon, Paris, Edition du Seuil.
Schnapper, D. (2012). La Compréhension sociologique. Démarche de l’analyse typologique. Paris : PUF.
Stiegler, B. (2016). Dans la disruption : Comment ne pas devenir fou ?. Paris : Les Liens qui Libèrent.
Pour voir de nouveau la conférence