loader image

Séminaire de la chaire éthique&IA

Les concepts de la computer ethics

L’explicabilité de l’IA opaque comme moment dans l’histoire de la bureaucratie : sur la dépersonnalisation sans formalisation de la décision

Lundi 30 mai 2022, 10h – 12h

Par visioconférence :

ID de réunion : 474 381 1375

Code secret : 698063

Maël Pégny

Chercheur postdoctorant en Éthique de l’IA à l’Université de Tübingen

Séance animée par Louis Devillaine

Doctorant PACTE, CNRS-UGA, chaire éthique&IA 

Résumé de l’intervention

L’algorithmisation de la décision, et en particulier l’algorithmisation menée par des systèmes d’IA, doivent être comprises comme des moments dans l’histoire longue de la décision bureaucratique et de ses liens avec les techniques cognitives. L’informatique, comprise comme technique cognitive globale affectant la communication, l’archivage et le raisonnement, bouleverse les pratiques bureaucratiques en même temps qu’elle hérite des propriétés et représentations des institutions gourmandes de ces techniques. Si ces évolutions se lisent à de multiples niveaux, elles sont particulièrement sensibles dans les processus d’automatisation partielle ou complète des prises de décision bureaucratiques par des algorithmes. En particulier, les problèmes récents autour de l’explicabilité des décisions prises par des IAs opaques doivent être plongés dans le contexte de ces évolutions bureaucratiques, pour comprendre comment l’emploi de ces dispositifs prolonge certaines tendances anciennes de la bureaucratie, notamment la dépersonnalisation de la prise de décision, en même temps qu’elle provoque une rupture par rapport à l’état des pratiques, notamment en ne fournissant pas de formalisation des critères guidant une décision. Nous tâcherons de montrer comment cette conceptualisation de la dépersonnalisation sans formalisation permet d’illuminer les enjeux pratiques autant qu’épistémiques de l’explicabilité de l’IA.

Après une thèse sur les fondements de la calculabilité et de la complexité soutenue en 2013, Maël Pégny a orienté ses travaux vers l’histoire et la philosophie de l’informatique. Durant ces dernières années, il a consacré l’essentiel de son travail aux enjeux éthiques de l’IA compris dans une perspective historique de temps long, comme un nouveau moment de l’histoire des techniques cognitives au service des institutions bureaucratiques.

Références

  • Issam Ibnouhsein, Maël Pégny : « Quelle transparence pour les algorithmes d’apprentissage machine ? » Revue d’Intelligence Artificielle, 32(4), Special Volume
    « Ethique et Intelligence Artificielle » (Décembre 2018).
  • Maël Pégny, Issam Ibnouhsein Eva Thelisson), “The Right to An Explanation: An
    Interpretation and Defense”, Delphi, 2(4), pp.161-166, Décembre 2019.
  • Maël Pégny, Anna Zielinska, « L’épineuse question des données numériques de
    santé », 9 Mars 2020, The Conversation.
  • Maël Pégny, « Pour un développement des IAs respectueux de la vie privée », 23 Novembre 2021, Blog Binaire, Le Monde
  • Maël Pégny, « Pour un développement des IAs respectueux de la vie privée dès la conception », 9 Janvier 2021, HAL hal-03104692 

Argument du séminaire 

Nous voulons avec ce séminaire contribuer à clarifier certains concepts importants de l’éthique des algorithmes (Computer ethics). Cette expression, éthique des algorithmes, désigne le travail des mathématiciens-informaticiens, elle concerne la conception des algorithmes et se confond avec une double volonté exprimée par cette classe de savants et d’ingénieurs : d’une part, comprendre et maîtriser le fonctionnement leurs propres inventions, de l’autre, s’assurer de la non-dangerosité de ces dernières et fournir une garantie de leur qualité pour un usage fiable. Telle que nous l’entendons, l’expression « éthique des algorithmes » représente une des quatre branches de l’éthique de l’intelligence artificielle, avec « l’éthique artificielle », « l’éthique du numérique et de la donnée » (ou digital ethics), enfin « l’éthique des usages de l’IA ». 

Fidèle à une tradition qui définit la philosophie comme la connaissance par concepts, le séminaire se propose d’examiner des notions très employées dans la littérature informatique consacrée à l’IA, et dont il faut clarifier le rôle. Ces concepts sont par exemple l’explicabilité, l’interprétabilité, (Interpretability), l’Accountability ou capacité d’un système d’IA à rendre des comptes, la transparence (Transparency), la fiabilité (Trustworthiness), la confiance (Trust), la responsabilité (dans l’expression Responsible Artificial Intelligence) ou encore l’équité (Fairness). S’ils font aujourd’hui partie intégrante des éléments techniques de la littérature académique spécialisée, nous souhaitons pour notre part braquer sur eux le regard de la philosophie, et cela pour trois raisons qui motivent ce séminaire. 

La première raison se fonde sur le fait que les concepts de l’éthique algorithmique – cette discipline récente – apparaissent « jeunes » : s’ils se rodent dans leur emploi technique à partir des cas de l’algorithmique, il peut également s’avérer utile de les affuter par d’autres regards. Celui de la philosophie, « vieille » discipline accoutumée à définir et à caractériser les concepts (notamment ceux de l’éthique, qu’elle soit fondamentale ou appliquée, générale ou « régionale »), peut y contribuer.  

Deuxièmement, l’apport de la philosophie se justifie également du fait que, dans leur très grande majorité, les concepts techniques de la science de l’intelligence artificielle possèdent également une acception courante qui, parce qu’elle semble intuitivement parlante, est susceptible de produire deux effets. Le premier effet revient à créer de la confusion à partir des ambiguïtés qui existent entre la signification courante et la signification technique ; le second, pour les non-spécialistes de l’IA, est de faire perdre de vue leur signification technique, laquelle conditionne pourtant l’accès au sens que leur donnent les concepteurs de l’IA. C’est le second service que peut rendre la philosophie à la science de l’IA : préciser ces deux niveaux de signification, en soulignant les aspects sur lesquels est susceptible de se produire de la confusion.  

Troisièmement, le risque de confusion entre les acceptions courantes et techniques ne représente pas, toutefois, une chose négative : d’intéressantes ambiguïtés existent entre les deux niveaux de signification. Elles peuvent en effet être parlantes à la fois en ce qui concerne les manières dont les concepteurs de l’IA s’expriment à propos de leur travail scientifique, et relativement à l’horizon d’attente de la société à l’égard de l’IA. En d’autres termes, il faut voir la computer ethics comme un langage, comme le langage avec lequel les producteurs d’IA parlent à la société (prescripteurs, pouvoirs publics, usagers) dans une langue qui rend cette technologie « acceptable », voire désirable. En tant qu’elle reflète à la fois les justifications de la conception des algorithmes et l’horizon social d’attente à leur égard, l’étude des concepts de la computer ethics permet donc de comprendre de l’intérieur le projet sociétal de l’IA.

Modalités :

Chaque séance du séminaire dure 2 h. Exposé liminaire de 30 à 45 m, suivi d’une discussion avec les participant.es. Le séminaire constitue un espace de travail, l’objectif est de mettre collectivement en travail des hypothèses, plutôt que d’exposer des résultats.