loader image

Méthodologies de l’éthique de l’IA

Responsable Thierry Ménissier & Louis Devillaine

   L’objectif de ce programme est d’étudier les formes de discours et de pensée éthiques aujourd’hui associées à l’expression « éthique de l’IA ». Une de ses hypothèses de base est que cette expression, aujourd’hui très fréquente et quasiment médiatique, recouvre et entretient une certaine confusion. On peut dire d’elle, a minima, qu’elle est seulement générique et qu’elle recouvre des formes diverses, qui sont même d’une grande variété et irréductibles les unes aux autres. Même si certaines semblent parfois vouloir revendiquer le monopole de l’évaluation éthique légitime, cela s’avère impossible. Cette impossibilité est directement liée à ce qu’il faut évaluer : l’expression « l’intelligence artificielle », dans la vaste extension de ce qu’elle recouvre (de la conception des algorithmes à l’usage des objets plus ou moins autonomes qu’elle anime et aux pratiques sociales qu’elle sous-tend) ne constitue pas un objet défini sur lequel il serait simple de produire une évaluation éthique. Elle représente plutôt un méga-système technique, ou encore un système technique global, dont les expressions sont variées.

   Compte tenu de la complexité du monde de l’IA, aucune forme particulière d’évaluation éthique unique ou univoque ne saurait suffire à produire une IA de confiance ou responsable. Il importe au contraire que chaque forme contribue à la tâche, avec ses moyens et ses objectifs propres, et en collaboration avec les autres. Ainsi ce programme invite au dialogue entre l’éthique informatique (Computer ethics), l’éthique robotique ou artificielle, l’éthique digitale et l’éthique des usages de l’IA (UX IA ethics). A ces formes d’évaluation éthique s’ajoute l’éthique environnementale de l’IA, étant donné que le développement des systèmes d’algorithmes s’effectue dans le contexte des transitions énergétiques et environnementales, sans la considération précise desquelles l’IA ne représenterait pas une solution technique soutenable. Compte tenu du fait que cette dernière forme n’en est aujourd’hui qu’à ses débuts, ce programme a également une vocation exploratoire car il doit être conçu comme un lieu de réflexion pour en bâtir les cadres et en identifier les principes.

Ce programme vise donc :

  • À mieux comprendre les formes particulières d’évaluation éthique existantes.
  • À contribuer au développement de l’éthique environnementale de l’IA.
  • À fournir un lieu d’échanges et de dialogues en vue de constituer l’épistémologie générale de l’éthique de l’IA qui manque encore aujourd’hui.
  • À identifier, en sollicitant des acteurs de l’éthique de l’IA (services de l’Etat et des collectivités, entreprises et start-up, associations et collectifs militants), les bonnes pratiques intéressantes pour produire une IA de confiance et responsable, ce qui signifie fiable et en adéquation avec les besoins humains, au sein de sociétés à la fois libres, équitables et respectueuses de l’environnement.

   L’objectif de ce programme est d’étudier les formes de discours et de pensée éthiques aujourd’hui associées à l’expression « éthique de l’IA ». Une de ses hypothèses de base est que cette expression, aujourd’hui très fréquente et quasiment médiatique, recouvre et entretient une certaine confusion. On peut dire d’elle, a minima, qu’elle est seulement générique et qu’elle recouvre des formes diverses, qui sont même d’une grande variété et irréductibles les unes aux autres. Même si certaines semblent parfois vouloir revendiquer le monopole de l’évaluation éthique légitime, cela s’avère impossible. Cette impossibilité est directement liée à ce qu’il faut évaluer : l’expression « l’intelligence artificielle », dans la vaste extension de ce qu’elle recouvre (de la conception des algorithmes à l’usage des objets plus ou moins autonomes qu’elle anime et aux pratiques sociales qu’elle sous-tend) ne constitue pas un objet défini sur lequel il serait simple de produire une évaluation éthique. Elle représente plutôt un méga-système technique, ou encore un système technique global, dont les expressions sont variées.

   Compte tenu de la complexité du monde de l’IA, aucune forme particulière d’évaluation éthique unique ou univoque ne saurait suffire à produire une IA de confiance ou responsable. Il importe au contraire que chaque forme contribue à la tâche, avec ses moyens et ses objectifs propres, et en collaboration avec les autres. Ainsi ce programme invite au dialogue entre l’éthique informatique (Computer ethics), l’éthique robotique ou artificielle, l’éthique digitale et l’éthique des usages de l’IA (UX IA ethics). A ces formes d’évaluation éthique s’ajoute l’éthique environnementale de l’IA, étant donné que le développement des systèmes d’algorithmes s’effectue dans le contexte des transitions énergétiques et environnementales, sans la considération précise desquelles l’IA ne représenterait pas une solution technique soutenable. Compte tenu du fait que cette dernière forme n’en est aujourd’hui qu’à ses débuts, ce programme a également une vocation exploratoire car il doit être conçu comme un lieu de réflexion pour en bâtir les cadres et en identifier les principes.

Ce programme vise donc :

  • À mieux comprendre les formes particulières d’évaluation éthique existantes.
  • À contribuer au développement de l’éthique environnementale de l’IA.
  • À fournir un lieu d’échanges et de dialogues en vue de constituer l’épistémologie générale de l’éthique de l’IA qui manque encore aujourd’hui.
  • À identifier, en sollicitant des acteurs de l’éthique de l’IA (services de l’Etat et des collectivités, entreprises et start-up, associations et collectifs militants), les bonnes pratiques intéressantes pour produire une IA de confiance et responsable, ce qui signifie fiable et en adéquation avec les besoins humains, au sein de sociétés à la fois libres, équitables et respectueuses de l’environnement.

À mieux comprendre les formes particulières d’évaluation éthique existantes.

À contribuer au développement de l’éthique environnementale de l’IA.

À fournir un lieu d’échanges et de dialogues en vue de constituer l’épistémologie générale de l’éthique de l’IA qui manque encore aujourd’hui,

À identifier, en sollicitant des acteurs de l’éthique de l’IA (services de l’Etat et des collectivités, entreprises et start-up, associations et collectifs militants), les bonnes pratiques intéressantes pour produire une IA de confiance et responsable, ce qui signifie fiable et en adéquation avec les besoins humains, au sein de sociétés à la fois libres, équitables et respectueuses de l’environnement.