Méthodologies de l’éthique de l’IA
Responsable Thierry Ménissier & Louis Devillaine
L’objectif de ce programme est d’étudier les formes de discours et de pensée éthiques aujourd’hui associées à l’expression « éthique de l’IA ». Une de ses hypothèses de base est que cette expression, aujourd’hui très fréquente et quasiment médiatique, recouvre et entretient une certaine confusion. On peut dire d’elle, a minima, qu’elle est seulement générique et qu’elle recouvre des formes diverses, qui sont même d’une grande variété et irréductibles les unes aux autres. Même si certaines semblent parfois vouloir revendiquer le monopole de l’évaluation éthique légitime, cela s’avère impossible. Cette impossibilité est directement liée à ce qu’il faut évaluer : l’expression « l’intelligence artificielle », dans la vaste extension de ce qu’elle recouvre (de la conception des algorithmes à l’usage des objets plus ou moins autonomes qu’elle anime et aux pratiques sociales qu’elle sous-tend) ne constitue pas un objet défini sur lequel il serait simple de produire une évaluation éthique. Elle représente plutôt un méga-système technique, ou encore un système technique global, dont les expressions sont variées.
Compte tenu de la complexité du monde de l’IA, aucune forme particulière d’évaluation éthique unique ou univoque ne saurait suffire à produire une IA de confiance ou responsable. Il importe au contraire que chaque forme contribue à la tâche, avec ses moyens et ses objectifs propres, et en collaboration avec les autres. Ainsi ce programme invite au dialogue entre l’éthique informatique (Computer ethics), l’éthique robotique ou artificielle, l’éthique digitale et l’éthique des usages de l’IA (UX IA ethics). A ces formes d’évaluation éthique s’ajoute l’éthique environnementale de l’IA, étant donné que le développement des systèmes d’algorithmes s’effectue dans le contexte des transitions énergétiques et environnementales, sans la considération précise desquelles l’IA ne représenterait pas une solution technique soutenable. Compte tenu du fait que cette dernière forme n’en est aujourd’hui qu’à ses débuts, ce programme a également une vocation exploratoire car il doit être conçu comme un lieu de réflexion pour en bâtir les cadres et en identifier les principes.
Ce programme vise donc :
- À mieux comprendre les formes particulières d’évaluation éthique existantes.
- À contribuer au développement de l’éthique environnementale de l’IA.
- À fournir un lieu d’échanges et de dialogues en vue de constituer l’épistémologie générale de l’éthique de l’IA qui manque encore aujourd’hui.
- À identifier, en sollicitant des acteurs de l’éthique de l’IA (services de l’Etat et des collectivités, entreprises et start-up, associations et collectifs militants), les bonnes pratiques intéressantes pour produire une IA de confiance et responsable, ce qui signifie fiable et en adéquation avec les besoins humains, au sein de sociétés à la fois libres, équitables et respectueuses de l’environnement.
>_ Les Concepts de la Computer Ethics
28 novembre 2022_
12 décembre 2022_
09 janvier 2023_
>_ Les Concepts de la Computer Ethics
15 novembre 2021_
22 novembre 2021_
29 novembre 2021_
06 décembre 2021_
30 mai 2022_
04 Mars 2021_
>_Table ronde: Les serments d’éthique
des informaticiens, une mauvaise réponse
29 Mars 2021_
>_Table ronde: Responsabilité,
27 avril 2021_
>_Colloque international :
IA : Que faire de la transparence
8-9 octobre 2020_
L’objectif de ce programme est d’étudier les formes de discours et de pensée éthiques aujourd’hui associées à l’expression « éthique de l’IA ». Une de ses hypothèses de base est que cette expression, aujourd’hui très fréquente et quasiment médiatique, recouvre et entretient une certaine confusion. On peut dire d’elle, a minima, qu’elle est seulement générique et qu’elle recouvre des formes diverses, qui sont même d’une grande variété et irréductibles les unes aux autres. Même si certaines semblent parfois vouloir revendiquer le monopole de l’évaluation éthique légitime, cela s’avère impossible. Cette impossibilité est directement liée à ce qu’il faut évaluer : l’expression « l’intelligence artificielle », dans la vaste extension de ce qu’elle recouvre (de la conception des algorithmes à l’usage des objets plus ou moins autonomes qu’elle anime et aux pratiques sociales qu’elle sous-tend) ne constitue pas un objet défini sur lequel il serait simple de produire une évaluation éthique. Elle représente plutôt un méga-système technique, ou encore un système technique global, dont les expressions sont variées.
Compte tenu de la complexité du monde de l’IA, aucune forme particulière d’évaluation éthique unique ou univoque ne saurait suffire à produire une IA de confiance ou responsable. Il importe au contraire que chaque forme contribue à la tâche, avec ses moyens et ses objectifs propres, et en collaboration avec les autres. Ainsi ce programme invite au dialogue entre l’éthique informatique (Computer ethics), l’éthique robotique ou artificielle, l’éthique digitale et l’éthique des usages de l’IA (UX IA ethics). A ces formes d’évaluation éthique s’ajoute l’éthique environnementale de l’IA, étant donné que le développement des systèmes d’algorithmes s’effectue dans le contexte des transitions énergétiques et environnementales, sans la considération précise desquelles l’IA ne représenterait pas une solution technique soutenable. Compte tenu du fait que cette dernière forme n’en est aujourd’hui qu’à ses débuts, ce programme a également une vocation exploratoire car il doit être conçu comme un lieu de réflexion pour en bâtir les cadres et en identifier les principes.
Ce programme vise donc :
- À mieux comprendre les formes particulières d’évaluation éthique existantes.
- À contribuer au développement de l’éthique environnementale de l’IA.
- À fournir un lieu d’échanges et de dialogues en vue de constituer l’épistémologie générale de l’éthique de l’IA qui manque encore aujourd’hui.
- À identifier, en sollicitant des acteurs de l’éthique de l’IA (services de l’Etat et des collectivités, entreprises et start-up, associations et collectifs militants), les bonnes pratiques intéressantes pour produire une IA de confiance et responsable, ce qui signifie fiable et en adéquation avec les besoins humains, au sein de sociétés à la fois libres, équitables et respectueuses de l’environnement.
>_ Les Concepts de la Computer Ethics
28 novembre 2022_
12 décembre 2022_
09 janvier 2023_
>_ Les Concepts de la Computer Ethics
15 novembre 2021_
22 novembre 2021_
29 novembre 2021_
06 décembre 2021_
30 mai 2022_
04 Mars 2021_
>_Table ronde: Les serments d’éthique
des informaticiens, une mauvaise réponse
29 Mars 2021_
>_Table ronde: Responsabilité,
27 avril 2021_
>_Colloque international :
IA : Que faire de la transparence
8-9 octobre 2020_
À mieux comprendre les formes particulières d’évaluation éthique existantes.
>_ Les Concepts de la Computer Ethics
28 novembre 2022_
12 décembre 2022_
09 janvier 2023_
>_ Les Concepts de la Computer Ethics
15 novembre 2021_
22 novembre 2021_
29 novembre 2021_
06 décembre 2021_
30 mai 2022_
À contribuer au développement de l’éthique environnementale de l’IA.
>_Conférence de Jean-Gabriel
04 Mars 2021_
À fournir un lieu d’échanges et de dialogues en vue de constituer l’épistémologie générale de l’éthique de l’IA qui manque encore aujourd’hui,
>_Table ronde: Les serments d’éthique
des informaticiens, une mauvaise réponse
29 Mars 2021_
>_Table ronde: Responsabilité,
27 avril 2021_
À identifier, en sollicitant des acteurs de l’éthique de l’IA (services de l’Etat et des collectivités, entreprises et start-up, associations et collectifs militants), les bonnes pratiques intéressantes pour produire une IA de confiance et responsable, ce qui signifie fiable et en adéquation avec les besoins humains, au sein de sociétés à la fois libres, équitables et respectueuses de l’environnement.
>_Colloque international :
IA : Que faire de la transparence
8-9 octobre 2020_