loader image

Séminaire de la chaire éthique&IA, 1er semestre 2022-23

Les concepts de la Computer ethics

General AI vs Narrow AI : enjeux éthiques

Le cas des modèles de langage

28 novembre 2022, de 14 h à 16 h.

En présentiel :

Université Grenoble Alpes, Maison de la Création et de l’Innovation, salle 204

339, avenue centrale 38400, Saint-Martin-d’Hères.

En distanciel :

ID de réunion : 975 5580 0242
Code secret : 175119

En présentiel :

Université Grenoble Alpes, Maison de la Création et de l’Innovation, salle 204

339, avenue centrale 38400, Saint-Martin-d’Hères.

En distanciel :

ID de réunion : 975 5580 0242
Code secret : 175119

Séance animée par :

Louis Devillaine : Doctorant PACTE, CNRS-UGA, chaire éthique&IAI.

Co-organisée avec :

Thierry Ménissier : Professeur de philosophie politique, directeur de la chaire éthique&IA.

Giada Pistilli est doctorante en philosophie à Sorbonne Université et affiliée au laboratoire du CNRS “Science, Normes, Démocratie”. Ses recherches portent principalement sur les chartes éthiques, la philosophie politique et morale, et l’Intelligence Artificielle (Traitement du Langage Naturel et modèles de langage). Intégrée dans la recherche industrielle depuis fin 2019, Giada Pistilli est actuellement l’éthicienne principale de l’entreprise Hugging Face, où elle mène des recherches philosophiques et interdisciplinaires sur l’éthique de l’IA.

Résumé de l’intervention

La tendance technologique actuelle, dans la recherche académique en Machine Learning mais aussi dans la recherche industrielle, est de développer des modèles toujours plus grands (milliards de paramètres, milliards de données dans son jeu de données…). Cette tendance trouve ses racines dans un imaginaire célèbre et répandu : l’envie de pouvoir s’adresser à une IA dite « générale », c’est-à-dire capable de multiples compétences différentes (General AI). Cela s’applique aux modèles de génération de sons, de vidéos, d’images et de textes, sans oublier les nouvelles architectures de Machine Learning qui permettent la combinaison de plusieurs modèles différents, appelés modèles multimodaux, qui ouvrent le champ des possibilités à la course à la General AI. Dans cet exposé, nous allons nous focaliser sur les modèles d’IA qui permettent l’interaction entre humains et machines : les modèles de langage. En effet, au cours des dernières cinq années, nous avons remarqué une croissance exponentielle des modèles de langage, qui s’opposent à une contre-tendance dans le milieu de la recherche académique et industrielle qui vise à développer des modèles dits « distillés » ou de Narrow AI. De l’anglais « étroit », ces modèles sont consacrés à des tâches spécifiques et sont entrainés sur une part plus réduite de données, avec des applications précises envisagées au moment du développement (ex. DistilBERT, générateur de code, résumés de textes…). Dans ce scénario, qu’est-ce que l’éthique peut apporter au débat autour des deux tendances opposées de développement d’Intelligence Artificielle ? Comment peut-on évaluer moralement des modèles à des multiples capacités (General AI), développés sans une application et un objectif concrets ? Quid de la dignité et moralité des humains impliqués dans le développent de ces modèles d’IA, mais aussi ceux affectés et évalués par ces derniers ? Enfin, dans une perspective éthique, quelle tendance choisir entre les deux, et pour quelles raisons ? Nous allons introduire rapidement le sujet de l’IA conversationnelle et des modèles de langage, pour ensuite appuyer le débat sur deux cas d’études, un pour chaque tendance, pour illustrer nos hypothèses et dérouler nos arguments.

Argument du séminaire

Nous voulons avec ce séminaire contribuer à clarifier certains concepts importants de l’éthique des algorithmes (Computer ethics). Cette expression, éthique des algorithmes, désigne le travail des mathématiciens-informaticiens, elle concerne la conception des algorithmes et se confond avec une double volonté exprimée par cette classe de savants et d’ingénieurs : d’une part, comprendre et maîtriser le fonctionnement leurs propres inventions, de l’autre, s’assurer de la non-dangerosité de ces dernières et fournir une garantie de leur qualité pour un usage fiable. Telle que nous l’entendons, l’expression « éthique des algorithmes » représente une des quatre branches de l’éthique de l’intelligence artificielle, avec « l’éthique artificielle », « l’éthique du numérique et de la donnée » (ou digital ethics), enfin « l’éthique des usages de l’IA ».

Fidèle à une tradition qui définit la philosophie comme la connaissance par concepts, le séminaire se propose d’examiner des notions très employées dans la littérature informatique consacrée à l’IA, et dont il faut clarifier le rôle. Ces concepts sont par exemple l’explicabilité, l’interprétabilité, (Interpretability), l’Accountability ou capacité d’un système d’IA à rendre des comptes, la transparence (Transparency), la fiabilité (Trustworthiness), la confiance (Trust), la responsabilité (dans l’expression Responsible Artificial Intelligence) ou encore l’équité (Fairness). S’ils font aujourd’hui partie intégrante des éléments techniques de la littérature académique spécialisée, nous souhaitons pour notre part braquer sur eux le regard de la philosophie, et cela pour trois raisons qui motivent ce séminaire.

La première raison se fonde sur le fait que les concepts de l’éthique algorithmique – cette discipline récente – apparaissent « jeunes » : s’ils se rodent dans leur emploi technique à partir des cas de l’algorithmique, il peut également s’avérer utile de les affuter par d’autres regards. Celui de la philosophie, « vieille » discipline accoutumée à définir et à caractériser les concepts (notamment ceux de l’éthique, qu’elle soit fondamentale ou appliquée, générale ou « régionale »), peut y contribuer.

Deuxièmement, l’apport de la philosophie se justifie également du fait que, dans leur très grande majorité, les concepts techniques de la science de l’intelligence artificielle possèdent également une acception courante qui, parce qu’elle semble intuitivement parlante, est susceptible de produire deux effets. Le premier effet revient à créer de la confusion à partir des ambiguïtés qui existent entre la signification courante et la signification technique ; le second, pour les non-spécialistes de l’IA, est de faire perdre de vue leur signification technique, laquelle conditionne pourtant l’accès au sens que leur donnent les concepteurs de l’IA. C’est le second service que peut rendre la philosophie à la science de l’IA : préciser ces deux niveaux de signification, en soulignant les aspects sur lesquels est susceptible de se produire de la confusion. 

Troisièmement, le risque de confusion entre les acceptions courantes et techniques ne représente pas, toutefois, une chose négative : d’intéressantes ambiguïtés existent entre les deux niveaux de signification. Elles peuvent en effet être parlantes à la fois en ce qui concerne les manières dont les concepteurs de l’IA s’expriment à propos de leur travail scientifique, et relativement à l’horizon d’attente de la société à l’égard de l’IA. En d’autres termes, il faut voir la computer ethics comme un langage, comme le langage avec lequel les producteurs d’IA parlent à la société (prescripteurs, pouvoirs publics, usagers) dans une langue qui rend cette technologie « acceptable », voire désirable. En tant qu’elle reflète à la fois les justifications de la conception des algorithmes et l’horizon social d’attente à leur égard, l’étude des concepts de la computer ethics permet donc de comprendre de l’intérieur le projet sociétal de l’IA.

Modalités :

Chaque séance du séminaire dure environ 1h30. Exposé liminaire de 30 à 45 m, suivi d’une discussion avec les participant.es. Le séminaire constitue un espace de travail bienveillant et constructif, l’objectif est de mettre collectivement en travail des hypothèses, plutôt que d’exposer des résultats.

Demander la vidéo du séminaire