En août dernier, une controverse a éclaté autour de Deloitte, l’une des plus grandes sociétés de conseil mondiales, concernant un rapport destiné au gouvernement australien. Ce document, censé examiner le système de conformité des prestations sociales, a été mis en lumière par des erreurs grossières qui ont soulevé des questions sur l’utilisation de l’intelligence artificielle (IA) dans sa rédaction.
Le rapport, évalué à 440 000 dollars, a non seulement attiré l’attention en raison de son coût, mais aussi pour les inexactitudes découvertes par Chris Rudge, un éminent professeur de droit.
Cet incident a ouvert le débat sur la qualité et l’éthique des productions générées par l’IA dans le domaine des conseils aux gouvernements.
Les erreurs mises au jour
L’analyse du rapport par Chris Rudge a révélé plus de vingt erreurs notables, remettant en question l’intégrité des informations fournies par Deloitte.
- Parmi les plus marquantes, on trouve des références fictives à des jugements de cour et des citations erronées d’universitaires réputés.
- Le rapport mentionnait un jugement d’une cour fédérale avec des paragraphes inexistants, témoignant d’une vérification déficiente.
- Plus troublant encore, un discours attribué à la juge Natalie Kuis Perry s’est avéré être celui de l’avocate Melissa Perry, illustrant une confusion qui n’aurait jamais dû se produire dans un document de cette importance.
De plus, Rudge s’est vu attribuer un ouvrage inexistant, ce qui a mis en exergue les dangers des « hallucinations de l’IA« , où les modèles d’IA produisent des informations totalement infondées.
L’impact de l’intelligence artificielle
L’utilisation de l’IA dans la rédaction du rapport a soulevé de nombreuses questions sur la fiabilité de ces technologies dans des contextes critiques. La plateforme Azure de Microsoft, utilisée par Deloitte, est au centre de cette polémique. Bien que l’IA puisse accroître l’efficacité et réduire les coûts, les erreurs relevées montrent que sa supervision reste indispensable.
Les « hallucinations de l’IA » sont un phénomène où le modèle génère des données incorrectes, pouvant gravement nuire à la crédibilité de documents sensibles. Cette affaire met en lumière la nécessité d’une supervision humaine rigoureuse pour prévenir de telles occurrences. Le chiffre d’affaires de Deloitte, atteignant 2,5 milliards de dollars, n’a pas suffi à empêcher les critiques sur leur gestion de ces outils numériques.
Conséquences éthiques et de qualité
La révélation des erreurs a incité des discussions sur les standards éthiques des cabinets de conseil. Les gouvernements, en tant que clients de ces entreprises, doivent être particulièrement vigilants quant à la qualité des documents qu’ils reçoivent et s’assurer d’une surveillance adéquate lorsque l’IA est intégrée dans le processus de rédaction.
En réponse à l’exposition médiatique orchestrée par Chris Rudge, le gouvernement australien a exigé que Deloitte corrige le rapport en question. De plus, une nouvelle politique a été mise en place stipulant que toute utilisation de l’IA dans la rédaction de documents gouvernementaux doit être explicitement déclarée par le consultant. Deloitte a accepté de rembourser partiellement les frais, remboursant 97 000 dollars, mais la question d’un remboursement intégral reste en suspens, interrogeant sur les critères d’évaluation de la qualité.

L’avenir de la rédaction assistée par IA
Cet incident incite à une réflexion plus large sur l’avenir de la rédaction assistée par l’IA, surtout dans les secteurs où la précision et l’exactitude sont cruciales. Alors que l’intelligence artificielle continue de s’imposer dans divers domaines, garantir la véracité des informations devient un enjeu majeur.
Les gouvernements et les grandes entreprises doivent mettre en place des mécanismes robustes pour surveiller les productions générées par l’IA, afin d’éviter les pièges de l' »IA slop« .
IA slop = terme qui désigne la confusion qui émerge lorsque des productions médiocres ou incorrectes envahissent les sphères professionnelles, compromettant la confiance du public dans les institutions impliquées.
La polémique entourant Deloitte est un rappel poignant des défis que pose l’intégration de l’intelligence artificielle dans des tâches aussi délicates que la rédaction de rapports destinés aux gouvernements. Alors que le potentiel de l’IA est indéniable, les erreurs révélées dans ce rapport illustrent la nécessité d’une vigilance accrue et d’une supervision humaine continue. À l’ère où la technologie progresse rapidement, il est impératif que les institutions maintiennent un contrôle strict sur l’exactitude et la qualité des informations qu’elles produisent et diffusent.







