Les risques juridiques de l’intelligence artificielle

L’utilisation de l’intelligence artificielle dans le domaine juridique connaît aujourd’hui un essor considérable. Qu’il s’agisse de justiciables, de juristes ou d’avocats, ces outils sont de plus en plus utilisés pour rédiger des écritures, effectuer des recherches ou encore analyser des situations juridiques. Si ces technologies offrent des gains de temps indéniables, elles ne sont toutefois pas dénuées de risques. Deux dangers majeurs doivent particulièrement retenir l’attention : les hallucinations juridiques et les enjeux liés à la protection des données.

S’agissant tout d’abord des hallucinations juridiques, les systèmes d’intelligence artificielle, notamment les modèles généralistes, ont tendance à générer des contenus qui peuvent être totalement erronés, voire purement inventés. Il peut s’agir de fausses références de lois, de décisions de justice inexistantes ou encore de raisonnements juridiques incohérents. Dans certains cas, la référence citée existe bel et bien, mais son contenu est déformé ou interprété de manière biaisée. Il n’est d’ailleurs pas rare que des justiciables ou des clients proposent des jurisprudences parfaitement adaptées à leur situation, mais qui, après vérification, n’existent pas. Ce phénomène s’explique notamment par le fait que ces outils ne sont pas spécifiquement conçus pour le raisonnement juridique et ne reposent pas sur une compréhension du droit, mais sur des probabilités statistiques.

Les juridictions sont désormais de plus en plus confrontées à ce type de dérives. En France, plusieurs décisions récentes illustrent cette tendance. Ainsi, devant le tribunal judiciaire de Grenoble, un justiciable a produit une requête générée à l’aide d’un outil d’intelligence artificielle, dont le contenu a été jugé comme étant « tout sauf juridiquement cadré ». Dans une autre affaire, une juridiction a estimé que le manque de clarté d’une requête résultait manifestement de l’utilisation d’une intelligence artificielle générative inadaptée. Dans ces cas, les demandes ont été purement et simplement rejetées. Le tribunal judiciaire d’Orléans a même explicitement rappelé à un avocat la nécessité de vérifier les décisions citées, en soulignant que certaines d’entre elles n’existaient pas et pouvaient constituer des hallucinations ou des confabulations. Des décisions similaires ont également été rendues par la cour administrative d’appel de Bordeaux.

Au-delà du rejet des demandes, les conséquences peuvent être financières. En Belgique, selon un article de presse, un avocat a été condamné à verser 25 000 euros pour abus de procédure après avoir produit des conclusions fondées sur des arguments incohérents et appuyés par une jurisprudence inexistante. Cette condamnation comprenait une amende ainsi que des indemnités versées aux parties adverses. Des situations comparables existent également aux États-Unis depuis 2023. En Australie, un cabinet de conseil a même été contraint de rembourser partiellement une prestation de plusieurs centaines de milliers de dollars en raison de références juridiques erronées contenues dans un document généré avec l’aide de l’intelligence artificielle. Ces exemples démontrent que l’utilisation imprudente de ces outils peut engager la responsabilité des justiciables comme celle des professionnels du droit, avec, pour ces derniers, un risque supplémentaire de sanctions disciplinaires.

Face à ces risques, il est indispensable d’adopter une approche rigoureuse. Les sources doivent systématiquement être vérifiées, les textes de loi consultés directement, et les décisions de justice lues dans leur intégralité. Il est également recommandé de privilégier les bases de données juridiques spécialisées, qui reposent sur des contenus fiables et contrôlés, et dont les outils d’intelligence artificielle sont spécifiquement paramétrés pour limiter les erreurs.

Le second risque majeur concerne la protection des données. Dans le domaine juridique, les informations manipulées sont particulièrement sensibles. Elles peuvent concerner la vie privée des personnes, des données pénales, le secret des affaires ou encore des éléments couverts par le secret professionnel. Or, par défaut, certaines intelligences artificielles peuvent utiliser les données qui leur sont communiquées à des fins d’entraînement, ce qui crée un risque de réutilisation ou de diffusion ultérieure de ces informations. Il est donc essentiel de paramétrer correctement les outils utilisés afin d’éviter toute exploitation des données transmises.

Plusieurs autorités ont déjà sanctionné des manquements en la matière. La société OpenAI a ainsi été condamnée en 2024 par l’autorité italienne de protection des données à une amende de 15 millions d’euros pour non-respect du RGPD. De même, l’outil DeepSeek a été bloqué en Italie en 2025 pour des raisons similaires, notamment en raison de préoccupations liées à l’hébergement des données. Ces problématiques ne concernent d’ailleurs pas uniquement les systèmes chinois. Les outils développés aux États-Unis peuvent également poser des difficultés, notamment en raison du Cloud Act, qui permet aux autorités américaines d’accéder à certaines données, y compris lorsqu’elles sont stockées à l’étranger.

Dans ce contexte, les professionnels du droit doivent faire preuve d’une vigilance accrue. Les recommandations des instances professionnelles sont claires : il convient d’éviter de transmettre des données clients à des outils d’intelligence artificielle, sauf à mettre en place des garanties suffisantes. Cela implique notamment l’anonymisation ou la pseudonymisation des informations, le recours à des solutions sécurisées, ainsi que le choix de prestataires garantissant la confidentialité des données, leur non-utilisation à des fins d’entraînement et un hébergement conforme aux exigences européennes.

En définitive, si l’intelligence artificielle constitue un outil particulièrement utile dans la pratique juridique, elle ne peut en aucun cas se substituer à l’analyse humaine. Son utilisation doit être encadrée, réfléchie et systématiquement accompagnée d’un travail de vérification. À défaut, les conséquences peuvent être lourdes, tant sur le plan juridique que financier.

Partager ou imprimer cet article :