Hallucination ? Vous avez dit hallucination ?

Le terme "hallucineren" employé pour désigner les modèles de langage issus de l'intelligence artificielle générative a été choisi par Van Dale comme mot de l'année 2025 aux Pays-Bas et en Belgique. Que faire si vous êtes confronté à ce genre de phénomène ?

1 Introduction

L’essor de l’intelligence artificielle, et notamment de l’IA générative, crée de nouvelles opportunités pour la profession d’avocat·e. Cet outil, s’il est utilisé avec prudence et responsabilité, peut améliorer l’efficacité du travail juridique, renforcer l’accès à la justice, et contribuer à un meilleur équilibre entre vie professionnelle et vie privée.

Toutefois, l’apparition de « hallucinations », c’est-à-dire la production par un système d’IA de citations, références ou faits erronés ou inventés, a attiré légitimement l’attention du monde judiciaire. Ainsi, récemment, la Cour d’appel de Gand a fustigé le comportement d’un avocat qui avait cité des références jurisprudentielles fictives citées par l’IA. Ces risques ne doivent pas masquer l’ensemble des enjeux éthiques, techniques et humains liés à l’adoption de ces technologies.

La présente note vise à offrir aux avocat·e·s un cadre de réflexion et de bonnes pratiques, afin d’accompagner une intégration responsable, consciente et maîtrisée de l’IA dans la pratique quotidienne.

2 L’IA responsable : un potentiel pour renforcer la profession

L'utilisation raisonnée de certains outils d’IA peut permettre :

  • de réduire les coûts liés à la recherche ou à la rédaction juridique ;
  • d’améliorer la productivité et la qualité du travail ;
  • de libérer du temps pour les activités à forte valeur ajoutée ;
  • d’aider les avocats à systématiser la gestion de leurs dossiers ;
  • de contribuer à réduire le fossé en matière d’accès à la justice.

L’exploration des capacités de l’IA doit ainsi être encouragée, pour autant qu’elle repose sur des standards élevés de rigueur et de déontologie.

3 Les hallucinations : un risque nouveau mais pas inédit

Les hallucinations générées par l’IA sont problématiques, notamment lorsqu'elles mènent à l’insertion de références inexistantes dans des conclusions ou notes à destination des tribunaux.

Cependant, les erreurs de contenu ne sont pas nouvelles : copier-coller non vérifié, modèles obsolètes ou références mal citées ont toujours pu conduire à des inexactitudes.

L’IA ne change pas la nature du risque : elle peut en augmenter la fréquence ou l’apparence d’autorité, ce qui renforce la nécessité de vérification.

4 Les obligations déontologiques restent identiques

Les sources d’erreur évoluent, mais les obligations fondamentales demeurent :

  • Compétence technologique minimale permettant de comprendre le système utilisé (cfr lignes directrices à l’intention des avocat·e·s sur l’utilisation de l’intelligence artificielle).
  • Supervision humaine obligatoire : l’avocat doit vérifier, corriger et assumer la responsabilité de l’ensemble des contenus produits par l’IA.
  • Protection des données et respect du secret professionnel par l’anonymisation des données introduites dans l’IA (article 1.2-b- du code de déontologie).
  • Devoir de vérification et exigence de prudence : l’avocat doit constamment vérifier le contenu produit par l’IA et procéder à une relecture critique des résultats générés par l’IA (article 1.2-f- du code de déontologie)
  • Devoir de loyauté et de transparence dans la relation avec les juridictions, les confrères et les clients .(article 1.2 -e- du code de déontologie)
5 Allier responsabilité et bienveillance dans un contexte de transition

La profession est exigeante : charges de travail lourdes, délais stricts, pressions multiples. L’apprentissage de nouvelles technologies peut être source de difficultés temporaires.

Il est important de distinguer :

  • un usage négligent ou imprudent de l’IA, appelant une réaction corrective ;
  • une erreur de bonne foi, dans un contexte technologique en évolution rapide.

Une culture d’accompagnement, de formation et de responsabilité partagée permettra à la profession de mieux maîtriser ces outils.

6 Que faire lorsqu’un confrère utilise une information hallucinée dans un écrit ?

Préalablement, et dans le respect de son devoir de compétence, l’avocat « communique aux conseils des autres parties, la copie de tous ses écrits de procédure, en ce compris les notes et mémoires, les pièces et annotations éventuelles, ainsi que toute jurisprudence inédite » (article 6.9 du code de déontologie).

Cette manière de procéder peut déjà réduire le cas de production de références inexistantes.

Mais lorsqu’une hallucination manifeste est identifiée dans un acte ou une note d’un confrère, une démarche graduée est recommandée :

1) L’avocat peut prendre contact avec le confrère

Objectifs :

  • confirmer qu’il s’agit bien d’une hallucination ou d’une erreur ;
  • déterminer comment le confrère peut corriger ou retirer l’information litigieuse ;
  • discuter des mesures adéquates pour éviter tout préjudice.

2) Informer conjointement la juridiction si la correction est nécessaire

Selon les circonstances, une information conjointe et factuelle au tribunal peut éviter la propagation d’inexactitudes.

3) Signaler si nécessaire

Si le confrère n’agit pas ou refuse d’échanger, il peut être nécessaire d’en informer le bâtonnier pour que celui-ci puisse enjoindre l’avocat de modifier son texte.

7 Les hallucinations ne sont qu’une partie du débat sur l’IA

Les véritables défis sont plus vastes :

  • protection des données dans un environnement numérique ;
  • gestion et réduction des biais algorithmiques ;
  • risques accrus de désinformation, deepfakes et preuves falsifiées ;
  • préservation du contrôle humain sur les décisions juridiques ;
  • formation des futurs avocats et magistrats aux enjeux de l’IA ;
  • implications sociétales des systèmes d’IA puissants.

L’intégration de l’IA dans le système judiciaire doit donc s’accompagner d’un débat éclairé et durable.

8 Conclusion

Cette note n’a pas vocation à établir de nouvelles règles déontologiques mais à encourager une utilisation réfléchie, rigoureuse et constructive de l’intelligence artificielle.

L’IA peut devenir un outil important pour la profession d'avocat·e, pour autant que son usage reste guidé par la prudence, la transparence, la compétence et l’esprit de confraternité.

Le Barreau a un rôle déterminant à jouer pour accompagner ses membres dans cette transition, favoriser le partage d’expériences, promouvoir la formation continue et garantir une pratique conforme aux exigences de la justice et de l’éthique professionnelle.

NB La présente note s’inspire d’un document de guidance rédigé par U.S. Magistrate Judge Maritza Dominguez Braswell.

Florian ERNOTTE
Avocat au barreau de Liège-Huy
florian@avroy.be

Jean-Noël BASTENIERE
Avocat au barreau du Brabant Wallon

A propos de l'auteur

La
Tribune
latribune

a également publié

Informations pratiques

Jurisprudence professionnelle : textes et arrêts de la CEDH

Vous trouverez sur le site internet de la Délégation des Barreaux de France les résumés en français des principaux arrêts de la Cour européenne des droits de l’homme qui concernent la profession d’avocat.

Rentrées des jeunes barreaux

Agenda des formations

Prenez connaissance des formations, journées d'études, séminaires et conférences organisées par les Ordres des avocats et/ou les Jeunes Barreaux en cliquant ici.

Si vous souhaitez organiser une formation et que vous souhaitez l'octroi de points pour celle-ci, veuillez consulter les modalités qui s'appliquent aux demandes d'agrément dans le document suivant et complétez le formulaire de demande.