Lignes directrices relatives à l’utilisation

Lorsqu’ils utilisent l’IA gĂ©nĂ©rative, qui Ă©volue rapidement, les juristes doivent ĂŞtre conscients non seulement des avantages qu’elle peut offrir, mais aussi des risques qui y sont associĂ©s et de la nĂ©cessitĂ© de continuer Ă  respecter leurs obligations professionnelles. Un certain nombre de mises en garde Ă©numĂ©rĂ©es ci-dessous suivent des sections particulièrement pertinentes du Code type1, et fournissent des conseils sur la façon de dĂ©terminer quels sont les risques liĂ©s Ă  l’utilisation de l’IA et de les attĂ©nuer.

4.1 ĂŠtre compĂ©tent : Règle 3.1

Les juristes doivent faire preuve de compétence dans la prestation de services juridiques. La plupart des ressorts canadiens incluent des commentaires précis dans leurs codes de déontologie respectifs quant à la nécessité pour les juristes de posséder les connaissances technologiques nécessaires.

Une partie du devoir de reprĂ©sentation compĂ©tente comme l’exige la règle 3.1 du Code type est le fait d’ĂŞtre pleinement conscient des risques liĂ©s Ă  l’utilisation de technologies novatrices (y compris, mais sans s’y limiter, la dĂ©sinformation)2. Cela comprend Ă©galement la mise Ă  jour et la revĂ©rification rĂ©gulières des politiques et des pratiques relatives Ă  l’utilisation de l’IA.

Lorsqu’ils utilisent consciemment l’IA, les professionnels du droit doivent ĂŞtre conscients des risques liĂ©s Ă  l’utilisation d’une technologie donnĂ©e et attĂ©nuer adĂ©quatement les risques qu’elle prĂ©sente, y compris, sans s’y limiter, la mise en place de politiques et de procĂ©dures relatives Ă  la mise Ă  l’essai et Ă  la vĂ©rification du contenu crĂ©Ă© par l’IA gĂ©nĂ©rative pour en assurer l’exactitude, la pertinence et la fiabilitĂ©.

Le fait de ne pas utiliser l’IA de façon compĂ©tente met les clients en danger et peut entraĂ®ner l’imposition de sanctions par le tribunal ou mĂŞme des sanctions disciplinaires imposĂ©es par l’organisme de rĂ©glementation. Par exemple, un juriste de la Colombie-Britannique (C.-B.) a Ă©tĂ© condamnĂ© Ă  payer personnellement des dĂ©pens pour avoir invoquĂ© devant la Cour suprĂŞme de la C.-B de la jurisprudence gĂ©nĂ©rĂ©e par l’IA qui n’existait pas. La Cour a formulĂ© la mise en garde suivante : [traduction] « Il est essentiel de faire preuve de compĂ©tence dans la sĂ©lection et l’utilisation de tout outil technologique, notamment ceux alimentĂ©s par l’IA. L’intĂ©gritĂ© du système de justice l’exige. »3 Par consĂ©quent, le Barreau de la Colombie-Britannique a annoncĂ© qu’il mènera une enquĂŞte sur la conduite du juriste. Il a mentionnĂ© qu’il avait publiĂ© des directives Ă  l’intention des juristes sur l’utilisation appropriĂ©e de la technologie d’intelligence artificielle et qu’il s’attendait Ă  ce que les juristes se conforment aux normes de conduite que tout juriste compĂ©tent devait respecter s’ils s’appuient sur l’IA pour fournir des services aux clients.

Comme nous l’avons mentionnĂ© et comme l’illustre cette affaire, les modèles de langage de grande taille peuvent prĂ©senter de la dĂ©sinformation de façon assez confiante, semant mĂŞme souvent le doute chez des juristes chevronnĂ©s, ou diminuant leur autoritĂ©4.

Principaux Ă©lĂ©ments Ă  retenir : L’intelligence artificielle gĂ©nĂ©rative peut crĂ©er des renseignements inexacts, faux ou trompeurs.

Les juristes ont des obligations professionnelles — envers les clients et envers le tribunal — de vĂ©rifier et de valider tout renseignement crĂ©Ă© par l’IA gĂ©nĂ©rative afin d’en garantir l’exactitude. Ils doivent connaĂ®tre et respecter les lignes directrices Ă©laborĂ©es par le barreau et les directives des tribunaux Ă  ce sujet.

Comprendre les limites de l’IA plutĂ´t que la technologie elle-mĂŞme

Dans les ressorts qui ont adoptĂ© l’exigence prĂ©cise selon laquelle les juristes doivent possĂ©der les connaissances technologiques nĂ©cessaires, nous ne nous attendons pas Ă  ce qu’ils soient des experts en technologie de l’information. Par exemple, comme le prĂ©voit le Code type, aux commentaires 4A et 4B de la règle 3.15, le juriste doit dĂ©velopper les connaissances et les aptitudes nĂ©cessaires pour utiliser la technologie en fonction de son champ d’exercice et de ses responsabilitĂ©s. Il doit ĂŞtre en mesure d’apprĂ©cier les avantages et les risques liĂ©s Ă  la technologie pertinente. Le niveau de compĂ©tence technologique nĂ©cessaire sera fonction du fait que l’utilisation ou la connaissance de la technologie est nĂ©cessaire par rapport au champ d’exercice et aux responsabilitĂ©s du juriste et du fait que la technologie pertinente lui est raisonnablement accessible6.

Il n’est pas possible pour les juristes de « connaĂ®tre » la complexitĂ© inlassable du fonctionnement de l’IA gĂ©nĂ©rative. Ils devraient plutĂ´t se concentrer sur la comprĂ©hension des risques liĂ©s Ă  son utilisation. Ces risques, tout comme la technologie elle-mĂŞme, Ă©voluent constamment.

[TRADUCTION] « L’IA est insondable parce que, mĂŞme pour les concepteurs d’IA, il est souvent impossible de comprendre comment un modèle atteint un rĂ©sultat, ou mĂŞme de cerner tous les points de donnĂ©es que l’IA utilise pour y arriver, qu’ils soient bons, mauvais ou autres. »7

Bien qu’il soit impossible de simplement « connaĂ®tre » les technologies sophistiquĂ©es associĂ©es Ă  l’IA gĂ©nĂ©rative, mĂŞme par des personnes ayant reçu une formation sur le sujet, en raison de leur complexitĂ© inhĂ©rente et de leur manque inĂ©vitable de transparence, un juriste compĂ©tent doit connaĂ®tre les risques que posent l’IA et ses limites en ce qui concerne l’exercice des fonctions juridiques essentielles.

La FĂ©dĂ©ration des Barreaux d’Europe souligne ce qui suit :

[TRADUCTION] [Bien que] nous reconnaissions les avantages importants qu’offre l’utilisation de l’IA gĂ©nĂ©rative dans le domaine juridique, nous mettons les juristes en garde contre l’application hâtive et inappropriĂ©e des outils d’IA gĂ©nĂ©rative aux tâches qui sont au cĹ“ur de la compĂ©tence juridique et de la relation avocat-client8.

Dans le contexte de l’Ă©laboration de politiques et de pratiques relatives Ă  l’utilisation de l’IA gĂ©nĂ©rative, une distinction utile peut ĂŞtre faite entre l’utilisation de l’IA dans les tâches routinières de la pratique du droit et son dĂ©ploiement pour l’Ă©laboration et l’analyse de stratĂ©gies. Par exemple, les lignes directrices fournies par la FĂ©dĂ©ration des Barreaux d’Europe favorisent une utilisation « complĂ©mentaire » de l’IA dans le cadre de la pratique du droit9.

Principaux Ă©lĂ©ments Ă  retenir : Il est essentiel de connaĂ®tre et de reconnaĂ®tre les limites de l’IA, car cela influera sur les dĂ©cisions d’utiliser certains types d’IA ainsi que sur la façon d’utiliser celle-ci d’une manière conforme aux obligations professionnelles. Un degrĂ© Ă©levĂ© de personnalisation de l’IA est nĂ©cessaire pour la pratique du droit.

4.2 Maintenir la confidentialitĂ© : Règle 3.3

L’obligation de confidentialitĂ© constitue une obligation dĂ©ontologique fondamentale au titre de la règle 3.3 du Code type. Les juristes sont tenus de protĂ©ger les renseignements concernant les clients.

Lorsqu’un juriste choisit d’utiliser un outil d’IA gĂ©nĂ©rative pour crĂ©er du nouveau contenu, il existe un risque rĂ©el qu’il puisse saisir des renseignements confidentiels ou propres au cas dans un système commercial ou un outil de requĂŞtes appartenant Ă  un tiers, qu’il soit gĂ©nĂ©ral ou « gratuit », qui s’appuie sur des donnĂ©es extraites d’Internet, qui mĂ©morise les donnĂ©es et qui les rĂ©utilise, ce qui compromet la sĂ©curitĂ© des renseignements concernant les clients et viole l’obligation de confidentialitĂ©.

Comme l’Ă©noncent les lignes directrices fournies par la FĂ©dĂ©ration des Barreaux d’Europe :

[TRADUCTION] Les avocats doivent garder Ă  l’esprit que la saisie de donnĂ©es personnelles dans les systèmes d’IA gĂ©nĂ©rative nĂ©cessite un fondement juridique et une Ă©valuation appropriĂ©s, conformĂ©ment aux dispositions relatives Ă  la protection des donnĂ©es et au respect de la vie privĂ©e. N’oubliez pas que les outils d’IA gĂ©nĂ©rative traitent non seulement des donnĂ©es pour gĂ©nĂ©rer des rĂ©ponses aux requĂŞtes, mais qu’ils utilisent Ă©galement des donnĂ©es fournies pour amĂ©liorer le système lui-mĂŞme. Toutefois, ces risques peuvent ĂŞtre, en partie, attĂ©nuĂ©s au moyen d’outils d’IA gĂ©nĂ©rative utilisĂ©s par l’entremise d’interfaces de programme d’application (API) ou grâce Ă  une option spĂ©ciale de retrait, ce qui peut aider Ă  sĂ©parer les donnĂ©es d’entrĂ©e de celles liĂ©es au dĂ©veloppement du système. Pour assurer la confidentialitĂ© et la protection des donnĂ©es, il est essentiel de mettre en Ĺ“uvre des mesures de sĂ©curitĂ© rigoureuses englobant Ă  la fois la technologie et les processus, et de se prĂ©munir contre l’accès, l’utilisation ou la divulgation non autorisĂ©s de donnĂ©es personnelles10.

Les juristes et les cabinets juridiques doivent comprendre que le traitement ultĂ©rieur du contenu des requĂŞtes (comme en tĂ©moignent les contrats de nombreuses entreprises conclus avec des fournisseurs de services d’IA) peut mener Ă  la fuite, Ă  la divulgation non autorisĂ©e ou Ă  la rĂ©utilisation des donnĂ©es de clients et porter atteinte Ă  la confidentialitĂ© des donnĂ©es d’entrĂ©e.11

De plus, comme cela a Ă©tĂ© rĂ©cemment rĂ©vĂ©lĂ©, les paramètres de confidentialitĂ© de l’IA gĂ©nĂ©rative peuvent, en fait, ĂŞtre relativement faciles Ă  contourner, rĂ©vĂ©lant ainsi des renseignements qui Ă©taient auparavant considĂ©rĂ©s comme inaccessibles Ă  des tiers12.

En outre, la portĂ©e des renseignements utilisĂ©s par les modèles commerciaux d’IA gĂ©nĂ©rative est inconnue, et la lĂ©galitĂ© de son utilisation a Ă©tĂ© mise en doute13. Les questions de confidentialitĂ© associĂ©es Ă  l’utilisation de modèles tiers prĂ©sentent des risques importants dans le contexte de l’exercice des fonctions juridiques.

Principaux Ă©lĂ©ments Ă  retenir : L’utilisation de l’IA gĂ©nĂ©rative dans le cadre de l’exercice de vos fonctions juridiques peut entraĂ®ner la divulgation inappropriĂ©e, nĂ©gligente et contraire Ă  l’Ă©thique de renseignements confidentiels. Toutefois, il existe des moyens d’attĂ©nuer les risques, mais non de les Ă©liminer. Pour amĂ©liorer la confidentialitĂ© et la protection des donnĂ©es, il est essentiel de mettre en Ĺ“uvre des mesures de sĂ©curitĂ© rigoureuses englobant Ă  la fois la technologie et les processus, et de se prĂ©munir contre l’accès, l’utilisation ou la divulgation non autorisĂ©s de donnĂ©es personnelles. Les juristes doivent, dans la mesure du possible, raisonnablement s’assurer qu’un système d’IA est sĂ©curitaire avant de l’utiliser.

Principaux Ă©lĂ©ments Ă  retenir : Les juristes et les cabinets juridiques doivent connaĂ®tre les lois qui peuvent avoir une incidence sur la prestation de leurs services juridiques, conformĂ©ment Ă  leurs obligations professionnelles.

4.3 Encadrer et dĂ©lĂ©guer de façon appropriĂ©e : Règle 6.1

La règle 6.1-1 du Code type prĂ©voit que les juristes assument toute la responsabilitĂ© professionnelle des affaires qui leur sont confiĂ©es et doivent encadrer directement le personnel et les adjoints Ă  qui ils dĂ©lèguent des tâches et des fonctions particulières.

L’IA devrait ĂŞtre utilisĂ©e comme un outil et non comme une excuse dans la prestation de services juridiques. Comme le dĂ©clare un auteur : [TRADUCTION] « Les modèles de langage de grande taille reprĂ©sentent un dĂ©couplage entre l’agentivitĂ© et l’intelligence […] il ne faut pas s’appuyer sur eux pour en arriver Ă  un raisonnement complexe ou pour obtenir des renseignements cruciaux, mais ils pourraient servir Ă  mieux comprendre le contenu et le contexte d’un texte, plutĂ´t qu’Ă  remplacer l’apport humain. »14

Certains produits d’IA propres Ă  la pratique du droit utilisent l’IA pour rĂ©soudre des problèmes juridiques (parfois appelĂ©s « technologie juridique » ou « technologie rĂ©glementaire »). Ils sont parfois commercialisĂ©s comme ayant « la rĂ©ponse » pour rĂ©gler un diffĂ©rend juridique. Ce type de produit, qui est tentant par sa facilitĂ©, devrait nĂ©anmoins soulever des doutes, car le droit concerne en grande partie le jugement, le contexte et la nuance, et l’exercice d’un jugement professionnel appropriĂ© fait partie des obligations qu’a un juriste envers ses clients.

La règle 6.1-3 du Code type Ă©nonce les obligations dĂ©ontologiques lors de la dĂ©lĂ©gation de tâches et l’alinĂ©a b) Ă©nonce expressĂ©ment qu’un juriste ne doit pas permettre Ă  un « non-juriste » de donner des avis juridiques.

Les juristes devraient se prĂ©munir contre une dĂ©pendance excessive Ă  l’Ă©gard des outils d’IA gĂ©nĂ©rative, car ils pourraient compromettre, voire empĂŞcher, l’exercice d’un jugement juridique indĂ©pendant. La pensĂ©e « rapide et lente » ou l’ambidextrie15, soit la capacitĂ© de travailler selon les « anciennes mĂ©thodes » dans des domaines qui exigent du jugement et une rĂ©flexion nuancĂ©e et d’intĂ©grer de nouveaux outils pour les tâches routinières, constitue une approche utile.

Que les juristes demandent Ă  un stagiaire d’effectuer des recherches juridiques, ou qu’ils utilisent un outil d’IA gĂ©nĂ©rative pour faciliter la recherche juridique ou le traitement d’une question juridique, ils doivent tout de mĂŞme respecter leurs obligations professionnelles. Les juristes doivent faire preuve de compĂ©tence et fournir un encadrement appropriĂ© lorsqu’ils dĂ©lèguent des tâches et des fonctions.

MĂŞme si les juristes n’utilisent pas encore l’IA gĂ©nĂ©rative eux-mĂŞmes, ils doivent savoir si d’autres membres du personnel l’utilisent, Ă©laborer des politiques claires et offrir une formation sur son utilisation ainsi qu’une surveillance adĂ©quate.

La formation devrait ĂŞtre suivie Ă  la fois par les juristes et par les membres du personnel qui ne sont pas des juristes, avec des directives sur la façon d’empĂŞcher la divulgation involontaire de donnĂ©es confidentielles et sur la façon d’attĂ©nuer les risques liĂ©s Ă  l’exactitude des nouveaux contenus crĂ©Ă©s.

Principaux Ă©lĂ©ments Ă  retenir : Les cabinets juridiques devraient mettre en Ĺ“uvre des politiques et une formation claires concernant l’utilisation de l’IA gĂ©nĂ©rative par les juristes et par les autres membres du personnel dans le cadre de la prestation de services juridiques. Les renseignements concernant les politiques devraient ĂŞtre diffusĂ©s, examinĂ©s Ă  intervalle rĂ©gulier, vĂ©rifiĂ©s et complĂ©tĂ©s par une formation donnĂ©e sur une base rĂ©gulière et portant sur l’utilisation appropriĂ©e de l’IA gĂ©nĂ©rative. Compte tenu de l’Ă©volution constante de la technologie d’IA gĂ©nĂ©rative, les politiques, les pratiques et la formation des cabinets juridiques devraient ĂŞtre rĂ©visĂ©es et mises Ă  jour rĂ©gulièrement.

4.4 Communiquer avec les clients — Règles 3.2-1 et 3.2-2

La règle 3.2-1 du Code type Ă©nonce que la qualitĂ© du service attendue d’un juriste est un service satisfaisant, fait en temps opportun, consciencieux, appliquĂ©, efficace et respectueux. De nombreux exemples de pratiques attendues sont donnĂ©s, notamment tenir le client raisonnablement informĂ©, exĂ©cuter le travail nĂ©cessaire sans dĂ©lai pour ainsi maintenir la satisfaction du client et fournir un travail de qualitĂ©. De plus, conformĂ©ment Ă  la règle 3.2-2 du Code type, lorsqu’un juriste prodigue des conseils Ă  un client, il doit ĂŞtre honnĂŞte et franc et doit lui donner tous les renseignements qu’il possède et qui pourraient avoir une incidence sur ses intĂ©rĂŞts dans le dossier juridique.

Les juristes peuvent utiliser des outils d’IA gĂ©nĂ©rative pour exĂ©cuter certaines tâches juridiques dont les clients peuvent gĂ©nĂ©ralement s’attendre Ă  ce que les juristes les accomplissent. Ils devraient Ă©galement envisager d’informer les clients s’ils ont l’intention d’utiliser l’IA gĂ©nĂ©rative, et de leur fournir des explications sur la façon dont la technologie sera utilisĂ©e (p. ex. la recherche, l’analyse, l’examen de documents, les fonctions de communication prĂ©alable, la prĂ©paration du procès). Une communication efficace peut nĂ©cessiter qu’un juriste informe explicitement un client de la façon dont l’IA gĂ©nĂ©rative est utilisĂ©e dans son dossier, ou comment elle le sera, et qu’il obtienne son consentement. La communication doit comprendre des renseignements sur les avantages et les risques liĂ©s Ă  une telle utilisation, notamment les risques associĂ©s aux violations possibles de l’obligation de confidentialitĂ© et Ă  la perte du secret professionnel de l’avocat.

Principaux Ă©lĂ©ments Ă  retenir : Il faut Ă©tablir si les clients sont au courant que le juriste utilise l’IA et de la façon dont elle est utilisĂ©e, et s’ils ont donnĂ© un vĂ©ritable consentement. MĂŞme s’ils ont consenti Ă  son utilisation, les rĂ©percussions (possibilitĂ© de perte de contrĂ´le sur les renseignements qui sont saisis dans l’outil d’IA gĂ©nĂ©rative) sont-elles telles que l’utilisation peut causer des prĂ©judices?

Principaux Ă©lĂ©ments Ă  retenir : L’obtention du consentement du client pour l’utilisation de l’IA gĂ©nĂ©rative n’est pas une panacĂ©e aux risques liĂ©s Ă  son utilisation. De nombreux instruments et politiques juridiques reconnaissent maintenant que les systèmes d’IA ne peuvent pas ĂŞtre suffisamment compris pour permettre au client de donner un vĂ©ritable consentement relativement Ă  leur utilisation et que leur utilisation peut causer des prĂ©judices, et que des obligations professionnelles peuvent ĂŞtre violĂ©es, mĂŞme si le consentement a Ă©tĂ© obtenu.

4.5 Agir de façon courtoise et respectueuse Ă  l’endroit des tribunaux : Règle 5.1

ConformĂ©ment Ă  la règle 5.1-1, lorsqu’ils agissent Ă  titre d’avocat, les juristes doivent ĂŞtre sincères, justes, courtois et respectueux Ă  l’endroit du tribunal. Il faut agir de façon respectueuse Ă  l’endroit des tribunaux administratifs et judiciaires, c’est-Ă -dire s’informer des directives, des processus et des pratiques crĂ©Ă©s par les tribunaux en cause, et s’y conformer.

De nombreux organismes de rĂ©glementation et tribunaux ont publiĂ© des directives sur l’utilisation responsable de l’IA dans le cadre de l’exercice des fonctions juridiques. En tant que membres de barreaux de ressorts particuliers et officiers de justice, il est impĂ©ratif que les juristes consultent ces règles et s’y conforment de façon rigoureuse (règles auxquelles ils sont soumis, selon le ressort et le domaine de pratique), et ils ne doivent pas substituer leur propre jugement Ă  celui des tribunaux devant lesquels ils comparaissent.

Le fait d’agir de façon courtoise et respectueuse Ă  l’endroit du tribunal exige Ă©galement que les juristes veillent Ă  ne pas fournir au tribunal des documents qui sont inexacts, inexistants ou trompeurs. Il est impĂ©ratif que les juristes examinent tous les documents qui sont prĂ©sentĂ©s au tribunal pour s’assurer de l’exactitude du contenu.

Principaux Ă©lĂ©ments Ă  retenir : En tant qu’officiers de justice, les juristes sont tenus de se conformer aux avis et directives pertinents du tribunal, y compris ceux qui ont trait Ă  l’utilisation de l’IA et de l’IA gĂ©nĂ©rative dans le cadre des procĂ©dures tenues devant un tribunal donnĂ©.

Principaux Ă©lĂ©ments Ă  retenir : Les juristes doivent s’assurer de ne pas fournir aux tribunaux des renseignements erronĂ©s ou inexacts lorsqu’ils dĂ©posent des documents Ă©crits auprès du tribunal, ou lorsqu’ils prĂ©sentent des observations sur une question juridique.

4.6  Demander des honoraires et des dĂ©bours appropriĂ©s : Règle 3.6

La règle 3.6 du Code type Ă©nonce que les honoraires et les dĂ©bours doivent ĂŞtre justes et raisonnables et ĂŞtre divulguĂ©s en temps opportun. Les juristes doivent ĂŞtre conscients des progrès technologiques qui peuvent les aider Ă  fournir des services juridiques d’une manière qui serait avantageuse pour leurs clients, par exemple en amĂ©liorant l’efficacitĂ© de la prestation des services et en rĂ©duisant les coĂ»ts. En particulier en pĂ©riode d’Ă©volution rapide des modèles et mĂ©thodes de prestation des services aux clients, les juristes et les cabinets juridiques devraient revoir pĂ©riodiquement et de façon approfondie leurs pratiques de facturation afin de veiller au respect continu de leurs obligations dĂ©ontologiques relatives aux honoraires et aux dĂ©bours.

Les juristes devraient informer les clients des fins pour lesquelles ils utiliseront l’IA gĂ©nĂ©rative dans le cadre de la prestation de services juridiques, et ils devraient leur expliquer comment cette utilisation peut influer sur le traitement des questions juridiques, notamment en rĂ©alisant des gains d’efficience et en rĂ©duisant le temps consacrĂ© Ă  certaines tâches juridiques. Si l’utilisation de l’IA gĂ©nĂ©rative rĂ©duit le temps qu’un juriste consacre Ă  un dossier ou rĂ©duit les coĂ»ts y affĂ©rents, ces Ă©conomies devraient se reflĂ©ter avec exactitude dans toute facturation au client.

Principaux Ă©lĂ©ments Ă  retenir : Une communication efficace avec les clients est primordiale et peut, dans certaines circonstances, comprendre la communication de renseignements sur les pratiques d’IA et la consultation des clients sur le sujet, y compris la façon dont l’utilisation d’outils d’IA gĂ©nĂ©rative dans la prestation de services juridiques peut amĂ©liorer l’efficacitĂ© et avoir une incidence sur les coĂ»ts.

4.7 Se prĂ©munir contre la discrimination, le harcèlement et les prĂ©jugĂ©s : Règle 6.3

Il est interdit aux juristes de faire preuve de discrimination envers des collègues, des employĂ©s, des clients ou toute autre personne, ou de les harceler. Le Code type, dans le commentaire 1 rattachĂ© Ă  la règle 6.3, Ă©nonce que :

  • les juristes sont bien placĂ©s pour faire avancer l’administration de la justice, laquelle exige d’eux un attachement profond Ă  une justice Ă©gale pour tous dans le cadre d’un système ouvert et impartial;
  • les juristes sont censĂ©s respecter la dignitĂ© et la valeur de toutes les personnes et traiter toutes les personnes Ă©quitablement et sans discrimination;
  • il incombe de façon particulière au juriste d’observer et de faire respecter les principes et les prescriptions des lois qui sont en vigueur au Canada, dans les provinces et dans les territoires relativement aux droits de la personne ainsi qu’Ă  la santĂ© et Ă  la sĂ©curitĂ© au travail et, plus spĂ©cialement, de respecter les obligations Ă©noncĂ©es.

Les juristes et les cabinets juridiques doivent ĂŞtre conscients que l’IA gĂ©nĂ©rative peut ĂŞtre perfectionnĂ©e au moyen de renseignements biaisĂ©s ou discriminatoires et qu’elle peut systĂ©matiquement rendre immuables les prĂ©jugĂ©s d’une manière qui est difficile (voire impossible) pour l’utilisateur de percevoir, perpĂ©tuant ainsi des pratiques et des rĂ©sultats discriminatoires16.

[TRADUCTION] « Les donnĂ©es d’entrĂ©e discriminatoires constituent l’une des principales sources de discrimination par les systèmes d’IA. Ă€ titre d’exemple, supposons que le personnel des ressources humaines (RH) d’une organisation a, par le passĂ©, fait preuve de discrimination Ă  l’Ă©gard des femmes. Supposons que l’organisation ne se rend pas compte que son personnel des RH a fait preuve de discrimination par le passĂ©. Si l’organisation utilise les dĂ©cisions historiques prises par des ĂŞtres humains pour perfectionner son système d’IA, celui-ci pourrait reproduire cette discrimination. Un système de recrutement mis au point par Amazon aurait causĂ© un tel problème. Amazon a abandonnĂ© le projet avant que le système ne soit utilisĂ© dans la prise de dĂ©cisions de recrutement rĂ©elles. Les systèmes d’IA peuvent prendre des dĂ©cisions discriminatoires au sujet des candidats Ă  un emploi, ce qui cause un prĂ©judice Ă  certaines ethnies, par exemple, mĂŞme si le système n’a pas directement accès aux donnĂ©es sur l’origine ethnique des personnes. Imaginez un système d’IA qui tient compte des codes postaux des lieux de rĂ©sidence des candidats. Les codes postaux pourraient faire une corrĂ©lation avec l’origine ethnique d’une personne. Par consĂ©quent, le système pourrait rejeter la candidature de toutes les personnes d’une certaine origine ethnique, mĂŞme si l’organisation s’est assurĂ©e que le système ne tienne pas compte de l’origine ethnique des personnes. »17

Compte tenu de ces risques, les juristes doivent faire preuve de prudence lorsqu’ils prennent des dĂ©cisions concernant l’utilisation de l’IA gĂ©nĂ©rative. Comme le dĂ©clare un auteur :

[TRADUCTION] Ă€ l’heure actuelle, il n’est pas possible d’observer les rouages internes d’un outil d’IA et de garantir que le système produit des donnĂ©es de sortie exactes ou justes. Il faut reconnaĂ®tre qu’une certaine opacitĂ© est le prix Ă  payer pour utiliser ces puissants systèmes. Par consĂ©quent, les dirigeants doivent faire preuve de prudence et de discernement lorsqu’ils dĂ©terminent la façon et le moment appropriĂ© pour utiliser l’IA, et ils doivent documenter la façon dont l’IA est utilisĂ©e et le moment oĂą elle l’est. De cette façon, les gens sauront qu’une dĂ©cision fondĂ©e sur l’IA a Ă©tĂ© Ă©valuĂ©e avec un degrĂ© appropriĂ© de scepticisme, y compris ses risques ou lacunes Ă©ventuels.18

Les juristes doivent en apprendre davantage sur la possibilitĂ© que l’IA puisse entraĂ®ner des prĂ©jugĂ©s, et leurs rĂ©percussions sur la pratique du droit. Ils devraient Ă©galement envisager de mettre en place des systèmes pouvant aider Ă  cerner et Ă  Ă©liminer les prĂ©jugĂ©s et les rĂ©sultats discriminatoires (p. ex., effectuer des vĂ©rifications). Prendre de telles mesures pourrait attĂ©nuer — mais n’Ă©liminera pas — ces types de risques.

Les milieux de travail juridiques devraient Ă©tablir des politiques et des mĂ©canismes pour cerner, signaler et contrer les prĂ©jugĂ©s possibles causĂ©s par l’IA. Comme l’Ă©nonce un article portant sur l’utilisation responsable de l’IA : [TRADUCTION] « L’IA ne sera digne de confiance qu’une fois qu’elle fonctionnera Ă©quitablement, et cela ne se produira que si nous accordons la prioritĂ© Ă  la diversification des Ă©quipes responsables des donnĂ©es et du dĂ©veloppement, et si nous documentons de façon claire la façon dont l’IA a Ă©tĂ© conçue en ce qui concerne l’Ă©quitĂ©. » 19

La prĂ©vision responsable des risques et la protection contre ceux-ci comprennent l’Ă©laboration d’outils de gestion des ressources humaines dans le but de veiller Ă  ce que l’organisation soit sensibilisĂ©e aux politiques et aux procĂ©dures internes en matière d’IA, et qu’elle s’y conforme. Comme il a Ă©tĂ© mentionnĂ© plus haut, ces politiques et procĂ©dures doivent ĂŞtre rĂ©visĂ©es, mises Ă  l’essai et mises Ă  jour rĂ©gulièrement.

Il est nĂ©cessaire, dans des contextes sensibles, d’effectuer un examen approfondi des rĂ©sultats de l’IA fondĂ© sur les droits de la personne, comme lorsque les motifs de discrimination peuvent constituer un facteur utilisĂ© dans la prise de dĂ©cisions.

Principaux Ă©lĂ©ments Ă  retenir : Les juristes doivent assurer une veille importante lorsqu’ils utilisent l’IA gĂ©nĂ©rative, et ils doivent analyser de façon critique les rĂ©sultats obtenus en vue de dĂ©celer une preuve selon laquelle un prĂ©jugĂ© a Ă©tĂ© causĂ©. Ils ne doivent pas se fier de façon indĂ©pendante au contenu crĂ©Ă© par l’IA gĂ©nĂ©rative Ă©tant donnĂ© le risque important que le contenu puisse ĂŞtre affectĂ© par des prĂ©jugĂ©s inhĂ©rents Ă  l’outil en question.

4.8 Respecter la loi — Règles 2.1 et 3.2-7

Les juristes doivent agir avec intĂ©gritĂ© et respecter les lois applicables lorsqu’ils fournissent des services juridiques. Lorsqu’il agit pour un client, il est interdit Ă  un juriste de faire des choses dont il devrait savoir qu’elles facilitent ou favorisent la malhonnĂŞtetĂ©, la fraude, le crime ou une conduite illĂ©gale. Ces obligations s’appliquent Ă  tous les aspects de l’exercice de la profession juridique, y compris l’utilisation d’outils d’IA gĂ©nĂ©rative par le juriste.

Il existe de nombreuses questions juridiques pertinentes pour l’IA gĂ©nĂ©rative et qui s’appliquent Ă  celle-ci, notamment la conformitĂ© aux lois propres Ă  l’IA, aux lois en matière de protection de la vie privĂ©e, aux lois sur le transfert transfrontalier de donnĂ©es, aux lois sur la propriĂ©tĂ© intellectuelle, ainsi que les prĂ©occupations en matière de cybersĂ©curitĂ©.

Ces lois et d’autres règles sont susceptibles d’ĂŞtre modifiĂ©es au fur et Ă  mesure que le domaine de l’IA gĂ©nĂ©rative Ă©volue. Les juristes doivent se tenir au courant des lois applicables qui rĂ©gissent l’utilisation de l’IA gĂ©nĂ©rative pour s’assurer qu’ils les respectent lorsqu’ils utilisent des outils d’IA gĂ©nĂ©rative dans le cadre de l’exercice de leurs fonctions juridiques et qu’ils prodiguent des conseils adĂ©quats Ă  leurs clients, en tant que juristes compĂ©tents, au sujet des lois et des règlements applicables.

En plus de s’attaquer aux problèmes de sĂ©curitĂ© et de gouvernance des donnĂ©es de plus en plus complexes, les juristes doivent sensibiliser les personnes Ă  l’effet possiblement nĂ©faste que peuvent avoir les « hypertrucages » qui s’immiscent dans les Ă©lĂ©ments de preuve et la dĂ©sinformation dans le système de justice20, aux considĂ©rations relatives Ă  l’accès Ă  la justice, ainsi qu’Ă  la confiance et Ă  l’aliĂ©nation lorsqu’ils utilisent l’IA gĂ©nĂ©rative.

Principaux Ă©lĂ©ments Ă  retenir : Il existe de nombreuses questions juridiques pertinentes Ă  l’IA gĂ©nĂ©rative et qui s’y appliquent, notamment le respect de diverses lois. Les juristes doivent se renseigner et se tenir Ă  jour en ce qui concerne les lois afin de veiller au respect de celles-ci lorsqu’ils utilisent eux-mĂŞmes des outils d’IA gĂ©nĂ©rative, et de s’assurer qu’ils prodiguent des conseils satisfaisants aux clients au sujet des lois et règlements qui s’appliquent Ă  leur dossier.

Notes de fin

1 PrĂ©citĂ©, note 3.

2 Voir, par exemple, LinkedIn Pulse. (n.d.). The liar’s dividend: how are deep fakes impacting the justice system?. ConsultĂ© le 31 octobre 2024.

Commentaire sur le webinaire de l’ABA (janvier 2024). The Impacts of Deep Fakes on the Justice System  auquel a participĂ© la professeure Maura Grossman, Ă  titre de confĂ©rencière.

Voir aussi Austin, Doug. (12 octobre 2023).  Rules Change to Address AI Evidence Proposed by Grossman and Grimm: Artificial Intelligence Trends. eDiscovery Today (blogue).ConsultĂ© le 31 octobre 2024.

3 Zhang v. Chen. (2024). BCSC 285. CanLII. ConsultĂ© le 31 octobre 2024. Voir aussi la dĂ©cision maintenant tristement cĂ©lèbre Mata v. Avianca. (n.d.). ConsultĂ© le 31 octobre 2024.

5 PrĂ©citĂ©, note 3.

6 Neeley, Tsedal. (9 mai 2023). « 8 Questions About Using AI Responsibly, Answered », Harvard Business Review. ConsultĂ© le 31 octobre 2024.

7 Neeley, Tsedal. (9 mai 2023). « 8 Questions About Using AI Responsibly, Answered », Harvard Business Review. ConsultĂ© le 31 octobre 2024.

9 Ibid., Ă  la p. 9.

10 Ibid., Ă  la p. 11.

11 Selon les circonstances, le juriste renonce Ă  son contrĂ´le sur l’utilisation finale des donnĂ©es saisies ou des demandes de renseignements formulĂ©es, ainsi que sur la conservation des donnĂ©es d’entrĂ©e. L’IA gĂ©nĂ©rative est un outil d’« auto-apprentissage » Ă©volutif, ce qui signifie que les renseignements concernant un client, une fois rĂ©vĂ©lĂ©s dans une demande de renseignements ou une requĂŞte, peuvent ĂŞtre stockĂ©s et rĂ©utilisĂ©s en rĂ©ponse aux requĂŞtes subsĂ©quentes faites par d’autres juristes. Cela pourrait constituer une divulgation involontaire, violant de fait la règle 3.3 du Code type et possiblement divers autres instruments normatifs, y compris, mais sans s’y limiter, le Règlement (UE) 2016/679 du Parlement europĂ©en et du Conseil du 27 avril 2016 relatif Ă  la protection des personnes physiques Ă  l’Ă©gard du traitement des donnĂ©es Ă  caractère personnel et Ă  la libre circulation de ces donnĂ©es, et abrogeant la directive 95/46/CE (règlement gĂ©nĂ©ral sur la protection des donnĂ©es), JO UE L 119/1 (5 avril 2016) (« RGPD »), qui peut s’appliquer aux donnĂ©es des clients.

12 White, Jeremy. (22 dĂ©cembre 2023). « How Strangers Got My Email Address from Chat-GPT’s Model », New York Times. ConsultĂ© le 31 octobre 2024. « M. Zhu, avait rĂ©ussi Ă  extraire de GPT-3.5 Turbo Ă  l’automne de cette annĂ©e. Avec un peu de travail, l’Ă©quipe avait pu « contourner les restrictions du modèle relatives Ă  la rĂ©ponse aux demandes de renseignements concernant la protection de la vie privĂ©e »; voir aussi Xiangyu Qi et coll. (5 octobre 2023). « Fine-tuning Aligned Language Models Compromises Safety, Even When Users Do Not Intent To! », arXivLabs. ConsultĂ© le 31 octobre 2024. « Nous constatons que mĂŞme si les infrastructures existantes d’harmonisation de la sĂ©curitĂ© peuvent restreindre les comportements prĂ©judiciables des modèles de langage de grande taille au moment de l’infĂ©rence, elles ne couvrent pas les risques de sĂ©curitĂ© lorsque les privilèges relatifs Ă  la prĂ©cision sont Ă©tendus aux utilisateurs finaux […] Fait dĂ©concertant, notre recherche dĂ©montre aussi que, mĂŞme sans intention malveillante, une simple amĂ©lioration des modèles de langage de grande taille Ă  l’aide d’ensembles de donnĂ©es anodins et couramment utilisĂ©s peut Ă©galement nuire par inadvertance Ă  l’harmonisation de la sĂ©curitĂ© de ces modèles, mais dans une moindre mesure. Ces rĂ©sultats suggèrent que le perfectionnement des modèles de langage de grande taille harmonisĂ©s prĂ©sente de nouveaux risques pour la sĂ©curitĂ© que les infrastructures de sĂ©curitĂ© actuelles ne parviennent pas Ă  gĂ©rer — mĂŞme si l’harmonisation initiale des mesures de sĂ©curitĂ© d’un modèle est irrĂ©prochable, elle ne doit pas nĂ©cessairement ĂŞtre conservĂ©e après un perfectionnement personnalisĂ© ».

14 Floridi, Luciano. (2023). AI as Agency Without Intelligence: On ChatGPT, Large Language Models, and Other Generative Models.  Philosophy and Technology. ConsultĂ© le 31 octobre 2024.

15 Eastwood, Brian. (19 juillet 2023). « How to set technology strategy in the age of AI ». MIT Sloan School, en rĂ©fĂ©rence au travail de Zuckerman Sivan. ConsultĂ© le 31 octobre 2024.

Voir, par exemple : von Ungern-Sternberg, Antje. (29 juin 2021). Discriminatory AI and the Law – Legal Standards for Algorithmic Profiling. ConsultĂ© le 31 octobre 2024. Ébauche de chapitre, dans : Ébauche de chapitre de Silja, dans : Silja Vöneky, Philipp Kellmeyer, Oliver MĂĽller et Wolfram Burgard (dir.). (n.d.). Responsible AI, Cambridge. Voir aussi Van Bekkum, Marvin, and Zuiderveen Borgesius, Frederik. (n.d.). Using Sensitive Data to Prevent Discrimination by Artificial Intelligence: Does the GDPR Need a New Exception?. ConsultĂ© le 31 octobre 2024.

16 Van Bekkum, Marvin, and Zuiderveen Borgesius, Frederik. (n.d.). Using Sensitive Data to Prevent Discrimination by Artificial Intelligence: Does the GDPR Need a New Exception?. ConsultĂ© le 31 octobre 2024.

17 PrĂ©citĂ©, note 2.

18 Neeley, Tsedal. (9 mai 2023). 8 Questions About Using AI Responsibly, Answered. Harvard Business Review. ConsultĂ© le 31 octobre 2024.

19 PrĂ©citĂ©, note 2.

20 PrĂ©citĂ©, note 17.