Lorsqu’ils utilisent l’IA générative, qui évolue rapidement, les juristes doivent être conscients non seulement des avantages qu’elle peut offrir, mais aussi des risques qui y sont associés et de la nécessité de continuer à respecter leurs obligations professionnelles. Un certain nombre de mises en garde énumérées ci-dessous suivent des sections particulièrement pertinentes du Code type1, et fournissent des conseils sur la façon de déterminer quels sont les risques liés à l’utilisation de l’IA et de les atténuer.
3.1 Être compétent : Règle 3.1
Les juristes doivent faire preuve de compétence dans la prestation de services juridiques. La plupart des ressorts canadiens incluent des commentaires précis dans leurs codes de déontologie respectifs quant à la nécessité pour les juristes de posséder les connaissances technologiques nécessaires.
Une partie du devoir de représentation compétente comme l’exige la règle 3.1 du Code type est le fait d’être pleinement conscient des risques liés à l’utilisation de technologies novatrices (y compris, mais sans s’y limiter, la désinformation)2. Cela comprend également la mise à jour et la revérification régulières des politiques et des pratiques relatives à l’utilisation de l’IA.
Lorsqu’ils utilisent consciemment l’IA, les professionnels du droit doivent être conscients des risques liés à l’utilisation d’une technologie donnée et atténuer adéquatement les risques qu’elle présente, y compris, sans s’y limiter, la mise en place de politiques et de procédures relatives à la mise à l’essai et à la vérification du contenu créé par l’IA générative pour en assurer l’exactitude, la pertinence et la fiabilité.
Le fait de ne pas utiliser l’IA de façon compétente met les clients en danger et peut entraîner l’imposition de sanctions par le tribunal ou même des sanctions disciplinaires imposées par l’organisme de réglementation. Par exemple, un juriste de la Colombie-Britannique (C.-B.) a été condamné à payer personnellement des dépens pour avoir invoqué devant la Cour suprême de la C.-B de la jurisprudence générée par l’IA qui n’existait pas. La Cour a formulé la mise en garde suivante : [traduction] « Il est essentiel de faire preuve de compétence dans la sélection et l’utilisation de tout outil technologique, notamment ceux alimentés par l’IA. L’intégrité du système de justice l’exige. »3 Par conséquent, le Barreau de la Colombie-Britannique a annoncé qu’il mènera une enquête sur la conduite du juriste. Il a mentionné qu’il avait publié des directives à l’intention des juristes sur l’utilisation appropriée de la technologie d’intelligence artificielle et qu’il s’attendait à ce que les juristes se conforment aux normes de conduite que tout juriste compétent devait respecter s’ils s’appuient sur l’IA pour fournir des services aux clients.
Comme nous l’avons mentionné et comme l’illustre cette affaire, les modèles de langage de grande taille peuvent présenter de la désinformation de façon assez confiante, semant même souvent le doute chez des juristes chevronnés, ou diminuant leur autorité4.
Principaux éléments à retenir : L’intelligence artificielle générative peut créer des renseignements inexacts, faux ou trompeurs.
Les juristes ont des obligations professionnelles — envers les clients et envers le tribunal — de vérifier et de valider tout renseignement créé par l’IA générative afin d’en garantir l’exactitude. Ils doivent connaître et respecter les lignes directrices élaborées par le barreau et les directives des tribunaux à ce sujet.
3.1.1 Comprendre les limites de l’IA plutôt que la technologie elle-même
Dans les ressorts qui ont adopté l’exigence précise selon laquelle les juristes doivent posséder les connaissances technologiques nécessaires, nous ne nous attendons pas à ce qu’ils soient des experts en technologie de l’information. Par exemple, comme le prévoit le Code type, aux commentaires 4A et 4B de la règle 3.15, le juriste doit développer les connaissances et les aptitudes nécessaires pour utiliser la technologie en fonction de son champ d’exercice et de ses responsabilités. Il doit être en mesure d’apprécier les avantages et les risques liés à la technologie pertinente. Le niveau de compétence technologique nécessaire sera fonction du fait que l’utilisation ou la connaissance de la technologie est nécessaire par rapport au champ d’exercice et aux responsabilités du juriste et du fait que la technologie pertinente lui est raisonnablement accessible6.
Il n’est pas possible pour les juristes de « connaître » la complexité inlassable du fonctionnement de l’IA générative. Ils devraient plutôt se concentrer sur la compréhension des risques liés à son utilisation. Ces risques, tout comme la technologie elle-même, évoluent constamment.
[TRADUCTION] « L’IA est insondable parce que, même pour les concepteurs d’IA, il est souvent impossible de comprendre comment un modèle atteint un résultat, ou même de cerner tous les points de données que l’IA utilise pour y arriver, qu’ils soient bons, mauvais ou autres. »7
Bien qu’il soit impossible de simplement « connaître » les technologies sophistiquées associées à l’IA générative, même par des personnes ayant reçu une formation sur le sujet, en raison de leur complexité inhérente et de leur manque inévitable de transparence, un juriste compétent doit connaître les risques que posent l’IA et ses limites en ce qui concerne l’exercice des fonctions juridiques essentielles.
La Fédération des Barreaux d’Europe souligne ce qui suit :
[TRADUCTION] [Bien que] nous reconnaissions les avantages importants qu’offre l’utilisation de l’IA générative dans le domaine juridique, nous mettons les juristes en garde contre l’application hâtive et inappropriée des outils d’IA générative aux tâches qui sont au cœur de la compétence juridique et de la relation avocat-client8.
Dans le contexte de l’élaboration de politiques et de pratiques relatives à l’utilisation de l’IA générative, une distinction utile peut être faite entre l’utilisation de l’IA dans les tâches routinières de la pratique du droit et son déploiement pour l’élaboration et l’analyse de stratégies. Par exemple, les lignes directrices fournies par la Fédération des Barreaux d’Europe favorisent une utilisation « complémentaire » de l’IA dans le cadre de la pratique du droit9.
Principaux éléments à retenir : Il est essentiel de connaître et de reconnaître les limites de l’IA, car cela influera sur les décisions d’utiliser certains types d’IA ainsi que sur la façon d’utiliser celle-ci d’une manière conforme aux obligations professionnelles. Un degré élevé de personnalisation de l’IA est nécessaire pour la pratique du droit.
3.2 Maintenir la confidentialité : Règle 3.3
L’obligation de confidentialité constitue une obligation déontologique fondamentale au titre de la règle 3.3 du Code type. Les juristes sont tenus de protéger les renseignements concernant les clients.
Lorsqu’un juriste choisit d’utiliser un outil d’IA générative pour créer du nouveau contenu, il existe un risque réel qu’il puisse saisir des renseignements confidentiels ou propres au cas dans un système commercial ou un outil de requêtes appartenant à un tiers, qu’il soit général ou « gratuit », qui s’appuie sur des données extraites d’Internet, qui mémorise les données et qui les réutilise, ce qui compromet la sécurité des renseignements concernant les clients et viole l’obligation de confidentialité.
Comme l’énoncent les lignes directrices fournies par la Fédération des Barreaux d’Europe :
[TRADUCTION] Les avocats doivent garder à l’esprit que la saisie de données personnelles dans les systèmes d’IA générative nécessite un fondement juridique et une évaluation appropriés, conformément aux dispositions relatives à la protection des données et au respect de la vie privée. N’oubliez pas que les outils d’IA générative traitent non seulement des données pour générer des réponses aux requêtes, mais qu’ils utilisent également des données fournies pour améliorer le système lui-même. Toutefois, ces risques peuvent être, en partie, atténués au moyen d’outils d’IA générative utilisés par l’entremise d’interfaces de programme d’application (API) ou grâce à une option spéciale de retrait, ce qui peut aider à séparer les données d’entrée de celles liées au développement du système. Pour assurer la confidentialité et la protection des données, il est essentiel de mettre en œuvre des mesures de sécurité rigoureuses englobant à la fois la technologie et les processus, et de se prémunir contre l’accès, l’utilisation ou la divulgation non autorisés de données personnelles10.
Les juristes et les cabinets juridiques doivent comprendre que le traitement ultérieur du contenu des requêtes (comme en témoignent les contrats de nombreuses entreprises conclus avec des fournisseurs de services d’IA) peut mener à la fuite, à la divulgation non autorisée ou à la réutilisation des données de clients et porter atteinte à la confidentialité des données d’entrée.11
De plus, comme cela a été récemment révélé, les paramètres de confidentialité de l’IA générative peuvent, en fait, être relativement faciles à contourner, révélant ainsi des renseignements qui étaient auparavant considérés comme inaccessibles à des tiers12.
En outre, la portée des renseignements utilisés par les modèles commerciaux d’IA générative est inconnue, et la légalité de son utilisation a été mise en doute13. Les questions de confidentialité associées à l’utilisation de modèles tiers présentent des risques importants dans le contexte de l’exercice des fonctions juridiques.
Principaux éléments à retenir : L’utilisation de l’IA générative dans le cadre de l’exercice de vos fonctions juridiques peut entraîner la divulgation inappropriée, négligente et contraire à l’éthique de renseignements confidentiels. Toutefois, il existe des moyens d’atténuer les risques, mais non de les éliminer. Pour améliorer la confidentialité et la protection des données, il est essentiel de mettre en œuvre des mesures de sécurité rigoureuses englobant à la fois la technologie et les processus, et de se prémunir contre l’accès, l’utilisation ou la divulgation non autorisés de données personnelles. Les juristes doivent, dans la mesure du possible, raisonnablement s’assurer qu’un système d’IA est sécuritaire avant de l’utiliser.
Principaux éléments à retenir : Les juristes et les cabinets juridiques doivent connaître les lois qui peuvent avoir une incidence sur la prestation de leurs services juridiques, conformément à leurs obligations professionnelles.
3.3 Encadrer et déléguer de façon appropriée : Règle 6.1
La règle 6.1-1 du Code type prévoit que les juristes assument toute la responsabilité professionnelle des affaires qui leur sont confiées et doivent encadrer directement le personnel et les adjoints à qui ils délèguent des tâches et des fonctions particulières.
L’IA devrait être utilisée comme un outil et non comme une excuse dans la prestation de services juridiques. Comme le déclare un auteur : [TRADUCTION] « Les modèles de langage de grande taille représentent un découplage entre l’agentivité et l’intelligence […] il ne faut pas s’appuyer sur eux pour en arriver à un raisonnement complexe ou pour obtenir des renseignements cruciaux, mais ils pourraient servir à mieux comprendre le contenu et le contexte d’un texte, plutôt qu’à remplacer l’apport humain. »14
Certains produits d’IA propres à la pratique du droit utilisent l’IA pour résoudre des problèmes juridiques (parfois appelés « technologie juridique » ou « technologie réglementaire »). Ils sont parfois commercialisés comme ayant « la réponse » pour régler un différend juridique. Ce type de produit, qui est tentant par sa facilité, devrait néanmoins soulever des doutes, car le droit concerne en grande partie le jugement, le contexte et la nuance, et l’exercice d’un jugement professionnel approprié fait partie des obligations qu’a un juriste envers ses clients.
La règle 6.1-3 du Code type énonce les obligations déontologiques lors de la délégation de tâches et l’alinéa b) énonce expressément qu’un juriste ne doit pas permettre à un « non-juriste » de donner des avis juridiques.
Les juristes devraient se prémunir contre une dépendance excessive à l’égard des outils d’IA générative, car ils pourraient compromettre, voire empêcher, l’exercice d’un jugement juridique indépendant. La pensée « rapide et lente » ou l’ambidextrie15, soit la capacité de travailler selon les « anciennes méthodes » dans des domaines qui exigent du jugement et une réflexion nuancée et d’intégrer de nouveaux outils pour les tâches routinières, constitue une approche utile.
Que les juristes demandent à un stagiaire d’effectuer des recherches juridiques, ou qu’ils utilisent un outil d’IA générative pour faciliter la recherche juridique ou le traitement d’une question juridique, ils doivent tout de même respecter leurs obligations professionnelles. Les juristes doivent faire preuve de compétence et fournir un encadrement approprié lorsqu’ils délèguent des tâches et des fonctions.
Même si les juristes n’utilisent pas encore l’IA générative eux-mêmes, ils doivent savoir si d’autres membres du personnel l’utilisent, élaborer des politiques claires et offrir une formation sur son utilisation ainsi qu’une surveillance adéquate.
La formation devrait être suivie à la fois par les juristes et par les membres du personnel qui ne sont pas des juristes, avec des directives sur la façon d’empêcher la divulgation involontaire de données confidentielles et sur la façon d’atténuer les risques liés à l’exactitude des nouveaux contenus créés.
Principaux éléments à retenir : Les cabinets juridiques devraient mettre en œuvre des politiques et une formation claires concernant l’utilisation de l’IA générative par les juristes et par les autres membres du personnel dans le cadre de la prestation de services juridiques. Les renseignements concernant les politiques devraient être diffusés, examinés à intervalle régulier, vérifiés et complétés par une formation donnée sur une base régulière et portant sur l’utilisation appropriée de l’IA générative. Compte tenu de l’évolution constante de la technologie d’IA générative, les politiques, les pratiques et la formation des cabinets juridiques devraient être révisées et mises à jour régulièrement.
3.4 Communiquer avec les clients — Règles 3.2-1 et 3.2-2
La règle 3.2-1 du Code type énonce que la qualité du service attendue d’un juriste est un service satisfaisant, fait en temps opportun, consciencieux, appliqué, efficace et respectueux. De nombreux exemples de pratiques attendues sont donnés, notamment tenir le client raisonnablement informé, exécuter le travail nécessaire sans délai pour ainsi maintenir la satisfaction du client et fournir un travail de qualité. De plus, conformément à la règle 3.2-2 du Code type, lorsqu’un juriste prodigue des conseils à un client, il doit être honnête et franc et doit lui donner tous les renseignements qu’il possède et qui pourraient avoir une incidence sur ses intérêts dans le dossier juridique.
Les juristes peuvent utiliser des outils d’IA générative pour exécuter certaines tâches juridiques dont les clients peuvent généralement s’attendre à ce que les juristes les accomplissent. Ils devraient également envisager d’informer les clients s’ils ont l’intention d’utiliser l’IA générative, et de leur fournir des explications sur la façon dont la technologie sera utilisée (p. ex. la recherche, l’analyse, l’examen de documents, les fonctions de communication préalable, la préparation du procès). Une communication efficace peut nécessiter qu’un juriste informe explicitement un client de la façon dont l’IA générative est utilisée dans son dossier, ou comment elle le sera, et qu’il obtienne son consentement. La communication doit comprendre des renseignements sur les avantages et les risques liés à une telle utilisation, notamment les risques associés aux violations possibles de l’obligation de confidentialité et à la perte du secret professionnel de l’avocat.
Principaux éléments à retenir : Il faut établir si les clients sont au courant que le juriste utilise l’IA et de la façon dont elle est utilisée, et s’ils ont donné un véritable consentement. Même s’ils ont consenti à son utilisation, les répercussions (possibilité de perte de contrôle sur les renseignements qui sont saisis dans l’outil d’IA générative) sont-elles telles que l’utilisation peut causer des préjudices?
Principaux éléments à retenir : L’obtention du consentement du client pour l’utilisation de l’IA générative n’est pas une panacée aux risques liés à son utilisation. De nombreux instruments et politiques juridiques reconnaissent maintenant que les systèmes d’IA ne peuvent pas être suffisamment compris pour permettre au client de donner un véritable consentement relativement à leur utilisation et que leur utilisation peut causer des préjudices, et que des obligations professionnelles peuvent être violées, même si le consentement a été obtenu.
3.5 Agir de façon courtoise et respectueuse à l’endroit des tribunaux : Règle 5.1
Conformément à la règle 5.1-1, lorsqu’ils agissent à titre d’avocat, les juristes doivent être sincères, justes, courtois et respectueux à l’endroit du tribunal. Il faut agir de façon respectueuse à l’endroit des tribunaux administratifs et judiciaires, c’est-à-dire s’informer des directives, des processus et des pratiques créés par les tribunaux en cause, et s’y conformer.
De nombreux organismes de réglementation et tribunaux ont publié des directives sur l’utilisation responsable de l’IA dans le cadre de l’exercice des fonctions juridiques. En tant que membres de barreaux de ressorts particuliers et officiers de justice, il est impératif que les juristes consultent ces règles et s’y conforment de façon rigoureuse (règles auxquelles ils sont soumis, selon le ressort et le domaine de pratique), et ils ne doivent pas substituer leur propre jugement à celui des tribunaux devant lesquels ils comparaissent.
Le fait d’agir de façon courtoise et respectueuse à l’endroit du tribunal exige également que les juristes veillent à ne pas fournir au tribunal des documents qui sont inexacts, inexistants ou trompeurs. Il est impératif que les juristes examinent tous les documents qui sont présentés au tribunal pour s’assurer de l’exactitude du contenu.
Principaux éléments à retenir : En tant qu’officiers de justice, les juristes sont tenus de se conformer aux avis et directives pertinents du tribunal, y compris ceux qui ont trait à l’utilisation de l’IA et de l’IA générative dans le cadre des procédures tenues devant un tribunal donné.
Principaux éléments à retenir : Les juristes doivent s’assurer de ne pas fournir aux tribunaux des renseignements erronés ou inexacts lorsqu’ils déposent des documents écrits auprès du tribunal, ou lorsqu’ils présentent des observations sur une question juridique.
3.6 Demander des honoraires et des débours appropriés : Règle 3.6
La règle 3.6 du Code type énonce que les honoraires et les débours doivent être justes et raisonnables et être divulgués en temps opportun. Les juristes doivent être conscients des progrès technologiques qui peuvent les aider à fournir des services juridiques d’une manière qui serait avantageuse pour leurs clients, par exemple en améliorant l’efficacité de la prestation des services et en réduisant les coûts. En particulier en période d’évolution rapide des modèles et méthodes de prestation des services aux clients, les juristes et les cabinets juridiques devraient revoir périodiquement et de façon approfondie leurs pratiques de facturation afin de veiller au respect continu de leurs obligations déontologiques relatives aux honoraires et aux débours.
Les juristes devraient informer les clients des fins pour lesquelles ils utiliseront l’IA générative dans le cadre de la prestation de services juridiques, et ils devraient leur expliquer comment cette utilisation peut influer sur le traitement des questions juridiques, notamment en réalisant des gains d’efficience et en réduisant le temps consacré à certaines tâches juridiques. Si l’utilisation de l’IA générative réduit le temps qu’un juriste consacre à un dossier ou réduit les coûts y afférents, ces économies devraient se refléter avec exactitude dans toute facturation au client.
Principaux éléments à retenir : Une communication efficace avec les clients est primordiale et peut, dans certaines circonstances, comprendre la communication de renseignements sur les pratiques d’IA et la consultation des clients sur le sujet, y compris la façon dont l’utilisation d’outils d’IA générative dans la prestation de services juridiques peut améliorer l’efficacité et avoir une incidence sur les coûts.
3.7 Se prémunir contre la discrimination, le harcèlement et les préjugés : Règle 6.3
Il est interdit aux juristes de faire preuve de discrimination envers des collègues, des employés, des clients ou toute autre personne, ou de les harceler. Le Code type, dans le commentaire 1 rattaché à la règle 6.3, énonce que :
- les juristes sont bien placés pour faire avancer l’administration de la justice, laquelle exige d’eux un attachement profond à une justice égale pour tous dans le cadre d’un système ouvert et impartial;
- les juristes sont censés respecter la dignité et la valeur de toutes les personnes et traiter toutes les personnes équitablement et sans discrimination;
- il incombe de façon particulière au juriste d’observer et de faire respecter les principes et les prescriptions des lois qui sont en vigueur au Canada, dans les provinces et dans les territoires relativement aux droits de la personne ainsi qu’à la santé et à la sécurité au travail et, plus spécialement, de respecter les obligations énoncées.
Les juristes et les cabinets juridiques doivent être conscients que l’IA générative peut être perfectionnée au moyen de renseignements biaisés ou discriminatoires et qu’elle peut systématiquement rendre immuables les préjugés d’une manière qui est difficile (voire impossible) pour l’utilisateur de percevoir, perpétuant ainsi des pratiques et des résultats discriminatoires16.
[TRADUCTION] « Les données d’entrée discriminatoires constituent l’une des principales sources de discrimination par les systèmes d’IA. À titre d’exemple, supposons que le personnel des ressources humaines (RH) d’une organisation a, par le passé, fait preuve de discrimination à l’égard des femmes. Supposons que l’organisation ne se rend pas compte que son personnel des RH a fait preuve de discrimination par le passé. Si l’organisation utilise les décisions historiques prises par des êtres humains pour perfectionner son système d’IA, celui-ci pourrait reproduire cette discrimination. Un système de recrutement mis au point par Amazon aurait causé un tel problème. Amazon a abandonné le projet avant que le système ne soit utilisé dans la prise de décisions de recrutement réelles. Les systèmes d’IA peuvent prendre des décisions discriminatoires au sujet des candidats à un emploi, ce qui cause un préjudice à certaines ethnies, par exemple, même si le système n’a pas directement accès aux données sur l’origine ethnique des personnes. Imaginez un système d’IA qui tient compte des codes postaux des lieux de résidence des candidats. Les codes postaux pourraient faire une corrélation avec l’origine ethnique d’une personne. Par conséquent, le système pourrait rejeter la candidature de toutes les personnes d’une certaine origine ethnique, même si l’organisation s’est assurée que le système ne tienne pas compte de l’origine ethnique des personnes. »17
Compte tenu de ces risques, les juristes doivent faire preuve de prudence lorsqu’ils prennent des décisions concernant l’utilisation de l’IA générative. Comme le déclare un auteur :
[TRADUCTION] À l’heure actuelle, il n’est pas possible d’observer les rouages internes d’un outil d’IA et de garantir que le système produit des données de sortie exactes ou justes. Il faut reconnaître qu’une certaine opacité est le prix à payer pour utiliser ces puissants systèmes. Par conséquent, les dirigeants doivent faire preuve de prudence et de discernement lorsqu’ils déterminent la façon et le moment approprié pour utiliser l’IA, et ils doivent documenter la façon dont l’IA est utilisée et le moment où elle l’est. De cette façon, les gens sauront qu’une décision fondée sur l’IA a été évaluée avec un degré approprié de scepticisme, y compris ses risques ou lacunes éventuels.18
Les juristes doivent en apprendre davantage sur la possibilité que l’IA puisse entraîner des préjugés, et leurs répercussions sur la pratique du droit. Ils devraient également envisager de mettre en place des systèmes pouvant aider à cerner et à éliminer les préjugés et les résultats discriminatoires (p. ex., effectuer des vérifications). Prendre de telles mesures pourrait atténuer — mais n’éliminera pas — ces types de risques.
Les milieux de travail juridiques devraient établir des politiques et des mécanismes pour cerner, signaler et contrer les préjugés possibles causés par l’IA. Comme l’énonce un article portant sur l’utilisation responsable de l’IA : [TRADUCTION] « L’IA ne sera digne de confiance qu’une fois qu’elle fonctionnera équitablement, et cela ne se produira que si nous accordons la priorité à la diversification des équipes responsables des données et du développement, et si nous documentons de façon claire la façon dont l’IA a été conçue en ce qui concerne l’équité. » 19
La prévision responsable des risques et la protection contre ceux-ci comprennent l’élaboration d’outils de gestion des ressources humaines dans le but de veiller à ce que l’organisation soit sensibilisée aux politiques et aux procédures internes en matière d’IA, et qu’elle s’y conforme. Comme il a été mentionné plus haut, ces politiques et procédures doivent être révisées, mises à l’essai et mises à jour régulièrement.
Il est nécessaire, dans des contextes sensibles, d’effectuer un examen approfondi des résultats de l’IA fondé sur les droits de la personne, comme lorsque les motifs de discrimination peuvent constituer un facteur utilisé dans la prise de décisions.
Principaux éléments à retenir : Les juristes doivent assurer une veille importante lorsqu’ils utilisent l’IA générative, et ils doivent analyser de façon critique les résultats obtenus en vue de déceler une preuve selon laquelle un préjugé a été causé. Ils ne doivent pas se fier de façon indépendante au contenu créé par l’IA générative étant donné le risque important que le contenu puisse être affecté par des préjugés inhérents à l’outil en question.
3.8 Respecter la loi — Règles 2.1 et 3.2-7
Les juristes doivent agir avec intégrité et respecter les lois applicables lorsqu’ils fournissent des services juridiques. Lorsqu’il agit pour un client, il est interdit à un juriste de faire des choses dont il devrait savoir qu’elles facilitent ou favorisent la malhonnêteté, la fraude, le crime ou une conduite illégale. Ces obligations s’appliquent à tous les aspects de l’exercice de la profession juridique, y compris l’utilisation d’outils d’IA générative par le juriste.
Il existe de nombreuses questions juridiques pertinentes pour l’IA générative et qui s’appliquent à celle-ci, notamment la conformité aux lois propres à l’IA, aux lois en matière de protection de la vie privée, aux lois sur le transfert transfrontalier de données, aux lois sur la propriété intellectuelle, ainsi que les préoccupations en matière de cybersécurité.
Ces lois et d’autres règles sont susceptibles d’être modifiées au fur et à mesure que le domaine de l’IA générative évolue. Les juristes doivent se tenir au courant des lois applicables qui régissent l’utilisation de l’IA générative pour s’assurer qu’ils les respectent lorsqu’ils utilisent des outils d’IA générative dans le cadre de l’exercice de leurs fonctions juridiques et qu’ils prodiguent des conseils adéquats à leurs clients, en tant que juristes compétents, au sujet des lois et des règlements applicables.
En plus de s’attaquer aux problèmes de sécurité et de gouvernance des données de plus en plus complexes, les juristes doivent sensibiliser les personnes à l’effet possiblement néfaste que peuvent avoir les « hypertrucages » qui s’immiscent dans les éléments de preuve et la désinformation dans le système de justice20, aux considérations relatives à l’accès à la justice, ainsi qu’à la confiance et à l’aliénation lorsqu’ils utilisent l’IA générative.
Principaux éléments à retenir : Il existe de nombreuses questions juridiques pertinentes à l’IA générative et qui s’y appliquent, notamment le respect de diverses lois. Les juristes doivent se renseigner et se tenir à jour en ce qui concerne les lois afin de veiller au respect de celles-ci lorsqu’ils utilisent eux-mêmes des outils d’IA générative, et de s’assurer qu’ils prodiguent des conseils satisfaisants aux clients au sujet des lois et règlements qui s’appliquent à leur dossier.
Notes de fin
1 Précité, note 3.
2 Voir, par exemple, LinkedIn Pulse. (n.d.). The liar’s dividend: how are deep fakes impacting the justice system?. Consulté le 31 octobre 2024.
Commentaire sur le webinaire de l’ABA (janvier 2024). The Impacts of Deep Fakes on the Justice System auquel a participé la professeure Maura Grossman, à titre de conférencière.
Voir aussi Austin, Doug. (12 octobre 2023). Rules Change to Address AI Evidence Proposed by Grossman and Grimm: Artificial Intelligence Trends. eDiscovery Today (blogue).Consulté le 31 octobre 2024.
3 Zhang v. Chen. (2024). BCSC 285. CanLII. Consulté le 31 octobre 2024. Voir aussi la décision maintenant tristement célèbre Mata v. Avianca. (n.d.). Consulté le 31 octobre 2024.
4 Voir Karen Eltis. (n.d.). « Judicial Independence and the Corporate ‘Custodians’ of Digital Tools: A Call to Scrutinize Reliance on Private Platforms as ‘Essential Infrastructure’ ». Dans Céline Castets-Renard, Jessica Eynard (dir.). (n.d.). Un droit de l’intelligence artificielle : entre règles sectorielles et régime général. Perspectives comparées (Bruylant Parution). Consulté le 31 octobre 2024.
5 Précité, note 3.
6Neeley, Tsedal. 9 mai 2023). « 8 Questions About Using AI Responsibly, Answered », Harvard Business Review. Consulté le 31 octobre 2024.
7 Neeley, Tsedal. (9 mai 2023). « 8 Questions About Using AI Responsibly, Answered », Harvard Business Review. Consulté le 31 octobre 2024.
8 Fédération des Barreaux d’Europe. (juin 2023). Les avocats européens à l’ère de ChatGPT : Lignes directrices sur la manière dont les avocats devraient tirer parti des opportunités offertes par les grands modèles linguistiques et l’IA générative (à la page 13 :). Consulté le 31 octobre 2024.
9 Ibid., à la p. 9.
10 Ibid., à la p. 11.
11 Selon les circonstances, le juriste renonce à son contrôle sur l’utilisation finale des données saisies ou des demandes de renseignements formulées, ainsi que sur la conservation des données d’entrée. L’IA générative est un outil d’« auto-apprentissage » évolutif, ce qui signifie que les renseignements concernant un client, une fois révélés dans une demande de renseignements ou une requête, peuvent être stockés et réutilisés en réponse aux requêtes subséquentes faites par d’autres juristes. Cela pourrait constituer une divulgation involontaire, violant de fait la règle 3.3 du Code type et possiblement divers autres instruments normatifs, y compris, mais sans s’y limiter, le Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), JO UE L 119/1 (5 avril 2016) (« RGPD »), qui peut s’appliquer aux données des clients.
12 White, Jeremy. (22 décembre 2023). « How Strangers Got My Email Address from Chat-GPT’s Model », New York Times. Consulté le 31 octobre 2024. « M. Zhu, avait réussi à extraire de GPT-3.5 Turbo à l’automne de cette année. Avec un peu de travail, l’équipe avait pu « contourner les restrictions du modèle relatives à la réponse aux demandes de renseignements concernant la protection de la vie privée »; voir aussi Xiangyu Qi et coll. (5 octobre 2023). « Fine-tuning Aligned Language Models Compromises Safety, Even When Users Do Not Intent To! », arXivLabs. Consulté le 31 octobre 2024. « Nous constatons que même si les infrastructures existantes d’harmonisation de la sécurité peuvent restreindre les comportements préjudiciables des modèles de langage de grande taille au moment de l’inférence, elles ne couvrent pas les risques de sécurité lorsque les privilèges relatifs à la précision sont étendus aux utilisateurs finaux […] Fait déconcertant, notre recherche démontre aussi que, même sans intention malveillante, une simple amélioration des modèles de langage de grande taille à l’aide d’ensembles de données anodins et couramment utilisés peut également nuire par inadvertance à l’harmonisation de la sécurité de ces modèles, mais dans une moindre mesure. Ces résultats suggèrent que le perfectionnement des modèles de langage de grande taille harmonisés présente de nouveaux risques pour la sécurité que les infrastructures de sécurité actuelles ne parviennent pas à gérer — même si l’harmonisation initiale des mesures de sécurité d’un modèle est irréprochable, elle ne doit pas nécessairement être conservée après un perfectionnement personnalisé ».
13 University of Toronto. (n.d.). Generative AI Tools and Copyright Considerations. Consulté le 31 octobre 2024.
14 Floridi, Luciano. (2023). AI as Agency Without Intelligence: On ChatGPT, Large Language Models, and Other Generative Models. Philosophy and Technology. Consulté le 31 octobre 2024.
15 Eastwood, Brian. (19 juillet 2023). « How to set technology strategy in the age of AI ». MIT Sloan School, en référence au travail de Zuckerman Sivan. Consulté le 31 octobre 2024.
Voir, par exemple : von Ungern-Sternberg, Antje. (29 juin 2021). Discriminatory AI and the Law – Legal Standards for Algorithmic Profiling. Consulté le 31 octobre 2024. Ébauche de chapitre, dans : Ébauche de chapitre de Silja, dans : Silja Vöneky, Philipp Kellmeyer, Oliver Müller et Wolfram Burgard (dir.). (n.d.). Responsible AI, Cambridge. Voir aussi Van Bekkum, Marvin, and Zuiderveen Borgesius, Frederik. (n.d.). Using Sensitive Data to Prevent Discrimination by Artificial Intelligence: Does the GDPR Need a New Exception?. Consulté le 31 octobre 2024.
16 Van Bekkum, Marvin, and Zuiderveen Borgesius, Frederik. (n.d.). Using Sensitive Data to Prevent Discrimination by Artificial Intelligence: Does the GDPR Need a New Exception?. Consulté le 31 octobre 2024.
17 Précité, note 2.
18 Neeley, Tsedal. (9 mai 2023). 8 Questions About Using AI Responsibly, Answered. Harvard Business Review. Consulté le 31 octobre 2024.
19 Précité, note 2.
20 Précité, note 17.