Il existe une vaste gamme d’outils d’IA générative et certains d’entre eux sont beaucoup plus adaptés que d’autres quant à leur utilisation dans le cadre de l’exercice des fonctions juridiques. Les juristes et les membres des cabinets juridiques doivent faire preuve de diligence raisonnable lorsqu’ils prennent des décisions concernant l’acquisition ou l’utilisation de tels outils. Pour se préparer à effectuer une diligence raisonnable, les juristes devraient dresser une liste de questions et de facteurs à aborder, qu’il s’agisse de questions liées à la confidentialité, à la confidentialité et à la sécurité des données, à la transparence, aux préjugés que l’IA pourrait causer ou à n’importe lequel des sujets énumérés ci-dessus. L’entreprise avec laquelle vous souhaitez faire affaire se conforme-t-elle à certains principes en ce qui a trait à la livraison de son produit?
Lorsque vous évaluez l’utilisation des modèles de langage de grande taille dans votre pratique juridique, rappelez-vous que de nombreuses sources courantes de données ne sont ni vérifiées pour en assurer la véracité ni pour en assurer l’exactitude :
[TRADUCTION] Les modèles de langage de grande taille sont souvent élaborés à partir de données tirées d’Internet contenant des milliards de mots. Toutefois, les sources courantes d’où sont extraites ces données, comme Reddit et Wikipédia, ne disposent pas de mécanismes suffisants pour en vérifier l’exactitude, l’équité ou la pertinence. Il faut tenir compte des perspectives représentées sur ces sites et celles qui sont laissées de côté…
Si vous bâtissez plutôt un modèle de langage de grande taille grâce à des sources qui sont approuvées de façon plus rigoureuse, vous réduisez le risque d’obtenir des réponses inappropriées ou préjudiciables. Emily Bender et ses collègues recommandent d’organiser les ensembles de données utilisées dans le processus d’entraînement « au moyen d’un processus réfléchi qui consiste à décider ce qu’il faut inclure, plutôt que de viser uniquement l’échelle et d’essayer empiriquement d’éliminer […] des données “dangereuses”, “inintelligibles” ou “autrement mauvaises” ». Bien que cela puisse nécessiter davantage de temps et de ressources, cela authentifie l’adage selon lequel il vaut mieux prévenir que guérir.1
Il peut être utile d’envisager l’utilisation de produits d’IA personnalisés pour votre pratique, ce qui peut aider à atténuer les risques associés à l’utilisation de sources de données peu fiables ou inexactes.
En plus d’effectuer un examen attentif des modalités existantes liées à l’utilisation d’un outil d’IA générative donné, les juristes et les cabinets juridiques doivent s’assurer de scruter les relations qu’ils entretiennent avec des fournisseurs tiers d’IA, en établissant des dispositions contractuelles en matière d’approvisionnement qui garantissent le respect de leurs obligations juridiques et professionnelles et qui leur permettent d’effectuer un examen à intervalle régulier. Des dispositions contractuelles définissant des mesures claires et robustes en matière de confidentialité sont également essentielles à l’utilisation de ces outils dans la pratique juridique, car elles garantissent que la confidentialité est toujours maintenue.
Il est important d’être proactif, de prévoir les problèmes possibles avant qu’ils ne se produisent dans le but de régler les problèmes éventuels au lieu d’agir de façon réactive, et de chercher des solutions après qu’un problème est survenu et qui pourrait engager votre responsabilité ou avoir d’autres conséquences, comme l’imposition de mesures disciplinaires.
Il faut effectuer d’autres recherches sur les pratiques exemplaires en matière d’approvisionnement ainsi que sur les recommandations relatives à leur utilisation. Par exemple, au Royaume-Uni, le barreau a créé un document exhaustif sur l’IA générative2 et certaines sections contiennent des recommandations concernant, de façon précise, les considérations en matière d’approvisionnement, notamment :
- Si vous envisagez d’acquérir un outil d’IA, il est essentiel de préciser qui détiendra les droits de propriété intellectuelle sur les données d’entrée et de sortie.
- Il est important de passer en revue les conditions d’utilisation et la politique de confidentialité de chaque outil que vous utilisez pour en vérifier les droits d’utilisation, qui détient les droits de propriété sur les données de sortie et tout avis de non-responsabilité.
- Si vous faites affaire avec un fournisseur pour acquérir un produit d’IA générative personnalisé destiné à un usage interne, c’est-à-dire dans l’environnement juridique de votre cabinet ou si vous travaillez avec lui pour développer un tel produit, vous pourriez envisager si vous souhaitez d’intégrer des données confidentielles dans l’outil ainsi que la façon de le faire, sous réserve des conditions d’utilisation.
Certaines ressources sont adaptées aux considérations des juristes d’entreprise, mais de nombreuses considérations s’appliqueraient aux juristes travaillant au sein d’un cabinet juridique privé. 3
Principaux éléments à retenir : Lorsqu’ils examinent l’outil d’IA générative qu’ils souhaitent acheter ou utiliser, les juristes et les cabinets juridiques doivent tenir compte de facteurs comme l’exactitude et la fiabilité, la confidentialité et la sécurité des données, la personnalisation, la facilité d’utilisation, l’intégration aux systèmes existants et le service à la clientèle. Lorsqu’ils envisagent d’acquérir des outils d’IA de tiers, ils doivent examiner les modalités existantes, mais aussi l’opportunité des dispositions contractuelles qui assurent la conformité aux obligations juridiques et professionnelles.
Principaux éléments à retenir : Il faut envisager de bâtir un modèle de langage de grande taille au moyen de sources approuvées de façon rigoureuse et tenir compte des avantages qu’offre une approche personnalisée.
Principaux éléments à retenir : Il faut effectuer des recherches sur les considérations en matière d’approvisionnement afin de faciliter la réalisation de la diligence raisonnable requise relativement à l’utilisation de l’IA générative.
Notes de fin
1 Précité, note 2 et citation d’Emily Bender et coll. (n.d.). On the Dangers of Stochastic Parrots: Can Language Models be Too Big?. Consulté le 31 octobre 2024.
2 Law Society of England and Wales. (n.d.). Generative AI: The Essentials. Consulté le 31 octobre 2024.
3 Par exemple, consulter Burges Salmon LLP (n.d.). What should legal counsel consider when procuring, developing and deploying AI systems?. Consulté le 31 octobre 2024.