Épisode 19: Comment la loi peut contrer les risques de l’intelligence artificielle
Animateur : Vous écoutez Droit moderne présenté par l’ABC National. Bienvenue à Droit moderne. Au cours de cette émission, nous allons parler des derniers avancements de l’intelligence artificielle. Notamment, le générateur de texte ChatGPT récemment livré au monde par la société OpenAI. Nous parlerons aussi des enjeux éthiques et juridiques quant à l’élaboration de lois et de la réglementation qui régirait l’IA. Notre invité aujourd’hui est Céline Castets-Renard, chercheure régulière au Centre de recherche en droit, technologie et société de l’Université d’Ottawa et professeure titulaire à la section de droit civil de la Faculté de droit. Elle est la Chaire de recherche de l’université sur l’intelligence artificielle, responsable à l’échelle mondiale. Bienvenue à l’émission Céline Castets-Renard.
Invitée : Merci de me recevoir.
Animateur : Commençons donc à parler de l’intelligence artificielle et le droit. Mais avant de le faire, j’aimerais que vous nous expliquiez un petit peu votre parcours, ce qui vous a amené à l’Université d’Ottawa et ce qui vous a mené à vous intéresser au sujet de l’intelligence artificielle.
Invitée : Merci beaucoup, ça me fait plaisir de répondre à vos questions et de participer au balado. Je suis professeur actuellement, professeur titulaire a la Faculté de droit civil de l’Université d’Ottawa depuis 2019. Auparavant, de 2002 à 2019 j’étais professeur à la Faculté de droit de Toulouse en France. Je suis récemment arrivé au Canada, c’est quand même déjà ma 4e année, et j’ai passé aussi deux ans comme visiting scolar à la Fordham Law School à New York et aussi au Yale Internet Society Project à la Faculté de droit de Yale. Je m’intéresse au sujet de l’intelligence artificielle depuis plusieurs années déjà, puisqu’en réalité je travaille sur les droits et les technologies depuis toujours, depuis la fin de mes études de droit.
Animateur : Qu’est-ce qui vous a interpellé dans cette direction-là ? Ce sont les technologies ou les questions éthiques que ça soulève ?
Invitée : C’est une excellente question. Au départ c’était plutôt des questions de droit, le fait que l’on ait de nouvelles interrogations, le fait de devoir adapter le droit à des changements provoqués par les technologies. Petit à petit, cela a plutôt été les enjeux socioéthiques et les changements de la société. Même si les deux sont liés, les changements du droit et les changements de la société évidemment le droit répond aux évolutions sociétales. L’idée de départ était vraiment de m’intéresser à une branche du droit évolutive, par rapport à d’autres domaines, qui serait un petit peu plus stable et qui présenterait peut-être moins de questions nouvelles ou en tout cas, moins souvent.
Animateur : Par moment, on a l’impression c’est comme si l’intelligence artificielle progressait à un rythme que l’être humain où l’esprit humain a vraiment du mal à saisir. Par moment il y a une accalmie, et il n’y a rien qui se passe, puis tout à coup quelque chose d’autre arrive qui semble complètement changer la donne. Dernièrement on a eu l’arrivée de cette dernière technologie comme ChatGPT et d’AI également. Qu’est-ce que ça vous dit l’état de l’avancement de ces technologies de l’intelligence artificielle ? Quelle est votre réaction vis-à-vis tout ça ?
Invitée : D’abord, ce n’est pas parce qu’on n’entend pas parler tous les jours d’intelligence artificielle que ça ne progresse pas. Il y a une distinction à faire entre la conscience et la connaissance du public des avancées, et des avancées qui continuent d’avoir lieu soit en recherche soit au sein des entreprises qui développent des systèmes IA. C’est vrai que de temps en temps, on a quelques systèmes particulièrement célèbres pour des bonnes ou des mauvaises raisons. Il y a quelque temps c’était [AI 00:03:44], maintenant c’est ChatGPT. Mais de toute façon, la progression du déploiement des systèmes est quand même constante, et on peut dire aujourd’hui qu’il y a beaucoup de systèmes automatisés, voire des systèmes automatisés intégrant de l’IA, dans beaucoup de domaines, dans beaucoup de pans de la société, que ce soit l’administration, la santé, etc.
Donc, ça, c’est une première chose, ce n’est pas parce qu’il n’y a pas un événement médiatique que ça n’avance pas. La deuxième chose concernant ChatGPT, peut-être que c’est un peu différent de ce qui s’est passé jusqu’à présent, ChatGPT est un modèle un peu général, un modèle du « fondationnel », Fondational Model. Il permet d’atteindre plusieurs finalités et pas seulement de faire du langage, pas forcément du [00:04:36] NLP, Natural Language Processing. C’est aussi un système qui est capable de faire des arts graphiques, qui est capable de faire du code. La rupture est peut-être là avec ce dispositif-là, c’est que l’on n’a pas une seule finalité avec ce type de technologie. C’est plutôt quelque chose de général, c’est pour ça que l’on parle d’IA générale.
Animateur : Alors vous considérez que ça appartient bien à la catégorie d’IA générale ou c’est que l’on se dirige vers ça ?
Invitée : Oui, alors dans la technologie IA générale, justement pour signifier que le système d’IA n’est pas destiné à atteindre une seule finalité comme la plupart des systèmes, par exemple, [AI 00:05:17] c’est un dispositif de reconnaissance faciale qui ne fait pas autre chose. Quand on considère aujourd’hui la réglementation, je pense qu’on va rentrer dans les détails un peu plus loin, ce que l’on peut constater déjà, c’est que souvent on va raisonner par type de finalité, vouloir encadrer des finalités, et se dire que selon telle ou telle finalité, il y a des risques spécifiques. Avec des systèmes généraux qui ont plusieurs finalités et qui utilisent plusieurs technologies combinées, finalement, l’approche par finalité n’est pas suffisante.
Ce que je voudrais aussi préciser, c’est que quand j’évoque la notion d’IA générale, ce n’est pas une IA forte. Parfois on dit que c’est une IA forte ou IA faible, c’est une distinction que faisaient les scientifiques de l’IA auparavant, mais qu’on a un peu tendance à abandonner. L’IA faible, c’était pour dire qu’on atteignait une seule tâche, l’IA forte, que l’on tend vers une intelligence de type intelligence humaine, comme le cerveau humain, qui est capable de traiter beaucoup d’informations, de faire beaucoup d’actions, de prendre beaucoup de décisions de natures différentes en temps réel. On n’en est pas là non plus encore, on n’a pas encore atteint cette IA forte. Cette idée d’avoir plusieurs finalités, d’atteindre plusieurs finalités et d’être capable de faire plusieurs choses, on est un petit peu à mi-chemin avec cette IA générale. Elle tend vers une IA forte que l’on n’a pas encore atteinte et qu’on n’atteindra peut-être jamais. C’est difficile à dire.
Animateur : Parce que l’IA forte, ce serait, en quelque sorte, une vraie intelligence artificielle qui serait capable de raisonner à partir de grands principes, de généraliser en profondeur, n’est-ce pas, c’est ça ?
Invitée : C’est ça, et qui serait capable d’avoir plusieurs types d’actions, qui seraient vraiment proches de l’être humain, du cerveau humain. Donc qui serait capable d’écrire, de dessiner, de prendre des décisions, d’être polyvalent comme l’être humain est capable de l’être.
Animateur : Que pensez-vous de la voix que nous suivons en ce moment pour développer cette intelligence artificielle qui n’est pas encore forte ? Est-ce que nous sommes lancés sur la meilleure voie que nous connaissons pour bâtir celle-là, ou est-ce qu’on devrait imaginer quelque chose de mieux ?
Invitée : Sur le plan de la technique ou sur le plan du droit ?
Animateur : Est-ce qu’on peut séparer les deux ?
Invitée : Pour l’instant, c’est assez séparé. C’est-à-dire que pour l’instant la technologie avance et ça avance en recherche et si la loi n’encadre pas, ou n’encadre pas spécifiquement, on pourrait penser qu’il y a un vide juridique, même s’il n’y a jamais un vide juridique complet. Les lois que l’on connaît continuent de s’appliquer comme les lois de protection des renseignements personnels, par exemple. Il faut bien sûr beaucoup de données pour entraîner l’IA. Mais si l’on considère qu’il n’y a pas de loi spécifique pour encadrer l’IA, ça veut dire que la technologie va avancer, les recherches vont avancer dans la recherche publique, dans les laboratoires ou la recherche d’entreprises privées. S’il n’y a pas de cadre, s’il n’y a pas de limites ça va être pour le meilleur et pour le pire. Donc, je pense que les deux sont distincts actuellement, c’est peut-être problématique. Pour ma part, je considère que c’est problématique parce qu’on évoque beaucoup l’éthique de l’IA, l’IA pour le bien, l’IA pour l’humanité, l’IA responsable, le bien commun, etc.
Mais ce sont des mots un peu creux très clairement. Ils ne s’accompagnent pas de mesures claires, d’obligations, d’une réglementation qui dirait exactement ce qu’il faudrait faire pour éviter certains risques. On sait qu’il y a des enjeux sociaux extrêmement importants dans l’utilisation de l’IA. On a vu des risques de biais, d’erreurs, de discrimination, d’exclusion, d’invisibilisation. Donc, ce sont vraiment des enjeux majeurs pour une société, un enjeu démocratique même, donc à mon sens il faudrait une réglementation spécifique à l’IA.
Animateur : Moi-même, j’ai passé plusieurs heures à jouer avec ChatGPT et Daddy aussi pour la création graphique. Je dois dire que cela m’a frappé un petit peu à quel point toutes ces avancées auront des répercussions assez considérables sur notre façon de travailler, sur notre productivité sûrement, peut-être même le coût de production des œuvres. Qui en bénéficiera ? La qualité de ces œuvres ? Je dis ça, mais bref, ça va avoir un impact énorme sur notre économie en général, il me semble. Vous avez réfléchi à ça plus en profondeur que moi certainement. Quels sont les grands risques que vous identifiez ?
Invitée : C’est vraiment la question qu’il faut se poser, en effet. Parce que, je ne veux pas passer pour celle qui veut tout interdire et qui serait technophobe, ce n’est pas du tout ça. IA a quand même beaucoup de bénéfices, on le voit dans le domaine de la santé pour les diagnostics, par exemple, l’analyse d’images d’un cancer des poumons, les résultats sont vraiment remarquables. L’idée n’est pas de se passer de l’IA ou de crier au loup et de jeter le bébé avec l’eau du bain. Il faut au contraire bien observer et regarder ce qui se passe dans chaque domaine pour chaque type de système. Parce que quand on parle d’IA, quand on dit IA on dit tout et on ne dit rien. Il y a plusieurs technologies d’IA, beaucoup de secteurs d’activités, beaucoup d’applications possibles. Ce qui frappe plus récemment, c’est que beaucoup d’applications concernent directement les humains et l’organisation sociale en général. C’est en cela qu’il faut être particulièrement vigilant et c’est en cela qu’il va falloir regarder en détail ce qui est bénéfique et ce qui ne l’est pas, quels sont les risques et comment les minimiser, comment les limiter sans pour autant se passer de l’IA. Sauf peut-être, dans les moments où on estimerait qu’il faut l’interdire parce que ça porterait trop atteinte à nos valeurs, à nos droits et à nos libertés.
Donc, ça, c’est vraiment quelque chose d’important pour moi, et c’est toute la nuance qu’il faut avoir dans ce domaine de recherche et c’est ce que j’essaie de faire. En particulier ChatGPT, je considère que c’est un outil et en effet ça change beaucoup notre façon de travailler. Ça va changer le marché du travail, il y a déjà des articles qui paraissent sur la pratique du droit et de l’utilisation de ChatGPT. Évidemment, le monde de l’éducation est en émoi en disant qu’on ne peut plus faire de travaux de recherche de la même façon. J’ai décidé de l’intégrer dans mes cours et de demander aux étudiants de l’utiliser pour faire leur travail de recherche final, en essayant…
Animateur : J’allais justement vous poser la question, comment avez-vous adressé cela avec vos élèves, vous qui êtes prof ?
Invitée : Justement, je leur ai demandé de l’utiliser, je leur ai demandé de faire un travail de recherche finale sur une question spécifique. Là, il s’agit de mon cours sur la protection des renseignements personnels, je leur ai demandé de l’utiliser, on va définir un thème de recherche ensemble comme d’habitude. Je leur ai demandé de l’utiliser et de documenter leur utilisation, de faire des captures d’écran. Parce que finalement, cet outil nous donne des réponses pertinentes que si on l’interroge bien, c’est les questions qu’on pose qui sont les bonnes. Les questions de recherche, l’interaction qu’on peut avoir avec l’outil pour le pousser plus loin dans ses connaissances, cette interaction et ces questions viennent avant tout de l’humain. En outre, une fois que ChatGPT a répondu, on est quand même obligé de vérifier parce qu’on ne peut pas se fier pour faire un travail de recherche sérieux. On ne peut pas se fier seulement à ce qu’il dit, même s’il est vraiment loin d’être idiot. Il a absorbé beaucoup d’ouvrages et j’ai fait des tests sur les doctrines juridiques, il est capable de faire des résumés, il est capable d’apporter des contres arguments, il est capable de citer des auteurs. Tout ça, bien sûr, il faut aller vérifier, c’est ce que je demande aux étudiants.
C’est comme ça à mon avis que l’on doit y arriver. On doit davantage former nos étudiants à l’utilisation de ces outils et à avoir un regard critique sur ce qu’ils peuvent faire ou ne pas faire. Ils doivent se méfier des risques de désinformation et de manipulation d’opinion, plutôt que d’interdire leur utilisation.
Animateur : Croyez-vous que vous allez vous en servir ?
Invitée : Dans la production de ma recherche ?
Animateur : Oui.
Invitée : Oui, c’est tout à fait possible. Pour faire un article de recherche sur ChatGPT, parce qu’ils commencent à y en avoir déjà bien sûr. Notamment, si cette expérience avec mes étudiants produit des réponses intéressantes, je vais certainement m’en servir et écrire sur ChatGPT à proprement parler. En l’utilisant sous une forme un peu expérimentale, en suivant une méthodologie empirique et en expliquant la démarche que j’aurai suivie. C’est ce que je demande à mes étudiants de faire d’ailleurs. Il est possible aussi, peut-être pas dans l’immédiat, mais plus tard, peu importe, il est possible que je l’utilise effectivement dans ma méthodologie de recherche. Et il faudrait que je l’indique en introduction pour que ce soit tout à fait transparent et que j’indique en quoi j’aurais dû faire des recherches supplémentaires.
Animateur : Que pensez-vous de ce côté un petit peu aseptisé ? Je pense qu’il y a un côté un petit peu aseptisé à ChatGPT. D’un côté c’est bien, parce que je pense que les chercheurs voulaient éviter que l’outil produise des contenus offensants, on a mis des guide rails comme on dit en anglais. Sur le plan éthique, est-ce que c’est une avancée, selon vous, ce qu’ils ont réussi à faire ?
Invitée : Ça, c’est vraiment une question très difficile parce qu’elle a trait à la liberté d’expression et la liberté d’expression n’est pas du tout interprétée de la même façon en Europe, aux États-Unis, au Canada. Donc, comme cet outil ChatGPT est conçu par OpenAI, une entreprise américaine cofondée par Elon Musk. Certainement que l’on va avoir les critères américains qui ne correspondront pas peut être aux critères européens de suppression de contenus offensants. On pense par exemple au négationnisme qui est interdit en France et qui ne le serait pas aux États-Unis. On va se retrouver vraiment avec une disparité des lois, mais c’est ce que l’on trouve déjà aujourd’hui sur internet. C’est exactement la même chose avec les plateformes comme les réseaux sociaux, des plateformes américaines, les grands géants qui suivent majoritairement les règles américaines, mais qui se voient quand même contraintes par des règles européennes plus strictes. C’est quand même toujours la question de l’effectivité de la norme et de savoir si on va pouvoir respecter chaque norme. Est-ce que l’on va territorialiser la réponse technologique pour correspondre finalement au territoire et à la rigueur des lois, au caractère territorial du droit? Ou, si au contraire, ces entreprises vont considérer que seules leurs propres règles l’emportent, et ils vont proposer le même outil partout dans le monde. Ça, ce serait certainement évolutif.
Animateur : Comment doit-on faire pour évaluer l’impact de l’IA sur nos droits fondamentaux en général ? Quel cadre de réflexion général devrait-on employer pour commencer à amener la loi dans cette discussion?
Invitée : C’est vraiment une question difficile. Effectivement, il faudrait d’abord…
Animateur : Ce n’est pas une question facile.
Invitée : Non pas du tout, il faudrait d’abord effectivement une loi sur l’IA. Pour l’instant, aucune loi générale n’a encore été adoptée. On peut avoir des dispositions spécifiques dans des circonstances spécifiques, des lois sectorielles c’est possible, ça existe déjà dans certaines juridictions. Mais pour l’instant pas de loi globale sur l’IA. Et il y a un projet de règlements dans l’Union européenne sur la table depuis 2021 qui devrait être adopté cette année. Au Canada, on a un projet de loi C27 qui a été présenté en mai dernier et qui n’avance pas encore beaucoup. Donc, pour l’instant on a des projets, mais on n’a pas de règles vraiment adoptées. Mais si je me réfère à la proposition de la Commission européenne, on adopte une approche par les risques, la Commission européenne adopte une approche par les risques : les risques pour la santé, la sécurité et les droits fondamentaux. Donc, ça veut dire que quand on met en œuvre un système d’IA, on ne peut le mettre en œuvre que si l’on a considéré le niveau de risque. Cette réglementation en particulier encadre essentiellement les risques élevés et prévoit un certain nombre d’obligations et d’exigences dans le cadre de ces risques élevés. Dans certaines circonstances, ces risques sont listés. Évidemment, une liste c’est bien parce que c’est clair, mais en même temps on sait très bien qu’il y a plein de situations qui ne sont pas dans la liste et qui sont pourtant à risque.
Donc, ce texte est encore en discussion notamment au Parlement européen, il faut qu’il soit adopté par la Commission, le Conseil et le Parlement. C’est un législateur à trois têtes dans l’Union européenne. Le Parlement européen voudrait intégrer une étude d’impact de ses risques, une analyse d’impact de ses risques qui n’apparaît pas encore. Et c’est vrai que cette idée de l’analyse d’impact on commence à la voir un peu dans la réglementation des technologies, notamment, sur les renseignements personnels. En Europe, sur le (RGPD) Règlement général de protection des données personnelles, prévoit déjà ce type d’outils. Et c’est aussi ce qui est prévu au Québec depuis la réforme de la Loi sur la Protection des renseignements personnels, on prévoit aussi une étude d’impact. Donc, il y a de fortes chances, en effet, que plusieurs législateurs du Québec, au Canada, en Europe en particulier et aussi aux États-Unis, je pense que l’on va tendre vers ce genre d’approche.
Animateur : Vous l’évaluez comment cette loi européenne sur l’intelligence artificielle ? Est-ce qu’elle sera suffisante ? Est-ce que c’est un bon départ ? En quoi serait-elle insuffisante ?
Invitée : C’est un bon point de départ, je pense qu’elle a le mérite d’exister et la commission ici prend un peu le rôle de chef de file mondial, comme elle l’a fait pour la protection des données personnelles. Comme elle le fait aussi dans la protection du droit numérique depuis plusieurs années. Là, je pense que ce texte va nécessairement influencer les autres législateurs, parce que chaque fois qu’une entreprise, même en dehors de l’Union européenne, voudra fournir sur le marché européen ses dispositifs d’IA, il faudra se soumettre à ce texte. Évidemment, ça va avoir des répercussions en dehors, il y aura un effet extraterritorial de ce texte. Et c’est bien l’intention de la Commission européenne qui a beaucoup communiqué sur ce texte. Donc, je trouve que c’est déjà bien d’avoir une initiative assez large, de chercher à avoir un certain niveau d’exigence, d’évoquer des valeurs de l’Union européenne et des droits fondamentaux.
Mais, c’est sûr qu’évidemment il y a toujours des limites et quand on va avoir le détail des dispositions on pourra se dire qu’il manque évidemment des situations. Par exemple, sur les systèmes d’IA interdits, on vise le credit scoring, le score social comme le fait la Chine. On l’interdit pour les autorités publiques oui, mais on ne le fait pas pour les entreprises privées. Donc, ça, c’est une limite du texte qui est en train d’être revue. De même, j’évoquais tout à l’heure les systèmes d’IA généraux, la proposition de départ de la Commission n’était pas du tout visée, et dans les discussions au Conseil et au Parlement, ces dispositifs sont apparus. Donc, on va voir si dans la version finale on va les avoir.
Vous voyez que c’est encore en train de bouger et on peut regretter qu’il n’y ait pas du tout de dispositions sur l’environnement. Ça aussi c’est en train d’être discuté. Et puis, entrent en liste les systèmes à risques élevés, évidemment, on est toujours déçu parce qu’il manque des systèmes, ou il manque des secteurs d’activité. Par exemple, l’assurance n’est pas du tout visée, mais ça, on sait que c’est le résultat du lobbying à Bruxelles. On voit qu’il y a quand même en dépit des déclarations de valeurs et des droits fondamentaux, qu’il y a quand même toujours une logique de marché, une logique de ne pas se faire distancier, bien que ce soit déjà un peu le cas par la Chine et les États-Unis. Donc, il faut faire un peu un compromis entre la protection de la population et le marché de l'innovation, le fait d’avoir quand même des entreprises européennes qui puissent proposer des systèmes d’IA.
Ce que l’on peut ajouter aussi, c’est qu’en faisant le pari d’intervenir en premier, ça veut dire que l’Union européenne va structurer le marché de l’IA. Les contraintes qu’on peut demander, les exigences que l’on peut avoir et la façon dont on peut y répondre, même si d’autres législateurs prennent des voies complètement différentes, ça va être difficile quand même de trop s’éloigner de cela. On ne peut pas demander aux entreprises de s’adapter à tous les marchés avec des règles complètement différentes du marché de l’IA. Évidemment, quand on est le premier à bouger, on prend une certaine avance, même si on prend le risque de se tromper dans la façon de le faire.
Animateur : Ici au Canada, quels seraient les enjeux propres à ce pays en ce qui concerne l’élaboration de nouvelles lois qui encadreraient l’utilisation de l’IA ?
Invitée : Il y a certainement beaucoup d’enjeux, mais j’en vois deux principaux à mes yeux. Le premier enjeu est d’avoir la force et la place qu’a prise l’éthique de l’IA dans le discours et dans la façon d’agir, ou de ne pas agir en réalité : du gouvernement. C’est vrai que le gouvernement au Canada avait pris un bon leadership en 2017, en adoptant une stratégie pancanadienne de l’IA, en investissant énormément dans la recherche, en créant des chaires d’IA. Aussi, en nommant un organisme [0 h 24 min 24 s] pour pouvoir verser tous ces investissements et encourager la recherche. Donc, une bonne dynamique de départ, mais ensuite, il s’est un peu arrêté là. On a fait les investissements qui ont été renouvelés ensuite dans les budgets, mais on ne l’a pas accompagné d’un cadre, d’une réglementation. C’est vrai qu’on a eu la déclaration de Montréal dans le même temps en 2017, qui était assez novatrice à ce moment-là, bien qu’assez générale quand même, mais on s’est arrêté là. Alors que, on commençait déjà à voir les risques de l’IA, on commençait à voir beaucoup de critiques et de documentation des risques, notamment aux États-Unis. Ils sont très avancés dans cette technologie, dans sa conception, mais aussi dans le déploiement dans la société.
Donc, on a commencé à voir tous les travers et tous les problèmes de biais dans les données et même dans la conception des systèmes. À ce moment-là, il n’y a pas eu de réactions particulières du marché de l’IA, on va dire, de l’écosystème de l’IA, si ce n’est pour dire : ah oui, on est très conscients, on veut faire de l’IA un bien commun pour l’humanité. C’est vraiment la narration qu’on a actuellement, notamment,pour la place montréalaise, l’écosystème montréalais. Ce qui est certainement vrai, je veux bien croire que tous ces chercheurs ont à cœur de faire bien, il n’y a pas de difficulté avec ça. Simplement, il faut quand même rendre compte et être transparent sur ce qu’on fait, il faut aussi savoir comment assurer cette transparence et ce bien commun. Je veux bien qu’ils soient très bien placés pour le faire, pourquoi pas ? Mais qu’ils nous disent comment ils le font et qu’on puisse l’auditer. Je pense que ça, c’est vraiment essentiel.
Tous ces mécanismes-là, de comptabilty, d’audits et d’études d’impact, dont on parlait à l’instant, on ne les a pas ces dispositifs. Finalement, ce n’est que de la self regulation tant pour la recherche que pour les entreprises.
Animateur : Moi j’ai parlé à un programmeur dernièrement et il m’a avoué quelque chose que, je dois dire, c’est la première fois que je l’entendais. C’est que : la transparence dans l’IA, le problème avec ça, c’est que les programmeurs eux-mêmes ne savent pas toujours d’où viennent toutes les sources de leur programme. Est-ce que la transparence dans l’intelligence artificielle est vraiment… est-ce que c’est même possible ?
Invitée : C’est pas ça qu’on demande en fait. Ça, je pense qu’il faut faire attention à ce qu’on nous raconte. Parce qu’une fois qu’on nous a dit ça, ça veut dire fin de l’histoire, on ne sera pas transparent, on ne pourra rien vous dire parce que nous-mêmes on ne sait pas comment ça marche. J’ai deux réponses à ça. D’abord, je suis un peu inquiète, si vous ne savez pas ce que vous faites et comment ça marche, ça me pose problème que vous déployiez dans la société, premièrement. Sans même savoir quelles sont vos sources, vos systèmes et vos bouts de code récupérés à droite et à gauche. Je pense qu’on doit leur demander un petit peu plus. Leur demander en particulier de tester leurs algorithmes et de voir l’impact de ces algorithmes. Deuxièmement, la transparence qu’on demande ce n’est pas de voir le code, moi je n’y connais rien je n’ai pas besoin de voir le code ça ne m’intéresse pas plus que ça. Je serais absolument incapable de savoir si tout va bien ou pas. Je pense que la plupart des codeurs en sont incapables.
Ce qu’on demande c’est de documenter leur démarche : d’où viennent les données, d’où viennent les codes, qu’est ce qu’on a demandé au système, quels sont les objectifs qu’on lui a fixés, quels sont les résultats en sortie, comment on a testé ces résultats, quelles ont été les données d’apprentissage et les données de développement, quels sont les moyens pour vérifier s’il y a des erreurs et des biais, comment on les corrige, comment on met en œuvre un cycle de vie du système, Parce qu’on sait que le système est évolutif, parfois on dit auto-apprenant quand on parle du système d’apprentissage. Donc, tout ce qu’on veut en fait, c’est de savoir quelles sont les mesures prises. C’est là-dessus qu’on veut de la transparence, ce n’est pas le code qui nous intéresse.
Animateur : Il y a également plusieurs risques qui sont liés à l’utilisation de l’IA en matière de sécurité, notamment. On peut avoir des attaques d’apprentissage automatique aussi, on peut manipuler des données. Si ces codes-là ne sont pas assez robustes, on a un problème.
Invitée : Oui, absolument, je suis d’accord avec vous. Je ne suis pas certaine que les risques de cybersécurité soient suffisamment pris en compte, d’abord parce qu’on n’a pas de réglementation très précise sur la cybersécurité en général et encore moins appliquée à l’IA.
Animateur : Oui.
Invitée : C’est vrai ce que je dis là. Notamment, sur les données, sur les systèmes, sur n’importe quel système. Dans ce cas, il ne faut pas s’étonner que les hôpitaux, les banques se fassent attaquer. C’est assez grave parce qu’on a affaire à des infrastructures essentielles. Donc, je suis très critique, je sais qu’on fait des efforts qui sont de plus en plus mis en œuvre, tant par les provinces que par le gouvernement fédéral, puisque ça relève évidemment des deux. Mais, il faut sans doute aller plus loin et il faut encore faire mieux et là aussi on manque de législation plus précise sur ce qui leur est demandé, en particulier dans un contexte d’IA. Le deuxième point, pour répondre à la question précédente, je vois que la place de l’éthique n’est pas suffisante pour répondre à tous ces enjeux. Vous voyez qu’on a affaire à des enjeux graves quand même, donc je pense que l’éthique n’est pas suffisante. Il faut discuter avec des collègues éthiciens, c’est tout à fait mon avis. Ce n’est pas simplement parce que je suis juriste et que je prône le droit, ça devient vraiment un enjeu. C’est vrai aussi, mais il y a des enjeux qui sont vraiment graves là. L’éthique telle qu’elle est utilisée, un peu dévoyée, ça ne fait pas réellement progresser.
Le deuxième point qui est propre au Canada, c’est la répartition des compétences entre le provincial et le fédéral. Et, c’est vrai qu’il y a des initiatives qui sont prises aux deux niveaux. Mais il faudrait une initiative pancanadienne assez robuste en lien, bien sûr, avec les provinces. Je pense qu’il faudrait vraiment la coopération ici. Même si on est dans le domaine technologique, dans un domaine nouveau, on pourrait penser que le fédéral dans les enjeux interprovinciaux et même internationaux, le fédéral a une voix importante à jouer. Mais c’est aussi le cas des provinces qui doivent avoir des stratégies. Par exemple, pour leur gouvernement et pour l’utilisation de l’IA dans leur gouvernement. Donc, je pense que ça devrait se faire en coopération pour qu’on ait une véritable législation canadienne à deux niveaux qui soit cohérente. On ne peut pas imaginer que les entreprises fournissant les systèmes d’IA devraient répondre à des normes différentes d’une province à l’autre et d’une province au fédéral. Ce n’est pas raisonnable.
Animateur : Dans quels champs de compétences le fédéral et les provinces devraient-ils se concentrer d’abord ?
Invitée : Je pense que ce serait à la fois le plus naturel et le plus impactant de considérer d’abord l’utilisation de l’IA dans le secteur public et dans les gouvernements et les agences gouvernementales et provinciales. Je pense par exemple, au fédéral, aux systèmes automatiques utilisés en immigration, ou utilisés pour l’ARC, donc pour la fiscalité. Donc, de commencer d’abord par balayer devant sa propre porte et de peser aussi les règles du marché, les règles du secteur. Parce qu’à partir du moment où les entreprises qui travaillent avec le gouvernement doivent se soumettre à certaines règles, à des études d’impact, par exemple, ou à des obligations de transparence et de comptability, de conformité. Après, elles vont continuer de les appliquer et de les respecter aussi pour tous leurs marchés. Ça va complètement structurer leur modèle organisationnel. Évidemment, on ne peut pas négliger un client tel que le gouvernement du Québec, par exemple. Évidemment, ensuite ça va avoir des répercussions positives pour leur clientèle privée, dans les rapports privés.
Donc, je pense que ça doit commencer un nouveau modèle, des nouvelles lignes directrices, qui viendraient des gouvernements.
Animateur : Toujours est-il qu’on entend avec les nouvelles récentes entourant OpenAI, avec tous les investisseurs qui sont : Elon Musk, Microsoft et tout ça qui sont derrière cette initiative-là. Je pense qu’il y a des craintes qui commencent à se faire entendre. Qui va contrôler toutes ces données ? Le déploiement de l’intelligence artificielle quand même dominé par quelques acteurs puissants. Est-ce qu’il y a à craindre un déséquilibre de force entre le privé et le public dans tout ça ?
Invitée : Oui, certainement, c’est déjà le cas dans toutes les activités numériques : les Google Facebook, Méta, Amazone sont déjà extrêmement puissants. J’ai envie de dire que le sujet n’est pas du tout nouveau, on parle beaucoup de souveraineté numérique. Et quand on parle de souveraineté, ce n’est pas simplement dans les relations avec les États-Unis ou la Chine, c’est la souveraineté par rapport aux entreprises privées. Donc, pour moi le sujet n’est pas nouveau, malheureusement ce n’est pas nouveau, c’est un domaine qui est puissant, qui a un potentiel extrêmement puissant, sans doute plus qu’un réseau social. Donc, oui je pense que c’est très préoccupant, qu’il faudrait vraiment prendre le sujet au sérieux. Ça fait partie des préoccupations de l’Union européenne dans sa réglementation de l’IA. Je n’ai pas l’impression, mais je peux me tromper, j’espère me tromper franchement, que le gouvernement du Canada s’empare avec suffisamment de vigueur de ces enjeux. Tant dans le numérique, ne serait-ce déjà que pour encadrer les activités numériques, tant dans le numérique que dans l’IA. Donc, j’appelle vraiment à un sursaut du gouvernement fédéral et des gouvernements provinciaux, l’initiative peut venir des provinces qui pousseraient. Parce qu’il y a des enjeux extrêmement préoccupants.
Animateur : Est-ce qu’on est en voie de répéter des erreurs du passé par rapport à la façon dont on a évité de réglementer l’utilisation des données justement par tous ces acteurs privés, les Facebook… Est-ce qu’on est en train de répéter les erreurs du passé en n’agissant pas ?
Invitée : Beaucoup le disent, oui, complètement, beaucoup le disent et le craignent. Bon, je vais essayer de ne pas être encore défaitiste ou critique, je me dis que ce n’est pas trop tard. Il n’est pas encore trop tard, de toute façon, il vaut mieux agir tardivement que de ne jamais agir. Donc, j'aurais plutôt tendance à dire que fort de cette expérience et des erreurs du passé en parlons nous de ces questions d’ores et déjà? J’aurais plutôt tendance à dire cela, il n’est pas trop tôt contrairement à ce que beaucoup disent : ça va brimer l’innovation, on ne sait pas trop ce que c’est l’IA, etc. Là aussi ça m’inquiète, si on l’utilise et qu’on le déploie et qu’on ne sait pas trop ce que c’est, c’est quand même problématique. Je pense aussi que l’on surjoue le caractère extraordinaire et la puissance du système d’IA. Il y a beaucoup de systèmes automatiques qui n’intègrent pas nécessairement l’IA et qui sont tout aussi préjudiciables pour la société et les individus. Je pense qu’il ne faut pas que le mot IA soit un peu de la magie et qu'on se cache derrière en disant : on ne sait pas c’est tellement puissant, etc. Je pense qu’il faut agir, s’il y a des choses qu’on ne maîtrise pas encore, il faut les mettre sur le marché.
Donc, c’est vraiment justement ça qu’il faut regarder aujourd’hui et qu’il n’est pas trop tard pour agir. Je pense aussi que ça ne doit pas empêcher de réglementer la protection des renseignements personnels. Parce que, puisque l’on parle de ça, la Loi [0 h 36 min 54 s] a été adoptée en 2000, on ne l’a toujours pas révisée. C’est parti justement du projet de loi C27 que j’évoquais tout à l’heure. C’est tout un ensemble finalement avec deux parties sur la réforme de la [0 h 37 min 3 s] et une partie sur l’IA et les données. Je pense qu’il faut effectivement aborder les choses le plus rapidement possible, dans son ensemble, c’est une bonne idée. Et il faut aller de l’avant, même si peut-être que c’est trop tard pour les renseignements personnels, peut-être que ça aura un impact sur l’avenir quand même. C’est sûr que ce qui est pris, est pris, et que les entreprises dominantes du numérique sont bel et bien installées.
Mais il faut aussi utiliser d’autres outils, comme le droit de la concurrence qui certainement est sous-utilisé Au Canada, à l’heure actuelle, en comparaison de l’Union européenne qui a beaucoup agi et sanctionné aussi sur le terrain du droit à la concurrence en lien avec les données personnelles. Donc, on a quand même déjà des outils, j’aurais envie de dire servons-nous-en et en même temps prenons à bras-le-corps la question de l’IA. D’ailleurs les acteurs sont toujours un peu les mêmes, on retrouve ces mêmes dominants en internet parce qu’ils ont déjà beaucoup de données et déjà des systèmes d’IA très sophistiqué. Donc, de toute façon on s’adresse aux mêmes, avec des acteurs nouveaux comme OpenAI, mais de toute façon c’est la même chose qui se répète.
Animateur : Je ne suis pas certain après la décision d’hier avec la fusion de Rogers et Shaw, que les gens ont beaucoup confiance que la concurrence vaut grand-chose.
Invitée : Oui, oui, je vous renvoie aux propos de Jennifer Quaid sur les questions de concurrence, c’est sûr. Il y a peut-être de nouvelles règles à adopter ou de nouvelles interprétations à apprendre par rapport à ça. Même en dehors du droit à la concurrence, il y a peut-être des règles spécifiques qui peuvent être prises. En Europe, par exemple, on a réglementé le marché du numérique en plus de la concurrence, à côté de la concurrence et pour renforcer la concurrence. On intervient, de toute façon, trop tard a posteriori, il y a peut-être des choses à exiger en amont a priori par rapport à ces géants et par rapport à l’utilisation des données qu’ils font. Notamment, si on pense à Amazon, Amazon utilise les données de ses clients professionnels pour renforcer ses positions de marché. Ce n’est pas qu’une question de protection des données personnelles. Donc, il faut aussi s’emparer de ces questions, me semble-t-il. J’avoue que le Canada est assez en retrait, timide sur ces questions-là. Je pense qu’il y a vraiment tout un dossier numérique et IA, il y a la cybersécurité a considérer aujourd’hui.
Animateur : Plus généralement, est-ce qu’il ne faut pas se donner une mission quelconque dans notre politique pour justement encadrer l’intelligence artificielle ? Il y a des gens qui disent que ces technologies doivent être destinées au bien commun, doivent respecter les droits de la personne. Est-ce qu’on ne devrait pas avoir un filon conducteur dans tout ça ? Parce que bon, on parle du droit à la concurrence, on parle de droit à la protection de la vie privée, toutes ces choses ensemble. Comment faire pour élaborer un cadre législatif qui est cohérent et qui touche à tous ces domaines, qui va tenir compte des champs de compétence des provinces, versus le fédéral ? C’est presque aussi complexe que d’inventer la vraie intelligence artificielle.
Invitée : C’est très complexe parce que c’est un domaine transversal qui touche à toutes les branches du droit et les enjeux sont sans limites. Donc, forcément c’est complexe d’avoir un cadre légal pour ça, un écosystème pour ça finalement. Mais, je me méfie du joli vocabulaire sur lequel on peut tous tomber d’accord, parce qu’on ne sait pas trop ce qu’il y a derrière : le bien commun, l’humanité, [for good 00:40:46] et toutes ces choses là, mais bon. On ne sait pas trop ce que c’est. Vraiment ça ne me satisfait pas du tout et c’est vraiment, pour moi, comme si on mettait de l’avant de bonnes intentions, une bonne foi, et puis ça suffirait pour penser que tout va bien aller. C’est malheureusement plus compliqué que ça. En plus, même quand on y voit que des principes éthiques un peu plus spécifiques, en fait, on se rend compte que ça fait référence à des droits fondamentaux, des droits humains. Donc, j’aurais tendance à dire, raccrochons-nous à nos valeurs essentielles qui permettent justement de transcender un peu toutes ces branches du droit et qui sont au-dessus dans la hiérarchie des normes. Les principes constitutionnels et la Charte des droits et libertés. Là, on a quand même un socle de nos valeurs qui constitue, quand même, du droit au sommet. Je pense qu’il faut décliner ces… et peut-être donner un caractère un peu plus précis dans ce contexte de l’IA. Mais décliner cette charte qui est là et au niveau provincial la même chose, comme la Charte québécoise ou les textes sur les droits de la personne les droits et libertés. Il faut décliner ces grands principes qui sont déjà des principes fondateurs, sur lesquels tout notre système juridique repose et toutes nos branches de droit reposent, notre droit dérivé je dirais.
Donc, revenir à ça et creuser, vraiment approfondir ces différents droits et se dire : quels sont les différents enjeux par rapport à l’IA. Là, on retrouve les principes d’égalité, on retrouve les principes du droit à la vie privée, la non-discrimination. Et on retrouve aussi des garanties procédurales dans le privé dans l’utilisation d’IA. Donc, on retrouve à mon avis des valeurs essentielles, la sécurité des personnes, on retrouve des valeurs essentielles qui sont à mon avis absolument fondamentales pour construire un droit de l’IA finalement.
Animateur : Mais ça, ça veut dire qu’il faudrait réviser certains autres principes qu’on a intégrés dans nos lois. Je pense encore une fois au droit de la concurrence. Le droit de la concurrence, on s’assoit sur les principes du libre marché, puis la libre-concurrence va nous livrer des biens et des services au meilleur prix pour le consommateur. Je ne sais pas si ça s’inscrit nécessairement dans les valeurs traditionnelles de la charte. Mais ce sont des valeurs qu’on a épousées ici, au Canada, dans notre façon de nous gérer économiquement. Dans la vie privée, on entend souvent dans les lois qui touchent à la protection de la vie privée, on parle toujours d’innovation, de ne pas mettre un gel sur l’innovation. Alors, ça prend quoi pour réorienter un petit peu ces valeurs vers un objectif qui va justement nous apporter une intelligence artificielle, une technologie qui respecte ces valeurs dont vous, vous parlez?
Invitée : D’abord, sur les libertés économiques, je ne suis pas du tout pour les remettre en cause, évidemment il en faut, elles sont aussi reconnues ailleurs, ce n’est pas une spécificité canadienne. Mais, en fait, c’est toujours une balance des intérêts. C’est-à-dire aucun de ces droits n’est absolu, à part le droit à la vie certainement. Mais aucun droit n’est absolu, c’est toujours une question de subtilité. Ce n’est pas parce qu’on va mettre des exigences à un marché qu’on va remettre en cause la liberté économique. Par exemple, quand on met un médicament sur le marché il y a des exigences. L’analogie avec le médicament est extrêmement bonne s’agissant d’IA, parce qu’il y a des risques sur la santé avec un système d’IA par exemple, il y en a avec un médicament, et pour autant on n’empêche pas les industries pharmaceutiques de se déployer et de vendre leurs médicaments.
Ce qu’on leur demande, c’est de respecter un certain nombre de conditions, de critères, d’expérimentations, de vérifications, etc. Finalement, c’est ce que l’on demanderait au fournisseur de systèmes d’IA, donc je ne vois pas ce qu’il y a de nouveau par rapport à ça, et je ne vois pas en quoi ça porterait atteinte aux libertés économiques. Et même, plus encore avec l’innovation, à partir du moment où il y a un cadre légal clair, le marché finalement est balisé. C’est plus facile pour ces entreprises de se déployer sur le marché, de s’insérer sur le marché quand ils connaissent les règles du jeu. Ils n’ont plus qu’à les respecter et après ils sont assurés que leur système d’IA pourra être sur le marché et pourra être vendu sans obstacle, une fois qu’ils ont respecté les règles. Donc, pour moi, c’est un encouragement au déploiement économique et à l’innovation. Pour moi, le pire c’est l’incertitude de développer un produit, de le mettre sur le marché et de voir ensuite que ça ne va pas du tout et de devoir le retirer du marché. Je ne vois pas en quoi les entreprises seraient favorisées avec ce système-là. Il faut essayer de raisonner pour ne pas opposer l’innovation, l’économie, le marché avec la protection des individus. On a de plus en plus des entreprises qui sont quand même sensibles à leur image, on a de plus en plus de responsabilités sociales des entreprises. Je pense que justement, ces mouvements-là et ces idéologies-là, tendent à faire converger c’est différents objectifs. Je ne crois pas qu’ils soient systématiquement opposés.
Animateur : Céline Castets-Renard, merci beaucoup, ça conclut notre entrevue, mais je veux vous remercier d’avoir pris le temps de nous parler, parce que je pense que vous nous avez quand même beaucoup éclairés sur ces questions. Il faut qu’on s’y attarde assez rapidement.
Invitée : C’est moi qui vous remercie, ça m’a vraiment fait plaisir de discuter avec vous.
Animateur : Si l’épisode vous a plu, veuillez le partager avec vos amis et collègues. Si vous avez des commentaires, des réactions, des suggestions, n’hésitez pas à nous contacter sur Twitter à (@CBAnatmag) et sur Facebook. Et nous vous invitons aussi à vous rendre sur (nationalmagazine.ca) pour découvrir le contenu de notre analyse récente de l’actualité juridique au Canada. Surtout un grand merci à notre producteur John Megill, qui se consacre avec passion à la tâche de rendre l’écoute plus agréable. Merci à vous tous de nous avoir écoutés. À la prochaine.