Épisode 19: Comment la loi peut contrer les risques de l’intelligence artificielle

Animateur : Vous Ă©coutez Droit moderne prĂ©sentĂ© par l’ABC National. Bienvenue Ă  Droit moderne. Au cours de cette Ă©mission, nous allons parler des derniers avancements de l’intelligence artificielle. Notamment, le gĂ©nĂ©rateur de texte ChatGPT rĂ©cemment livrĂ© au monde par la sociĂ©tĂ© OpenAI. Nous parlerons aussi des enjeux Ă©thiques et juridiques quant Ă  l’Ă©laboration de lois et de la rĂ©glementation qui rĂ©girait l’IA. Notre invitĂ© aujourd’hui est CĂ©line Castets-Renard, chercheure rĂ©gulière au Centre de recherche en droit, technologie et sociĂ©tĂ© de l’UniversitĂ© d’Ottawa et professeure titulaire Ă  la section de droit civil de la FacultĂ© de droit. Elle est la Chaire de recherche de l’universitĂ© sur l’intelligence artificielle, responsable Ă  l’Ă©chelle mondiale. Bienvenue Ă  l’Ă©mission CĂ©line Castets-Renard.

InvitĂ©e : Merci de me recevoir.

Animateur : Commençons donc Ă  parler de l’intelligence artificielle et le droit. Mais avant de le faire, j’aimerais que vous nous expliquiez un petit peu votre parcours, ce qui vous a amenĂ© Ă  l’UniversitĂ© d’Ottawa et ce qui vous a menĂ© Ă  vous intĂ©resser au sujet de l’intelligence artificielle.

InvitĂ©e : Merci beaucoup, ça me fait plaisir de rĂ©pondre Ă  vos questions et de participer au balado. Je suis professeur actuellement, professeur titulaire a la FacultĂ© de droit civil de l’UniversitĂ© d’Ottawa depuis 2019. Auparavant, de 2002 Ă  2019 j’Ă©tais professeur Ă  la FacultĂ© de droit de Toulouse en France. Je suis rĂ©cemment arrivĂ© au Canada, c’est quand mĂŞme dĂ©jĂ  ma 4e annĂ©e, et j’ai passĂ© aussi deux ans comme visiting scolar Ă  la Fordham Law School Ă  New York et aussi au Yale Internet Society Project Ă  la FacultĂ© de droit de Yale. Je m’intĂ©resse au sujet de l’intelligence artificielle depuis plusieurs annĂ©es dĂ©jĂ , puisqu’en rĂ©alitĂ© je travaille sur les droits et les technologies depuis toujours, depuis la fin de mes Ă©tudes de droit.

Animateur : Qu’est-ce qui vous a interpellĂ© dans cette direction-lĂ  ? Ce sont les technologies ou les questions Ă©thiques que ça soulève ?

InvitĂ©e : C’est une excellente question. Au dĂ©part c’Ă©tait plutĂ´t des questions de droit, le fait que l’on ait de nouvelles interrogations, le fait de devoir adapter le droit Ă  des changements provoquĂ©s par les technologies. Petit Ă  petit, cela a plutĂ´t Ă©tĂ© les enjeux socioĂ©thiques et les changements de la sociĂ©tĂ©. MĂŞme si les deux sont liĂ©s, les changements du droit et les changements de la sociĂ©tĂ© Ă©videmment le droit rĂ©pond aux Ă©volutions sociĂ©tales. L’idĂ©e de dĂ©part Ă©tait vraiment de m’intĂ©resser Ă  une branche du droit Ă©volutive, par rapport Ă  d’autres domaines, qui serait un petit peu plus stable et qui prĂ©senterait peut-ĂŞtre moins de questions nouvelles ou en tout cas, moins souvent.

Animateur : Par moment, on a l’impression c’est comme si l’intelligence artificielle progressait Ă  un rythme que l’ĂŞtre humain oĂą l’esprit humain a vraiment du mal Ă  saisir. Par moment il y a une accalmie, et il n’y a rien qui se passe, puis tout Ă  coup quelque chose d’autre arrive qui semble complètement changer la donne. Dernièrement on a eu l’arrivĂ©e de cette dernière technologie comme ChatGPT et d’AI Ă©galement. Qu’est-ce que ça vous dit l’Ă©tat de l’avancement de ces technologies de l’intelligence artificielle ? Quelle est votre rĂ©action vis-Ă -vis tout ça ?

InvitĂ©e : D’abord, ce n’est pas parce qu’on n’entend pas parler tous les jours d’intelligence artificielle que ça ne progresse pas. Il y a une distinction Ă  faire entre la conscience et la connaissance du public des avancĂ©es, et des avancĂ©es qui continuent d’avoir lieu soit en recherche soit au sein des entreprises qui dĂ©veloppent des systèmes IA. C’est vrai que de temps en temps, on a quelques systèmes particulièrement cĂ©lèbres pour des bonnes ou des mauvaises raisons. Il y a quelque temps c’Ă©tait [AI 00:03:44], maintenant c’est ChatGPT. Mais de toute façon, la progression du dĂ©ploiement des systèmes est quand mĂŞme constante, et on peut dire aujourd’hui qu’il y a beaucoup de systèmes automatisĂ©s, voire des systèmes automatisĂ©s intĂ©grant de l’IA, dans beaucoup de domaines, dans beaucoup de pans de la sociĂ©tĂ©, que ce soit l’administration, la santĂ©, etc.

Donc, ça, c’est une première chose, ce n’est pas parce qu’il n’y a pas un Ă©vĂ©nement mĂ©diatique que ça n’avance pas. La deuxième chose concernant ChatGPT, peut-ĂŞtre que c’est un peu diffĂ©rent de ce qui s’est passĂ© jusqu’Ă  prĂ©sent, ChatGPT est un modèle un peu gĂ©nĂ©ral, un modèle du « fondationnel », Fondational Model. Il permet d’atteindre plusieurs finalitĂ©s et pas seulement de faire du langage, pas forcĂ©ment du [00:04:36] NLP, Natural Language Processing. C’est aussi un système qui est capable de faire des arts graphiques, qui est capable de faire du code. La rupture est peut-ĂŞtre lĂ  avec ce dispositif-lĂ , c’est que l’on n’a pas une seule finalitĂ© avec ce type de technologie. C’est plutĂ´t quelque chose de gĂ©nĂ©ral, c’est pour ça que l’on parle d’IA gĂ©nĂ©rale.

Animateur : Alors vous considĂ©rez que ça appartient bien Ă  la catĂ©gorie d’IA gĂ©nĂ©rale ou c’est que l’on se dirige vers ça ?

InvitĂ©e : Oui, alors dans la technologie IA gĂ©nĂ©rale, justement pour signifier que le système d’IA n’est pas destinĂ© Ă  atteindre une seule finalitĂ© comme la plupart des systèmes, par exemple, [AI 00:05:17] c’est un dispositif de reconnaissance faciale qui ne fait pas autre chose. Quand on considère aujourd’hui la rĂ©glementation, je pense qu’on va rentrer dans les dĂ©tails un peu plus loin, ce que l’on peut constater dĂ©jĂ , c’est que souvent on va raisonner par type de finalitĂ©, vouloir encadrer des finalitĂ©s, et se dire que selon telle ou telle finalitĂ©, il y a des risques spĂ©cifiques. Avec des systèmes gĂ©nĂ©raux qui ont plusieurs finalitĂ©s et qui utilisent plusieurs technologies combinĂ©es, finalement, l’approche par finalitĂ© n’est pas suffisante.

Ce que je voudrais aussi prĂ©ciser, c’est que quand j’Ă©voque la notion d’IA gĂ©nĂ©rale, ce n’est pas une IA forte. Parfois on dit que c’est une IA forte ou IA faible, c’est une distinction que faisaient les scientifiques de l’IA auparavant, mais qu’on a un peu tendance Ă  abandonner. L’IA faible, c’Ă©tait pour dire qu’on atteignait une seule tâche, l’IA forte, que l’on tend vers une intelligence de type intelligence humaine, comme le cerveau humain, qui est capable de traiter beaucoup d’informations, de faire beaucoup d’actions, de prendre beaucoup de dĂ©cisions de natures diffĂ©rentes en temps rĂ©el. On n’en est pas lĂ  non plus encore, on n’a pas encore atteint cette IA forte. Cette idĂ©e d’avoir plusieurs finalitĂ©s, d’atteindre plusieurs finalitĂ©s et d’ĂŞtre capable de faire plusieurs choses, on est un petit peu Ă  mi-chemin avec cette IA gĂ©nĂ©rale. Elle tend vers une IA forte que l’on n’a pas encore atteinte et qu’on n’atteindra peut-ĂŞtre jamais. C’est difficile Ă  dire.

Animateur : Parce que l’IA forte, ce serait, en quelque sorte, une vraie intelligence artificielle qui serait capable de raisonner Ă  partir de grands principes, de gĂ©nĂ©raliser en profondeur, n’est-ce pas, c’est ça ?

InvitĂ©e : C’est ça, et qui serait capable d’avoir plusieurs types d’actions, qui seraient vraiment proches de l’ĂŞtre humain, du cerveau humain. Donc qui serait capable d’Ă©crire, de dessiner, de prendre des dĂ©cisions, d’ĂŞtre polyvalent comme l’ĂŞtre humain est capable de l’ĂŞtre.

Animateur : Que pensez-vous de la voix que nous suivons en ce moment pour dĂ©velopper cette intelligence artificielle qui n’est pas encore forte ? Est-ce que nous sommes lancĂ©s sur la meilleure voie que nous connaissons pour bâtir celle-lĂ , ou est-ce qu’on devrait imaginer quelque chose de mieux ?

InvitĂ©e : Sur le plan de la technique ou sur le plan du droit ?

Animateur : Est-ce qu’on peut sĂ©parer les deux ?

InvitĂ©e : Pour l’instant, c’est assez sĂ©parĂ©. C’est-Ă -dire que pour l’instant la technologie avance et ça avance en recherche et si la loi n’encadre pas, ou n’encadre pas spĂ©cifiquement, on pourrait penser qu’il y a un vide juridique, mĂŞme s’il n’y a jamais un vide juridique complet. Les lois que l’on connaĂ®t continuent de s’appliquer comme les lois de protection des renseignements personnels, par exemple. Il faut bien sĂ»r beaucoup de donnĂ©es pour entraĂ®ner l’IA. Mais si l’on considère qu’il n’y a pas de loi spĂ©cifique pour encadrer l’IA, ça veut dire que la technologie va avancer, les recherches vont avancer dans la recherche publique, dans les laboratoires ou la recherche d’entreprises privĂ©es. S’il n’y a pas de cadre, s’il n’y a pas de limites ça va ĂŞtre pour le meilleur et pour le pire. Donc, je pense que les deux sont distincts actuellement, c’est peut-ĂŞtre problĂ©matique. Pour ma part, je considère que c’est problĂ©matique parce qu’on Ă©voque beaucoup l’Ă©thique de l’IA, l’IA pour le bien, l’IA pour l’humanitĂ©, l’IA responsable, le bien commun, etc.

Mais ce sont des mots un peu creux très clairement. Ils ne s’accompagnent pas de mesures claires, d’obligations, d’une rĂ©glementation qui dirait exactement ce qu’il faudrait faire pour Ă©viter certains risques. On sait qu’il y a des enjeux sociaux extrĂŞmement importants dans l’utilisation de l’IA. On a vu des risques de biais, d’erreurs, de discrimination, d’exclusion, d’invisibilisation. Donc, ce sont vraiment des enjeux majeurs pour une sociĂ©tĂ©, un enjeu dĂ©mocratique mĂŞme, donc Ă  mon sens il faudrait une rĂ©glementation spĂ©cifique Ă  l’IA.

Animateur : Moi-mĂŞme, j’ai passĂ© plusieurs heures Ă  jouer avec ChatGPT et Daddy aussi pour la crĂ©ation graphique. Je dois dire que cela m’a frappĂ© un petit peu Ă  quel point toutes ces avancĂ©es auront des rĂ©percussions assez considĂ©rables sur notre façon de travailler, sur notre productivitĂ© sĂ»rement, peut-ĂŞtre mĂŞme le coĂ»t de production des Ĺ“uvres. Qui en bĂ©nĂ©ficiera ? La qualitĂ© de ces Ĺ“uvres ? Je dis ça, mais bref, ça va avoir un impact Ă©norme sur notre Ă©conomie en gĂ©nĂ©ral, il me semble. Vous avez rĂ©flĂ©chi Ă  ça plus en profondeur que moi certainement. Quels sont les grands risques que vous identifiez ?

InvitĂ©e : C’est vraiment la question qu’il faut se poser, en effet. Parce que, je ne veux pas passer pour celle qui veut tout interdire et qui serait technophobe, ce n’est pas du tout ça. IA a quand mĂŞme beaucoup de bĂ©nĂ©fices, on le voit dans le domaine de la santĂ© pour les diagnostics, par exemple, l’analyse d’images d’un cancer des poumons, les rĂ©sultats sont vraiment remarquables. L’idĂ©e n’est pas de se passer de l’IA ou de crier au loup et de jeter le bĂ©bĂ© avec l’eau du bain. Il faut au contraire bien observer et regarder ce qui se passe dans chaque domaine pour chaque type de système. Parce que quand on parle d’IA, quand on dit IA on dit tout et on ne dit rien. Il y a plusieurs technologies d’IA, beaucoup de secteurs d’activitĂ©s, beaucoup d’applications possibles. Ce qui frappe plus rĂ©cemment, c’est que beaucoup d’applications concernent directement les humains et l’organisation sociale en gĂ©nĂ©ral. C’est en cela qu’il faut ĂŞtre particulièrement vigilant et c’est en cela qu’il va falloir regarder en dĂ©tail ce qui est bĂ©nĂ©fique et ce qui ne l’est pas, quels sont les risques et comment les minimiser, comment les limiter sans pour autant se passer de l’IA. Sauf peut-ĂŞtre, dans les moments oĂą on estimerait qu’il faut l’interdire parce que ça porterait trop atteinte Ă  nos valeurs, Ă  nos droits et Ă  nos libertĂ©s.

Donc, ça, c’est vraiment quelque chose d’important pour moi, et c’est toute la nuance qu’il faut avoir dans ce domaine de recherche et c’est ce que j’essaie de faire. En particulier ChatGPT, je considère que c’est un outil et en effet ça change beaucoup notre façon de travailler. Ça va changer le marchĂ© du travail, il y a dĂ©jĂ  des articles qui paraissent sur la pratique du droit et de l’utilisation de ChatGPT. Évidemment, le monde de l’Ă©ducation est en Ă©moi en disant qu’on ne peut plus faire de travaux de recherche de la mĂŞme façon. J’ai dĂ©cidĂ© de l’intĂ©grer dans mes cours et de demander aux Ă©tudiants de l’utiliser pour faire leur travail de recherche final, en essayant…

Animateur : J’allais justement vous poser la question, comment avez-vous adressĂ© cela avec vos Ă©lèves, vous qui ĂŞtes prof ?

InvitĂ©e : Justement, je leur ai demandĂ© de l’utiliser, je leur ai demandĂ© de faire un travail de recherche finale sur une question spĂ©cifique. LĂ , il s’agit de mon cours sur la protection des renseignements personnels, je leur ai demandĂ© de l’utiliser, on va dĂ©finir un thème de recherche ensemble comme d’habitude. Je leur ai demandĂ© de l’utiliser et de documenter leur utilisation, de faire des captures d’Ă©cran. Parce que finalement, cet outil nous donne des rĂ©ponses pertinentes que si on l’interroge bien, c’est les questions qu’on pose qui sont les bonnes. Les questions de recherche, l’interaction qu’on peut avoir avec l’outil pour le pousser plus loin dans ses connaissances, cette interaction et ces questions viennent avant tout de l’humain. En outre, une fois que ChatGPT a rĂ©pondu, on est quand mĂŞme obligĂ© de vĂ©rifier parce qu’on ne peut pas se fier pour faire un travail de recherche sĂ©rieux. On ne peut pas se fier seulement Ă  ce qu’il dit, mĂŞme s’il est vraiment loin d’ĂŞtre idiot. Il a absorbĂ© beaucoup d’ouvrages et j’ai fait des tests sur les doctrines juridiques, il est capable de faire des rĂ©sumĂ©s, il est capable d’apporter des contres arguments, il est capable de citer des auteurs. Tout ça, bien sĂ»r, il faut aller vĂ©rifier, c’est ce que je demande aux Ă©tudiants.

C’est comme ça Ă  mon avis que l’on doit y arriver. On doit davantage former nos Ă©tudiants Ă  l’utilisation de ces outils et Ă  avoir un regard critique sur ce qu’ils peuvent faire ou ne pas faire. Ils doivent se mĂ©fier des risques de dĂ©sinformation et de manipulation d’opinion, plutĂ´t que d’interdire leur utilisation.

Animateur : Croyez-vous que vous allez vous en servir ?

InvitĂ©e : Dans la production de ma recherche ?

Animateur : Oui.

InvitĂ©e : Oui, c’est tout Ă  fait possible. Pour faire un article de recherche sur ChatGPT, parce qu’ils commencent Ă  y en avoir dĂ©jĂ  bien sĂ»r. Notamment, si cette expĂ©rience avec mes Ă©tudiants produit des rĂ©ponses intĂ©ressantes, je vais certainement m’en servir et Ă©crire sur ChatGPT Ă  proprement parler. En l’utilisant sous une forme un peu expĂ©rimentale, en suivant une mĂ©thodologie empirique et en expliquant la dĂ©marche que j’aurai suivie. C’est ce que je demande Ă  mes Ă©tudiants de faire d’ailleurs. Il est possible aussi, peut-ĂŞtre pas dans l’immĂ©diat, mais plus tard, peu importe, il est possible que je l’utilise effectivement dans ma mĂ©thodologie de recherche. Et il faudrait que je l’indique en introduction pour que ce soit tout Ă  fait transparent et que j’indique en quoi j’aurais dĂ» faire des recherches supplĂ©mentaires.

Animateur : Que pensez-vous de ce cĂ´tĂ© un petit peu aseptisĂ© ? Je pense qu’il y a un cĂ´tĂ© un petit peu aseptisĂ© Ă  ChatGPT. D’un cĂ´tĂ© c’est bien, parce que je pense que les chercheurs voulaient Ă©viter que l’outil produise des contenus offensants, on a mis des guide rails comme on dit en anglais. Sur le plan Ă©thique, est-ce que c’est une avancĂ©e, selon vous, ce qu’ils ont rĂ©ussi Ă  faire ?

InvitĂ©e : Ça, c’est vraiment une question très difficile parce qu’elle a trait Ă  la libertĂ© d’expression et la libertĂ© d’expression n’est pas du tout interprĂ©tĂ©e de la mĂŞme façon en Europe, aux États-Unis, au Canada. Donc, comme cet outil ChatGPT est conçu par OpenAI, une entreprise amĂ©ricaine cofondĂ©e par Elon Musk. Certainement que l’on va avoir les critères amĂ©ricains qui ne correspondront pas peut ĂŞtre aux critères europĂ©ens de suppression de contenus offensants. On pense par exemple au nĂ©gationnisme qui est interdit en France et qui ne le serait pas aux États-Unis. On va se retrouver vraiment avec une disparitĂ© des lois, mais c’est ce que l’on trouve dĂ©jĂ  aujourd’hui sur internet. C’est exactement la mĂŞme chose avec les plateformes comme les rĂ©seaux sociaux, des plateformes amĂ©ricaines, les grands gĂ©ants qui suivent majoritairement les règles amĂ©ricaines, mais qui se voient quand mĂŞme contraintes par des règles europĂ©ennes plus strictes. C’est quand mĂŞme toujours la question de l’effectivitĂ© de la norme et de savoir si on va pouvoir respecter chaque norme. Est-ce que l’on va territorialiser la rĂ©ponse technologique pour correspondre finalement au territoire et Ă  la rigueur des lois, au caractère territorial du droit? Ou, si au contraire, ces entreprises vont considĂ©rer que seules leurs propres règles l’emportent, et ils vont proposer le mĂŞme outil partout dans le monde. Ça, ce serait certainement Ă©volutif.

Animateur : Comment doit-on faire pour Ă©valuer l’impact de l’IA sur nos droits fondamentaux en gĂ©nĂ©ral ? Quel cadre de rĂ©flexion gĂ©nĂ©ral devrait-on employer pour commencer Ă  amener la loi dans cette discussion?

InvitĂ©e : C’est vraiment une question difficile. Effectivement, il faudrait d’abord…

Animateur : Ce n’est pas une question facile.

InvitĂ©e : Non pas du tout, il faudrait d’abord effectivement une loi sur l’IA. Pour l’instant, aucune loi gĂ©nĂ©rale n’a encore Ă©tĂ© adoptĂ©e. On peut avoir des dispositions spĂ©cifiques dans des circonstances spĂ©cifiques, des lois sectorielles c’est possible, ça existe dĂ©jĂ  dans certaines juridictions. Mais pour l’instant pas de loi globale sur l’IA. Et il y a un projet de règlements dans l’Union europĂ©enne sur la table depuis 2021 qui devrait ĂŞtre adoptĂ© cette annĂ©e. Au Canada, on a un projet de loi C27 qui a Ă©tĂ© prĂ©sentĂ© en mai dernier et qui n’avance pas encore beaucoup. Donc, pour l’instant on a des projets, mais on n’a pas de règles vraiment adoptĂ©es. Mais si je me rĂ©fère Ă  la proposition de la Commission europĂ©enne, on adopte une approche par les risques, la Commission europĂ©enne adopte une approche par les risques : les risques pour la santĂ©, la sĂ©curitĂ© et les droits fondamentaux. Donc, ça veut dire que quand on met en Ĺ“uvre un système d’IA, on ne peut le mettre en Ĺ“uvre que si l’on a considĂ©rĂ© le niveau de risque. Cette rĂ©glementation en particulier encadre essentiellement les risques Ă©levĂ©s et prĂ©voit un certain nombre d’obligations et d’exigences dans le cadre de ces risques Ă©levĂ©s. Dans certaines circonstances, ces risques sont listĂ©s. Évidemment, une liste c’est bien parce que c’est clair, mais en mĂŞme temps on sait très bien qu’il y a plein de situations qui ne sont pas dans la liste et qui sont pourtant Ă  risque.

Donc, ce texte est encore en discussion notamment au Parlement europĂ©en, il faut qu’il soit adoptĂ© par la Commission, le Conseil et le Parlement. C’est un lĂ©gislateur Ă  trois tĂŞtes dans l’Union europĂ©enne. Le Parlement europĂ©en voudrait intĂ©grer une Ă©tude d’impact de ses risques, une analyse d’impact de ses risques qui n’apparaĂ®t pas encore. Et c’est vrai que cette idĂ©e de l’analyse d’impact on commence Ă  la voir un peu dans la rĂ©glementation des technologies, notamment, sur les renseignements personnels. En Europe, sur le (RGPD) Règlement gĂ©nĂ©ral de protection des donnĂ©es personnelles, prĂ©voit dĂ©jĂ  ce type d’outils. Et c’est aussi ce qui est prĂ©vu au QuĂ©bec depuis la rĂ©forme de la Loi sur la Protection des renseignements personnels, on prĂ©voit aussi une Ă©tude d’impact. Donc, il y a de fortes chances, en effet, que plusieurs lĂ©gislateurs du QuĂ©bec, au Canada, en Europe en particulier et aussi aux États-Unis, je pense que l’on va tendre vers ce genre d’approche.    

Animateur : Vous l’Ă©valuez comment cette loi europĂ©enne sur l’intelligence artificielle ? Est-ce qu’elle sera suffisante ? Est-ce que c’est un bon dĂ©part ? En quoi serait-elle insuffisante ?

InvitĂ©e : C’est un bon point de dĂ©part, je pense qu’elle a le mĂ©rite d’exister et la commission ici prend un peu le rĂ´le de chef de file mondial, comme elle l’a fait pour la protection des donnĂ©es personnelles. Comme elle le fait aussi dans la protection du droit numĂ©rique depuis plusieurs annĂ©es. LĂ , je pense que ce texte va nĂ©cessairement influencer les autres lĂ©gislateurs, parce que chaque fois qu’une entreprise, mĂŞme en dehors de l’Union europĂ©enne, voudra fournir sur le marchĂ© europĂ©en ses dispositifs d’IA, il faudra se soumettre Ă  ce texte. Évidemment, ça va avoir des rĂ©percussions en dehors, il y aura un effet extraterritorial de ce texte. Et c’est bien l’intention de la Commission europĂ©enne qui a beaucoup communiquĂ© sur ce texte. Donc, je trouve que c’est dĂ©jĂ  bien d’avoir une initiative assez large, de chercher Ă  avoir un certain niveau d’exigence, d’Ă©voquer des valeurs de l’Union europĂ©enne et des droits fondamentaux.

Mais, c’est sĂ»r qu’Ă©videmment il y a toujours des limites et quand on va avoir le dĂ©tail des dispositions on pourra se dire qu’il manque Ă©videmment des situations. Par exemple, sur les systèmes d’IA interdits, on vise le credit scoring, le score social comme le fait la Chine. On l’interdit pour les autoritĂ©s publiques oui, mais on ne le fait pas pour les entreprises privĂ©es. Donc, ça, c’est une limite du texte qui est en train d’ĂŞtre revue. De mĂŞme, j’Ă©voquais tout Ă  l’heure les systèmes d’IA gĂ©nĂ©raux, la proposition de dĂ©part de la Commission n’Ă©tait pas du tout visĂ©e, et dans les discussions au Conseil et au Parlement, ces dispositifs sont apparus. Donc, on va voir si dans la version finale on va les avoir.

Vous voyez que c’est encore en train de bouger et on peut regretter qu’il n’y ait pas du tout de dispositions sur l’environnement. Ça aussi c’est en train d’ĂŞtre discutĂ©. Et puis, entrent en liste les systèmes Ă  risques Ă©levĂ©s, Ă©videmment, on est toujours déçu parce qu’il manque des systèmes, ou il manque des secteurs d’activitĂ©. Par exemple, l’assurance n’est pas du tout visĂ©e, mais ça, on sait que c’est le rĂ©sultat du lobbying Ă  Bruxelles. On voit qu’il y a quand mĂŞme en dĂ©pit des dĂ©clarations de valeurs et des droits fondamentaux, qu’il y a quand mĂŞme toujours une logique de marchĂ©, une logique de ne pas se faire distancier, bien que ce soit dĂ©jĂ  un peu le cas par la Chine et les États-Unis. Donc, il faut faire un peu un compromis entre la protection de la population et le marchĂ© de l'innovation, le fait d’avoir quand mĂŞme des entreprises europĂ©ennes qui puissent proposer des systèmes d’IA.

Ce que l’on peut ajouter aussi, c’est qu’en faisant le pari d’intervenir en premier, ça veut dire que l’Union europĂ©enne va structurer le marchĂ© de l’IA. Les contraintes qu’on peut demander, les exigences que l’on peut avoir et la façon dont on peut y rĂ©pondre, mĂŞme si d’autres lĂ©gislateurs prennent des voies complètement diffĂ©rentes, ça va ĂŞtre difficile quand mĂŞme de trop s’Ă©loigner de cela. On ne peut pas demander aux entreprises de s’adapter Ă  tous les marchĂ©s avec des règles complètement diffĂ©rentes du marchĂ© de l’IA. Évidemment, quand on est le premier Ă  bouger, on prend une certaine avance, mĂŞme si on prend le risque de se tromper dans la façon de le faire.

Animateur : Ici au Canada, quels seraient les enjeux propres Ă  ce pays en ce qui concerne l’Ă©laboration de nouvelles lois qui encadreraient l’utilisation de l’IA ?

InvitĂ©e : Il y a certainement beaucoup d’enjeux, mais j’en vois deux principaux Ă  mes yeux. Le premier enjeu est d’avoir la force et la place qu’a prise l’Ă©thique de l’IA dans le discours et dans la façon d’agir, ou de ne pas agir en rĂ©alitĂ© : du gouvernement. C’est vrai que le gouvernement au Canada avait pris un bon leadership en 2017, en adoptant une stratĂ©gie pancanadienne de l’IA, en investissant Ă©normĂ©ment dans la recherche, en crĂ©ant des chaires d’IA. Aussi, en nommant un organisme [0 h 24 min 24 s] pour pouvoir verser tous ces investissements et encourager la recherche. Donc, une bonne dynamique de dĂ©part, mais ensuite, il s’est un peu arrĂŞtĂ© lĂ . On a fait les investissements qui ont Ă©tĂ© renouvelĂ©s ensuite dans les budgets, mais on ne l’a pas accompagnĂ© d’un cadre, d’une rĂ©glementation. C’est vrai qu’on a eu la dĂ©claration de MontrĂ©al dans le mĂŞme temps en 2017, qui Ă©tait assez novatrice Ă  ce moment-lĂ , bien qu’assez gĂ©nĂ©rale quand mĂŞme, mais on s’est arrĂŞtĂ© lĂ . Alors que, on commençait dĂ©jĂ  Ă  voir les risques de l’IA, on commençait Ă  voir beaucoup de critiques et de documentation des risques, notamment aux États-Unis. Ils sont très avancĂ©s dans cette technologie, dans sa conception, mais aussi dans le dĂ©ploiement dans la sociĂ©tĂ©.

Donc, on a commencĂ© Ă  voir tous les travers et tous les problèmes de biais dans les donnĂ©es et mĂŞme dans la conception des systèmes. Ă€ ce moment-lĂ , il n’y a pas eu de rĂ©actions particulières du marchĂ© de l’IA, on va dire, de l’Ă©cosystème de l’IA, si ce n’est pour dire : ah oui, on est très conscients, on veut faire de l’IA un bien commun pour l’humanitĂ©. C’est vraiment la narration qu’on a actuellement, notamment,pour la place montrĂ©alaise, l’Ă©cosystème montrĂ©alais. Ce qui est certainement vrai, je veux bien croire que tous ces chercheurs ont Ă  cĹ“ur de faire bien, il n’y a pas de difficultĂ© avec ça. Simplement, il faut quand mĂŞme rendre compte et ĂŞtre transparent sur ce qu’on fait, il faut aussi savoir comment assurer cette transparence et ce bien commun. Je veux bien qu’ils soient très bien placĂ©s pour le faire, pourquoi pas ? Mais qu’ils nous disent comment ils le font et qu’on puisse l’auditer. Je pense que ça, c’est vraiment essentiel.

Tous ces mĂ©canismes-lĂ , de comptabilty, d’audits et d’Ă©tudes d’impact, dont on parlait Ă  l’instant, on ne les a pas ces dispositifs. Finalement, ce n’est que de la self regulation tant pour la recherche que pour les entreprises.

Animateur : Moi j’ai parlĂ© Ă  un programmeur dernièrement et il m’a avouĂ© quelque chose que, je dois dire, c’est la première fois que je l’entendais. C’est que : la transparence dans l’IA, le problème avec ça, c’est que les programmeurs eux-mĂŞmes ne savent pas toujours d’oĂą viennent toutes les sources de leur programme. Est-ce que la transparence dans l’intelligence artificielle est vraiment… est-ce que c’est mĂŞme possible ?

InvitĂ©e : C’est pas ça qu’on demande en fait. Ça, je pense qu’il faut faire attention Ă  ce qu’on nous raconte. Parce qu’une fois qu’on nous a dit ça, ça veut dire fin de l’histoire, on ne sera pas transparent, on ne pourra rien vous dire parce que nous-mĂŞmes on ne sait pas comment ça marche. J’ai deux rĂ©ponses Ă  ça. D’abord, je suis un peu inquiète, si vous ne savez pas ce que vous faites et comment ça marche, ça me pose problème que vous dĂ©ployiez dans la sociĂ©tĂ©, premièrement. Sans mĂŞme savoir quelles sont vos sources, vos systèmes et vos bouts de code rĂ©cupĂ©rĂ©s Ă  droite et Ă  gauche. Je pense qu’on doit leur demander un petit peu plus. Leur demander en particulier de tester leurs algorithmes et de voir l’impact de ces algorithmes. Deuxièmement, la transparence qu’on demande ce n’est pas de voir le code, moi je n’y connais rien je n’ai pas besoin de voir le code ça ne m’intĂ©resse pas plus que ça. Je serais absolument incapable de savoir si tout va bien ou pas. Je pense que la plupart des codeurs en sont incapables.

Ce qu’on demande c’est de documenter leur dĂ©marche : d’oĂą viennent les donnĂ©es, d’oĂą viennent les codes, qu’est ce qu’on a demandĂ© au système, quels sont les objectifs qu’on lui a fixĂ©s, quels sont les rĂ©sultats en sortie, comment on a testĂ© ces rĂ©sultats, quelles ont Ă©tĂ© les donnĂ©es d’apprentissage et les donnĂ©es de dĂ©veloppement, quels sont les moyens pour vĂ©rifier s’il y a des erreurs et des biais, comment on les corrige, comment on met en Ĺ“uvre un cycle de vie du système, Parce qu’on sait que le système est Ă©volutif, parfois on dit auto-apprenant quand on parle du système d’apprentissage. Donc, tout ce qu’on veut en fait, c’est de savoir quelles sont les mesures prises. C’est lĂ -dessus qu’on veut de la transparence, ce n’est pas le code qui nous intĂ©resse.

Animateur : Il y a Ă©galement plusieurs risques qui sont liĂ©s Ă  l’utilisation de l’IA en matière de sĂ©curitĂ©, notamment. On peut avoir des attaques d’apprentissage automatique aussi, on peut manipuler des donnĂ©es. Si ces codes-lĂ  ne sont pas assez robustes, on a un problème.

InvitĂ©e : Oui, absolument, je suis d’accord avec vous. Je ne suis pas certaine que les risques de cybersĂ©curitĂ© soient suffisamment pris en compte, d’abord parce qu’on n’a pas de rĂ©glementation très prĂ©cise sur la cybersĂ©curitĂ© en gĂ©nĂ©ral et encore moins appliquĂ©e Ă  l’IA.   

Animateur : Oui.

InvitĂ©e : C’est vrai ce que je dis lĂ . Notamment, sur les donnĂ©es, sur les systèmes, sur n’importe quel système. Dans ce cas, il ne faut pas s’Ă©tonner que les hĂ´pitaux, les banques se fassent attaquer. C’est assez grave parce qu’on a affaire Ă  des infrastructures essentielles. Donc, je suis très critique, je sais qu’on fait des efforts qui sont de plus en plus mis en Ĺ“uvre, tant par les provinces que par le gouvernement fĂ©dĂ©ral, puisque ça relève Ă©videmment des deux. Mais, il faut sans doute aller plus loin et il faut encore faire mieux et lĂ  aussi on manque de lĂ©gislation plus prĂ©cise sur ce qui leur est demandĂ©, en particulier dans un contexte d’IA. Le deuxième point, pour rĂ©pondre Ă  la question prĂ©cĂ©dente, je vois que la place de l’Ă©thique n’est pas suffisante pour rĂ©pondre Ă  tous ces enjeux. Vous voyez qu’on a affaire Ă  des enjeux graves quand mĂŞme, donc je pense que l’Ă©thique n’est pas suffisante. Il faut discuter avec des collègues Ă©thiciens, c’est tout Ă  fait mon avis. Ce n’est pas simplement parce que je suis juriste et que je prĂ´ne le droit, ça devient vraiment un enjeu. C’est vrai aussi, mais il y a des enjeux qui sont vraiment graves lĂ . L’Ă©thique telle qu’elle est utilisĂ©e, un peu dĂ©voyĂ©e, ça ne fait pas rĂ©ellement progresser.

Le deuxième point qui est propre au Canada, c’est la rĂ©partition des compĂ©tences entre le provincial et le fĂ©dĂ©ral. Et, c’est vrai qu’il y a des initiatives qui sont prises aux deux niveaux. Mais il faudrait une initiative pancanadienne assez robuste en lien, bien sĂ»r, avec les provinces. Je pense qu’il faudrait vraiment la coopĂ©ration ici. MĂŞme si on est dans le domaine technologique, dans un domaine nouveau, on pourrait penser que le fĂ©dĂ©ral dans les enjeux interprovinciaux et mĂŞme internationaux, le fĂ©dĂ©ral a une voix importante Ă  jouer. Mais c’est aussi le cas des provinces qui doivent avoir des stratĂ©gies. Par exemple, pour leur gouvernement et pour l’utilisation de l’IA dans leur gouvernement. Donc, je pense que ça devrait se faire en coopĂ©ration pour qu’on ait une vĂ©ritable lĂ©gislation canadienne Ă  deux niveaux qui soit cohĂ©rente. On ne peut pas imaginer que les entreprises fournissant les systèmes d’IA devraient rĂ©pondre Ă  des normes diffĂ©rentes d’une province Ă  l’autre et d’une province au fĂ©dĂ©ral. Ce n’est pas raisonnable.

Animateur : Dans quels champs de compĂ©tences le fĂ©dĂ©ral et les provinces devraient-ils se concentrer d’abord ?    

InvitĂ©e : Je pense que ce serait Ă  la fois le plus naturel et le plus impactant de considĂ©rer d’abord l’utilisation de l’IA dans le secteur public et dans les gouvernements et les agences gouvernementales et provinciales. Je pense par exemple, au fĂ©dĂ©ral, aux systèmes automatiques utilisĂ©s en immigration, ou utilisĂ©s pour l’ARC, donc pour la fiscalitĂ©. Donc, de commencer d’abord par balayer devant sa propre porte et de peser aussi les règles du marchĂ©, les règles du secteur. Parce qu’Ă  partir du moment oĂą les entreprises qui travaillent avec le gouvernement doivent se soumettre Ă  certaines règles, Ă  des Ă©tudes d’impact, par exemple, ou Ă  des obligations de transparence et de comptability, de conformitĂ©. Après, elles vont continuer de les appliquer et de les respecter aussi pour tous leurs marchĂ©s. Ça va complètement structurer leur modèle organisationnel. Évidemment, on ne peut pas nĂ©gliger un client tel que le gouvernement du QuĂ©bec, par exemple. Évidemment, ensuite ça va avoir des rĂ©percussions positives pour leur clientèle privĂ©e, dans les rapports privĂ©s.

Donc, je pense que ça doit commencer un nouveau modèle, des nouvelles lignes directrices, qui viendraient des gouvernements.

Animateur : Toujours est-il qu’on entend avec les nouvelles rĂ©centes entourant OpenAI, avec tous les investisseurs qui sont : Elon Musk, Microsoft et tout ça qui sont derrière cette initiative-lĂ . Je pense qu’il y a des craintes qui commencent Ă  se faire entendre. Qui va contrĂ´ler toutes ces donnĂ©es ? Le dĂ©ploiement de l’intelligence artificielle quand mĂŞme dominĂ© par quelques acteurs puissants. Est-ce qu’il y a Ă  craindre un dĂ©sĂ©quilibre de force entre le privĂ© et le public dans tout ça ?

InvitĂ©e : Oui, certainement, c’est dĂ©jĂ  le cas dans toutes les activitĂ©s numĂ©riques : les Google Facebook, MĂ©ta, Amazone sont dĂ©jĂ  extrĂŞmement puissants. J’ai envie de dire que le sujet n’est pas du tout nouveau, on parle beaucoup de souverainetĂ© numĂ©rique. Et quand on parle de souverainetĂ©, ce n’est pas simplement dans les relations avec les États-Unis ou la Chine, c’est la souverainetĂ© par rapport aux entreprises privĂ©es. Donc, pour moi le sujet n’est pas nouveau, malheureusement ce n’est pas nouveau, c’est un domaine qui est puissant, qui a un potentiel extrĂŞmement puissant, sans doute plus qu’un rĂ©seau social. Donc, oui je pense que c’est très prĂ©occupant, qu’il faudrait vraiment prendre le sujet au sĂ©rieux. Ça fait partie des prĂ©occupations de l’Union europĂ©enne dans sa rĂ©glementation de l’IA. Je n’ai pas l’impression, mais je peux me tromper, j’espère me tromper franchement, que le gouvernement du Canada s’empare avec suffisamment de vigueur de ces enjeux. Tant dans le numĂ©rique, ne serait-ce dĂ©jĂ  que pour encadrer les activitĂ©s numĂ©riques, tant dans le numĂ©rique que dans l’IA. Donc, j’appelle vraiment Ă  un sursaut du gouvernement fĂ©dĂ©ral et des gouvernements provinciaux, l’initiative peut venir des provinces qui pousseraient. Parce qu’il y a des enjeux extrĂŞmement prĂ©occupants.

Animateur : Est-ce qu’on est en voie de rĂ©pĂ©ter des erreurs du passĂ© par rapport Ă  la façon dont on a Ă©vitĂ© de rĂ©glementer l’utilisation des donnĂ©es justement par tous ces acteurs privĂ©s, les Facebook… Est-ce qu’on est en train de rĂ©pĂ©ter les erreurs du passĂ© en n’agissant pas ?

InvitĂ©e : Beaucoup le disent, oui, complètement, beaucoup le disent et le craignent. Bon, je vais essayer de ne pas ĂŞtre encore dĂ©faitiste ou critique, je me dis que ce n’est pas trop tard. Il n’est pas encore trop tard, de toute façon, il vaut mieux agir tardivement que de ne jamais agir. Donc, j'aurais plutĂ´t tendance Ă  dire que fort de cette expĂ©rience et des erreurs du passĂ© en parlons nous de ces questions d’ores et dĂ©jĂ ? J’aurais plutĂ´t tendance Ă  dire cela, il n’est pas trop tĂ´t contrairement Ă  ce que beaucoup disent : ça va brimer l’innovation, on ne sait pas trop ce que c’est l’IA, etc. LĂ  aussi ça m’inquiète, si on l’utilise et qu’on le dĂ©ploie et qu’on ne sait pas trop ce que c’est, c’est quand mĂŞme problĂ©matique. Je pense aussi que l’on surjoue le caractère extraordinaire et la puissance du système d’IA. Il y a beaucoup de systèmes automatiques qui n’intègrent pas nĂ©cessairement l’IA et qui sont tout aussi prĂ©judiciables pour la sociĂ©tĂ© et les individus. Je pense qu’il ne faut pas que le mot IA soit un peu de la magie et qu'on se cache derrière en disant : on ne sait pas c’est tellement puissant, etc. Je pense qu’il faut agir, s’il y a des choses qu’on ne maĂ®trise pas encore, il faut les mettre sur le marchĂ©.

Donc, c’est vraiment justement ça qu’il faut regarder aujourd’hui et qu’il n’est pas trop tard pour agir. Je pense aussi que ça ne doit pas empĂŞcher de rĂ©glementer la protection des renseignements personnels. Parce que, puisque l’on parle de ça, la Loi [0 h 36 min 54 s] a Ă©tĂ© adoptĂ©e en 2000, on ne l’a toujours pas rĂ©visĂ©e. C’est parti justement du projet de loi C27 que j’Ă©voquais tout Ă  l’heure. C’est tout un ensemble finalement avec deux parties sur la rĂ©forme de la [0 h 37 min 3 s] et une partie sur l’IA et les donnĂ©es. Je pense qu’il faut effectivement aborder les choses le plus rapidement possible, dans son ensemble, c’est une bonne idĂ©e. Et il faut aller de l’avant, mĂŞme si peut-ĂŞtre que c’est trop tard pour les renseignements personnels, peut-ĂŞtre que ça aura un impact sur l’avenir quand mĂŞme. C’est sĂ»r que ce qui est pris, est pris, et que les entreprises dominantes du numĂ©rique sont bel et bien installĂ©es.   

Mais il faut aussi utiliser d’autres outils, comme le droit de la concurrence qui certainement est sous-utilisĂ© Au Canada, Ă  l’heure actuelle, en comparaison de l’Union europĂ©enne qui a beaucoup agi et sanctionnĂ© aussi sur le terrain du droit Ă  la concurrence en lien avec les donnĂ©es personnelles. Donc, on a quand mĂŞme dĂ©jĂ  des outils, j’aurais envie de dire servons-nous-en et en mĂŞme temps prenons Ă  bras-le-corps la question de l’IA. D’ailleurs les acteurs sont toujours un peu les mĂŞmes, on retrouve ces mĂŞmes dominants en internet parce qu’ils ont dĂ©jĂ  beaucoup de donnĂ©es et dĂ©jĂ  des systèmes d’IA très sophistiquĂ©. Donc, de toute façon on s’adresse aux mĂŞmes, avec des acteurs nouveaux comme OpenAI, mais de toute façon c’est la mĂŞme chose qui se rĂ©pète.

Animateur : Je ne suis pas certain après la dĂ©cision d’hier avec la fusion de Rogers et Shaw, que les gens ont beaucoup confiance que la concurrence vaut grand-chose.

InvitĂ©e : Oui, oui, je vous renvoie aux propos de Jennifer Quaid sur les questions de concurrence, c’est sĂ»r. Il y a peut-ĂŞtre de nouvelles règles Ă  adopter ou de nouvelles interprĂ©tations Ă  apprendre par rapport Ă  ça. MĂŞme en dehors du droit Ă  la concurrence, il y a peut-ĂŞtre des règles spĂ©cifiques qui peuvent ĂŞtre prises. En Europe, par exemple, on a rĂ©glementĂ© le marchĂ© du numĂ©rique en plus de la concurrence, Ă  cĂ´tĂ© de la concurrence et pour renforcer la concurrence. On intervient, de toute façon, trop tard a posteriori, il y a peut-ĂŞtre des choses Ă  exiger en amont a priori par rapport Ă  ces gĂ©ants et par rapport Ă  l’utilisation des donnĂ©es qu’ils font. Notamment, si on pense Ă  Amazon, Amazon utilise les donnĂ©es de ses clients professionnels pour renforcer ses positions de marchĂ©. Ce n’est pas qu’une question de protection des donnĂ©es personnelles. Donc, il faut aussi s’emparer de ces questions, me semble-t-il. J’avoue que le Canada est assez en retrait, timide sur ces questions-lĂ . Je pense qu’il y a vraiment tout un dossier numĂ©rique et IA, il y a la cybersĂ©curitĂ© a considĂ©rer aujourd’hui.

Animateur : Plus gĂ©nĂ©ralement, est-ce qu’il ne faut pas se donner une mission quelconque dans notre politique pour justement encadrer l’intelligence artificielle ? Il y a des gens qui disent que ces technologies doivent ĂŞtre destinĂ©es au bien commun, doivent respecter les droits de la personne. Est-ce qu’on ne devrait pas avoir un filon conducteur dans tout ça ? Parce que bon, on parle du droit Ă  la concurrence, on parle de droit Ă  la protection de la vie privĂ©e, toutes ces choses ensemble. Comment faire pour Ă©laborer un cadre lĂ©gislatif qui est cohĂ©rent et qui touche Ă  tous ces domaines, qui va tenir compte des champs de compĂ©tence des provinces, versus le fĂ©dĂ©ral ? C’est presque aussi complexe que d’inventer la vraie intelligence artificielle.

InvitĂ©e : C’est très complexe parce que c’est un domaine transversal qui touche Ă  toutes les branches du droit et les enjeux sont sans limites. Donc, forcĂ©ment c’est complexe d’avoir un cadre lĂ©gal pour ça, un Ă©cosystème pour ça finalement. Mais, je me mĂ©fie du joli vocabulaire sur lequel on peut tous tomber d’accord, parce qu’on ne sait pas trop ce qu’il y a derrière : le bien commun, l’humanitĂ©, [for good 00:40:46] et toutes ces choses lĂ , mais bon. On ne sait pas trop ce que c’est. Vraiment ça ne me satisfait pas du tout et c’est vraiment, pour moi, comme si on mettait de l’avant de bonnes intentions, une bonne foi, et puis ça suffirait pour penser que tout va bien aller. C’est malheureusement plus compliquĂ© que ça. En plus, mĂŞme quand on y voit que des principes Ă©thiques un peu plus spĂ©cifiques, en fait, on se rend compte que ça fait rĂ©fĂ©rence Ă  des droits fondamentaux, des droits humains. Donc, j’aurais tendance Ă  dire, raccrochons-nous Ă  nos valeurs essentielles qui permettent justement de transcender un peu toutes ces branches du droit et qui sont au-dessus dans la hiĂ©rarchie des normes. Les principes constitutionnels et la Charte des droits et libertĂ©s. LĂ , on a quand mĂŞme un socle de nos valeurs qui constitue, quand mĂŞme, du droit au sommet. Je pense qu’il faut dĂ©cliner ces… et peut-ĂŞtre donner un caractère un peu plus prĂ©cis dans ce contexte de l’IA. Mais dĂ©cliner cette charte qui est lĂ  et au niveau provincial la mĂŞme chose, comme la Charte quĂ©bĂ©coise ou les textes sur les droits de la personne les droits et libertĂ©s. Il faut dĂ©cliner ces grands principes qui sont dĂ©jĂ  des principes fondateurs, sur lesquels tout notre système juridique repose et toutes nos branches de droit reposent, notre droit dĂ©rivĂ© je dirais.

Donc, revenir Ă  ça et creuser, vraiment approfondir ces diffĂ©rents droits et se dire : quels sont les diffĂ©rents enjeux par rapport Ă  l’IA. LĂ , on retrouve les principes d’Ă©galitĂ©, on retrouve les principes du droit Ă  la vie privĂ©e, la non-discrimination. Et on retrouve aussi des garanties procĂ©durales dans le privĂ© dans l’utilisation d’IA. Donc, on retrouve Ă  mon avis des valeurs essentielles, la sĂ©curitĂ© des personnes, on retrouve des valeurs essentielles qui sont Ă  mon avis absolument fondamentales pour construire un droit de l’IA finalement.

Animateur : Mais ça, ça veut dire qu’il faudrait rĂ©viser certains autres principes qu’on a intĂ©grĂ©s dans nos lois. Je pense encore une fois au droit de la concurrence. Le droit de la concurrence, on s’assoit sur les principes du libre marchĂ©, puis la libre-concurrence va nous livrer des biens et des services au meilleur prix pour le consommateur. Je ne sais pas si ça s’inscrit nĂ©cessairement dans les valeurs traditionnelles de la charte. Mais ce sont des valeurs qu’on a Ă©pousĂ©es ici, au Canada, dans notre façon de nous gĂ©rer Ă©conomiquement. Dans la vie privĂ©e, on entend souvent dans les lois qui touchent Ă  la protection de la vie privĂ©e, on parle toujours d’innovation, de ne pas mettre un gel sur l’innovation. Alors, ça prend quoi pour rĂ©orienter un petit peu ces valeurs vers un objectif qui va justement nous apporter une intelligence artificielle, une technologie qui respecte ces valeurs dont vous, vous parlez?

InvitĂ©e : D’abord, sur les libertĂ©s Ă©conomiques, je ne suis pas du tout pour les remettre en cause, Ă©videmment il en faut, elles sont aussi reconnues ailleurs, ce n’est pas une spĂ©cificitĂ© canadienne. Mais, en fait, c’est toujours une balance des intĂ©rĂŞts. C’est-Ă -dire aucun de ces droits n’est absolu, Ă  part le droit Ă  la vie certainement. Mais aucun droit n’est absolu, c’est toujours une question de subtilitĂ©. Ce n’est pas parce qu’on va mettre des exigences Ă  un marchĂ© qu’on va remettre en cause la libertĂ© Ă©conomique. Par exemple, quand on met un mĂ©dicament sur le marchĂ© il y a des exigences. L’analogie avec le mĂ©dicament est extrĂŞmement bonne s’agissant d’IA, parce qu’il y a des risques sur la santĂ© avec un système d’IA par exemple, il y en a avec un mĂ©dicament, et pour autant on n’empĂŞche pas les industries pharmaceutiques de se dĂ©ployer et de vendre leurs mĂ©dicaments.

Ce qu’on leur demande, c’est de respecter un certain nombre de conditions, de critères, d’expĂ©rimentations, de vĂ©rifications, etc. Finalement, c’est ce que l’on demanderait au fournisseur de systèmes d’IA, donc je ne vois pas ce qu’il y a de nouveau par rapport Ă  ça, et je ne vois pas en quoi ça porterait atteinte aux libertĂ©s Ă©conomiques. Et mĂŞme, plus encore avec l’innovation, Ă  partir du moment oĂą il y a un cadre lĂ©gal clair, le marchĂ© finalement est balisĂ©. C’est plus facile pour ces entreprises de se dĂ©ployer sur le marchĂ©, de s’insĂ©rer sur le marchĂ© quand ils connaissent les règles du jeu. Ils n’ont plus qu’Ă  les respecter et après ils sont assurĂ©s que leur système d’IA pourra ĂŞtre sur le marchĂ© et pourra ĂŞtre vendu sans obstacle, une fois qu’ils ont respectĂ© les règles. Donc, pour moi, c’est un encouragement au dĂ©ploiement Ă©conomique et Ă  l’innovation. Pour moi, le pire c’est l’incertitude de dĂ©velopper un produit, de le mettre sur le marchĂ© et de voir ensuite que ça ne va pas du tout et de devoir le retirer du marchĂ©. Je ne vois pas en quoi les entreprises seraient favorisĂ©es avec ce système-lĂ . Il faut essayer de raisonner pour ne pas opposer l’innovation, l’Ă©conomie, le marchĂ© avec la protection des individus. On a de plus en plus des entreprises qui sont quand mĂŞme sensibles Ă  leur image, on a de plus en plus de responsabilitĂ©s sociales des entreprises. Je pense que justement, ces mouvements-lĂ  et ces idĂ©ologies-lĂ , tendent Ă  faire converger c’est diffĂ©rents objectifs. Je ne crois pas qu’ils soient systĂ©matiquement opposĂ©s. 

Animateur : CĂ©line Castets-Renard, merci beaucoup, ça conclut notre entrevue, mais je veux vous remercier d’avoir pris le temps de nous parler, parce que je pense que vous nous avez quand mĂŞme beaucoup Ă©clairĂ©s sur ces questions. Il faut qu’on s’y attarde assez rapidement.

InvitĂ©e : C’est moi qui vous remercie, ça m’a vraiment fait plaisir de discuter avec vous.

Animateur : Si l’Ă©pisode vous a plu, veuillez le partager avec vos amis et collègues. Si vous avez des commentaires, des rĂ©actions, des suggestions, n’hĂ©sitez pas Ă  nous contacter sur Twitter Ă  (@CBAnatmag) et sur Facebook. Et nous vous invitons aussi Ă  vous rendre sur (nationalmagazine.ca) pour dĂ©couvrir le contenu de notre analyse rĂ©cente de l’actualitĂ© juridique au Canada. Surtout un grand merci Ă  notre producteur John Megill, qui se consacre avec passion Ă  la tâche de rendre l’Ă©coute plus agrĂ©able. Merci Ă  vous tous de nous avoir Ă©coutĂ©s. Ă€ la prochaine.