Les robots, oui, mais pas au détriment des humains

  • 07 aoĂ»t 2019

Le recours Ă  l’intelligence artificielle pour accroĂ®tre l’efficience est une pratique sensĂ©e puisque l’automatisation des tâches routinières permet de se concentrer davantage sur celles de nature plus complexe.

Dans le contexte de l’immigration en particulier, on ne devrait jamais oublier quel est le meilleur moyen, qu’il s’agisse d’une personne ou d’une chose, de parvenir au rĂ©sultat souhaitĂ©.

La Section du droit de l’immigration affirme, dans une lettre adressĂ©e au ministre de l’Immigration (uniquement en anglais), que le fait de permettre aux outils technologiques de devenir des dĂ©cideurs de substitution pourrait sonner le glas du pouvoir discrĂ©tionnaire. L’intelligence artificielle et l’apprentissage machine devraient permettre aux humains de prendre des dĂ©cisions en connaissance de cause et non pas se substituer Ă  eux.

[TRADUCTION] « Nous craignons que les outils de prise de dĂ©cision automatisĂ©e puissent se fier Ă  des critères fondĂ©s sur la discrimination et les stĂ©rĂ©otypes tels que l’apparence, la religion ou les habitudes de dĂ©placement, comme des substituts viciĂ©s Ă  des donnĂ©es plus pertinentes et personnalisĂ©es, intĂ©grant des prĂ©judices dans un outil apparemment neutre », Ă©crit la section.

[TRADUCTION] « Les dĂ©cideurs automatisĂ©s pourraient ne pas saisir la nature nuancĂ©e et complexe d’un grand nombre de demandes de statut de rĂ©fugiĂ© ou d’immigration, ce qui pourrait conduire Ă  de graves violations des droits de la personne, tels que le droit Ă  la protection des renseignements personnels, Ă  l’application rĂ©gulière de la loi et Ă  l’Ă©galitĂ©. »

Le gouvernement fĂ©dĂ©ral utilise l’intelligence artificielle et l’apprentissage machine depuis 2014 pour effectuer des tâches jusque-lĂ  assumĂ©es par des agents d’immigration, et pour appuyer le processus d’Ă©valuation des demandes de certains immigrants et visiteurs.

Une directive gouvernementale sur la prise de dĂ©cision automatisĂ©e, entrĂ©e en vigueur en avril, vise Ă  garantir que l’intelligence artificielle est utilisĂ©e de manière Ă  rĂ©duire les risques et Ă  donner lieu Ă  « une prise de dĂ©cisions plus efficace, exacte et conforme, qui peut ĂŞtre interprĂ©tĂ©e ». Le gouvernement a Ă©galement crĂ©Ă© un outil d’Ă©valuation de l’incidence algorithmique pour aider les ministères fĂ©dĂ©raux Ă  comprendre les risques liĂ©s Ă  la prise de dĂ©cision automatisĂ©e.

[TRADUCTION] « Alors que nous considĂ©rons que la directive et l’Ă©valuation de l’incidence algorithmique reprĂ©sentent des Ă©volutions positives, la prise de dĂ©cision automatisĂ©e dans le contexte de l’immigration nous prĂ©occupe », dĂ©clare la section dans une lettre adressĂ©e au ministre de l’Immigration.

Selon la section, tant la directive que l’Ă©valuation de l’incidence algorithmique devraient comporter une dĂ©finition plus dĂ©taillĂ©e du concept de « biais imprĂ©vus » et tendre Ă  Ă©liminer le prĂ©judice fondĂ© sur des Ă©lĂ©ments tels que le genre, la religion, la race et le pays d’origine, visĂ©s par le droit de la protection des droits de la personne.

La section exhorte Immigration, RĂ©fugiĂ©s et CitoyennetĂ© Canada Ă  veiller Ă  ce que des critères de sĂ©lection [TRADUCTION] « sensibles et spĂ©cifiques » soient insĂ©rĂ©s dans les outils technologiques et tenus Ă  jour au regard des Ă©volutions de la lĂ©gislation, des instructions ministĂ©rielles et du contexte social. Elle suggère en outre un contrĂ´le minutieux et permanent de ces outils afin de protĂ©ger les renseignements personnels des personnes qui dĂ©posent des demandes.

La section recommande Ă©galement au gouvernement d’Ă©tablir un organisme indĂ©pendant [traduction] « dotĂ© du pouvoir et de la compĂ©tence nĂ©cessaires pour surveiller et contrĂ´ler tous les recours Ă  la prise de dĂ©cision automatisĂ©e par le gouvernement fĂ©dĂ©ral, y compris le caractère appropriĂ© des pratiques d’approvisionnement et des tractations avec le secteur privĂ© de la technologie ».

[0] Commentaires

Les membres de l’ABC peuvent commenter ce billet.