Language selector

Social Media Links FR


Facebook CODP Twitter CODP Instagram logo Link to OHRC Instagram page

La CODP commente le document d’orientation préliminaire de la CIPVP sur la protection de la vie privée à l’intention des services de police relativement au recours à la reconnaissance faciale

Page controls

Novembre 19, 2021

Page content

 

Selon les instructions régissant le processus de consultation, la Commission ontarienne des droits de la personne (CODP) répond à plusieurs des questions posées par la Commissaire à l’information et à la protection de la vie privée (CIPVP). Par ailleurs, les documents suivants présentent les perspectives récentes de la CODP quant aux principes et aux considérations essentielles associés au recours à l’intelligence artificielle (IA), notamment à la technologie de reconnaissance faciale (RF) :

Mémoire sur le cadre ontarien pour la fiabilité de l’IA

Soumission sur la politique d’utilisation des technologies d’intelligence artificielle du CSPT

Ces commentaires ne répètent pas les points soulevés dans ces mémoires, mais les préoccupations dont ils font état (sur la possibilité que l’IA exacerbe les disparités raciales existantes découlant des pratiques policières) éclairent l’angle adopté par la CODP dans sa lecture du document d’orientation préliminaire.

Il importe en outre de noter que cette réponse ne signifie en aucun cas que la CODP approuve la RF. Dans le sillon des spécialistes canadiennes[1], du Parlement européen[2] et d’autres observateurs faisant autorité, nous reconnaissons que les arguments plaident en faveur de l’imposition d’un moratoire sur la RF jusqu’à ce que les préoccupations diverses et variées (vides juridiques, droits de la personne, respect de la vie privée, etc.) aient été abordées de façon exhaustive.

 

Le présent document d’orientation aura-t-il l’effet escompté, soit de contribuer à assurer que l’usage que font les services de police de la RF est légal et atténue comme il se doit les risques d’atteinte à la vie privée? Si vous estimez que ce n’est pas le cas, pourquoi?

Le document d’orientation a été élaboré de manière réfléchie et est exhaustif au point de tenir compte d’une multitude d’éventualités associées au recours à la RF par la police. De plus, il fait un exposé rigoureux des risques susceptibles de dériver d’usages particuliers de la RF pour certains groupes protégés par le Code.

La CODP a néanmoins des doutes au sujet du paragraphe 71, portant sur les examens périodiques de l’efficacité du programme, qui affirme en partie :

Les examens devraient servir à évaluer dans quelle mesure les activités du programme permettent d’atteindre les objectifs du projet, en utilisant des critères démontrables (par exemple, le nombre d’arrestations ou de condamnations résultant du programme, etc.).

Étant donné que la CIPVP reconnaît que la production de faux positifs est inextricablement liée aux paramètres de seuil (paragraphes 75 et 76), il apparaît clairement qu’il serait possible de démontrer (de manière problématique) l’efficacité des programmes dans des situations où la police aurait fixé des seuils bas, généré un nombre important de faux positifs et procédé à des arrestations par erreur sur ces bases. Nous mettons ainsi en garde contre l’inclusion des arrestations (et/ou des condamnations) parmi les mesures de l’efficacité de la RF.

 

Le recours à la RF par les services de police est-il encadré de façon appropriée au Canada par les lois existantes? Si ce n’est pas le cas, quelles sont vos préoccupations quant à la façon dont l’utilisation de la RF par les services de police est encadrée aujourd’hui et quelles modifications devraient être apportées au cadre juridique actuel?

Comme elle l’indique clairement dans son Mémoire sur le cadre ontarien pour la fiabilité de l’IA, la CODP est d’avis que la RF n’est pas encadrée de façon appropriée par les lois existantes. Notre opinion coïncide avec celles de divers spécialistes en la matière. À titre d’exemple, Yuan Stevens de l’Université Ryerson et Sonja Solomun de l’Université McGill ont observé :

Au Canada, il est actuellement possible de recueillir et de transmettre des images faciales à des fins d’identification, et ce, sans consentement et sans modalités juridiques appropriées, notamment concernant le droit de contester les décisions prises à l’aide de cette technologie. Le risque d’identification ou d’arrestation par erreur en recourant aux systèmes de reconnaissance faciale est énorme. En dépit de ces préjudices, la loi canadienne sur la protection de la vie privée, justement censée prémunir contre ce type de surveillance de masse, est présentement dépourvue de tout véritable pouvoir de contrainte et de toute mesure de protection appropriée des renseignements faciaux. Contrairement aux protections contre la collecte d’autres types de renseignements biométriques, comme les empreintes génétiques ou digitales, les lignes directrices et les mécanismes de consentement clairs relatifs à l’utilisation qui peut ou doit être faite de nos renseignements faciaux, très sensibles et exposés au risque d’abus, font également défaut au Canada.

La Loi sur la protection des renseignements personnels (la « Loi »), qui renferme les dispositions législatives du gouvernement fédéral du Canada liées à la protection de la vie privée, n’inclut pas explicitement les renseignements faciaux et biométriques comme sous-ensembles de renseignements personnels méritant une protection particulière. Par conséquent, la Loi échoue à offrir des protections appropriées face aux risques considérables associés à la collecte, à l’utilisation et à la divulgation de certains renseignements personnels parmi les plus sensibles : nos visages[3].

De surcroît, si l’on tient compte des renseignements figurant dans la décision rendue par la cour d’appel du Royaume-Uni dans l’affaire Edward Bridges, le Canada ne dispose pas des organismes, bureaux et codes dont les fonctions seraient équivalentes à celles 1) de l’Oversight and Advisory Board (conseil consultatif de surveillance), créé par le secrétaire d’État, qui coordonne « la prise en considération du recours aux images faciales et à la technologie de reconnaissance faciale automatisée (RFA) par les autorités de police » (paragraphe 5); 2) du Surveillance Camera Commissioner (commissaire aux caméras de surveillance), dont « les responsabilités incluent notamment l’encadrement du recours aux caméras de surveillance et de leur utilisation conjointe avec la technologie de RFA » [traduction] (paragraphe 6); ou 3) du Surveillance Camera Code of Practice (code d’usage des caméras de surveillance, paragraphe 6).

Même si le cadre réglementaire britannique souffre indubitablement de limitations majeures (par exemple, les paragraphes 91 et 94 sur les dispositions accordant un pouvoir discrétionnaire excessivement vaste à la police), il semble plus solide que celui actuellement en vigueur au Canada et peut donc servir, au moins provisoirement, de modèle convenable pour notre positionnement national.

Tout cadre juridique approprié devrait en outre reposer sur ce que le Parlement européen appelle la nécessité « de créer un régime clair et équitable pour l’attribution de la responsabilité juridique des conséquences négatives potentielles de ces technologies numériques avancées » (p. 10, par. 13).

 

L’utilisation que font les services de police de la RF, y compris la collecte des empreintes faciales, devrait-elle se limiter à un ensemble déterminé de fins (comme pour les crimes graves ou pour des raisons humanitaires, par exemple dans le cas de personnes disparues)? Les services de police devraient-ils être en mesure d’utiliser ou de conserver des empreintes faciales autres que celles des personnes qui ont été arrêtées ou condamnées?

Le Parlement européen attire à juste titre l’attention sur les dangers du « détournement de l’usage » (p. 10, par. 11) en ce qui concerne la RF. Comme le montre l’affaire Bridges, l’étendue de l’utilisation actuelle et possible de la RF est assez vaste :

Les listes de surveillance utilisées dans le cadre des déploiements en cause dans cette affaire incluaient 1) des personnes recherchées en vertu d’un mandat, 2) des personnes qui sont illicitement en liberté (ayant échappé à la détention légale), 3) des personnes soupçonnées d’avoir commis des crimes, 4) des personnes susceptibles d’avoir besoin de protection (par exemple des personnes disparues), 5) des personnes dont la présence lors d’une manifestation spécifique constitue une source de préoccupation particulière, 6) des personnes qui présentent simplement un intérêt potentiel pour le service de police du pays de Galles du Sud (SWP) et 7) des personnes vulnérables.

Le Parlement européen demande un moratoire nuancé sur la RF, avec une exception permettant d’y recourir strictement « aux fins de l’identification des victimes de la criminalité ». Il semble qu’il s’agisse d’une exception défendable. Il faudrait également envisager d’en faire une à l’égard des tentatives de résolution de crimes majeurs, lorsque les autres moyens sont inadaptés de façon vérifiable, comme le justifient les méthodes employées pour capturer les personnes ayant tué Nnamdi Obga à Toronto en mars 2018.

 

Existe-t-il d’autres enjeux importants en matière de politiques sur lesquels il y aurait lieu de se pencher en rapport avec l’utilisation que font les services de police de la RF?

Le document d’orientation préliminaire mentionne des « images faciales préalablement saisies », qui proviennent souvent des bases de données de photos d’identité judiciaires. L’étendue de ces bases de données est tout à fait stupéfiante, en particulier au sein des organisations policières majeures. À titre d’exemple, le Toronto Star a révélé, dans un article de mai 2019, que la police torontoise disposait d’une « base de données interne d’environ 1,5 million de photos d’identité judiciaires ». Plus généralement, des décisions judiciaires ont été rendues vis-à-vis de 977 227 accusations (Code Criminel sauf délits de la route) dans tout le Canada en 2019-2020. Sur ce total, un pourcentage relativement faible (36 %) de décisions ont conclu à la culpabilité. La grande majorité des accusations restantes ont été soit suspendues soit retirées. Et bien que des organisations policières de tout le Canada (par exemple dans la région de York, à Toronto, à Vancouver, etc.) disposent de modalités relatives à la destruction des photos d’identité judiciaires, les critères, processus et frais connexes créent probablement des obstacles pour les personnes marginalisées qui cherchent à faire retirer leurs photos des bases de données de la police.

Considérer ce contexte empirique sous le prisme des tendances racialement disproportionnées en matière d’arrestations et d’accusations[4], ciblant essentiellement les membres des communautés autochtones et noires, fait apparaître le risque que le recours à la RF contribue à reproduire et à exacerber les disparités existantes.

Le Parlement européen préconise « la transparence… quant aux données sources » (p. 11, par. 17), comme les bases de données policières qui servent de sources à la création des listes de surveillance. Pour le moment, cependant, il semble n’y avoir aucune transparence sur la composition raciale des bases de données de photos d’identité judiciaires de la police; tout comme nous n’avons pas la moindre idée du nombre de personnes y figurant qui ont réellement été déclarées coupables d’un crime. Au minimum, le respect de la norme de transparence élaborée par l’Union européenne susciterait des réponses rigoureuses à ces questions en suspens. 

 

[1] Yuan Stevens et Sonja Solomun, « Saving Face: Canadian law lags behind technology », Ottawa Citizen, 2 mars 2021.

[2] Le Parlement européen « demande… un moratoire sur le déploiement des systèmes de reconnaissance faciale à des fins répressives destinés à l’identification, à moins qu’ils ne soient utilisés qu’aux fins de l’identification des victimes de la criminalité, jusqu’à ce que les normes techniques puissent être considérées comme pleinement respectueuses des droits fondamentaux, que les résultats obtenus ne soient ni biaisés, ni discriminatoires, que le cadre juridique offre des garanties strictes contre les utilisations abusives ainsi qu’un contrôle et une surveillance démocratiques rigoureux, et que la nécessité et la proportionnalité du déploiement de ces technologies soient prouvées de manière empirique; relève que lorsque les critères susmentionnés ne sont pas remplis, les systèmes ne devraient pas être utilisés ou déployés… » (p. 15, par. 27).

[3] Yuan Stevens et Sonja Solomun, « Saving Face: Canadian law lags behind technology », Ottawa Citizen, 2 mars 2021.

[4] À titre d’exemple, le rapport Un impact disparate de la CODP repose sur plusieurs modes d’analyse des données (qui concernent Toronto) qui étayent « l’argument selon lequel, en raison de préjugés raciaux, les personnes noires courent davantage le risque que les personnes blanches de faire l’objet d’accusations de mauvaise qualité et peu susceptibles d’aboutir à une condamnation » [traduction] (p. 73).