Skip to main content

Nouvelle stratégie canadienne en matière d’IA

Le 29 octobre 2025

La Commission ontarienne des droits de la personne (CODP) est heureuse de pouvoir éclairer l’élaboration de la prochaine stratégie canadienne en matière d’intelligence artificielle (IA). 

La CODP est un organisme constitué en vertu du Code des droits de la personne de l’Ontario(le Code). Son mandat consiste principalement à promouvoir et à faire progresser les droits de la personne tout en luttant contre la discrimination systémique en Ontario. La CODP s’acquitte de ce mandat par l’élaboration de politiques, la réalisation d’enquêtes publiques et l’intervention stratégique devant les tribunaux. 

La CODP a constaté avec satisfaction que l’énoncé de vision de la stratégie canadienne en matière d’IA décrit « un avenir où l’on peut avoir confiance en l’IA, et où l’IA peut contribuer à renforcer les industries, à protéger les droits de la personne et à servir le bien public. Nous allons nous assurer que toutes les communautés canadiennes profitent de ses retombées et que les risques sont pris en compte et gérés de manière responsable[1] ». Reconnaître que l’essor de l’IA doit se faire dans le respect des droits de la personne, susciter la confiance du public et rapporter des avantages communs est un excellent point de départ pour l’élaboration d’une stratégie en matière d’IA.

Le ministre Evan Solomon a également mentionné à plusieurs reprises l’importance de la sécurité comme l’un des piliers de l’approche canadienne en matière d’IA, tout en s’assurant que le Canada demeure un lieu attrayant pour les industries[2]. La CODP souscrit fermement à ce point de vue et considère que mettre l’accent sur les droits de la personne et d’autres valeurs canadiennes fondamentales sera un catalyseur de possibilités nouvelles, d’innovation et d’excellence. 

Le Canada reconnaît déjà que pour être vraiment solide et bénéfique, l’innovation en matière d’IA doit reposer sur des technologies sûres et fiables, qui servent l’intérêt supérieur de toute la population canadienne. Il est donc crucial d’intégrer cette reconnaissance dans la stratégie canadienne en matière d’IA. Sans mesures fondamentales de protection des droits de la personne, le développement et l’utilisation de systèmes d’IA peuvent causer de graves préjudices aux Canadien(ne)s. 

Comme nous l’expliquons plus loin, ces préjudices ne sont ni théoriques ni hypothétiques. Malheureusement, il existe de trop nombreux exemples de torts graves causés à des personnes et à des communautés, y compris de la discrimination fondée sur la race, le sexe et d’autres attributs personnels. Ces exemples répétés de préjudices prévisibles ou imprévus, qui ne constituent pas des cas exceptionnels, montrent qu’il faut établir des normes afin de protéger les principes les plus fondamentaux de la société dans le contexte de l’utilisation de l’IA.

C’est donc selon cette perspective commune quant à l’utilisation sûre et bénéfique de l’IA que la CODP formule des recommandations en vue de placer les droits de la personne au cœur de la nouvelle stratégie canadienne en matière d’IA pour faire en sorte que les occasions, les avantages et les protections liés à l’IA soient accessibles sans discrimination.

 


 

Conséquences discriminatoires de l’utilisation de systèmes d’IA

Faute d’encadrement, des systèmes d’IA ont reproduit et amplifié la discrimination systémique qui sévissait déjà. Dans certains cas, ils ont causé des incidents d’une ampleur jamais vue auparavant. 

  • Enquêtes fiscales : Aux Pays-Bas, 20 000 familles ont fait l’objet d’une enquête injustifiée de la part des autorités fiscales du pays pour avoir frauduleusement demandé des prestations pour enfants; environ 10 000 familles ont dû rembourser des dizaines de milliers d’euros. Dans certains cas, les personnes concernées se sont retrouvées au chômage ou ont été acculées à la faillite. Le gouvernement avait implanté un système algorithmique qui accordait une attention particulière à l’origine ethnique des gens et à ceux ayant une double nationalité, les profilant en fonction de leur race. Le gouvernement des Pays-Bas a démissionné en 2021 à la suite de cet événement en raison des pressions du public[3].

    De plus, on a constaté récemment qu’un système d’IA utilisé au Royaume-Uni pour déceler des cas de fraude dans l’aide sociale recommandait de façon injustifiée des enquêtes fondées sur l’âge, le handicap, l’état matrimonial et la nationalité des gens[4]. On a également allégué que des systèmes employés au Royaume-Uni et en France étaient discriminatoires envers les mères célibataires[5]. 

     
  • Enquêtes en matière de violence familiale : En Espagne, le système d’évaluation des risques de violence fondée sur le sexe sous-estimait souvent le niveau de risque auquel les femmes étaient exposées, entraînant une intervention policière inadéquate dans des centaines de dossiers où les femmes ont été par la suite tuées par leur partenaire[6].
     
  • Enquêtes en matière de bien-être de l’enfance : Des organismes des États-Unis utilisent des systèmes prédictifs pour générer des scores de risque à l’aide de données relatives à des facteurs tels que le handicap, le taux de pauvreté et la taille de la famille, ainsi que de mesures substitutives comme des indicateurs géographiques, qui pourraient servir à déduire d’autres attributs personnels. L’utilisation de ce genre de système est préoccupante sur le plan des droits de la personne, car elle attribue des niveaux de risque fondés sur des mesures arbitraires et des données démographiques liées à des motifs protégés au lieu des circonstances particulières de chaque enfant et de chaque famille[7].
     
  • Approbations de prêts hypothécaires : Aux États-Unis, les personnes noires étaient 80 % plus susceptibles que les personnes blanches de voir leur demande de prêt hypothécaire rejetée par les algorithmes utilisés par les prêteurs, contrairement aux déclarations voulant que de tels systèmes s’appuyant sur des données financières exhaustives éliminent les disparités[8].
     
  • Utilisations commerciales de la reconnaissance faciale : La Federal Trade Commission des États-Unis a conclu qu’une chaîne de pharmacies avait omis d’adopter des procédures aux fins de l’utilisation d’un système automatisé de reconnaissance faciale utilisant l’IA dans des centaines de magasins, où des milliers de clients ont été considérés de façon injustifiée comme étant des risques pour la sécurité[9]. Le personnel de ces magasins suivait et expulsait alors ces clients faussement signalés, les soupçonnant d’actes illégaux, ou faisait appel à la police. Ce système était plus susceptible de donner lieu à de faux positifs fondés sur la race et le sexe.
     
  • Services de police : L’enquête bien connue des autorités de contrôle de la protection de la vie privée du Canada sur la technologie de reconnaissance faciale de Clearview AI[10] et le document d’orientation du Commissaire à l’information et à la protection de la vie privée (CIPVP) sur la reconnaissance faciale et les bases de données de photos signalétiques[11] soulèvent des préoccupations quant aux biais de cette technologie et aux procédures qui régissent son utilisation. Par exemple, les communautés marginalisées croient qu’elles pourraient être représentées de façon disproportionnée dans les bases de données biométriques. 

    Certains services de police ont commencé à utiliser des technologies de maintien de l’ordre prédictif s’appuyant sur des données sur la criminalité, lesquelles sont issues de pratiques policières historiquement discriminatoires, pour établir la probabilité future d’actes criminels[12]. Se fonder sur des données biaisées pour prédire le crime et prendre des décisions en matière de déploiement donne lieu à des interventions policières plus fréquentes dans des secteurs où elles sont déjà excessives. Des services de police des États-Unis ont annulé des contrats d’acquisition de technologies prédictives en raison de méthodologies défaillantes[13] et de problèmes de fiabilité[14].

L’IA suscite également des préoccupations importantes sur le plan des droits de la personne au Canada. En 2019, la CODP et la Commission canadienne des droits de la personne (CCDP) ont soulevé conjointement des inquiétudes selon lesquelles Facebook Inc. (maintenant Meta Platforms Inc.) et sa plateforme publicitaire algorithmique favorisaient la parution de publicités discriminatoires en contravention des lois fédérales et provinciales sur les droits de la personne. On a révélé à l’époque que cette plateforme permettait aux annonceurs d’abuser délibérément des outils publicitaires afin que des annonces liées au logement[15] et à l’emploi[16] ne soient pas présentées à certaines personnes en fonction de caractéristiques personnelles comme l’âge, le sexe et la race. Plus tôt cette année, l’Institut néerlandais des droits humains a rendu une décision selon laquelle la plateforme publicitaire de l’entreprise continue de donner lieu à de la discrimination fondée sur le sexe et l’âge[17].

Plus tôt cette année, le Bureau de la concurrence du Canada a entamé une enquête sur l’utilisation du logiciel YieldStar par des locateurs, qui ont fait collusion pour hausser les loyers en s’appuyant sur des algorithmes[18]. Des locateurs ont abusé de cette technologie pour augmenter les loyers de jusqu’à 40 % dans certains quartiers de Toronto où les loyers étaient les plus faibles[19]. Les populations à faible revenu et racisées ainsi que les nouveaux arrivants étaient surreprésentés dans ces quartiers, et ce sont eux qui ont donc été les plus touchés par ces augmentations de loyer découlant de l’utilisation de YieldStar. Aux États-Unis, l’État de New York vient d’adopter une loi interdisant le recours à de telles technologies[20].

Dans bien des cas, les organismes en cause auraient dû être conscients des limites de ces technologies et des préjudices qu’elles pouvaient causer ou auxquels elles pouvaient contribuer. Ces exemples soulèvent de sérieuses inquiétudes et jettent un éclairage sur les risques associés à des technologies dont la sécurité n’a pas encore été bien confirmée. Ils soulignent aussi les graves torts que peut causer leur défaillance ou leur abus, y compris des atteintes aux droits de la personne allant jusqu’à la perte du droit à la vie, à la liberté et à la sécurité de sa personne. Ces défaillances et abus possibles ne se limitent pas aux entités privées; ils peuvent aussi se produire dans des institutions publiques.  

Dans la lignée d’incidents passés liés aux droits de la personne, les technologies émergentes, et particulièrement les grands modèles de langage (GML), continuent de reproduire et d’amplifier les tendances actuelles en matière de biais et de discrimination dans leurs résultats, ce qui indique clairement que les développeurs et exploitants de systèmes d’IA n’accordent pas suffisamment d’importance aux droits de la personne actuellement : 
 

  • Des applications comme ChatGPT d’OpenAI et Claude d’Anthropic produisent systématiquement des résultats incitant les utilisateurs à négocier des salaires considérablement plus bas selon des renseignements fournis sur leur sexe, leur origine ethnique ou leur statut de réfugié[21].
     
  • Les outils de présélection textuelle fondés sur des GML, notamment pour le tri automatisé des candidatures d’emploi, continuent d’afficher des biais à l’égard des personnes en raison de leur race ou d’autres caractéristiques personnelles, et ces désavantages sont amplifiés lorsque ces personnes cumulent plusieurs attributs à l’égard desquels ces outils présentent des biais négatifs[22].
     
  • Les GML génèrent des résultats qui préconisent des options moins avantageuses lors de l’appariement d’emplois et des peines plus lourdes pour les personnes reconnues coupables d’un crime, en raison du dialecte d’anglais qu’elles utilisent[23].

On a également constaté que des techniques d’IA qui se sont révélées prometteuses, comme le dépistage du cancer et d’autres tests diagnostiques, reproduisent les tendances actuelles selon lesquelles les groupes racisés et d’autres groupes sont plus susceptibles de recevoir des diagnostics erronés ou des résultats de tests moins fiables[24].

Les enjeux liés aux biais et à la discrimination persistent, et ils démontrent que même si les développeurs et concepteurs reconnaissent l’importance des droits de la personne, cela ne les amènera pas pour autant à s’attarder suffisamment à l’impact social de leur travail et à l’adoption responsable de l’IA au Canada. Les politiques publiques, y compris la stratégie canadienne en matière d’IA, doivent sans conteste accorder la priorité aux droits de la personne dans la conception et l’utilisation de ces technologies.

 


 

Recommandations de la CODP 

La CODP formule les recommandations suivantes, qui reconnaissent à la fois la croissance, l’innovation et le bien commun que promet l’IA ainsi que les préjudices qu’elle pourrait causer à moins d’assurer la protection des droits de la personne.

 

Recommandation 1 : Intégrer les obligations du Canada en matière de droits de la personne dans la stratégie canadienne en matière d’IA

Les droits de la personne sont protégés par un ensemble de lois fédérales, provinciales et territoriales, dont la Charte canadienne des droits et libertés (la Charte), la Loi canadienne sur les droits de la personne (la Loi) et des lois provinciales et territoriales sur les droits de la personne comme le Code des droits de la personne de l’Ontario (le Code). Ces textes de loi protègent les droits de la personne dans de nombreux domaines de la société.

Les lois canadiennes sur les droits de la personne s’appliquent aux systèmes d’IA. Les développeurs, exploitants et propriétaires de tels systèmes doivent prévenir et éliminer la discrimination que comporte l’utilisation de l’IA. Reconnaître le cadre national de droits de la personne dans la stratégie canadienne en matière d’IA susciterait la confiance des industries et du public canadiens, permettant à ce dernier d’adopter des approches fondées sur l’IA tout en attirant des développeurs et des innovateurs. Une telle reconnaissance permettrait aussi de mieux faire comprendre aux développeurs, exploitants et propriétaires de systèmes d’IA leurs obligations en matière de droits de la personne. Cette démarche est conforme au souci du Canada de respecter les normes internationales de premier plan, dont celles de l’Organisation de coopération et de développement économiques (OCDE). Ainsi, l’OCDE a fait des droits de la personne l’un de ses cinq Principes de l’IA :

Les acteurs de l’IA devraient respecter l’état de droit, les droits humains, les valeurs démocratiques et les valeurs centrées sur l’humain, tout au long du cycle de vie des systèmes d’IA. Cela comprend la non-discrimination et l’égalité, la liberté, la dignité, l’autonomie des individus, la protection de la vie privée et des données, la diversité, l’équité, la justice sociale, ainsi que les droits des travailleurs reconnus à l’échelle internationale. Cela recouvre aussi la lutte contre la mésinformation et la désinformation amplifiées par l’IA, dans le respect de la liberté d’expression et des autres droits et libertés protégés par le droit international en vigueur.

Pour ce faire, les acteurs de l’IA devraient instituer des garanties et des mécanismes, tels que la capacité d’intervention et de surveillance humaines, y compris pour faire face aux risques découlant d’utilisations à des fins autres que celles prévues ou d’une mauvaise utilisation délibérée ou involontaire, d’une manière qui soit adaptée au contexte et à l’état de l’art[25].

Les Principes de l’IA de l’OCDE ont pour objectif de promouvoir « une IA innovante et digne de confiance qui respecte les droits humains et les valeurs démocratiques[26] ». Actuellement, 47 pays y souscrivent, dont le Canada.

De plus, le Canada est l’un des signataires de la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit[27], et s’est donc engagé à respecter les dispositions de l’article 10 concernant l’égalité et la non-discrimination :

Chaque Partie adopte ou maintient des mesures visant à garantir le respect de l’égalité, y compris l’égalité de genre, et l’interdiction de la discrimination dans les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle, comme le prévoit le droit international et interne applicable.

Chaque Partie s’engage à adopter ou à maintenir des mesures visant à supprimer les inégalités dans les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle, afin d’obtenir des résultats impartiaux, justes et équitables, dans le cadre des obligations nationales et internationales qui lui incombent en matière de droits de l’homme[28].

L’objectif de la stratégie en matière d’IA de « bâtir des systèmes d’IA sécuritaires et de renforcer la confiance du public envers cette technologie » doit tenir compte des engagements du Canada en matière de droits de la personne.

La CODP recommande que le Canada reconnaisse expressément, dans sa stratégie en matière d’IA, le cadre juridique des droits de la personne, y compris la Charte canadienne des droits de la personne, la Loi canadienne sur les droits de la personne et les lois provinciales et territoriales sur les droits de la personne, et applique ses engagements internationaux à l’élaboration de cette stratégie, dont ceux exprimés dans les Principes de l’IA de l’OCDE et dans la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit.

 


 

Recommandation 2 : Intégrer des principes fondés sur les droits de la personne pour favoriser l’utilisation responsable de l’IA

Comme le propose l’énoncé de vision de la stratégie en matière d’IA, l’utilisation de l’IA devrait avoir des retombées positives sur toute la population canadienne. Pour exploiter le potentiel de ces technologies, il faut les utiliser en tenant compte de l’importance que la société canadienne accorde à nos valeurs et droits fondamentaux. C’est pourquoi, en 2023, le Commissaire à l’information et à la protection de la vie privée de l’Ontario (CIPVP) et la CODP ont publié une déclaration commune exhortant le gouvernement de l’Ontario à poser des balises afin d’assurer l’utilisation responsable, sécuritaire et fiable de l’IA dans le secteur public[29]. La CODP et le CIPVP ont réclamé que ces balises s’appuient sur des principes; ainsi, les systèmes d’IA devraient présenter les qualités suivantes :

  • Ils doivent être valides et fiables : Les systèmes d’IA doivent donner des résultats valides, fiables et exacts pour les fins auxquelles ils sont conçus, utilisés ou mis en œuvre.
     
  • Ils doivent être sûrs : Les systèmes d’IA doivent être élaborés, acquis et gérés de façon à prévenir les préjudices ou les résultats préjudiciables indésirables qui portent atteinte aux droits de la personne, y compris le droit à la vie privée et à la non-discrimination.
     
  • Ils doivent être respectueux de la vie privée : Les systèmes d’IA devraient être élaborés selon une approche de protection de la vie privée dès la conception. Les développeurs, fournisseurs ou utilisateurs de ces systèmes devraient prendre dès le départ des mesures proactives pour protéger la vie privée et le droit à l’information. 
     
  • Ils doivent protéger les droits de la personne : Les droits de la personne sont inaliénables, et leur protection doit être intégrée dans la conception des systèmes d’IA et les procédures connexes. Les institutions qui utilisent des systèmes d’IA doivent prévenir la discrimination ou y remédier, et veiller à ce que les avantages tirés du recours à l’IA soient universels et accessibles sans discrimination. 
     
  • Ils doivent être transparents : Les institutions qui développent, fournissent et utilisent des systèmes d’IA doivent s’assurer qu’ils sont visibles, compréhensibles, traçables et explicables.
     
  • Ils doivent être responsables : Les organismes devraient se doter d’une structure de gouvernance interne accompagnée de rôles et responsabilités et de procédures de surveillance clairement définis, et prévoir une intervention humaine afin d’assurer la responsabilisation tout au long du cycle de vie des systèmes d’IA.

La CODP prie instamment le Canada d’intégrer ces principes dans la stratégie canadienne en matière d’IA pour que les systèmes d’IA soient élaborés, acquis, utilisés et mis hors service dans le respect des droits de la personne.

La CODP recommande que le Canada intègre ces principes dans son approche de l’IA pour que l’innovation soit solidement ancrée dans ses valeurs fondamentales et ne se fasse pas au détriment des droits des Canadien(ne)s.

 


 

Recommandation 3 : Promouvoir les évaluations de l’impact sur les droits de la personne

Les évaluations de l’impact comptent parmi les principales stratégies qui permettent de relever et d’évaluer les risques associés à l’utilisation de l’IA. Elles sont obligatoires en vertu de la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit, dont le Canada est signataire, laquelle prévoit que chaque partie « adopte ou maintient des mesures afin d’identifier, d’évaluer, de prévenir et d’atténuer les risques posés par les systèmes d’intelligence artificielle en tenant compte des impacts réels et potentiels sur les droits de l’homme, la démocratie et l’État de droit[30] ». L’outil d’évaluation de l’incidence algorithmique[31] du gouvernement du Canada compte parmi les normes mondiales de premier plan pour évaluer et atténuer les risques des systèmes décisionnels automatisés au gouvernement fédéral.

Les évaluations de l’impact représentent aussi un important élément de la gouvernance de l’IA afin d’évaluer et de régler les problèmes mettant en cause les droits de la personne dans les systèmes d’IA avant qu’ils ne donnent lieu à de la discrimination et à d’autres infractions à la loi. C’est pourquoi, l’an dernier, la CODP et la Commission du droit de l’Ontario, en collaboration avec la Commission canadienne des droits de la personne, ont publié une Évaluation de l’impact de l’intelligence artificielle sur les droits de la personne (EIDP) pour aider les concepteurs, développeurs, exploitants et propriétaires de systèmes d’IA à créer et à utiliser des systèmes qui sont conformes aux protections dont font l’objet les droits de la personne spécifiquement en Ontario.[32]

Les biais et la discrimination sont des enjeux complexes, et des groupes qui évaluent et auditent des systèmes d’IA ont fait savoir à la CODP qu’ils ont souvent tendance à ne pas en tenir compte car ils ne possèdent ni les connaissances ni l’expertise nécessaires pour déterminer si leur utilisation de l’IA suscite des préoccupations en matière de droits de la personne. L’EIDP est conçue pour épauler les organisations à cette fin.

La CODP recommande que la stratégie en matière d’IA préconise la tenue d’évaluations de l’impact sur les droits de la personne afin d’aider les intervenants des secteurs privé et public à évaluer et à atténuer l’impact sur les droits de la personne des systèmes d’IA.

 


 

Conclusion

Le potentiel d’innovation de l’IA promet de transformer de façon positive des aspects clés de notre quotidien en favorisant l’efficacité, la croissance économique et le progrès social. Toutefois, des préoccupations essentielles liées aux droits de la personne sont souvent reléguées au second plan. L’adoption hâtive de systèmes d’IA non validés continue de causer des incidents aux conséquences dommageables, qui démontrent que l’on ne tient pas suffisamment compte des droits de la personne dans le développement, la gouvernance et l’utilisation de ces technologies. 

La stratégie canadienne devrait faire des droits de la personne un pilier de notre approche de l’IA. Elle doit reconnaître les engagements internationaux du Canada à l’égard des droits de la personne et faire clairement comprendre aux développeurs, exploitants et propriétaires de systèmes d’IA qu’ils doivent respecter leurs obligations en matière de droits de la personne. La stratégie canadienne doit prévoir expressément que les systèmes d’IA et leur utilisation doivent respecter les droits de la personne, et qu’il faut démontrer que ces systèmes sont valides et fiables, et que leur utilisation est sûre, respectueuse de la vie privée, transparente et responsable. Elle devrait également préconiser la tenue d’évaluations de l’impact sur les droits de la personne pour aider les parties prenantes à évaluer et à atténuer l’impact de leurs systèmes d’IA sur les droits de la personne.

Le Canada est un chef de file de l’IA. La CODP propose le présent mémoire afin d’aider le gouvernement à réaliser sa vision de faire en sorte que toute la population canadienne puisse tirer profit des avantages de l’IA sans discrimination.

 



 [1] Innovation, Sciences et Développement économique Canada, Aidez à définir le prochain chapitre du leadership du Canada en matière d’IA (2025), en ligne : https://ised-isde.canada.ca/site/isde/fr/consultations-publiques/aidez-definir-prochain-chapitre-leadership-canada-matiere-dia.

[2] Chaîne d’affaires publiques par câble, Minister Evan Solomon speaks at ‘ALL IN’ conference on AI – September 24, 2025 (septembre 2025), à 10:42, en ligne : https://www.youtube.com/live/HtwKNHOxyLc?si=D1cMrizk8OlkB-5N&t=642.

[3] The Guardian, Dutch government resigns over child benefits scandal (janvier 2021), en ligne : https://www.theguardian.com/world/2021/jan/15/dutch-government-resigns-over-child-benefits-scandal.

[4] The Guardian, Revealed: bias found in AI system used to detect UK benefits fraud (décembre 2024), en ligne : https://www.theguardian.com/society/2024/dec/06/revealed-bias-found-in-ai-system-used-to-detect-uk-benefits.

[5] Wired, Algorithms Policed Welfare Systems For Years. Now They’re Under Fire for Bias (octobre 2024), en ligne : https://www.wired.com/story/algorithms-policed-welfare-systems-for-years-now-theyre-under-fire-for-bias.

[6] New York Times, An Algorithm Told Police She Was Safe. Then Her Husband Killed Her (juillet 2024), en ligne : https://www.nytimes.com/interactive/2024/07/18/technology/spain-domestic-violence-viogen-algorithm.html.

[7] American Civil Liberties Union, The Devil is in the Details: Interrogating Values Embedded in the Allegheny Family Screening Tool (2023), en ligne : https://www.aclu.org/the-devil-is-in-the-details-interrogating-values-embedded-in-the-allegheny-family-screening-tool.

[8] The Markup, The Secret Bias Hidden in Mortgage-Approval Algorithms (août 2021), en ligne : https://themarkup.org/denied/2021/08/25/the-secret-bias-hidden-in-mortgage-approval-algorithms.

[9] Federal Trade Commission, Rite Aid Banned from Using AI Facial Recognition After FTC Says Retailer Deployed Technology without Reasonable Safeguards (décembre 2023), en ligne : https://www.ftc.gov/news-events/news/press-releases/2023/12/rite-aid-banned-using-ai-facial-recognition-after-ftc-says-retailer-deployed-technology-without.

[10] Commissariat à la protection de la vie privée du Canada, L’utilisation par la GRC de la technologie de reconnaissance faciale de Clearview AI contrevenait à la Loi sur la protection des renseignements personnels, selon une enquête (2021), en ligne : https://www.priv.gc.ca/fr/nouvelles-du-commissariat/nouvelles-et-annonces/2021/nr-c_210610/.

[11] Commissaire à l’information et à la protection de la vie privée de l’Ontario, La reconnaissance faciale et les bases de données de photos signalétiques : document d’orientation à l’intention des services de police de l’Ontario (janvier 2024), en ligne : https://www.ipc.on.ca/fr/ressources-et-decisions/la-reconnaissance-faciale-et-les-bases-de-donnees-de-photos-signaletiques-document-dorientation-0.

[12] Voir « Chapitre 6 – Arrestations, accusations et intelligence artificielle : lacunes dans les politiques, les procédures et les pratiques » dans CODP, De l’impact à l’action : Rapport final sur le racisme envers les personnes noires par le service de police de Toronto (décembre 2023), en ligne : https://www.ohrc.on.ca/fr/de-limpact-laction-rapport-final-sur-le-racisme-envers-les-personnes-noires-par-le-service-de-0.

[13] The Guardian, LAPD ended predictive policing programs amid public outcry. A new effort shares many of their flaws (novembre 2021), en ligne : https://www.theguardian.com/us-news/2021/nov/07/lapd-predictive-policing-surveillance-reform.

[14] Wired, Predictive Policing Software Terrible at Predicting Crimes (octobre 2023), en ligne : https://www.wired.com/story/plainfield-geolitica-crime-predictions.

[15] The Guardian, Facebook accused of failing to tackle discrimination in housing ads (mars 2018), en ligne : https://www.theguardian.com/technology/2018/mar/28/facebook-accused-discrimination-failure-housing-lawsuit.

[16] CBC News, Use of Facebook targeting on job ads could violate Canadian human rights law, experts warn (avril 2019), en ligne : https://www.cbc.ca/news/politics/facebook-employment-job-ads-discrimination-1.5086491.

[17] Netherlands Institute for Human Rights, Meta Platforms Ireland Ltd. discriminates on the ground of gender when displaying job advertisements to users of Facebook in the Netherlands (février 2025), en ligne : https://oordelen.mensenrechten.nl/oordeel/2025-17/4a575c22-d4b0-499f-8811-6b5e6720344d.

[18] CTV News, Competition Bureau says it’s probing whether landlords are using AI to set rents (février 2025), en ligne : https://www.ctvnews.ca/business/article/competition-bureau-says-its-probing-whether-landlords-are-using-ai-to-set-rents.

[19] Martine August et Cloé St-Hilaire, Financialization, housing rents and affordability in Toronto (avril 2025), en ligne : https://journals.sagepub.com/doi/10.1177/0308518X251328129.

[20] New York State Senate, Assembly Bill A1417 (octobre 2025), en ligne : https://www.nysenate.gov/legislation/bills/2025/A1417/amendment/original.

[21] Aleksandra Sorokovikova, Pavel Chizhov, Iuliia Eremenko, Ivan P. Yamshchikov, Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models (septembre 2025), en ligne : https://www.thws.de/en/research/institutes/cairo/releases/thema/artificial-intelligence-gives-women-lower-salary-advice.

[22] Kyra Wilson et Aylin Caliskan, Gender, Race, and Intersectional Bias in Resume Screening via Large Language Model Retrieval (octobre 2024), en ligne : https://ojs.aaai.org/index.php/AIES/article/view/31748.

[23] Valentin Hofmann, Pratyusha Ria Kalluri, Dan Jurafsky et Sharese King, AI generates covertly racist decisions about people based on their dialect (août 2024), en ligne : https://www.nature.com/articles/s41586-024-07856-5.

[24] Ariana Mihan, Ambarish Pandey et Harriette G. C. Van Spall, Artificial intelligence bias in the prediction and detection of cardiovascular disease (novembre 2024), en ligne : https://www.nature.com/articles/s44325-024-00031-9.

[25] Organisation de coopération et de développement économiques, Principes de l’IA : Respect de l’état de droit, des droits humains et des valeurs démocratiques, y compris de l’équité et de la vie privée (principe 1.2), en ligne : https://www.oecd.org/fr/themes/principes-de-l-ia.html.

[26] Ibid.

[27] Conseil de l’Europe, La Convention-cadre sur l’intelligence artificielle, en ligne : https://www.coe.int/fr/web/artificial-intelligence/la-convention-cadre-sur-l-intelligence-artificielle.

[28] Conseil de l’Europe, Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit (septembre 2024), en ligne : https://rm.coe.int/1680afae3d.

[29] Commission ontarienne des droits de la personne, Déclaration commune du Commissaire à l’information et à la protection de la vie privée de l’Ontario et de la Commission ontarienne des droits de la personne sur l’utilisation des technologies de l’intelligence artificielle (mai 2023), en ligne : https://www.ohrc.on.ca/fr/centre-des-nouvelles/declaration-commune-du-commissaire-linformation-et-la-protection-de-la-vie.

[30] Conseil de l’Europe, supra, note 28.

[32] Commission du droit de l’Ontario et Commission ontarienne des droits de la personne, Évaluation de l’impact de l’intelligence artificielle sur les droits de la personne (novembre 2024), en ligne : https://www.ohrc.on.ca/fr/evaluation-de-limpact-de-lintelligence-artificielle-sur-les-droits-de-la-personne.