Language selector

Social Media Links FR


Facebook CODP Twitter CODP Instagram logo Link to OHRC Instagram page

9. Dépistage précoce

Page controls

Page content

 

Une mesure de dépistage est un test rapide et officieux, fondé sur des données probantes, qui fournit de l’information sur de possibles difficultés de lecture.

Introduction

Une mesure de dépistage est un test rapide et officieux, fondé sur des données probantes, qui fournit de l’information sur de possibles difficultés de lecture[875]. Les mesures de dépistage permettent de repérer les élèves qui ont des difficultés de lecture ou courent le risque d’en développer, afin qu’ils puissent obtenir une instruction supplémentaire ou des mesures d’intervention immédiates. Bien que cela ne s’inscrive pas dans la portée de ce rapport, les mesures de dépistage précoce peuvent servir à identifier les difficultés sur le plan du développement du langage oral.

Le dépistage ne mène pas à un diagnostic. Il ne sert pas à identifier les enfants auxquels attribuer une désignation ou une étiquette. Il s’agit d’une stratégie de détection rapide servant les intérêts des élèves et des enseignants. Le dépistage permet aux enseignants de mieux comprendre comment aider leurs élèves et aux élèves de recevoir un soutien immédiat et ciblé.

Le terme « dépistage universel » fait référence à la conduite d’évaluations de dépistage standardisées auprès de tous les élèves au moyen d’instruments courants, fondés sur des données probantes. Ces instruments reposent sur des normes de fiabilité et de validité établies pour accroître la confiance en leur efficacité.

Le dépistage précoce universel n’est pas seulement efficace, mais également nécessaire pour protéger les droits de tous les élèves, et plus précisément les élèves issus de nombreux groupes protégés par le Code. Il facilite l’intervention précoce, réduit le risque de biais et améliore la prise de décisions relatives au rendement des élèves. Les écoles peuvent prendre des décisions éclairées parce qu’elles sont capables de comparer les résultats obtenus auprès de différentes populations à l’aide d’outils communs de dépistage.

Tous les outils de dépistage doivent être utilisés de façon responsable, en tenant compte de la diversité culturelle et linguistique de la population étudiante. Aucun outil de dépistage ne devrait servir à dévaloriser un enfant. L’objectif du dépistage et de la collecte de données est de veiller à ce que les élèves et les enseignants disposent des ressources dont ils ont besoin.

Comme l’indique la Section 8 : Curriculum et enseignement, le dépistage fait partie intégrante de toute approche d’éducation inclusive reposant sur le modèle de réponse à l’intervention (RAI) ou système de mesures de soutien multiniveaux (SMSM). Si les écoles offrent un enseignement en salle de classe fondé sur des données probantes, ont recours au dépistage universel pour repérer les élèves à risque et mettent en œuvre des mesures d’intervention immédiates au besoin, elles réduiront le nombre d’élèves qui n’arrivent pas à apprendre à lire. Le dépistage est efficace lorsqu’il est fondé sur des données probantes et effectué tôt auprès de tous les élèves.

Lorsque le dépistage est effectué tôt, les écoles peuvent repérer les élèves qui ont des difficultés de lecture ou courent le risque d’en développer afin de leur procurer des mesures ciblées d’intervention précoce. Les mesures d’intervention précoce sont les plus efficaces parce que les élèves répondent moins bien aux mesures d’intervention à mesure qu’ils vieillissent[876]. Le dépistage permet de repérer les jeunes lecteurs à risque dont les compétences de base en lecture accusent du retard et de leur éviter des difficultés de lecture futures, ainsi que les conséquences à vie du manque d’apprentissage de la lecture. Le dépistage précoce est donc essentiel en ce qu’il permet de repérer les élèves à risque avant qu’ils ne prennent du retard.

L’enquête a révélé que l’Ontario n’a pas d’approche systématique et fondée sur des données probantes de dépistage précoce universel lui permettant de repérer les élèves à risque ayant besoin de mesures d’intervention immédiates.

La Note Politique/Programmes (NPP) no 155 du ministère de l’Éducation (ministère) est l’un des obstacles à l’adoption du dépistage universel. Selon son interprétation actuelle, la NPP 155 laisse aux enseignants le soin de décider, de leur propre chef, de la fréquence et du moment du dépistage, et du choix des évaluations diagnostiques à utiliser. Le dépistage des élèves est le plus efficace lorsqu’il repose sur des outils fondés sur des données probantes administrés à des intervalles précis. En Ontario cependant, les outils fondés sur des données probantes employés et le moment du dépistage ne sont pas standardisés. Par conséquent, la NPP 155 a occasionné des lacunes et des incohérences, et a fait obstacle à l’adoption d’une approche de dépistage universel efficace et axée sur les élèves.

Les pratiques de dépistage varient d’un conseil, d’une école et d’un membre du personnel enseignant à l’autre. Les conseils emploient une combinaison de méthodes d’observation, comme des fiches d’observation individualisée ou des analyses des méprises, qui sont souvent associées à des programmes d’enseignement de la lecture non fondés sur des données probantes. Certains conseils se servent d’évaluations élaborées à l’échelon local, qui ne semblent malheureusement pas avoir été évaluées adéquatement pour en mesurer l’efficacité. Bien que certains conseils incluent à leur liste d’évaluations possibles des outils de dépistage pouvant être fondés sur des données probantes, le personnel enseignant n’est pas tenu de les utiliser et les conseils ne pouvaient pas confirmer qu’il les utilisait.

Les écoles de l'Ontario ont besoin de protocoles standardisés relatifs au moment et à la façon d’effectuer le dépistage, et aux outils de dépistage qui devraient être utilisés. Le personnel enseignant devrait collaborer étroitement à la mise au point de ce modèle. Le mode d’application de la NPP 155 ne favorise pas la réussite des élèves de l’Ontario. Le modèle actuel ne crée pas les conditions nécessaires à la collecte de données parce qu’aucun outil commun de dépistage n’est utilisé d’une classe, d’une école ou d’un conseil scolaire à l’autre.

Pour qu’une approche multiniveaux soit efficace, les outils de dépistage utilisés doivent être fondés sur des données probantes; ils doivent mesurer les bonnes compétences et être administrés deux fois par année, de la maternelle à la 2année. Les données recueillies dans le cadre du dépistage doivent se traduire par l’offre immédiate de mesures d’intervention aux élèves qui en ont besoin.

L’Ontario doit agir pour remédier à son approche inadéquate en matière de dépistage. L’approche actuelle occasionne inutilement des conflits et de la confusion entre les conseils scolaires et les enseignants, et fait fi du meilleur intérêt des enfants à risque. La science du dépistage du manque de compétences initiales en lecture est avancée et les coûts pécuniaires du dépistage sont minimaux, tandis que les pratiques actuelles ont des répercussions néfastes sur les élèves[877].

Haut de page

Importance du dépistage précoce

Il n’est pas bon d’attendre que les élèves aient des difficultés manifestes d’apprentissage de la lecture avant d’agir. Pourtant, l’approche attentiste d’identification des difficultés d’apprentissage est répandue au sein du système d’éducation de l’Ontario. Les écoles attendent généralement que les élèves affichent des difficultés extrêmes et qu’un membre du personnel enseignant s’en aperçoive et demande des mesures de soutien.

Les chercheurs du domaine de l’éducation associent plusieurs inconvénients au modèle attentiste. Ce modèle repose sur une évaluation imprécise de la situation, fondée en grande partie sur les observations du personnel enseignant et des mesures d’identification sans lien avec l’enseignement efficace[878]. Par conséquent, il peut mener à la prise de décisions biaisées plutôt que fondées sur des données. L’intervention est réactive et basée sur le déficit de l’élève, plutôt que proactive et basée sur le risque qu’il ou elle court[879]. Enfin, lorsque les élèves ont accès à des mesures d’intervention, celles-ci sont mises en œuvre trop tard.

Les écoles doivent soumettre tous les élèves à un dépistage tôt durant leurs études (dès la maternelle), au moyen d’outils de dépistage fondés sur des données probantes. Plus les écoles effectuent tôt le dépistage et plus les élèves auront accès, tôt, à un enseignement et à des mesures d’intervention qui leur permettront d’apprendre à lire de façon précise et fluide[880].

Dans son mémoire aux responsables de l’enquête, l’Association of Psychology Leaders in Ontario Schools (APLOS) a insisté sur l’importance du dépistage étant donné qu’il offre « un profil de la classe qui aide l’enseignante ou l’enseignant à déterminer l’orientation à donner au programme d’études dans sa classe particulière ». L’APLOS a ajouté que cela menait à l’adoption, chez les élèves ayant des difficultés de lecture, de mesures d’intervention précoce efficaces qui réduisent « le potentiel de difficultés d’apprentissage à long terme » de bon nombre d’élèves. Selon l’APLOS :

Le dépistage précoce des troubles de lecture offre l’occasion de mettre en œuvre des programmes sensibles aux besoins émergents en matière d’apprentissage. Il n’a pas à mener nécessairement à la prise à partie d’élèves ou à leur répartition en groupes distincts. Il permet plutôt de moduler les objectifs d’apprentissage au sein de la classe et de tenir compte des besoins de l’ensemble des apprenants. Durant les premières années d’études, un enseignement qui inclut une instruction systématique et directe est un outil puissant de prévention des difficultés de lecture futures qui réduira la nécessité de procéder à des évaluations plus exhaustives afin de déceler les difficultés fondamentales des élèves.

Le dépistage précoce peut également réduire le besoin de mener des évaluations professionnelles. Dans le cadre de l’enquête, une personne occupant un poste d’orthophoniste dans un conseil a affirmé que le dépistage précoce était « essentiel pour tous les élèves de la maternelle à la 2année. Effectué de la bonne façon, il réduira de façon significative le nombre d’élèves aiguillés vers des services de psychologues et d’orthophonistes, et pourrait accroître [le nombre d’] élèves possédant des compétences en littératie appropriées pour l’année d’études. »

De plus, si l’enseignement de niveau 1 en salle de classe n’est pas fondé sur des données probantes, les mesures d’intervention de niveau 2 ne seront pas aussi efficaces. L’enseignement fondé sur des données probantes renforce en salle de classe les compétences de base ciblées par les mesures d’intervention de niveau 2 et favorise leur amélioration continue après qu’ont pris fin les mesures d’intervention.

Haut de page

Dépistage fondé sur des données probantes

Le dépistage fondé sur des données probantes est la façon la plus efficace d’identifier les élèves qui ont des difficultés de lecture ou courent le risque d’en développer. Il constitue un moyen objectif et mesurable d’améliorer les résultats des élèves et de réduire les biais d’évaluation, y compris les biais touchant les élèves issus de la diversité culturelle et linguistique[881]. Ces biais d’évaluation peuvent déformer la perception qu’ont les enseignants et autres professionnels de l’éducation des capacités et du rendement des élèves. Le dépistage universel protège l’élève de ces biais possibles.

D’après ce qu’ont entendu les responsables de l’enquête, certaines personnes supposent que les élèves qui peinent à apprendre à lire ne devraient pas apprendre l’anglais et le français en même temps. Cette idée fausse a limité l’accès de nombreux élèves à l’éducation en langue française. Par exemple, des nouveaux arrivants et des élèves multilingues sont parfois dissuadés de s’inscrire à des programmes d’immersion française. Les responsables de l’enquête ont eu vent de nombreux exemples de familles qui se sont vues priées de retirer leur enfant aux prises avec des difficultés de lecture du programme d’immersion française, ou à qui on a enjoint de le faire si elles voulaient obtenir des mesures de soutien de la part de l’école.

L’équipe d’enquête a aussi appris que les élèves des conseils de langue française avaient moins accès aux ressources et programmes relatifs aux difficultés de lecture. Des parents ont rapporté avoir renoncé à leur droit d’obtenir une éducation de langue française pour leur enfant et transféré l’élève dans un conseil de langue anglaise afin de lui procurer de meilleures mesures de soutien. Comme l’expliquait un parent :

En Ontario, nous avons le droit à l'enseignement en français, par contre, lors de trouble d'apprentissage, il y a très peu de ressources ou de programmes disponibles pour le personnel enseignant et les élèves. C'est en partie pour cette raison que nous avons retiré notre enfant du système scolaire francophone.

Les enfants qui ont des difficultés de lecture, ou qui courent le risque d’en développer, devraient bénéficier des mêmes avantages sur le plan scolaire et social, et sur le plan de l’emploi, qu’apporte l’apprentissage du français. Les personnes qui ont le droit de donner à leurs enfants une éducation en français doivent pouvoir exercer ce droit aux termes de l’article 23 de la Charte canadienne des droits et libertés. Le ministère a reconnu que tous les élèves pouvaient apprendre le français s’ils disposaient des mesures de soutien nécessaires. Il est aussi nécessaire d’adopter une approche préventive à l’intention des élèves qui apprennent le français et courent le risque de développer des difficultés de lecture.

Les élèves qui peinent à apprendre à lire en français peineront probablement également à apprendre à lire en anglais. Par conséquent, le fait de les retirer d’un programme de langue française ne réglera rien. Ces élèves devraient plutôt avoir accès à des mesures de dépistage basées sur des données scientifiques et à des mesures d’intervention fondées sur des données probantes tôt durant leur éducation de langue française.

 

Toutes les recherches ne sont pas égales. Elles ont d’ailleurs des degrés variables de qualité. Les personnes et les entreprises qui créent des outils de dépistage soutiennent souvent que leurs évaluations sont fondées sur la recherche. À elles seules cependant, les recherches ne sont pas une garantie de validité et de fiabilité. Les recherches doivent :

  1. afficher une grande validité interne et externe[882]
  2. être fiables
  3. être associées à la science de l’enseignement de la lecture et de l’acquisition des compétences de base en lecture.

La validité interne a trait à la façon dont l’étude est structurée. Elle fait référence à la qualité des recherches menées. Les études qui ont une grande validité interne peuvent mener à des conclusions de type causal. Les études dont la validité interne est modérée peuvent permettre d’établir un rapport général, mais les liens de causalité sont plus tenus.

La validité externe a trait à l’applicabilité des conclusions au monde réel. Les études qui ont une grande validité externe portent sur une variété de participants et de milieux, de sorte que leurs résultats peuvent être appliqués à ces types de participants et de milieux. Les recherches dont la validité externe est modérée portent parfois sur des échantillons plus petits, qui rendent incertaine la généralisation des résultats aux populations non étudiées.

La validité externe fait également référence à ce qui est mesuré et à son rapport avec le champ d’études. Par exemple, l’évaluation de la capacité d’un enfant d’utiliser des repères syntaxiques (structure de la phrase) ou d’autres indices pour deviner des mots n’est pas un indicateur valide de ses compétences de base en lecture des mots.

Le terme « fiabilité » fait référence au fait que les mêmes résultats ont été obtenus dans différents milieux, par différents évaluateurs. Les résultats ne changent pas en fonction du moment et du lieu du dépistage, ou de la personne qui note les élèves.

Dans le secteur de l’enseignement de la lecture, de nombreux outils de dépistage ont franchi des étapes de développement rigoureuses et atteint un niveau de validité et de fiabilité bien connu[883].

Haut de page

Guide de pratique de l’Institute of Education Sciences

L’Institute of Education Sciences (IES) est une agence indépendante et non partisane du ministère de l’Éducation des États-Unis. L’institut passe en revue les meilleurs éléments de preuve scientifique et d’expertise à sa disposition pour résoudre les enjeux systémiques du milieu de l’éducation qui ne peuvent pas être réglés au moyen de programmes individuels. Il publie des guides de pratique soumis à des comités de lecture externes rigoureux.

En 2009, l’IES a publié le guide de pratique intitulé Assisting Students Struggling with Reading: Response to Intervention (RTI) and Multi-Tier Intervention in the Primary Grades[884].

Ce guide a été rédigé par un comité d’experts des secteurs de la lecture, de l’évaluation et des méthodologies de recherche. Les auteurs ont résumé les pratiques recommandées de dépistage précoce des difficultés de lecture et fournissent des éléments de preuve de leur efficacité. Une note a été attribuée à chacune des recommandations en fonction de la rigueur des recherches démontrant son efficacité[885]. Selon les recommandations disposant d’éléments de preuve forts ou modérés, les écoles devraient :

  1. soumettre tous les élèves au dépistage des difficultés de lecture potentielles au début de l’année et de nouveau au milieu de l’année
  2. soumettre au dépistage les élèves de la maternelle à la 2année
  3. surveiller à intervalles réguliers les progrès des élèves qui courent un risque accru de troubles de lecture
  4. utiliser des mesures d’évaluation efficaces et valides, qui ont un degré raisonnable de validité
  5. offrir un enseignement systématique intensif portant sur trois compétences de base en lecture, au plus, à des petits groupes d’élèves dont les résultats se situent sous la valeur seuil au dépistage universel. En règle générale, ces groupes d’élèves se réunissent trois à cinq fois par semaine, pendant de 20 à 40 minutes.

Le rapport de l’IES a aussi formulé des recommandations relatives aux cibles appropriées du dépistage selon l’année d’études[886] :

Les mesures de dépistage utilisées à la maternelle devraient évaluer entre autres la connaissance des lettres et la connaissance phonémique [...] Lorsqu’ils entrent en 1re année, les enfants devraient faire l’objet de mesures d’évaluation de leur connaissance phonémique et compétences en décodage, en identification de mots et en lecture de textes. Au deuxième semestre de la 1re année, l’évaluation de leurs compétences en décodage, identification de mots et lecture de textes devrait porter également sur la vitesse d’exécution. Les mesures de dépistage utilisées en 2e année devraient évaluer entre autres la lecture de mots et de passages. Ces mesures sont généralement des exercices chronométrés.

Le comité d’experts a créé, à partir de la documentation scientifique la plus récente, un tableau qui illustre les mesures de dépistage exigées à différents moments pour évaluer les compétences initiales en précision et en fluidité de lecture des mots[887].

 

Figure 4

Mesures Années d’études recommandées Compétences évaluées Objet Limites
Fluidité de l’identification des lettres M–1 Identification du nom des lettres et extraction rapide d’information abstraite Dépistage Cette mesure n’est pas bonne pour le suivi des progrès parce que les élèves commencent à associer les lettres et les sons. Elle n’est pas valide pour les EAL de la maternelle, mais semble valide en 1re année.
Segmentation des phonèmes M-1 Connaissance phonémique Dépistage et suivi des progrès Le suivi des progrès au second semestre de la 1re année au moyen de cette mesure est problématique. À mesure que les élèves apprennent à lire, ils semblent porter moins attention aux compétences phonémiques et plus attention aux stratégies de décodage..
Fluidité de lecture des non-mots 1 Maîtrise des règles graphophonétiques de base et automatismes  Dépistage et suivi des progrès Cette mesure se limite aux mots très simples et n’évalue pas la capacité de lecture de mots irréguliers ou multisyllabiques.
Identification des mots26 1–2

Lecture des mots

Dépistage et suivi des progrès Cette mesure résout bon nombre des limites de l’évaluation de la fluidité de lecture des non-mots en incluant les mots irréguliers et multisyllabiques. 
Fluidité de la lecture orale (aussi appelée « fluidité de lecture de passages ») 1–2 Précision et fluidité de lecture de textes cohérents Dépistage et suivi des progrès Bien que cette mesure ait une validité selon critère modérément élevée, elle ne peut pas brosser de portait complet du niveau de maîtrise de la lecture de l’élève. De nombreux élèves obtiendront une note aux alentours de zéro au début de la 1re année. La mesure demeure raisonnablement capable de prédire le rendement de fin d’année en lecture.

Bien que le comité d’experts n’ait pas recommandé d’outil de dépistage spécifique, il a recommandé aux écoles de choisir des outils de dépistage dont les caractéristiques sont semblables à celles des outils examinés dans la documentation scientifique. Le comité a cité trois outils de dépistage spécifiques et les études correspondantes démontrant qu’ils incluent des mesures capables de prédire correctement le rendement futur de l’élève. Il s’agit des outils DIBELS,[888] Comprehensive Test of Phonological Processing (CTOPP)[889] et Texas Primary Reading Inventory[890]. Les Rapid Naming Subtests du CTOPP pourraient aussi figurer parmi ces outils, car ils prédisent les difficultés futures de précision et de fluidité de lecture des mots.

Haut de page

Mesures de dépistage

Les mesures de dépistage sont conçues pour veiller à ce que les élèves apprennent les compétences qui conviennent à leur niveau d’études. À différents moments, différentes mesures de dépistage sont requises pour procéder à l’évaluation convenable du développement escompté des compétences en lecture.

Comme le démontre le rapport de l’IES, la science de l’identification précoce est avancée et beaucoup d’outils sont offerts pour prédire le risque de difficultés de lecture[891].

Les outils de dépistage qui évaluent la conscience phonologique d’unités de tailles plus grandes que le phonème, comme les rimes, les syllabes et les attaques, pourraient convenir en maternelle. Au jardin d’enfants cependant, comme le démontre le tableau de l’IES ci-haut, les outils de dépistage doivent évaluer la connaissance phonémique et la fluidité de l’identification des lettres. En 1re année, ils doivent évaluer l’identification des mots, le décodage, la lecture de textes et la lecture de non-mots. Plus tard en 1re année et en 2e année, les outils de dépistage devraient évaluer la fluidité de lecture des mots et des textes, ce qui signifie qu’il s’agit d’un exercice chronométré.

Il est important d’évaluer différentes compétences à différents moments des premières années d’études pour éviter que les élèves qui sont capables d’exécuter des tâches de lecture simples, mais prennent progressivement du retard à mesure qu’augmente le niveau de complexité, ne passent pas entre les mailles du filet.

Par exemple, une élève pourrait obtenir de bons résultats aux mesures de dépistage plus simples administrées à l’automne, au jardin d’enfants (conscience des rimes, des syllabes et des attaques), mais peiner à exécuter les tâches plus complexes de combinaison et de segmentation des différents phonèmes des mots. Un autre élève pourrait avoir des difficultés de décodage des mots, et un troisième des difficultés de développement d’automatismes ou de lecture rapide des mots. Ces difficultés, qui se déclarent plus tard, sont courantes chez les élèves qui courent le risque d’avoir des troubles de lecture. Or, si les écoles procédaient uniquement au dépistage des compétences initiales préalables à la lecture en maternelle, au jardin d’enfants ou même au début de la 1re année, les difficultés de ces enfants ne seraient jamais repérées.

C’est pourquoi le dépistage ne devrait pas porter uniquement sur les tâches plus simples liées au décodage. Il devrait inclure l’évaluation des compétences avancées afin que les mesures d’intervention puissent veiller, comme il se doit, à l’acquisition de toutes les compétences essentielles. L’objectif est de faire en sorte que les élèves apprennent non seulement à lire, mais aussi à lire de façon tout aussi précise et rapide que leurs pairs du même âge.

Haut de page

Rôle des facteurs de risque

Certains élèves pourraient compter des membres de la famille qui ont un diagnostic de trouble de lecture ou des difficultés de lecture non diagnostiquées. L’information sur les antécédents familiaux peut également contribuer à l’identification précoce[892]. Cependant, l’existence de facteurs de risque familiaux ne devrait jamais être un prérequis pour l’obtention de mesures d’intervention. L’admissibilité à des mesures d’intervention en lecture devrait plutôt reposer sur les résultats aux mesures de dépistage et la réponse à l’enseignement[893].

De plus, des enfants peuvent courir le risque de développer des difficultés de lecture en raison de facteurs environnementaux comme le désavantage socio-économique. Ces enfants ne comptent pas nécessairement de membres de la famille ayant des antécédents documentés de troubles de lecture. C’est une des raisons pour lesquelles il est essentiel de procéder au dépistage précoce chez tous les élèves. Même si un enfant peinait à apprendre à lire en raison de facteurs héréditaires et (ou) environnementaux plus dominants, ce qu’on ne pourrait pas déterminer, le type de mesure d’intervention à mettre en œuvre ne changerait pas. Susan Brady, une psychologue et experte en littératie des États-Unis, explique[894] :

Les antécédents familiaux constituent un autre facteur de risque de dyslexie. Si des proches parents ont reçu un diagnostic de dyslexie, l’enfant court un risque, sur le plan génétique, de développer la dyslexie[895] [...] D’un autre côté, d’un point de vue environnemental, les expériences de vie perturbatrices de la petite enfance qui sont associées au stress, à la pauvreté et à la faible scolarisation des parents peuvent aussi mener à des déficits sur le plan du langage, de la lecture et de l’écriture[896] [...] En outre, nous possédons de plus en plus de preuves à l’appui d’un lien entre les désavantages socioéconomiques et le développement du cerveau de l’enfant[897] [...] Malgré leurs origines différentes, il n’est pas possible de distinguer les cas de dyslexie d’origine biologique des cas de dyslexie d’origine environnementale[898] [...] et, bien sûr les problèmes de l’enfant peuvent provenir de ces deux sources. Côté traitement, les faiblesses diagnostiquées sur le plan du langage et de la lecture exigent les mêmes types de mesures d’intervention, qu’elles soient d’origine biologique ou environnementale, ou d’une combinaison quelconque des deux.

Haut de page

Suivi des progrès

Le suivi des progrès est différent du dépistage. On effectue le dépistage à un moment où l’élève ne fait probablement pas l’objet d’une mesure d’intervention. Le dépistage permet de repérer les élèves qui ont besoin de mesures d’intervention efficaces afin d’acquérir les compétences nécessaires au décodage et à la lecture des mots. Le dépistage peut aussi servir à l’évaluation des compétences initiales afin de déterminer où débuter les différentes mesures d’intervention.

Les outils de dépistage évaluent les compétences qui ont une valeur prédictive élevée de l’apprentissage de la lecture ou du fonctionnement futur, mais ne constituent pas toujours la meilleure façon d’évaluer les progrès de l’élève ou sa réponse à l’intervention. Le suivi des progrès peut assurer une évaluation plus exhaustive des   compétences en lecture et permettre de mieux mesurer la réponse d’un enfant à une mesure d’intervention. Le suivi des progrès évalue les compétences de base initiales en lecture ciblées par une mesure d’intervention.

De façon similaire au dépistage, les résultats du suivi des progrès aident à orienter la prise de décisions et l’intervention[899]. Ensemble, le dépistage, l’intervention précoce et le suivi des progrès ont pour but de mettre l’élève sur la voie de l’acquisition de toutes les compétences de base nécessaires à la précision et à la fluidité de lecture des mots, afin qu’il ou elle rattrape ses pairs. Le suivi de la trajectoire de l’élève permet de veiller à l’obtention d’un rendement « dans la moyenne » à toutes les mesures d’intervention continues et progressivement plus intensives qui lui sont offertes.

Haut de page

Rôle des enseignants

Les enseignants jouent un rôle critique dans l’évaluation des élèves et l’identification de leurs besoins en matière d’apprentissage[900]. Comme le reconnaissait le Rapport de la Commission royale sur l’éducation, personne ne connaît mieux les capacités des élèves que les enseignants de salle de classe, ou n’est mieux placé pour en évaluer toutes les nuances et la complexité[901]. Le personnel enseignant passe la journée en classe avec les élèves à leur enseigner et à les observer. L’observation est une des composantes de l’évaluation, mais doit être complétée de mesures de dépistage précoce standardisées et fondées sur des données probantes.

Un membre du personnel enseignant pourrait constater que l’enseignement en salle de classe, à lui seul, ne permet pas à une ou à un élève de développer les compétences requises. Il pourrait alors décider d’aiguiller l’élève vers une mesure d’intervention de niveau 2. Parfois aussi, des parents pourraient prendre l’initiative de divulguer eux-mêmes des antécédents familiaux de trouble de lecture. Jumelée aux observations du personnel enseignant, cette information pourrait indiquer qu’un élève a besoin de soutien additionnel sous forme de mesure d’intervention. Le dépistage universel permet de repérer tous les élèves dont les compétences de base en lecture de mots ne progressent pas comme elles le devraient, sans égard à leurs antécédents familiaux ou au fait que des enseignants ont observé ou non chez eux des difficultés de lecture.

Le dépistage se distingue de l’évaluation professionnelle menée à la suite de l’aiguillage de l’élève (p. ex., évaluation psychopédagogique ou orthophonique). Les enseignants de salle de classe sont bien placés pour procéder au dépistage des difficultés de lecture des mots. Lorsque les enseignants effectuent le dépistage des difficultés des élèves, ils obtiennent des renseignements précieux qui les aideront à orienter l’enseignement. Cependant, d’autres éducateurs, comme des enseignants-ressources et des enseignants de l’enfance en difficulté, sont également bien placés pour administrer ces tests, tandis que d’autres professionnels du système d’éducation (comme les psychologues et orthophonistes) peuvent aider à l’administration et à l’interprétation des évaluations.

Les personnes qui administrent les outils de dépistage et en interprètent les résultats devront être formées aux principes de base du dépistage précoce des difficultés de lecture, ainsi qu’aux particularités de l’outil ou des outils sélectionnés. Dans Teaching Reading is Rocket Science, Louisa Moats affirme que les enseignants qui comprennent comment procéder à l’évaluation des compétences en lecture en salle de classe ont les connaissances requises pour répondre à des questions comme :

1. Question : Quelles compétences spécifiques [...] devraient avoir été acquises à la fin de la maternelle [et] sont les meilleurs facteurs déterminants du rendement?

Réponse : Les compétences essentielles comprennent la capacité d’effectuer la segmentation des phonèmes de mots simples, de nommer les lettres de l’alphabet présentées de façon aléatoire, de produire les sons représentés par la majorité des consonnes et les voyelles courtes, d’épeler des mots phonétiquement et de faire la démonstration du développement de vocabulaire approprié pour l’âge.

2. Question : Les fiches d’observation individualisée et tests de lecture orale sont-ils des indicateurs valides et fiables des compétences en lecture?

Réponse : La fiabilité des tests de lecture orale et des fiches d’observation individualisée n’est pas aussi grande que celle de mesures spécifiques plus structurées des compétences en lecture. Les conclusions tirées par les enseignants relativement à la cause de certaines erreurs spécifiques en lecture orale (p. ex., analyse des méprises) ont tendance à n’être pas fiables, et le nom de la catégorie des erreurs « visuelles » est trompeur. D’un autre côté, les tests de lecture orale courts et chronométrés qui évaluent le nombre de mots lus correctement par minute sont, à partir du milieu de la 1re année environ, de bons indicateurs du rendement futur en lecture.

3. Question : Dans les écoles anglaises, quand s’attend-on à ce que les élèves soient en mesure d’épeler les mots trapped, plate, illustrate et preparing?

Réponse :

  • Plate : fin de la 1re année, lorsque les élèves apprennent les mots à voyelles longues les plus courants.
  • Trapped : fin de la 2e année, lorsque les élèves apprennent à doubler les consonnes devant les terminaisons commençant par des voyelles.
  • Preparing : fin de la 4e année, lorsque les élèves commencent à apprendre les mots à racine latine composés de préfixes, de racines et de suffixes.
  • Illustrate : fin de la 5e année, lorsque les élèves apprennent des mots plus complexes composés de préfixes, de racines et de suffixes.
  • Offered : fin de la 6e année, lorsque les élèves apprennent les schémas de préfixes, de racines et de suffixes, et des cas plus complexes de modifications orthographiques[902].

4. Question : Pourquoi est-il important de vérifier la compréhension au moyen de plusieurs différents types d’évaluations?

Réponse : L’utilisation de plusieurs évaluations permettra de brosser un portrait plus exact de la compréhension des élèves étant donné que les résultats des tests de compréhension dépendent d’une variété de facteurs, y compris les connaissances préalables qu’a l’élève des sujets abordés dans les passages, ses aptitudes au décodage et son vocabulaire, le format de réponses et la longueur des textes.

Les outils de dépistage des difficultés de lecture des mots peuvent prendre de 10 à 15 minutes à utiliser par élève[903], sans compter le temps requis pour l’interprétation et le rassemblement des données. Selon la taille de la classe, l’utilisation d’un outil de dépistage auprès de tous les élèves pourrait prendre jusqu’à trois jours. Selon les enseignants et les administrateurs d’école qui ont répondu au sondage de l’enquête, les enseignants ne peuvent pas se libérer assez longtemps pour soumettre les élèves au dépistage, ce qui réduit le nombre d’élèves à risque repérés. Les responsables de l’enquête ont aussi appris qu’en raison de congés d’enseignement insuffisants offerts aux enseignants de salle de classe, des enseignants de l’enfance en difficulté sont parfois arrachés à leurs propres travaux pressants afin qu’ils procèdent au dépistage.

Haut de page

Pratiques de dépistage d’autres provinces et pays

North Vancouver District School Board

Le North Vancouver District School Board a adopté une politique indiquant que l’évaluation des élèves est « continue, fondée sur la recherche, de nature variée et effectuée sur une longue période pour permettre aux élèves de faire la démonstration de tout l’éventail de leur apprentissage[904] ». Les enseignants reçoivent la formation nécessaire pour utiliser un outil commun de dépistage auprès de tous les élèves de la maternelle, du jardin d’enfants et de la 1re année, et verser les données dans un système central et dans le dossier des élèves. Les données recueillies servent à déterminer si les élèves sont sur la bonne voie et s’ils répondent bien à l’enseignement. Les écoles rendent publiques les données d’évaluation et fixent des cibles mesurables d’amélioration des résultats de tous les élèves sur le plan de la lecture[905].

Les enseignants de la maternelle et du jardin d’enfants soumettent tous leurs élèves au dépistage des difficultés de lecture au mois de janvier, au moyen d’un outil d’évaluation de la conscience phonologique[906]. Selon les résultats obtenus, des mesures d’intervention sont offertes dès février[907]. En mai, les enseignants évaluent de nouveau les compétences des élèves qui font l’objet d’une mesure d’intervention. Les enseignants de première année administrent le Dynamic Indicators of Basic Early Literacy Skills (DIBELS) à tous les élèves à l’automne[908].

L’Outil DIBELS a été créé par le Center on Teaching and Learning de l’Université de l’Oregon. Il se compose d’une série de courts tests ou mesures de dépistage (d’une minute) qui prédisent le niveau futur de maîtrise de la lecture. Les tests portent sur l’identification des lettres de l’alphabet, la segmentation des phonèmes des mots, la lecture de non-mots et la fluidité de lecture des mots. Les résultats à l’outil DIBELS peuvent servir à évaluer le développement d’élèves individuels et à fournir une rétroaction relative à l’efficacité du curriculum et des programmes.

Ces tests correspondent aussi en grande partie aux recommandations du rapport de l’IES, décrit précédemment. Les tests DIBELS sont fondés sur des données probantes et constituent les indicateurs du développement des compétences initiales en lecture et en écriture[909]. Malgré le fait qu’il faille payer pour utiliser l’outil en ligne, la majorité du matériel est gratuit, et ses propriétés d’évaluation sont en accès libre, ce qui signifie que n’importe qui peut les étudier[910].

Une personne représentant le conseil de North Vancouver a fait part du fait que l’initiative de dépistage du conseil avait modifié la façon de comprendre l’apprentissage de la lecture : « Nous croyions que si nous entourions les enfants de livres et de littérature de qualité, ils apprendraient à lire par osmose, mais nous savons maintenant que ce n’est pas vrai [...] Les enfants ont besoin d’un enseignement compétent de la lecture pour apprendre à lire[911]. »

 

Royaume-Uni

En 2012, le Royaume-Uni (R.-U.) a adopté une loi exigeant de soumettre au dépistage tous les élèves durant la 1re année (qui équivaut au jardin d’enfants en Ontario)[912]. Les élèves de la 2e année (qui équivaut à la 1re année en Ontario) font l’objet de dépistage s’ils n’ont pas satisfait à la norme prévue en 1re année[913]. Les élèves qui ne satisfont pas à la norme prévue obtiennent des mesures d’intervention et de soutien[914]. L’évaluation prend moins de dix minutes par élève à effectuer.

Ce dépistage a également lieu dans le contexte d’un curriculum national qui fait explicitement état des composantes de l’enseignement de la lecture des mots (décodage, compétences en lecture des mots et enseignement du système graphophonétique)[915]. À la différence de l’Ontario, les pratiques d’évaluation du Royaume-Uni sont claires et transparentes, et favorisent la responsabilisation.

Les documents gouvernementaux délimitent clairement les responsabilités de chaque éducatrice et éducateur[916]. Par exemple, comme l’indique un document d’orientation : « Bien que les connaissances qu’ont les enseignants de leurs élèves puissent mener à des conclusions, ces conclusions doivent être fondées sur des éléments de preuve rigoureux et démontrables. On s’assure ainsi que ces conclusions sont les plus objectives possible, et cohérentes d’une classe et d’une école à l’autre[917] ». Ces conclusions sont aussi tirées dans le contexte d’un outil de dépistage commun, imposé aux écoles. Les écoles doivent s’assurer que les enseignants ont la formation requise et qu’ils administrent le test de la façon prévue dans les directives publiées.

De plus, le Royaume-Uni impose des exigences de déclaration très spécifiques pour veiller à ce que les parents soient informés des progrès de leur enfant, y compris l’information sur les résultats du dépistage effectué auprès des élèves de la même année à l’école et dans l’ensemble du pays[918].

Le R.-U. recueille également des données nationales sur le pourcentage d’élèves qui satisfait à la norme prescrite en matière d’analyse graphophonétique, ventilé selon les données démographiques, dont le sexe, le revenu[919], l’origine ethnique, les besoins particuliers en matière d’éducation et la première langue parlée autre que l’anglais[920].

 

Australie

En 2017, le ministère de l’éducation et du développement de l’enfant de l’Australie-Méridionale a mené un projet pilote de l’outil de dépistage des compétences en analyse graphophonétique du R.-U applicable aux élèves de l’année d’accueil et de la 1re année (qui équivalent à la maternelle et au jardin d’enfants en Ontario)[921]. À la suite du projet[922], l’Australie-Méridionale a exigé l’utilisation de l’outil de dépistage des compétences en analyse graphophonétique auprès de tous les élèves de 1re année, et a offert une formation aux enseignants et directions scolaires.[923] L’outil PSC est mis à la disposition des écoles et des familles en ligne[924].

En 2021, la Nouvelle-Galles-du-Sud s’est jointe à l’Australie-Méridionale en exigeant l’utilisation de l’outil PSC pour tous les élèves de la 1re année[925]. Comme l’indiquait la ministre de l’éducation de l’État, « les preuves parlent d’elles-mêmes. Nos élèves obtiennent les meilleurs résultats en lecture lorsqu’on leur enseigne le système graphophonétique de façon explicite et systématique à partir de la maternelle, avant de passer aux autres formes d’enseignement de la lecture[926] ».

 

États-Unis

Au moins 30 États américains ont adopté des lois exigeant le dépistage de la dyslexie[927]. Bon nombre de ces États publient des listes d’outils de dépistage précoce recommandés[928] ou des manuels d’orientation des pratiques de dépistage[929]. D’autres États exigent l’utilisation d’outils de dépistage spécifiques, tandis que d’autres encore mettent de l’avant des critères en vue d’orienter le processus de sélection[930]. Le dépistage de la dyslexie dans ces États s’articule en grande partie sur le type de méthodes de dépistage précoce universel des difficultés de lecture des mots mis de l’avant dans le présent rapport.

L’État de l’Ohio a récemment adopté une loi exigeant que les écoles utilisent un outil annuel de dépistage de la dyslexie[931]. Le ministère de l’éducation de l’Ohio doit former un comité qui déterminera les mesures de dépistage et d’intervention à mettre en place pour évaluer les compétences en lecture et en écriture d’élèves participant à un programme de littératie structurée. Les districts scolaires doivent respecter les normes établies par le ministère de l’éducation de l’État et utiliser uniquement les outils de dépistage figurant dans une liste approuvée. Ils doivent soumettre tous les élèves de la maternelle au dépistage et faire rapport des résultats obtenus au ministère de l’éducation de l’État. Tous les enseignants de la maternelle à la 3e année doivent suivre un nombre établi d’heures de formation sur les méthodes éprouvées d’identification des caractéristiques de la dyslexie et d’enseignement aux élèves dyslexiques[932].

En 2021, le bureau de l’éducation de la ville de New York a instauré le dépistage obligatoire pour les élèves de la maternelle à la 2e année. Toutes les écoles utiliseront l’outil DIBELS au moins trois fois par année. Elles élaboreront ensuite des plans d’intervention basés sur les résultats obtenus[933]. Le président de l’United Federation of Teachers, un syndicat représentant la plupart des enseignants de la ville, a indiqué que son syndicat plaidait en faveur du dépistage à l’échelle des écoles depuis des années, mais que des préoccupations liées aux perturbations de l’apprentissage causées par la COVID-19 avaient poussé le bureau à enfin exiger le dépistage universel[934].

Dans la province et les pays examinés, des experts ont constaté[935] que le dépistage à lui seul n’améliorait pas l’apprentissage des élèves. Des changements doivent être apportés au curriculum et à la formation des enseignants. La réussite des élèves dépend de l’efficacité avec laquelle les systèmes, les écoles et les enseignants donnent suite aux résultats du dépistage et offrent des mesures d’intervention fondées sur des données probantes.

Comparativement à ces territoires, l’approche de l’Ontario en matière de dépistage est aléatoire, décentralisée et floue.

Haut de page

Approche de l’Ontario en matière de dépistage

Le ministère est responsable de l’élaboration des politiques de dépistage et d’évaluation requises pour fournir une orientation uniforme aux conseils scolaires[936]. La Loi sur l’éducation stipule que le ministre :

[E]xige que les conseils scolaires mettent en œuvre des méthodes d’identification précoce et continue de l’aptitude à apprendre et des besoins des élèves, et il fixe des normes régissant la mise en œuvre de ces méthodes[937].

De 2004 à 2010, le ministère a mis en œuvre plusieurs politiques et initiatives de standardisation de l’enseignement et de l’évaluation des compétences en lecture et en écriture. Avant 2004, la Note Politique/Programmes (NPP) no 11: Le dépistage précoce des besoins d’apprentissage d’un enfant de 1982 et la Loi sur l’éducation constituaient les sources clés d’information sur le dépistage précoce des besoins des élèves.

En 2004, le ministère a élaboré un plan d’amélioration des résultats des élèves en lecture, en écriture et en mathématique. Il a créé le Secrétariat de la littératie et de la numératie (SLN) pour accroître la capacité chez les éducateurs et améliorer les résultats des élèves. Le SLN a aussi aidé à offrir du soutien aux enseignants et directeurs d’école en vue de la mise en œuvre d’outils d’évaluation diagnostique communs[938].

Avant cela, les écoles de l’Ontario ne disposaient pas de pratiques communes d’évaluation de la lecture. Le ministère a octroyé des fonds aux conseils en vue de l’acquisition et de la mise en œuvre d’outils communs d’évaluation de la lecture, comme Developmental Reading Assessment (DRA), PM Benchmarks ou Comprehension Attitudes Strategies Interests (CASI)[939]. Cela a entraîné une hausse du recours à des outils communs d’évaluation diagnostique dans les écoles[940]. Cependant, ces instruments ne satisfont pas aux critères relatifs aux compétences de base en lecture des mots établis dans la recherche scientifique et le rapport de l’IES. La présente section examine plus en détail les limites de ces outils communs et d’autres outils utilisés.

Dès 2005, le ministère a également octroyé des fonds aux conseils afin de créer des systèmes de gestion des données. Le personnel enseignant était tenu d’utiliser des outils d’évaluation diagnostique spécifiques, généralement à l’automne et au printemps, et d’entrer les données dans le système de gestion des données de leur conseil. L’école et les administrateurs du conseil pouvaient obtenir les résultats des évaluations diagnostiques du système à des fins de planification des améliorations à apporter.

En 2010, l’Ontario a adopté une politique provinciale relative aux pratiques d’évaluation des élèves de la 1re à la 12e année intitulée Faire croître le succès[941]. Bien que l’année 2000 ait marqué une transition du paysage de l’éducation vers l’utilisation d’outils d’évaluation centralisés, ces politiques n’établissaient pas de normes claires.

En 2013, la publication de la NPP 155 a renversé le processus de standardisation entamé. La NPP 155 donne aux enseignants une grande latitude sur le plan de la façon d’utiliser les outils d’évaluation diagnostique.

La NPP 155 a été publiée en réponse aux problèmes rencontrés lors du déploiement des outils d’évaluation communs en 2005. Malgré que leur objectif premier était d’améliorer l’apprentissage au moyen des données des élèves, ces outils ont été perçus, dans certains cas, comme un exercice de surveillance du rendement des enseignants. Certains conseils ont aussi profité de l’occasion pour mener des évaluations additionnelles et recueillir de grandes quantités de données du personnel enseignant, qui a dû consacrer à la tâche des heures considérables normalement affectées à l’enseignement en salle de classe[942]. Cela a entraîné des défis sur le plan de la charge de travail du personnel enseignant. De plus, les enseignants de certains conseils scolaires n’ont pas eu accès aux résultats dans le système de gestion des données[943].

En 2014, le ministère a produit sa Note Politique/Programmes no 8 : Identification des élèves ayant des troubles d’apprentissage et planification de programmes à leur intention (NPP 8), qui traitait spécifiquement de l’identification des élèves ayant des TA. De nature générale, cette NPP ne rendait pas obligatoire le recours à un outil de dépistage particulier pour mesurer le risque de TA ou de troubles de lecture, se limitant plutôt à répéter les principes de l’identification.

L’adoption de normes provinciales cohérentes et la confiance en le jugement professionnel des enseignants ne constituent pas des notions mutuellement exclusives. Les normes procurent aux enseignants les outils nécessaires à l’amélioration des résultats des élèves, en même temps qu’elles accroissent la confiance du public en l’exercice de la discrétion du personnel enseignant. Composante importante de nombreuses formes d’évaluation, y compris les évaluations diagnostiques, le pouvoir discrétionnaire des enseignants ne devrait pas orienter le processus de dépistage. De nombreux membres du personnel enseignant ont dit vouloir plus d’indications sur la façon de procéder au dépistage.

Lorsqu’il s’agit d’enseigner la lecture, les enseignants se heurtent à de nombreux défis. Au curriculum inefficace que leur procure la province s’ajoute une formation inadéquate. Ils ont aussi à portée de main quantité de ressources qui semblent convaincantes, mais dans les faits ne sont pas fondées sur des données probantes. Dans Teaching Reading is Rocket Science, un rapport commandé par l’American Federation of Teachers (AFT), la présidente de l’AFT a indiqué :

En tant que profession, nous avons la motivation et la passion nécessaires pour faire ce qu’il se doit pour comprendre et mettre en application la science de la lecture. Mais ce travail est beaucoup plus difficile qu’il ne devrait l’être puisque très peu de maisons d’édition du domaine et de fournisseurs de services de perfectionnement professionnel ont mis de côté leurs ressources et programmes désuets, mais profitables, pour créer plutôt de nouvelles ressources qui reflètent les dernières recherches[944].

Le dépistage précoce universel ne fait pas entrave au jugement professionnel du personnel enseignant. Il supprime plutôt les outils désuets et non fondés sur des données probantes qui ont actuellement cours dans notre système d’éducation et les remplace par des normes et outils efficaces visant à améliorer l’apprentissage des élèves.

Haut de page

Note Politique/Programmes no 11

La Note Politique/Programmes no 11[945] (NPP 11) traite de l’identification précoce des besoins des enfants en matière d’apprentissage. Elle a été révisée il y a près de 40 ans, en 1982. La NPP 11 exige que chaque conseil scolaire ait des procédures en place pour identifier le niveau de développement et les capacités et besoins d’apprentissage de chacun des élèves. Elle exige également qu’il s’assure que les programmes éducatifs sont conçus pour tenir compte de besoins identifiés. Selon la NPP 11, ces procédures devraient faire partie d’un processus continu d’évaluation amorcé dès que l’enfant est inscrit à l’école, immédiatement après la maternelle.

Bien que l’objectif de la NPP consistant à encourager l’identification précoce soit louable, la politique n’est pas assez spécifique. Plutôt que de fixer des normes, elle met de l’avant des principes généraux.

L’Identification des compétences de base en lecture des mots devrait être effectuée deux fois par année durant les premières années d’études. Or la NPP 11 exige uniquement que des procédures d’évaluation précoce soient mises en œuvre au début de l’année, sans définir ce que le ministère entend par « processus continu d’évaluation ».

La politique n’exige pas que le dépistage précoce soit effectué au moyen d’outils fondés sur des données probantes et cite des ressources désuètes (dont les plus âgées remontent aux années 1970 et les plus récentes aux années 1980). Depuis 1982, la littérature scientifique sur les évaluations a évolué et cette évolution devrait se refléter dans les ressources citées et dans le contenu de la NPP.

Le mémoire de l’Ontario Catholic School Trustees’ Association (OCSTA) faisait aussi référence à l’âge de la NPP et indiquait qu’il pourrait être utile pour le ministère d’entreprendre une consultation et d’examiner les exigences de la NPP 11 dans un avenir rapproché.

Des appels ont aussi été lancés en vue de réviser Faire croître le succès, le principal document stratégique en matière d’évaluation[946]. Il est tout aussi urgent de mettre à niveau la NPP 11 pour y tenir compte des nouvelles connaissances relatives à l’évaluation.

Par exemple, le guide de ressource de 2013 de l’Ontario L’apprentissage pour tous recommande d’adopter une approche multiniveaux, mais ce cadre inclusif ne figure pas dans la NPP 11. Dans son mémoire aux responsables de l’enquête, l’Association ontarienne des orthophonistes et audiologistes (AOOA) a recommandé que la NPP 11 exige l’adoption d’approches de type RAI « afin de repérer les élèves qui ne répondent pas assez bien aux programmes de base et qui pourraient nécessiter un enseignement plus intensif ou des mesures d’intervention pour prévenir les difficultés et appuyer l’acquisition de la lecture ».

De plus, la NPP 11 n’offre pas d’information utile sur la façon de répondre aux besoins des élèves multilingues (qui apprennent la langue d’apprentissage en même temps qu’ils apprennent la matière). Au lieu de cela, elle porte à confusion quand elle indique : « Lorsque l’enfant parle une autre langue que le français ou l’anglais, on devrait prévoir un délai raisonnable pour évaluer les capacités qui font appel au langage. » Bien que les élèves multilingues puissent avoir besoin d’être exposés à la langue d’enseignement durant un certain temps, les conseils scolaires de l’Ontario reportent souvent l’intervention auprès de ces élèves sur la base d’hypothèses non fondées (voir la Section 6 : Expérience des élèves et des familles et la Section 12 : Évaluations professionnelles). L’utilisation de l’expression vague « délai raisonnable » dans la NPP, sans aucune autre information à ce propos, pourrait avoir contribué à cette situation. Le dépistage universel fondé sur des données probantes prévoit le dépistage de tous les élèves. Il n’y a pas de raison scientifique de traiter les élèves multilingues différemment que les autres élèves en matière de dépistage précoce[947].

En raison de ces hypothèses, l’OCSTA recommande d’utiliser des procédures d’évaluation dynamiques auprès des élèves multilingues et de répéter le dépistage au fil du temps pour réduire les biais, faux positifs et faux négatifs.

Voir la Section 6 : Expérience des élèves et des familles et la Section 12 : Évaluations professionnelles pour en savoir davantage sur les conclusions de l’enquête relatives à l’expérience des élèves multilingues et les recommandations formulées en vue de baser les approches du ministère et des conseils scolaires sur les recherches scientifiques.

Haut de page

Note Politique/Programmes no 8

Le ministère a publié une NPP traitant spécifiquement des TA, qu’il a mise à jour pour la dernière fois en 2014[948]. La NPP 8 fixe les exigences relatives à l’identification des élèves ayant des TA et la planification des programmes connexes.

La NPP 8 indique clairement que toute planification de programme s’applique également aux élèves qui n’ont pas été identifiés par l’entremise du processus du CIPR. Le facteur déterminant ne doit pas être l’identification officielle de l’élève ou le diagnostic de son TA, mais les besoins de l’élève. Les élèves qui ont des difficultés sur le plan de l’apprentissage et pourraient tirer avantage de programmes d’éducation de l’enfance en difficulté ont droit de recevoir de tels services.

Dans son mémoire aux responsables de l’enquête, l’Association des enseignantes et des enseignants catholiques anglo-ontariens (OECTA) a reconnu que l’identification précoce et l’offre de mesures d’intervention appropriées donnaient aux élèves à risque « les meilleures chances de succès ». L’OECTA a reconnu correctement que l’enquête allait « entendre parler d’un nombre important d’élèves et de familles qui ont dû attendre trop longtemps des services de dépistage et des ressources ». Malgré le Code et la politique du ministère, l’OECTA a également rapporté que les conseils avaient l’habitude d’offrir du soutien à l’éducation de l’enfance en difficulté uniquement aux élèves dont les difficultés ont été reconnues par l’entremise du processus du CIPR. Par conséquent, les besoins en matière d’apprentissage de bien d’autres élèves n’ayant pas fait l’objet de ce processus ne sont pas comblés. L’équipe d’enquête a appris que cette pratique avait cours d’un bout à l’autre de l’Ontario.

La NPP 8 indique que beaucoup d’élèves ayant des TA donnent des signes de difficultés avant d’entrer dans le système scolaire. Elle reprend également l’exigence de la NPP 11 et de la Loi sur l’éducation relative à la mise en œuvre de procédures d’identification précoce et continue des aptitudes et besoins des élèves en matière d’apprentissage. La dyslexie et les troubles de lecture sont des TA, mais cette NPP ne traite pas des procédures appropriées de dépistage précoce et de suivi des progrès des élèves touchés.

La NPP exige d’adopter des procédures de dépistage précoce, mais ne prévoit pas l’utilisation d’outils spécifiques, fondés sur des données probantes, et donne aux conseils, aux écoles et aux enseignants une latitude considérable à cet égard. Le présent rapport présente les procédures appropriées d’identification précoce des compétences en lecture des mots et des risques de développer des troubles de lecture.

À l’instar de la NPP 11, la NPP 8 utilise un langage flou qui pourrait favoriser l’adoption d’une approche attentiste. Selon la NPP 8, « après une période d'enseignement où les points forts et les besoins de chaque élève ont été pris en compte, on peut reconnaître un trouble d'apprentissage possible chez certains élèves qui ont des difficultés à apprendre ». Même s’il est vrai que l’enseignement quotidien donne des indications permettant d’évaluer l’apprentissage des élèves, les outils de dépistage universel fondés sur des données probantes constituent le point de départ essentiel à cette évaluation.

La NPP 8 fait référence à l’approche multiniveaux, à la conception universelle de l’apprentissage et à la différenciation pédagogique, mais n’exige pas l’adoption de ces approches inclusives. Au lieu de cela, elle stipule que les conseils scolaires devraient les prendre en compte et pourraient les adopter.

La NPP 8 se démarque d’autres NPP plus prescriptives et rigoureuses comme la Note Politique/Programmes no 140 : Incorporation des méthodes d’analyse comportementale appliquée (ACA) dans les programmes des élèves atteints de troubles du spectre autistique (TSA) (NPP 140). La NPP 140 exige que les conseils scolaires offrent aux élèves ayant des TSA des programmes et services d’éducation de l’enfance en difficulté, y compris au besoin des programmes et services reposant sur les méthodes d’ACA. La NPP 140 exige également que les éducateurs mesurent les progrès de chaque élève au moyen de la collecte et de l’analyse de données de façon continue. Les éducateurs doivent utiliser ces données pour déterminer l’efficacité du programme auprès de l’élève et le modifier au besoin.

Les conseils scolaires sont également tenus d’élaborer un plan relatif à la mise en œuvre de la NPP 140. Cette NPP stipule aussi que le ministère intégrera le suivi de sa mise en œuvre aux mécanismes actuels de reddition de comptes des conseils. Le ministère dit avoir sondé tous les ans les conseils scolaires à propos de leur respect des exigences de la NPP 140[949].

Lorsqu’on compare la NPP 140 (TSA) à la NPP 8 (TA), on constate que le ministère semble avoir imposé aux conseils scolaires des mesures plus contraignantes relativement à leurs responsabilités envers les élèves ayant des TSA, comparativement à leurs responsabilités envers les élèves ayant des TA. Il semblerait aussi que les mécanismes de surveillance du respect de la NPP 140 du ministère soient plus rigides que ses mécanismes de surveillance du respect de la NPP 8, malgré que nous n’ayons pas évalué l’efficacité des mécanismes de surveillance de la NPP 140 dans la pratique.

La NPP 8 devrait rendre obligatoire l’utilisation d’approches systématiques, fondées sur des données probantes, pour prévenir les difficultés de lecture, et non pas seulement le suggérer. Voir la Section 12 : Évaluations professionnelles pour connaître d’autres questions liées à la NPP 8.

Si Faire croître le succès, la NPP 11 et la NPP 8 orientent les principes d’évaluation adoptés en Ontario, la NPP 155 constitue la plus importante directive stratégique utilisée dans la pratique.

Haut de page

Note Politique/Programmes no 155

Publiée en 2013, la NPP 155[950] traite de l’évaluation diagnostique et de la façon dont le personnel enseignant devrait appliquer son jugement professionnel à l’évaluation. La NPP contient de nombreux énoncés confirmant l’importance de l’évaluation diagnostique aux yeux du ministère et dresse les grandes lignes des responsabilités des enseignants, des directeurs d’école et des conseils scolaires.

Les conseils scolaires sont tenus de créer une liste d’outils d’évaluation approuvés que les enseignants peuvent utiliser. Cependant, la plupart des aspects de l’évaluation diagnostique sont laissés à la discrétion des enseignants, selon leur jugement professionnel. Cette discrétion touche tous les aspects de l’évaluation, comme :

  • quels élèves évaluer (élève individuel, petit groupe d’élèves ou classe entière)
  • quel outil d’évaluation utiliser (à partir de la liste d’outils approuvés du conseil)
  • la fréquence de l’évaluation
  • le moment de l’évaluation.

Le contenu de la NPP 155 n’est pas nouveau. Il reprend en grande partie la politique de 2010 intitulée Faire croître le succès. La NPP cite cette politique lorsqu’elle réitère que « le jugement professionnel des enseignantes et enseignants est au cœur de l'évaluation et de la communication du rendement de l'élève ». La NPP a de nouveau, cependant, le fait qu’elle donne un grand degré de discrétion aux enseignants au sein du système d’éducation de l’Ontario.

 

Portée de la NPP 155

La NPP 155 s’applique uniquement à l’utilisation d’outils d’évaluation diagnostique officiels. Elle ne s’applique pas à l’évaluation de l’enfance en difficulté, aux évaluations provinciales à grande échelle (p. ex., OQRE) ou aux évaluations menées dans le cadre d’initiatives nationales ou internationales approuvées par le ministère (p. ex., PISA).

Depuis la publication de la NPP, les enseignants, les syndicats et les conseils ne s’entendent pas sur ce qui constitue une évaluation diagnostique officielle. Les conflits sur le plan de l’interprétation du rôle de la NPP 155 pourraient découler du fait que la NPP ne délimite pas clairement ce qu’elle qualifie d’évaluation diagnostique. Elle ne définit pas les évaluations diagnostiques ou les évaluations de l’enfance en difficulté « officielles »[951]. Cela ouvre la porte à une interprétation excessivement vaste de la notion d’évaluation diagnostique, qui engloberait les outils de dépistage, qu’il convient davantage de ranger parmi les évaluations de l’enfance en difficulté.

La CODP est d’avis que le dépistage s’apparente davantage à une évaluation de l’enfance en difficulté qu’à une évaluation diagnostique, parce qu’il permet d’identifier les élèves à risque de troubles de lecture afin de leur procurer des mesures d’intervention et de soutien de l’enfance en difficulté.

Dans Faire croître le succès, l’Ontario qualifie l’évaluation de « processus visant à recueillir des renseignements qui reflètent avec exactitude jusqu’à quel point l’élève répond aux attentes du curriculum dans une matière ou un cours donné ». L’évaluation diagnostique est définie de la façon suivante :

Type d’évaluation qui sert à identifier les points forts, les besoins et le niveau de préparation d’un élève en fonction des attentes et des contenus d’apprentissage du curriculum. L’évaluation diagnostique se fait habituellement au début de l’année scolaire, du trimestre, du semestre ou de l’unité d’apprentissage. Elle constitue un élément de première importance dans la planification de l’enseignement et l’identification des résultats d’apprentissage appropriés.

Faire croître le succès décrit aussi le processus d’élimination progressif des qualificatifs « diagnostique », « formatif » et « sommatif ». Au lieu de ces termes, le document privilégie l’utilisation des termes « évaluation au service de l’apprentissage », « évaluation en tant qu’apprentissage » et « évaluation de l’apprentissage ».

Les évaluations diagnostiques appartiennent à la catégorie des « évaluations au service de l’apprentissage », qui sont définies de la façon suivante :

L’évaluation au service de l’apprentissage vise à faire progresser l’élève dans un parcours de continuum d’apprentissage allant de l’éveil à la maîtrise des connaissances et des habiletés. L’information que les enseignantes et les enseignants recueillent grâce à l’évaluation au service de l’apprentissage leur permet de déterminer les besoins d’apprentissage des élèves, d’adapter leur enseignement, de sélectionner et d’adapter le matériel et les ressources, de différencier leurs stratégies pédagogiques et de créer des occasions d’apprentissage pour aider tous les élèves à progresser et de fournir, dans un bref délai, de la rétroaction descriptive aux élèves. (Adapté de la webémission L’évaluation au service de l’apprentissage du ministère de l’Éducation […][952]

L’adoption de ces nouvelles expressions devait marquer l’abandon de termes décrivant la façon de recueillir l’information au profit de termes décrivant la façon, plus conséquente, d’utiliser cette information. Ce principe est au cœur de la distinction faite entre le dépistage et les évaluations diagnostiques.

Les outils de dépistage utilisés pour repérer les élèves à risque de ne pas développer des compétences en lecture des mots ne sont pas des instruments diagnostiques. Le dépistage a pour objectif de repérer des élèves et de leur fournir des mesures d’intervention (y compris des programmes d’éducation de l’enfance en difficulté) avant que ces élèves développent un trouble de lecture (difficultés de lecture plus graves).

La NPP 155 décrit les évaluations de l’enfance en difficulté, qui comprennent :

les évaluations éducationnelles ou d'autres évaluations professionnelles effectuées pour identifier les élèves ayant des besoins particuliers, pour déterminer les programmes ou services de l'éducation à l'enfance en difficulté requis par l'élève, ou pour justifier les décisions concernant ces programmes ou services[…]

Parmi les raisons possibles de la confusion entourant la classification des outils de dépistage pourrait figurer le fait que le modèle éducatif actuel est réactif plutôt que proactif. Certains acteurs pourraient hésiter à qualifier le dépistage d’évaluation de l’enfance en difficulté. D’autres pourraient se représenter les évaluations de l’enfance en difficulté comme des évaluations à la seule intention des élèves qui ont déjà un handicap. Les évaluations de l’enfance en difficulté pourraient être perçues comme des voies d’accès à d’autres évaluations professionnelles (p. ex., évaluations psychopédagogiques) ou au processus d’identification par un CIPR. Le dépistage fait partie d’une « stratégie préventive de détection précoce » systématique[953] des élèves qui pourraient être à risque de difficultés et de troubles de lecture.

Faire croître le succès et la NPP 15 offrent des exemples de données recueillies dans le cadre d’évaluations diagnostiques et de l’évaluation au service de l’apprentissage qui permettent de comprendre le type d’évaluation unique que constituent les outils de dépistage :

Les renseignements que le personnel enseignant utilisera dans le processus d’évaluation au service de l’apprentissage et en tant qu’apprentissage seront tirés de sources diverses, dont les observations au quotidien, les conversations au sujet de l’apprentissage, les discussions, le questionnement efficace, les conférences, les devoirs, le travail en équipe, les démonstrations, les projets, les portfolios, le tableau évolutif du développement langagier, les présentations, les autoévaluations, les évaluations par les pairs et les tests.

Les observations et les portfolios et autoévaluations d’élèves ne sont pas des substituts aux mesures de dépistage des compétences de base en lecture des mots et compétences connexes fondées sur des données scientifiques. Les sources d’information décrites dans Faire croître le succès et la NPP 155 ne sont pas celles qui devraient être utilisées pour le dépistage des élèves ayant des difficultés de lecture. Des études ont révélé que la perception qu’a le personnel enseignant des aptitudes initiales à la lecture et à l’écriture des élèves pourrait, à elle seule, ne pas être suffisante pour repérer correctement les élèves à risque de difficultés de lecture[954].

La NPP 155 ne s’applique pas aux évaluations exigées par la province, ou évaluations à grande échelle. L’Ontario a le pouvoir d’exiger le dépistage universel dans l’ensemble de la province[955].

Les outils de dépistage sont une forme unique d’évaluations qui exigent leur propre politique distincte, autre que ce que décrit le ministère dans ses documents stratégiques et notes de service.

 

Histoire de la NPP 155

La NPP 155 a été publiée à la suite de la conclusion du protocole d’entente entre le ministère et l’OECTA en 2012. Sur son site Web, la Fédération des enseignantes et des enseignants de l’élémentaire de l’Ontario (FEEO) stipule que la politique « signale un déplacement fondamental du centre de contrôle de l’utilisation des évaluations diagnostiques des conseils scolaires et directeurs d’école vers les enseignants individuels[956] ». 

La NPP 155 a été qualifiée de victoire par de nombreuses associations de professeurs de l’Ontario[957]. En 2004, le ministère a commencé à exiger l’utilisation d’outils d’évaluation communs, ce qui a déplu à beaucoup d’enseignants[958]. Certains enseignants y voyaient une façon pour les conseils scolaires de surveiller le rendement du personnel enseignant[959]. Cette préoccupation transparaît également du libellé de la convention centrale conclue en 2015 entre le ministère et la FEEO. Le protocole d’accord stipule que : « Les résultats des évaluations diagnostiques ne seront utilisés d'aucune façon dans le cadre de l'évaluation des enseignants. Aucun enseignant ne fera l'objet de mesures disciplinaires ou d'un congédiement en raison de résultats d'évaluation diagnostique »[960].

Avant l’adoption de la NPP 155, des enseignants ont dit ne pas savoir ce que les conseils faisaient des données et « se sentir jugés[961] ». Bien qu’aucun conseil n’ait abordé la question dans le cadre de la présente enquête, une étude menée par le ministère en 2013 a révélé qu’un conseil percevait les outils d’évaluation diagnostique comme une façon d’assurer « la responsabilisation des enseignants ». D’indiquer le conseil : « Les bons enseignants continueront de mener des évaluations efficaces, tandis que les mauvais enseignants et les enseignants peu motivés peuvent maintenant agir avec davantage d’impunité[962] ».

Le débat sur la NPP 155 met en opposition les responsabilités des conseils et le jugement professionnel des enseignants[963]. Malgré que les conseils et enseignants aient le même objectif, des différends sains peuvent exister sur la meilleure façon de répondre aux besoins des élèves.

En pareil cas, il est utile de se reporter à la littérature scientifique. Les enseignants doivent exercer leur jugement professionnel à l’intérieur du cadre de dépistage précoce universel imposé. Le dépistage universel est essentiel pour satisfaire aux besoins des élèves protégés par le Code. Il n’a pas été conçu pour servir d’outil d’évaluation du rendement des enseignants et ne devrait pas être utilisé à cette fin.

 

Jugement professionnel

Le ministère définit le jugement professionnel de la façon suivante dans la NPP 155 (selon Faire croître le succès) :

Le jugement professionnel est un processus qui tient compte de renseignements complémentaires au sujet du contenu, du contexte, des preuves d’apprentissage, des stratégies pédagogiques et des critères qui définissent la réussite de l’élève. Il requiert réflexion et autocorrection. L’enseignante ou l’enseignant ne peut s’en tenir seulement aux résultats des productions pour prendre une décision. Le jugement professionnel consiste à faire des analyses des diverses manifestations d’une compétence pour situer où en est l’élève par rapport au niveau de satisfaction des attentes.

Dans les sondages de l’enquête, de nombreux enseignants ont rapporté ne pas avoir eu accès à l’apprentissage professionnel nécessaire au dépistage des troubles de lecture. Voir la Section 8 : Curriculum et enseignement. Cela signifie que le jugement professionnel ne s’appuie pas sur des méthodes scientifiques d’évaluation.

Le dépistage universel ne porte pas atteinte au jugement professionnel des enseignants. En revanche, le fait d’enseigner aux enseignants à utiliser des outils d’évaluation peu fiables dont la validité est douteuse fait entrave à leur jugement professionnel.

Le personnel enseignant doit obtenir une formation sur les outils fondés sur des données probantes offerts dans le domaine, et sur le moment et la façon de les utiliser pour optimiser leur efficacité, tandis que les conseils scolaires doivent veiller à assurer leur utilisation uniformisée d’une salle de classe, d’une école et d’un conseil scolaire à l’autre. À l’instar des autres professions, les enseignants doivent avoir accès aux outils nécessaires pour mener à bien leur rôle.

Quel que soit le domaine d’activités, les professionnels doivent étayer leur jugement sur des données scientifiques, d’une façon qui ne nuit pas aux personnes qu’ils servent. Les gouvernements fixent régulièrement des normes qui restreignent le pouvoir discrétionnaire quand il est dans l’intérêt public de le faire.

 

Collecte et uniformité des données

Les conseils scolaires de l’Ontario ont qualifié la NPP 155 d’obstacle majeur à la planification des programmes et à la collecte de données importantes. Depuis la publication de la NPP 155, le personnel enseignant n’est plus tenu d’entrer les données des outils d’évaluation diagnostique imposés par les conseils.

Pour être utiles, les données sur le dépistage doivent être standardisées. Chaque élève doit être évalué au moyen des mêmes mesures, administrées au même moment.

En 2013, le ministère a commandé une étude de la mise en œuvre et des effets de la NPP 155[964]. Un des objectifs de l’étude était de comprendre le degré d’uniformité de la mise en œuvre de la note et les répercussions de la note sur la capacité des conseils de recueillir des données. Le rapport de l’étude a fait état des perspectives très variées des conseils et des enseignants relativement à leurs obligations et aux façons d’interpréter les évaluations diagnostiques officielles par opposition aux évaluations de l’enfance en difficulté.

Menée auprès de huit conseils scolaires de l’Ontario, l’étude de 2013 a révélé un manque de consensus quant à la mise en œuvre de la NPP 155. Les divergences observées d’un conseil à l’autre touchaient entre autres :

  • l’utilisation précédente d’outils d’évaluation diagnostique
  • l’utilisation actuelle d’outils d’évaluation diagnostique
  • la capacité des systèmes de gestion des données
  • les perspectives relatives à l’évaluation diagnostique et à la NPP 155 (si elle devrait être mise en œuvre, et de quelle façon).

L’étude a aussi fait état des préoccupations des conseils relativement à la perte de données. Dans un conseil, la moitié seulement des enseignants avaient mis en commun leurs résultats d’évaluation et on ne savait pas si le personnel enseignant avait évalué une partie ou l’ensemble des élèves. Selon le conseil, « nous avons perdu non seulement des données utiles aux discussions sur les pratiques fondées sur des données probantes, mais également des années d’acquis en matière de sensibilisation » aux données[965]. De l’avis d’un autre conseil, la NPP avait perturbé sa pratique précédente consistant à exiger la conduite de deux évaluations par année en n’exigeant qu’une évaluation par année[966].

Outre l’étude de 2013, des conseils ont fait part de préoccupations à l’égard de la NPP 155 dans d’autres contextes. Par exemple, dans un exposé transmis au ministère en 2018, le Conseil ontarien des directrices et des directeurs de l’éducation de langue française (CODELF) indiquait ce qui suit :

Tout en reconnaissant que le jugement professionnel du personnel enseignant est la pierre angulaire de l’évaluation, il importe de porter un regard critique sur la place que doit occuper l’évaluation diagnostique en salle de classe, au niveau de l’école et du conseil scolaire[967].

La variabilité et le manque d’uniformisation des méthodes de dépistage d’une classe, d’une école et d’un conseil à l’autre sont directement attribuables à la façon dont le système a été établi. Étant donné que la NPP 155, selon son interprétation actuelle, ne permet pas aux conseils d’imposer un outil ou un calendrier de dépistage précis, les conseils peuvent uniquement suggérer une liste d’options et de dates de dépistage. Cela les empêche d’assumer leurs responsabilités en matière de programmation, de planification et de reddition de comptes. Une telle approche nuit à l’harmonisation, à la satisfaction des besoins en matière d’éducation des élèves et à l’identification d’élèves nécessitant des mesures d’intervention et, au final, limite la réussite scolaire.

Haut de page

Comité d’élaboration des normes d’accessibilité à l’éducation de la maternelle à la 12e année

En 2017, le ministre des Services aux aînés et de l’Accessibilité a formé un comité pour éliminer les obstacles auxquels se heurtaient les élèves de la maternelle à la 12e année des écoles publiques de l’Ontario. Créé aux termes de la Loi de 2005 sur l’accessibilité pour les personnes handicapées de l’Ontario[968], ce comité se nomme le Comité d’élaboration des normes d’accessibilité à l’éducation de la maternelle à la 12e année (Comité d’ENAE). Le Comité d’ENAE compte parmi ses membres des personnes handicapées, des organisations de services aux personnes handicapées et des experts du domaine de l’éducation.

En 2021, le comité a rédigé un rapport initial dans lequel il formulait 197 recommandations. Un des principes directeurs du rapport établissait un lien critique entre les pratiques fondées sur des données probantes et les droits des élèves handicapés :

[L]es programmes, pédagogies et politiques fondés sur la recherche et les preuves favorisent une culture de respect de l’équité, de l’égalité, de l’accès et de l’inclusion dans toutes les écoles, et garantissent des preuves des effets sur l’ensemble du système scolaire pour les élèves handicapés[969].

Le rapport traitait aussi du curriculum, des évaluations et de l’enseignement. Il inclut des recommandations en vue d’améliorer l’évaluation précoce et continue des élèves ayant des besoins liés à des handicaps. Selon le rapport :

Les élèves handicapés peuvent rencontrer des difficultés et des retards importants pour obtenir des évaluations professionnelles (y compris, mais sans s’y limiter, des évaluations psychoéducatives), le cas échéant, pour leurs besoins liés au handicap. De plus, il existe un risque d’évaluation injuste ou biaisée pour certains élèves handicapés en raison d’un manque de compréhension des élèves, de leurs expériences vécues et de leurs identités. Cela peut conduire à des interprétations erronées qui créent de nouveaux obstacles involontaires à une éducation accessible et inclusive pour les élèves handicapés. L’absence d’une évaluation nécessaire peut entraver leur accès aux services et aux mesures d’adaptation nécessaires pour leurs handicaps[970].

Le comité recommandait des mesures et des processus pour éliminer les obstacles qui empêchent la conduite, en temps opportun, d’évaluations justes et non biaisées permettant de cerner les besoins en matière de handicaps. Le comité a aussi reconnu qu’il existait de nombreux types d’évaluations pédagogiques, y compris les évaluations continues et fondées sur des données probantes en salle de classe. Le comité a recommandé que le ministère, les conseils et les facultés d’éducation effectuent ce qui suit :

[veiller] à ce qu’une formation professionnelle initiale, continue et intégrée à l’emploi aux évaluations diagnostiques, formatives et sommatives fondées sur le programme d’études et aux évaluations plus formelles soit offerte aux éducateurs afin de guider l’enseignement différencié pour tous les apprenants.

Haut de page

Approche actuelle des conseils scolaires en matière de dépistage

La CODP a demandé aux huit conseils visés par l’enquête de lui fournir des documents, des données et de l’information qui expliquent leurs méthodes de dépistage précoce des difficultés de lecture. Durant ses réunions avec chacun des conseils, la CODP a également posé des questions visant à mieux comprendre son approche et à ouvrir la discussion sur tout obstacle au dépistage universel.

Chaque conseil scolaire examiné dans le cadre de l’enquête a qualifié la NPP 155 d’obstacle au dépistage universel étant donné qu’elle limite sa capacité d’exiger le recours à certains outils spécifiques et d’établir un calendrier de dépistage, et empêche la collecte centralisée de données sur le dépistage. Cependant, certains conseils ont dit tenter de contourner les paramètres établis par le ministère. À l’instar de l’étude de 2013 du ministère, qui faisait état de différentes interprétations de la NPP, de nombreux conseils scolaires ont également fait part de réactions différentes des agents négociateurs locaux aux directives des conseils relatives aux évaluations. Un conseil scolaire, le conseil Thames Valley, a trouvé une façon de faire abstraction des limites imposées par la NPP 155. Nous décrivons l’approche de ce conseil plus tard dans cette section.

Les outils de dépistage dont les conseils scolaires font l’usage ou la promotion et les procédures de mise en œuvre de ces outils sont problématiques à de nombreux égards. Ces outils et processus de dépistage ne reflètent pas les éléments de preuve scientifiques. Qu’il s’agisse de leur fréquence, viabilité ou fiabilité, de leurs procédures de mise en œuvre ou processus décisionnels, de leur uniformisation, des types d’outils utilisés, du degré d’expertise sur lequel ils reposent ou de la collecte de données effectuée, les approches de dépistage adoptées actuellement en Ontario posent en tous points des problèmes importants. Cela réduit l’efficacité du modèle de soutien multiniveaux des conseils.

Certains des constats effectués ne sont pas surprenants étant donné que les modèles de littératie équilibrée et systèmes d’indices sont les approches d’enseignement de la lecture en bas âge les plus souvent rapportées par les conseils et citées dans le curriculum et le matériel éducatif du ministère. Le dépistage universel fondé sur des données probantes doit s’inscrire dans un système global d’enseignement des compétences de base en lecture qui repose lui aussi sur des données probantes. Or, ce n’est pas le cas actuellement en Ontario.

 

Fréquence

La plupart des conseils scolaires n’effectuent pas le dépistage universel à plusieurs moments entre la maternelle et la 2e année. Les élèves font habituellement l’objet de dépistage une fois durant les premières années d’études, le plus souvent au jardin d’enfants, quoique même là, la situation varie d’un conseil à l’autre. Par exemple, certains conseils soumettent au dépistage uniquement les élèves qui donnent des signes de difficultés selon le personnel enseignant. Or, cela ne relève pas d’une approche universelle standardisée. De plus, le dépistage des élèves au jardin d’enfants ne suffit pas. Le dépistage devrait être effectué deux fois par année jusqu’à la 2e année.

 

Mesures

Lorsque les conseils scolaires procèdent au dépistage au jardin d’enfants, les tests utilisés mesurent uniquement, dans la majorité des cas du moins, la connaissance des noms et des sons des lettres et (ou) la conscience phonologique. Les tests qui mesurent la conscience phonologique font surtout l’évaluation de segments de sons de taille supérieure aux phonèmes (comme les syllabes et les rimes). Or, ces éléments font partie des premières aptitudes préalables à l’apprentissage de la lecture et ne sont pas adéquats, à eux seuls, comme cibles de dépistage.

Comme le démontre le tableau de l’IES, le dépistage des difficultés des élèves devrait aussi porter sur la conscience et la fluidité de lecture des phonèmes, la fluidité sur le plan de la correspondance lettre-son, le décodage, ainsi que la lecture de mots et de textes. Dès la moitié de la 1re année, l’évaluation de la lecture de mots et de textes devrait porter sur la fluidité et la précision de la lecture. Les conseils prennent souvent les outils élémentaires de dépistage utilisés au jardin d’enfants pour des évaluations exhaustives de dépistage de toutes les connaissances et compétences nécessaires à l’apprentissage de la lecture des mots.

La raison pour laquelle le dépistage ne porte pas sur la précision et la fluidité de lecture des mots est claire. Cette omission puise ses sources dans le curriculum. Les conseils scolaires suivent la méthode des trois systèmes d’indices du curriculum (voir la Section 8 : Curriculum et enseignement) pour « enseigner » l’identification des mots. C’est pourquoi les instruments de dépistage n’ont pas été conçus pour mesurer à elles seules la précision et la vitesse de lecture des mots, deux marques de l’aptitude à la lecture.

Après la maternelle et le jardin d’enfants, les conseils ont rapporté que les enseignants employaient les évaluations associées aux programmes commerciaux de littératie équilibrée qu’ils utilisaient, comme Reading Recoverymd et les programmes de Fountas et Pinnell, dont Levelled Literacy Intervention (LLI). Les conseils ont déclaré employer les évaluations suivantes :

 

Tableau 19 : Évaluations commerciales utilisées par les huit conseils scolaires visés par l’enquête

Évaluation

Nbre de conseils scolaires

PM Benchmarks

6

Fiches d’observation individualisée

5

 Benchmark Assessment Systems (BAS)

3

Sondage d’observation en lecture-écriture/Observational Survey of Early Literacy Achievement

3

Comprehension Attitudes Strategies Interests (CASI)

3

Évaluation linguistique à l’oral

2

Developmental Reading Assessment (DRA)

2

Ces outils de dépistage étaient également les outils les plus couramment cités dans le sondage à l’intention des éducateurs. 

 

Tableau 20 : Évaluations commerciales nommées par les éducateurs ayant répondu au sondage

Évaluation

Éducateurs

Fiches d’observation individualisée

22 %

PM Benchmarks

20 %

Developmental Reading Assessment (DRA)

18 %

Benchmark Assessment Systems (BAS)

11 %

Sondage d’observation en lecture-écriture/Observational Survey of Early Literacy Achievement

9 %

Évaluation linguistique à l’oral

7 %

Ces outils d’évaluation ne mesurent pas adéquatement les compétences de base en précision et en fluidité de lecture des mots. Ils mesurent surtout la capacité de lecture de contenu de livres structurés, d’utilisation de stratégies d’indices pour reconnaître des mots dans des textes et de reconnaissance de mots à grande fréquence. Les outils d’évaluation du niveau de lecture de livres ne sont pas utiles pour déterminer si un ou une élève développe des compétences de base en lecture des mots.

La littérature qualifie souvent d’inventaires de lecture les outils que les conseils scolaires utilisent à l’heure actuelle. Ces inventaires sont des instruments commercialisés d’évaluation de la lecture qui sont soumis à peu de recherches[971]. Les inventaires sont rarement accompagnés des propriétés de mesure de leurs données, et peu d’information a été recueillie sur leur exactitude potentielle. Quand cette information est disponible, elle est habituellement fondée sur une méthodologie de recherche peu rigoureuse[972].

Dans le cadre d’une étude menée en 2015, une mesure d’évaluation de la fluidité de lecture « a fait preuve de plus d’exactitude sur le plan de l’identification des élèves à risque et a occasionné un classement approprié dans 80 % des cas, comparativement à 54 % pour le [...] [Benchmark Assessment System de Fountas et Pinnell][973] ». En outre, les chercheurs ont conclu que « les praticiens qui fondent leurs décisions en matière de dépistage sur des données d’inventaires de lecture prendront probablement des décisions aussi fiables que s’ils jouaient à pile ou face chaque fois qu’une ou un nouvel élève entrait dans la classe »[974]. Les chercheurs ont aussi fait remarquer que « l’évaluation de la fluidité de la lecture à voix haute prend de trois à cinq minutes par élève à effectuer, tandis que l’inventaire de lecture prend environ de 20 à 30 minutes par élève à remplir »[975].

Les fiches d’observation individualisée sont un autre type d’évaluation couramment utilisé en Ontario en combinaison avec d’autres outils d’évaluation courants. De nombreux documents du ministère font référence à ces fiches, y compris le Guide to Effective Instruction in Reading[976] et le Programme de la maternelle et du jardin d’enfants, 2016[977]. Ce mode d’évaluation a été mis au point en 1985 par Marie Clay, et intégré au programme d’intervention Reading Recoverymd. Il s’agit également d’une des six tâches du Sondage d’observation en lecture-écriture[978].

Les enseignants qui font usage de fiches d’observation individualisée prennent en note ce que disent et font les élèves pendant qu’ils lisent un texte à voix haute. Ils documentent le niveau de précision de l’élève, ses erreurs, l’assistance qu’ils lui offrent, ainsi que le taux d’autocorrection de l’élève. Ils notent également quel système d’indices l’élève utilise pour lire et déterminent la raison des erreurs effectuées (analyse des méprises)[979].

Les fiches d’observation individualisée sont également utilisées en combinaison avec des mesures d’intervention en lecture autres que Reading Recoverymd[980]. Par exemple, LLI (Fountas et Pinnell) emploie la même méthode de codage, qu’il nomme autrement[981]. LLI utilise les BAS à des intervalles spécifiques durant l’année scolaire, mais utilise des fiches d’observation individualisée entre les tests BAS de façon à assurer une évaluation continue.

Nous ne disposons d’aucune preuve de la validité des fiches d’observation individualisée ou des approches connexes. Leurs propriétés psychométriques[982] sont douteuses, sans compter qu’elles n’arrivent pas à identifier de nombreux enfants à risque d’échec sur le plan de l’apprentissage de la lecture[983]. Cette méthode d’évaluation ne mesure pas les compétences que les élèves devraient acquérir afin d’apprendre à lire. Les nouveaux lecteurs ne devraient pas utiliser le sens et la structure des mots, ou des indices visuels pour déterminer ce qui est écrit[984].

Les fiches d’observation individualisée révèlent uniquement à l’enseignante ou à l’enseignant comment l’élève lit des mots figurant dans des phrases, souvent prévisibles. Elles rendent compte des capacités de l’élève à deviner ou à prédire les mots, et non de son apprentissage des compétences de base en lecture des mots. Le recours à ces évaluations donne l’illusion de la collecte de données précieuses, mais masque les difficultés de lecture des mots[985], ce qui retarde l’identification du problème. Or, plus on les cerne tard et plus il est difficile de résoudre les difficultés de lecture. 

Au lieu de cela, le dépistage devrait porter sur les compétences de base en lecture des mots. Comme nous l’avons indiqué précédemment, le rapport de l’IES résume les recommandations actuelles fondées sur des données probantes. Le dépistage universel des difficultés de lecture des mots après le jardin d’enfants devrait inclure, à tout le moins :

  • 1re année (début d’année) : connaissance phonémique, décodage, identification des mots et lecture de textes
  • 1re année (deuxième semestre) : décodage, identification des mots et lecture de textes; la vitesse et la précision de la lecture devraient être mesurées
  • 2e année : lecture chronométrée de mots et de passages[986].

Haut de page

Fiabilité et validité

De nombreux conseils ont dit utiliser des outils de dépistage élaborés à l’interne. Bien que cette approche ne soit pas mauvaise en soi, les mesures de dépistage employées doivent reposer sur des données probantes. Les conseils scolaires n’ont pas soumis assez d’information pour juger de la fiabilité et de la validité des outils utilisés[987], et il semblerait que de telles données n’existent pas ou n'ont pas été recueillies.

De plus, si certaines méthodes élaborées par des conseils portent sur des compétences utiles comme la conscience phonologique, elles ne mesurent pas toute la variété des compétences examinées dans le cadre d’une méthode de dépistage fondée sur des données probantes.

Par exemple, plusieurs outils de dépistage évaluaient trois éléments de chaque domaine de compétence auquel fait appel la conscience phonologique. Chez l’élève, la compétence était ensuite classée selon qu’elle était présente, naissante ou non présente, en fonction du nombre d’éléments ayant obtenu la note de passage. L’élève était jugé « à risque » ou « pas à risque » selon que ses résultats atteignaient ou non un certain seuil. Cependant, aucune information ne nous a permis d’évaluer comment les conseils en sont venus à leurs décisions ou comment ils ont établi leurs catégories. Nous n’avons également reçu aucune information sur les erreurs de mesure associées aux outils de dépistage, ou la façon dont elles ont été intégrées aux règles de prise de décisions.

Au lieu de cela, les conseils scolaires devraient dans un premier temps utiliser des mesures de dépistage qui sont bien connues et ont déjà fait l’objet d’études[988] et ensuite examiner leur fiabilité et leur validité dans le contexte particulier du conseil scolaire. Les conseils scolaires qui préfèrent utiliser leurs propres mesures de dépistage devraient s’assurer que ces mesures comprennent toutes les composantes essentielles ciblées dans les recommandations fondées sur des données probantes (le rapport de l’IES) et en évaluer continuellement la mise en œuvre.

Haut de page

Suivi des progrès

Certains conseils scolaires utilisent un outil de dépistage initial à un moment précis (habituellement au jardin d’enfants, à l’automne) puis le reprennent ou utilisent un outil quelque peu différent portant parfois sur des compétences plus poussées dans un deuxième et (ou) un troisième temps. Or, dans la plupart des conseils, seuls les élèves qui ont obtenu un mauvais résultat au premier dépistage sont soumis à l’outil une deuxième et (ou) une troisième fois.

Cette approche pose deux problèmes. Premièrement, le suivi des progrès n’est pas la même chose que le dépistage, et l’utilisation d’outils de dépistage n’est pas nécessairement la meilleure façon de suivre les progrès d’une ou d’un élève, ou sa réponse à l’intervention. Deuxièmement, tous les élèves devraient être soumis à un outil de dépistage deux fois par année, de la maternelle à la 2e année. Sinon, certains élèves qui ont obtenu de bons résultats à l’évaluation des compétences initiales en lecture, mais qui peinent à développer des compétences plus poussées, comme la précision et la fluidité de lecture, pourraient passer entre les mailles du filet.

De plus, de façon similaire au dépistage initial, ces outils de suivi des progrès mesurent souvent les niveaux de lecture de livres en évaluant la lecture des mots au moyen de systèmes d’indices. Certaines des évaluations de la lecture de livres utilisées indiquent uniquement que l’élève affiche un rendement considérablement sous celui de l’année d’études et, en ce sens, ne sont pas utiles parce qu’elles n’indiquent pas au personnel enseignant comment se développent les compétences de base en lecture des mots de l’élève (précision et fluidité de lecture de mots isolés).

Haut de page

Décisions prises en fonction des résultats du dépistage

La CODP a demandé aux conseils scolaires de lui fournir de l’information sur l’utilisation faite des résultats du dépistage. L’information transmise à propos de la prise de décisions et des changements aux méthodes d’enseignement était peu claire ou, dans certains cas, constituait le reflet d’une interprétation erronée des données de recherche.

Par exemple, plusieurs conseils ont indiqué que le personnel enseignant utilise les outils de dépistage des difficultés de reconnaissance des sons des lettres pour savoir quelles correspondances lettre-son enseigner aux différents élèves de la classe et (ou) pour repérer les enfants à risque et commencer à leur enseigner les correspondances lettre-son qu’ils ne connaissent pas.

Il est beaucoup plus efficace d’effectuer l’enseignement explicite et systématique en salle de classe des correspondances lettre-son et de leur utilisation pour le décodage des mots et des textes au jardin d’enfants/en 1re année, à tous les élèves, en même temps que d’enseigner les compétences relatives à la conscience phonémique. Ce type d’enseignement direct et systématique aidera presque tous les enfants à maîtriser les compétences en décodage initiales requises pour passer à l’année suivante. Cette approche sera beaucoup plus efficiente et efficace, et aidera tous les élèves[989].

Deuxièmement, le fait d’enseigner aux élèves à risque les correspondances lettre-son qu’ils ne connaissent pas n’accélérera pas leur apprentissage du décodage, et est peu probable de leur permettre de rattraper leurs pairs en matière de compétences en lecture des mots. L’utilisation d’un outil de dépistage permet de mesurer rapidement les compétences annonciatrices de difficultés futures en précision et en fluidité de lecture des mots. Les mesures de dépistage permettent de repérer les élèves qui ont besoin de mesures d’intervention efficaces afin d’acquérir les compétences essentielles au décodage et à la lecture des mots.

Étant donné que les outils de dépistage utilisés par la plupart des conseils portent uniquement sur les aptitudes préalables ou très initiales à la lecture et à l’écriture, les décisions prises par ces conseils en matière d’intervention appropriée reposent sur des informations très limitées. Par exemple, une élève qui obtiendrait un mauvais résultat à un test rapide de sa conscience phonologique serait qualifiée d’élève ayant uniquement besoin de mesures d’intervention ciblant la conscience phonologique.

Pour faire en sorte que les mesures d’intervention en lecture ciblent tout l’éventail des compétences essentielles à la précision et à la fluidité de lecture des mots, il est nécessaire de faire appel à des outils de dépistage et programmes d’intervention appropriés.

Haut de page

Uniformisation

Les conseils scolaires ont soumis à la CODP leur liste d’évaluations approuvées et leur calendrier recommandé de dépistage. De grandes variations ont été observées d’un conseil scolaire à l’autre. Cela est en grande partie attribuable à la NPP 155.

Les huit conseils examinés dans le cadre de l’enquête ont soulevé des préoccupations par rapport aux effets de la NPP 155. Ils nous ont répété que la NPP 155 a fait obstacle à la collecte centralisée de données, à la prise de décisions fondées sur des données, ainsi qu’à la planification et à la prestation des programmes. Selon eux, la NPP ne reconnaît pas l’importance et la valeur des données. Les conseils scolaires ont dit ne plus pouvoir :

  • recueillir de données au moyen d’un outil d’évaluation commun et utiliser ces données pour comparer les écoles, identifier les écoles où les besoins sont importants et allouer des ressources additionnelles
  • suivre systématiquement l’évolution de tous les élèves qualifiés d’à risque de difficultés de lecture lors de leur évaluation, et s’assurer qu’ils obtiennent des mesures d’intervention
  • mesurer l’impact de leurs décisions à l’échelle systémique pour changer leur approche si celle-ci ne fonctionne pas ou l’intensifier si elle est efficace.

Les conseils tentent de mettre en place des approches uniformisées. Bon nombre des conseils scolaires examinés dans le cadre de l’enquête envoient des notes de service au début de l’année scolaire qui expliquent leur liste de différents outils de dépistage et présentent un calendrier d’exécution recommandé. Cependant, aux termes de la NPP 155, le choix de l’outil et sa fréquence d’utilisation sont à la discrétion du personnel enseignant. Certains éducateurs ayant répondu au sondage ont indiqué que leur association locale d’enseignants entretenait l’idée selon laquelle il est uniquement nécessaire de procéder à des évaluations diagnostiques auprès des élèves à risque, et que les observations du personnel enseignant suffisaient pour les autres élèves. Cela compromet l’objectif du dépistage universel.

Aux termes de la NPP 155, les enseignants recueillent et soumettent des données sur une base volontaire. Ils tiennent leurs propres dossiers qu’ils ne sont pas tenus de mettre en commun. Les directeurs d’école peuvent se renseigner sur les évaluations et les données auprès du personnel enseignant, mais le résultat dépendra de la familiarité de l’enseignante ou de l’enseignant, et de la directrice et du directeur avec les évaluations de la lecture, et de leur décision de recueillir ou non l’information requise. Le fait d’assujettir l’adoption de pratiques judicieuses au pouvoir discrétionnaire est non seulement inefficace et inefficient, mais entraîne également des conflits inutiles. Par exemple, comme l’a indiqué une personne assurant la direction d’une école :

C’est un grand problème qui crée des conflits entre [la] direction et le personnel. Les directeurs tentent d’encourager le personnel, mais rien ne leur permet de les obliger à le faire. La situation cause des conflits qui ne devraient pas exister. Parfois, on doit pouvoir être capable de dire « on ne devrait pas le faire, on doit le faire ».

Il est clairement ressorti de nos discussions que les conseils scolaires pensent que la NPP 155 a réduit le niveau de responsabilisation. Une personne représentant un conseil a dit se sentir « menottée sur le plan professionnel » et moins apte à respecter ses obligations parce que les données actuelles ne lui permettent pas de collaborer avec les écoles et d’identifier les tendances. Aucun conseil n’était en mesure de chiffrer le taux de recours aux évaluations.

Les conseils ont parlé du fait que la NPP 155 était non seulement un obstacle à la planification à l’échelle des conseils et à la réussite des élèves, mais également aux enseignants. Selon certains conseils, la NPP 155 n’a pas l’appui de l’ensemble des enseignants. Ils ont indiqué que sa modification n’entraînerait pas le « tollé énorme » auquel on pourrait s’attendre. Un conseil a rapporté qu’il ne se heurtait à aucune résistance de la part des enseignants lorsqu’il exigeait l’utilisation d’évaluations communes selon un horaire prédéterminé avant l’entrée en vigueur de la NPP 155.

Quelques conseils ne pensaient pas que la NPP 155 était si « controversée » qu’on pourrait le croire et ont déclaré que la plupart des enseignants effectuaient des évaluations. Ce qui manque, selon eux, c’est la possibilité d’examiner les données à l’échelle systémique et de mettre de l’avant des approches ciblées de perfectionnement professionnel afin de combler les lacunes sur le plan de la formation des enseignants. Un conseil a rapporté que les enseignants demandaient régulièrement une formation sur les outils de dépistage.

Selon un conseil scolaire, les nouveaux enseignants, qui ne peuvent plus intégrer une « structure de connaissances » préexistante, ressentent tout l’impact de la situation. De poursuivre le conseil, « c’est une chose que de se fier au jugement professionnel, mais à moins d’offrir un [perfectionnement professionnel] exhaustif, ces deux choses ne se rejoignent pas nécessairement ».

Certains conseils avaient dans leur liste des outils de dépistage fondés sur des données probantes. Cependant, en raison de la NPP 155, il n’est pas garanti que les enseignants choisiront ces évaluations, surtout lorsque d’autres outils sont mieux connus, sont associés à des programmes d’intervention commerciaux familiers et fournis par l’école, et cadrent davantage avec les approches répandues d’enseignement de la lecture au moyen de la littératie équilibrée et des systèmes d’indices. D’autres conseils utilisent des programmes d’intervention qui incluent leurs propres instruments de dépistage. Cependant, ces programmes d’intervention varient d’une école à l’autre, et ne sont souvent pas fondés sur des données probantes.

Des répondants au sondage ont également soulevé des préoccupations à l’égard de la NPP 155. Parmi eux figuraient des enseignants, d’autres professionnels de l’éducation, ainsi que des administrateurs d’école et de conseil. Les enseignants ont indiqué vouloir plus de clarté à propos des outils de dépistage à utiliser. En réponse à une question tentant d’établir si les élèves étaient soumis au dépistage des difficultés de lecture en maternelle ou en 1re année, un membre du personnel enseignant a indiqué ce qui suit :

Cela dépend de l’enseignante ou de l’enseignant. La NPP 155 fait partie du problème. Nous devons exiger le dépistage universel et former le personnel en conséquence. Mais nous avons aussi besoin des ressources requises pour intervenir.

Quand on lui a demandé combien de fois les élèves étaient soumis au dépistage, un autre membre du personnel enseignant a répondu :

C’est la norme dans notre conseil d’effectuer le dépistage deux fois par année, mais beaucoup d’enseignants ne le font pas, ce qui n’entraîne aucune conséquence. Honnêtement, cela est en partie attribuable à la NPP 155, qui a ses bons côtés, mais si nous n’utilisons pas de données véritables à l’échelle de l’école pour guider la pratique, ce n’est pas mieux [...] Si nous ne faisons pas le suivi des données et ne sommes pas tenus de soumettre des données, comment savons-nous que les données sont utilisées, et utilisées à bon escient?

Les administrateurs d’école et de conseil avaient des préoccupations similaires relativement à la NPP 155 et pensaient qu’elle devait être réexaminée pour veiller à ce que « tous les élèves bénéficient d’évaluations diagnostiques régulières afin d’orienter l’enseignement en salle de classe et les prochaines étapes ». Comme l’expliquait une personne chargée de l’administration d’un conseil :

Avant que le ministère mette en œuvre la NPP 155 en 2013, les écoles recueillaient l’information des évaluations du système [...] afin de suivre collectivement les progrès de tous les élèves. Les conseils scolaires de district recueillaient à leur tour de l’information des écoles pour créer des plans d’amélioration de la littératie et combler les lacunes. Cela a permis au système d’offrir un apprentissage professionnel aux enseignants, toujours pour combler les lacunes. Depuis l’adoption de la NPP 155, nous n’avons plus ces données précieuses pour surveiller [les] progrès de tous les élèves.

Un autre membre du personnel d’un conseil a décrit le manque de soutien au dépistage et la façon dont le savoir sur les données manque, même à l’échelle de la haute direction. Lorsqu’on a demandé à cette personne ce qu’elle ferait pour améliorer l’accès au dépistage, elle a répondu :

Premièrement, il faut la communication de messages cohérents et une formation des éducateurs des enfants d’âge préscolaire qui inclut un enseignement rigoureux de la science de l’apprentissage et de l’instruction directe, etc. Cet enseignement doit aborder la compréhension des données (statistiques de base), l’évaluation, la psychométrie et les craintes relatives à l’évaluation.   Deuxièmement, on doit éliminer les inégalités structurelles entourant les questions comme la façon dont la NPP 155 a été interprétée et utilisée pour faire obstacle au changement et à la pratique fondée sur des données probantes. Surtout, on a besoin de leadership éthique et redevable afin d’éviter la prise de décisions biaisées et non fondées. J’ai été témoin de la prise de décisions relatives au rendement des élèves qui étaient fondées sur des impératifs politiques et de relations publiques plutôt que sur des données probantes.

Le sondage à l’intention des éducateurs a aussi révélé que les évaluations sont souvent menées à la fin de l’année étant donné que les conseils ne peuvent pas en exiger l’exécution selon un horaire précis. On rate ainsi une belle occasion de mettre en œuvre des mesures d’intervention efficaces. L’objectif du dépistage est d’assurer la mise en place immédiate de mesures d’intervention. Le dépistage à la fin de l’année rend cela impossible, et retarde inutilement l’identification des enfants qui ont besoin de telles mesures.

Enfin, une personne représentant une association d’enseignants a indiqué ce qui suit dans le sondage : « Dans le système actuel, il me semble que le fait d’être soumis ou non au dépistage, à quel moment et de quelle façon, dépend beaucoup du hasard. »

Plutôt que de laisser le choix du mode de dépistage, une étape importante de l’éducation inclusive, à des enseignants surchargés et à des conseils assujettis à la NPP 155 et dont la capacité de recherche est limitée, le ministère devrait établir une courte liste d’outils fiables autorisés, qui ont fait l’objet d’une validation scientifique. De nombreuses administrations publiques de l’extérieur de l’Ontario ont adopté une telle approche. Une personne ayant répondu au sondage à l’intention des éducateurs a dit ce qui suit :

Il devrait y avoir un document du ministère de l’Éducation pour ne pas que chaque conseil scolaire crée le sien. La province devrait avoir un outil standard de dépistage précoce des difficultés de lecture qui a fait ses preuves, plutôt que de laisser chaque conseil « réinventer la roue » et créer des outils d’évaluation moins efficaces.

Haut de page

Expertise

Les enseignants et les conseils scolaires ne sont généralement pas des experts de la science de la lecture ou de la science du dépistage. Bon nombre des conseils scolaires examinés dans le cadre de l’enquête se sont dits disposés à recevoir des indications du ministère sur les outils de dépistage et mesures d’intervention ayant fait l’objet de validation scientifique. Même si certains conseils souhaiteraient pouvoir procéder à la validation des outils, ils reconnaissent qu’ils ne sont pas bien placés pour passer en revue la recherche en raison de capacités et de ressources limitées. 

De nombreux conseils avaient inclus les outils DRA et PM Benchmarks à leur liste d’outils approuvés parce que le ministère avait financé leur utilisation au début des années 2000. L’outil BAS (Fountas et Pinnell) avait également été inclus à bon nombre des listes des conseils étant donné qu’il était utilisé couramment dans l’ensemble de la province. Les outils recommandés aux enseignants comprennent donc de nombreux outils non fondés sur des données probantes.

En règle générale, les conseils scolaires ne pouvaient pas expliquer clairement pourquoi certains outils de dépistage avaient été inclus ou exclus de leur liste d’outils approuvés. Cependant, deux conseils ont rapporté avoir déterminé quels outils de dépistage inclure en collaboration avec des psychologues et orthophonistes. Certains conseils ont dit qu’ils encourageaient les enseignants à collaborer avec les orthophonistes et les psychologues.

Dans le cadre de l’enquête, des organisations représentant ces professions ont soumis des mémoires traitant de l’importance de la collaboration multidisciplinaire. Selon l’APLOS :

Les psychologues apportent un soutien considérable au personnel enseignant en matière d’utilisation des données pour l’identification précoce et la prise de décisions d’enseignement. En utilisant les outils d’évaluation formative (CBM; DIBELS), les enseignants peuvent évaluer les progrès et les résultats en contexte d’enseignement. Les enseignants qui utilisent ces outils sont plus susceptibles de fixer des objectifs plus élevés et d’apporter des changements à l’enseignement en salle de classe qui profiteront à tous les élèves.

L’AOOA a également parlé du rôle de soutien aux éducateurs que peuvent jouer ses membres étant donné qu’ils ont « les connaissances spécialisées, le jugement clinique et l’expertise nécessaires pour appuyer les personnes ayant des difficultés de lecture la vie durant et à chacune des étapes du développement ». L’association a recommandé que les écoles :

misent sur l’expérience acquise partout en Ontario dans le cadre de partenariats entre des éducateurs et des orthophonistes pour effectuer le dépistage des facteurs de risque des jeunes apprenants. 

Le sondage à l’intention des éducateurs comprenait une question sur les outils de dépistage qui devraient être utilisés. Les répondants pouvaient sélectionner plus d’une réponse. Les réponses variaient selon la profession. Les enseignants[990] privilégiaient avant tout les fiches d’observation individualisée, suivies de près par l’Évaluation linguistique à l’oral. Ils étaient aussi d’avis que les outils BAS et PM Benchmarks étaient « très efficaces ». Utilisés actuellement dans la plupart des conseils scolaires, ces outils sont bien connus.

Les orthophonistes et psychologues préféraient bon nombre des outils de dépistage moins répandus. Le choix premier des orthophonistes[991] se portait sur le Comprehensive Test of Phonological Processing (CTOPP), qui évalue la conscience phonologique, l’appellation rapide et la mémoire phonologique, mais n’évalue pas la connaissance des correspondances lettre-son, le décodage ou la précision et la fluidité de la lecture des mots[992]. Le choix premier des psychologues se portait sur le CTOPP, suivi de près de l’outil DIBELS. Les évaluations du CTOPP et du DIBELS sont en grande partie conformes aux recommandations contenues dans le rapport de l’IES, décrit précédemment. Aucun des deux groupes professionnels n’a inclus les fiches d’observation individualisée, les BAS ou les PM Benchmarks à ses choix d’outils de dépistage efficaces.

Les entrevues et sondages menés ont permis aux responsables de l’enquête d’apprendre que l’expertise des orthophonistes et des psychologues n’était pas toujours reconnue ou mise à profit. Selon une personne ayant répondu au sondage :

Les experts en données, recherches et questions éthiques ont été écartés et occultés. Toute tentative de rétablissement de l’équilibre ou des faits s’est heurtée à des représailles et, dans mon cas, au licenciement pour avoir remis en question [le maintien des] inégalités structurelles, et la mauvaise utilisation [voire la représentation erronée] des données et des pratiques d’évaluation.

L’enquête a montré que deux conseils scolaires avaient collaboré avec leurs orthophonistes pour trouver une façon créative de contourner la NPP 155. Un des conseils, le conseil Thames Valley, charge ses orthophonistes de soumettre tous les élèves (avec le consentement d’un parent) au dépistage au jardin d’enfants (hiver) et en première année (automne).

Les orthophonistes doivent effectuer un suivi après l’obtention des résultats du dépistage pour veiller à ce que les écoles qui nécessitent un soutien additionnel offrent un enseignement intensif dans leurs classes et procurent aux enseignants les ressources requises pour atteindre cet objectif. À London, où les familles de nouveaux arrivants se font de plus en plus nombreuses, le conseil a indiqué que ce dépistage et ce suivi ont contribué au rattrapage des élèves de la maternelle et du jardin d’enfants, et à la conscientisation des enseignants. Les orthophonistes utilisent un outil en ligne pour entrer des données et créer un profil des élèves et des classes. Le système permet au conseil scolaire de comparer les classes d’une même école et de l’ensemble du système.

Bien que cette approche soit la plus systématique et la plus orientée données de toutes les approches adoptées par les conseils scolaires examinés dans le cadre de l’enquête – un effort louable compte tenu du cadre restrictif de la NPP 155 – il ne s’agit pas nécessairement d’une solution viable à long terme pour tous les conseils scolaires. Pour que les orthophonistes effectuent ces évaluations, l’école doit obtenir le consentement des parents. La législation ontarienne[993] exige que les orthophonistes obtiennent le consentement parental avant d’effectuer des évaluations ou de prodiguer des services quelconques aux élèves. Même si le conseil Thames Valley a rapporté un taux de consentement élevé, le dépistage n’est toujours pas effectué de façon universelle.

Si le dépistage est effectué par les enseignants, le consentement parental n’est pas nécessaire. S’il est effectué par des orthophonistes, il pourrait être axé sur les compétences souvent évaluées par les orthophonistes comme la conscience phonémique, au détriment de la précision et de la fluidité de lecture de mots et de textes.

Un coût additionnel est également associé au dépistage effectué par des orthophonistes. Environ 40 orthophonistes employés par des conseils scolaires effectuent le dépistage, et le conseil Thames Valley a affecté des ressources à l’initiative, en plus de l’enveloppe budgétaire fournie aux services d’orthophonie par le ministère. D’un autre côté, le fait de charger les enseignants d’effectuer le dépistage a un autre avantage étant donné que le personnel enseignant peut appliquer en salle de classe les connaissances obtenues du dépistage. Les orthophonistes et enseignants mettent en commun l’information, certes, mais les enseignants obtiendront directement les données nécessaires pour orienter leur enseignement s’ils procèdent eux-mêmes au dépistage.

Haut de page

Données

Les conseils ont communiqué très peu d’information sur leur façon de documenter et d’utiliser les résultats du dépistage, et sur le suivi des progrès des élèves dont les difficultés ont été repérées au moment du dépistage. Ils n’ont pas pu indiquer quels outils de dépistage sont le plus souvent utilisés, et quelle est leur fréquence d’utilisation.

La plupart des éducateurs ayant répondu au sondage (69 %) ont affirmé que les élèves devraient être soumis au dépistage des difficultés de lecture entre deux et trois fois par année. Fait éloquent, de façon similaire aux conseils scolaires, près de 42 % d’entre eux ont répondu ne pas savoir à quelle fréquence les élèves sont actuellement soumis au dépistage.

Ce manque d’information limite la capacité des conseils d’identifier les élèves qui ont besoin de mesures d’intervention précoce, d’évaluer la réponse à l’intervention des élèves ou l’efficacité des programmes, ou encore d’analyser les disparités qui existent, le cas échéant, sur le plan de l’intervention ou des résultats d’une école à l’autre, ou parmi les élèves en raison de facteurs comme le sexe, la race, l’ascendance et le statut socioéconomique.

Les enseignants, les syndicats, les conseils et le ministère devront collaborer afin de procéder au dépistage universel et à la collecte des données. L’objectif du dépistage universel, soit l’amélioration de la vie des élèves ayant des difficultés de lecture et non la surveillance du rendement des enseignants ou le respect d’une exigence, devrait être exprimé clairement et les éducateurs devraient recevoir le soutien sous forme de formation dont ils ont besoin. 

En contexte de dépistage, la raison première de la collecte de données n’est pas de mesurer les résultats. La collecte de données sert à faire en sorte que les élèves obtiennent rapidement les mesures d’intervention dont ils ont besoin. Le dépistage s’inscrit dans un cadre exhaustif visant à veiller à ce que l’éducation serve d’égalisateur et qu’elle empêche l’apparition de difficultés de lecture. Les conseils doivent également s’assurer de ne pas faire usage ou rapport des données d’une façon qui accroît la marginalisation de quelconque élève, groupe d’élèves ou école.

La communication avec les parents est aussi une partie intégrante de la mise en œuvre réussie du dépistage précoce. Les parents doivent comprendre que le dépistage est universel, qu’il permet de déterminer quels élèves ont besoin de mesures d’intervention et de soutien additionnelles, et que leur enfant n’est pas pris à partie. Certains parents pourraient se préoccuper du fait que le dépistage puisse mener à l’étiquetage ou à la marginalisation de leur enfant. Les conseils doivent expliquer que le dépistage aide à réduire le risque qu’une ou un élève développe un trouble de lecture ou ait, plus tard, besoin de soutiens plus intensifs à l’enfance en difficulté.

Les auteurs du rapport sur la NPP 155 commandé en 2013 par le ministère ont indiqué que, selon leur étude, tous les éducateurs ayant répondu au sondage, quels qu’ils soient (enseignants, directeurs d’école, administrateurs de conseil) s’entendaient sur deux choses : (1) les conseils scolaires ont besoin de données pour procéder à la planification et (2) les outils d’évaluation peuvent aider les enseignants à comprendre l’apprentissage des élèves et à planifier l’enseignement. Selon les responsables de l’enquête, ces vérités ont toujours cours. Les enseignants demandent qu’on oriente davantage leurs activités de dépistage précoce des difficultés de lecture. Ils ont aussi besoin de données pour prendre des décisions relatives au dépistage et aux mesures d’intervention multiniveaux.  

Les données sont utiles lorsqu’elles mènent à l’action. Le dépistage précoce fondé sur des données probantes fait partie des étapes à franchir pour veiller à ce que les élèves à risque de difficultés de lecture aient un accès véritable à l’éducation. Les mesures d’intervention précoce, fondées sur des données probantes, sont une autre de ces étapes essentielles.

Haut de page


Recommandations

La CODP formule les recommandations suivantes :

 

Rendre obligatoire le dépistage précoce universel fondé sur des données probantes

59. Le ministère de l’Éducation (ministère) devrait fournir une enveloppe budgétaire annuelle stable en vue du dépistage fondé sur des données probantes des difficultés de tous les élèves de la maternelle à la 2e année en précision et fluidité de lecture des mots.

 

60. Le ministère devrait collaborer avec une, un ou des experts externes afin d’exiger et de standardiser le dépistage fondé sur des données probantes des difficultés relatives aux compétences de base, et plus précisément à la précision et à la fluidité de lecture des mots. Le ministère devrait :

  1. exiger que les conseils scolaires soumettent tous les élèves au dépistage deux fois par année (au début et au milieu de l’année), de la maternelle à la 2e année
  2. déterminer quelles sont les mesures de dépistage appropriées à utiliser, selon l’année d’études et la période de l’année, en se basant sur les recommandations du rapport de l’IES qui reposent sur des éléments de preuve modérément ou très rigoureux. À tous les moins, les mesures retenues devraient aborder les compétences suivantes :
    1. Maternelle et jardin d’enfants : connaissance des lettres et conscience phonémique
    2. 1re année (début d’année) : conscience phonémique, décodage, identification des mots et lecture de textes
    3. 1re année (deuxième semestre) : décodage, identification des mots et lecture de textes; la vitesse et la précision de la lecture devraient être mesurées
    4. 2e année : lecture chronométrée de mots et de passages
  3. choisir ou développer des outils de dépistage valides et fiables qui correspondent à chaque année d’études et période de l’année spécifique, à des fins d’utilisation par les conseils scolaires
  4. fixer les procédures standardisées d’utilisation et de notation des outils, et de documentation des données obtenues au moyen des outils
  5. veiller à ce que les outils de dépistage soient accompagnés de règles valides, fiables et claires d’interprétation des résultats et de prise de décisions. Des outils de dépistage devraient être utilisés pour identifier les élèves qui courent le risque de ne pas apprendre à lire les mots adéquatement et leur offrir immédiatement des mesures d’intervention efficaces fondées sur des données probantes.

 

61. Le ministère et les conseils scolaires devraient veiller à ce que des mesures de dépistage et d’intervention précoces équivalentes, fondées sur des données probantes et ayant fait l’objet de validation scientifique, soient mises en place dans les classes de langue française. Les élèves ayant des difficultés de lecture devraient avoir les mêmes chances d’apprendre dans un milieu d’éducation en français. 

 

Réviser les notes Politique/Programmes (NPP)

62. Le ministère de l’Éducation (ministère) devrait collaborer avec une, un ou des experts externes afin de réviser les NPP 8, 11 et 155 afin qu’elles fournissent des directives claires aux enseignants, directeurs d’école et conseils scolaires à propos de leurs responsabilités respectives. Les NPP devraient être mises à jour afin qu’elles reflètent les consensus dont font état les recherches scientifiques actuelles à propos de l’identification précoce des élèves à risque de troubles de lecture. Les NPP devraient :

  1. exiger l’adoption pour tous les élèves d’un modèle de réponse à l’intervention (RAI) ou système de mesures de soutien multiniveaux (SMSM)
  2. stipuler que les outils de dépistage devraient être utilisés pour fournir immédiatement des mesures d’intervention multiniveaux aux élèves ayant besoin de soutien
  3. exiger que les conseils scolaires offrent des mesures d’intervention en petits groupes (niveau 2) aux élèves qui peinent à apprendre à lire malgré un enseignement (de niveau 1) en salle de classe qui soit fondé sur des données probantes. Les conseils scolaires devraient fournir des mesures d’intervention (de niveau 3) plus intensives et souvent personnalisées aux élèves qui, selon le suivi des progrès, peinent encore à lire malgré un enseignement en salle de classe de niveau 1 et des mesures d’intervention de niveau 2. Au niveau 3, les élèves pourraient être soumis à une évaluation psychopédagogique dans le but de cerner pleinement leurs difficultés d’apprentissage, mais cela n’est pas nécessaire et ne devrait pas retarder l’intervention de niveau 3
  4. ne pas indiquer, comme le fait actuellement la NPP 11, que les conseils scolaires devraient prévoir un délai raisonnable pour évaluer les capacités qui font appel au langage des élèves dont la langue n’est pas le français ou l’anglais; tous les élèves, y compris les élèves multilingues (qui apprennent la langue en même temps que la matière), devraient faire l’objet du dépistage des difficultés de lecture des mots
  5. contenir une liste de ressources à jour qui tient compte des recherches scientifiques les plus actuelles
  6. se conformer aux recommandations de la CODP relatives à l’obligation d’effectuer le dépistage précoce, fondé sur des données probantes. Si le ministère ne met pas à jour la NPP 155, il devrait transmettre aux conseils scolaires une directive qui indique clairement que le dépistage précoce est une évaluation de l’enfance en difficulté ou une évaluation provinciale, et en ce sens n’est pas assujetti à la NPP 155.

 

Exiger l’adoption de mesures de responsabilisation

63. Le ministère de l’Éducation (ministère) devrait collaborer avec une, un ou des experts externes afin de rendre obligatoire la collecte de données sur les outils de dépistage sélectionnés, et ainsi améliorer la responsabilisation. Plus précisément, le ministère devrait :

  1. exiger que les conseils scolaires recueillent des données pour poursuivre la validation et, au besoin, le perfectionnement des outils de dépistage et processus de prise de décisions
  2. élaborer un processus de suivi des progrès relatifs aux compétences en précision et en fluidité de lecture des mots visées par les différentes mesures d’intervention. 

 

64. Les conseils scolaires devraient s’assurer que des normes claires sont en place afin de communiquer avec les élèves et parents à propos de l’outil de dépistage, le moment de son utilisation et la façon dont les résultats sont interprétés. Si un élève est jugé à risque de difficultés de lecture, la communication devrait également porter sur la mesure d’intervention utilisée et son calendrier d’exécution.

 

65. Les conseils scolaires ne devraient pas utiliser les résultats du dépistage pour gérer le rendement des enseignants. Aucun membre du personnel enseignant ne devrait faire face à des mesures de discipline ou de licenciement en raison de résultats de dépistage.

 

Veiller à ce que les éducateurs aient accès à un apprentissage professionnel adéquat relatif aux outils de dépistage

66. Les conseils scolaires devraient veiller à ce que le personnel (les enseignants par exemple) qui fait passer les outils de dépistage ait accès, en cours d’emploi, à un apprentissage professionnel exhaustif et soutenu sur l’outil ou les outils de dépistage spécifiques qu’ils utiliseront, et la façon d’en interpréter les résultats.

 

67. Les conseils scolaires devraient veiller à ce que les éducateurs aient le temps requis pour effectuer le dépistage et la gestion des données connexes.

 

 


[875] Une mesure de dépistage est « une courte évaluation qui fournit un renseignement prédictif sur le développement d’un enfant dans un secteur d’apprentissage spécifique. » Voir : G N Davis et al., « Children at risk for reading failure; constructing an early screening measure » (2007), Teaching Exceptional Children 32, volume 39, no 5, p. 33 [Davis, « Children at risk »].

[876] P. Nevills, et P. Wolfe, Building the reading brain, PreK–3 (2e édition, 2009), Thousand Oaks (Californie), Corwin Press.

[877] Moats, Teaching Reading Is Rocket Science, supra note 22.

[878] S. Vaughan et Lynn S. Fuchs, « Redefining Learning Disabilities as Inadequate Response to Instruction: The Promise and Potential Problems », Learning Disabilities Research et Practice 137, volume 18, no 3, p. 139 [Vaughan et Fuchs, « Redefining Learning Disabilities »].

[879] Vaughan et Fuchs, « Redefining Learning Disabilities », supra note 878.

[880] Linda Siegel, « A case study of successful early screening and intervention », Perspectives on Language and Literacy 29, volume 44, n3 (2008); O. Ozernov-Palchik et DE Gabrieli, « Neuroimaging, early identification and personalized intervention for developmental dyslexie », Perspectives on Language and Literacy 15, volume 44, n3 (2018); Louisa Moats, « When older students can’t read », Educational Leadership: Journal of the Department of Supervision and Curriculum Development 36, volume 58, n6 (2002).

[881] Vaughan et Fuchs, « Redefining Learning Disabilities », supra note 878, à la p. 137.

[882] L’IES définit « forte » comme allant de modéré à élevé.

[883] R. Gersten et al., Assisting Students Struggling with Reading: Response to Intervention (RtI) and MultiTier Intervention in the Primary Grades (2008), Washington, DC : National Center for Education Evaluation and Regional Assistance, Institute of Education Sciences, U.S. Department of Education, NCEE 2009-4045, en ligne : https://ies.ed.gov/ncee/wwc/docs/practiceguide/rti_reading_pg_021809.pdf [Gersten et al., Assisting Students Struggling with Reading].

[884] Ibid, aux p. 6 à 11.

[885] Le terme « fort » fait référence à des éléments de preuves cohérents dont il est possible d’effectuer la généralisation pour établir qu’un programme entraîne de meilleurs résultats. Le terme « modéré » fait référence à des éléments de preuve tirées d’études qui permettent de tirer des conclusions causales fortes, mais dont il n’est pas possible d’effectuer avec assurance la généralisation à la population visée par la recommandation (peut-être parce que les conclusions n’ont pas été reproduites à grande échelle), ou à des éléments de preuve tirées d’études dont on peut effectuer la généralisation, mais dont le lien causal est plus ambigu que ce que prévoient les schémas expérimentaux (comme des modèles statistiques de données corrélationnelles ou des schémas de comparaison de groupes dont l’équivalence avant l’essai n’est pas assurée). Le terme « faible » fait référence à des opinions d’experts fondées sur des extrapolations raisonnables de résultats de recherche ou la théorie applicable à d’autres sujets, ou à des éléments de preuve d’études qui ne satisfont pas aux critères relatifs à ce que constitue des éléments de preuve forts ou modérés. Voir le Tableau 1 pour obtenir des précisions sur les critères utilisés pour déterminer le niveau d’éléments de preuve pour chaque recommandation; Gersten et al., Assisting Students Struggling with Reading, supra note 883.

[886] Gersten et al., Assisting Students Struggling with Reading, supra note 883, aux p. 6—11. Le rapport traite aussi du dépistage des facteurs liés aux connaissances de base et connaissances liées au langage des élèves qui pourraient nuire au développement de la compréhension de lecture. Plus précisément, il est important d’examiner les questions de réception et de production du vocabulaire, de sensibilité à la grammaire, de connaissances de base ou du mot. Cependant, il indique également que ces mesures de dépistage ne sont pas encore convenablement élaborées ou facilement accessibles.

[887] Gersten et al., Assisting Students Struggling with Reading, supra note 883, à la p. 13 : « Source: Compilation des auteurs basée sur Fuchs, Fuchs, Thompson, Al Otaiba, Yen, Yang, Braun et O’Connor (2001b), Speece et al. (2003b); Schatschneider (2006); O’Connor et Jenkins (1999); et Baker et Baker (2008) pour la fluidité de la dénomination des lettres. Pour la segmentation des phonèmes, O’Connor et Jenkins (1999). Pour la fluidité des non-mots, Speece et al. (2003b); Good, Simmons et Kame’enui (2001Pour l’identification des mots, Fuchs, Fuchs et Compton (2004); Compton et al. (2006). Pour la fluidité de la lecture orale, Fuchs, Fuchs, Hosp et Jenkins (2001a); Fuchs, Fuchs et Maxwell (1988); Schatschneider (2006); Speece et Case (2001); Gersten, Dimino et Jayanthi (2008); Baker, Gersten, Haager et Dingle (2006). »
[888] Pour les mesures DIBELS, estimation de la fiabilité de la forme alternative pour la fluidité de la dénomination des lettres de niveau 1; 0,86 pour la maîtrise des non-mots en 1re année; 83 et 0.90 pour la maîtrise de la lecture orale en 2e année. R.H. Good et R. Kaminski, Dynamic indicators of basic early literacy skills (Longmont, CO: Sopris West Educational Services, 2003).
[889] Les estimations du coefficient alpha sont de 0,92 et 0,91 pour les enfants de six et sept ans sur la mesure d’élision, et de 0,89 et 0,86 pour les enfants de six et sept ans sur la mesure d’appariement sonore sur la Comprehensive Test of Phonological Processing. Voir : J.K. Torgesen et al., « Prevention and remediation of severe reading disabilities: Keeping the end in mind », Scientific Studies of Reading 217, volume 1, no 3 (1997). La forme du test alternative et des coefficients de stabilité dépassent 0,90 en 1re année pour la tâche de fluidité d’identification des mots. Voir : D.L. Compton et al., « Selecting at-risk readers in first grade for early intervention: a two-year longitudinal study of decision rules and procedures », Journal of Educational Psychology 394, volume 98, no 2 (2006).

[890] Les estimations du coefficient alpha sont de 0,84 en 1re année pour la connaissance des sons des lettres, 0.80 en 1re année pour la fusion des phonèmes, et 0.85 et 0.83 en 1re et 2e année pour la lecture des mots du Texas Primary Reading Inventory (1999). Technical report: Texas primary reading inventory (Houston : TX; édition de 1999).

[891] M.L. Farrall, Reading Assessment: Linking Language, Literacy, and Cognition (Hoboken, NJ : Wiley, 2012).

[892] Davis, « Children at risk », supra note 875.

[893] Fletcher et al., Learning disabilities, supra note 59.

[894] S. Brady, « The 2003 IDA definition of dyslexia: A call for changes », Perspectives on Language and Literacy 15, volume 45, n1 (2019).

[895] B.F. Pennington et R.K. Olson, « Early reading development in children at family risk for dyslexia », Child Development 816, volume 72, n3 (2005).

[896] D. Hartas, « Families’ social backgrounds matter: Socio-economic factors, home learning and young children’s language, literacy and social outcomes », dans British Educational Research Journal 893, volume 37 (2011).

[897] J.E. Herbers et al., « Early compétences en lecture and academic achievement trajectories of students facing poverty, homelessness, and high residential mobility », Educational Researcher 366, volume 41, no 9 (2012).

[898] K.G. Noble et al., « Socioeconomic background modulates cognition-achievement relationships in reading », Cognitive Development 349, volume 21, n3 (2006).

[899] C.A. Denton, « Response to intervention for reading difficulties in the primary grades: Some answers and lingering questions », Journal of learning disabilities 232, volume 45, n3 (2012).

[900] D’autres éducateurs tels que les éducateurs de la petite enfance peuvent également jouer un rôle dans l’évaluation des élèves et l’identification de leurs besoins. Voir : section 4, Contexte de l’enquête – Portée de l’enquête.

[901] Royal Commission on Learning, For the Love of Learning (Toronto: Queen’s Printer for Ontario, 1994), p. 2, en ligne : Queen’s University https://qspace.library.queensu.ca/bitstream/handle/1974/6880/rcol_short_version.pdf?sequence=5etisAllowed=y.

[902] Moats, Teaching Reading is Rocket Science, supra note 22.

[903] Voir, par exemple : « Screening for Reading Impairments » (dernière consultation le 27 janvier 2022), en ligne : Gaab Lab gaablab.com/screening-for-reading-impairments.

[904] « Policy 209: Student Assessment » (dernière consultation le 28 mai 2013), en ligne : North Vancouver School www.sd44.ca/Board/PoliciesProcedures/Series200/Policy209/Pages/default.aspx#/=.

[905] Voir, par exemple : « School Plan for 2011-2012 » (2011), en ligne : North Vancouver School District sd44.ca/Board/Achievement/SchoolPlans/Documents/2011_12/UpperLynnSchoolPlan2011_12.pdf

[906] Inclusive Education 44 Learning Services Handbook (2020), en ligne : North Vancouver School District www.sd44.ca/ProgramsServices/InclusiveEducation/Documents/NVSD%20Inclusive%20Education%20Handbook%202020.pdf.

[907] Ibid.

[908] Ibid.

[909] K. Smolkowski et K.D. Cummings, « Evaluation of the DIBELS diagnostic system for the selection of native and proficient English speakers, à la p. risk of reading difficulties », Journal of Psychoeducational Assessment 103, volume 34, n2 (2016); R. Kaminski et al., « Best practices in using Dynamic Indicators of Basic Early Literacy Skills for formative assessment and evaluation », Best practices in school psychology 1181, volume 4 (2008).

[910] « DIBELS® 8th Edition Materials » (dernière consultation le 27 janvier 2022), en ligne : University of Oregon: DIEBELS https://dibels.uoregon.edu/materials.

[911] Jennifer Palma, « North Vancouver Tests for Dyslexie Early », Global News, (8 novembre 2017), en ligne (web) : https://globalnews.ca/video/3851769/north-vancouver-tests-for-dyslexie-early.

[912] U.K. Department of Education, « National Curriculum assessments at key stage 1 and phonics screening checks in England, 2018 », (2019), en ligne : UK Government www.gov.uk/government/statistics/phonics-screening-check-and-key-stage-1-assessments-england-2018/national-curriculum-assessments-at-key-stage-1-and-phonics-screening-checks-in-england-2018; [UK Department of Education, « National Curriculum assessments »]; U.K. Department of Education, Assessment framework for the development of the Year 1 phonics screening check: for test developers”, (2017), en ligne :

https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/628842/Y1_Phonics_assessment_framework_PDFA_V3.pdf

[913]U.K. Department of Education, Phonics screening check: administration guidance (2019), en ligne : UK Government: https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/798235/2019_phonics_screening_check_administration_guidance.pdf; U.K. Department of Education, « The phonics screening check: responding to the results: Departmental advice for reception and key stage 1 teachers », (2013), en ligne : U.K. Government https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/285349/The_phonics_screening_check_responding_to_the_results--.pdf.

[914] S. Machin et al., « Changing how literacy is taught: evidence on synthetic phonics », American Economic Journal: Economic Policy 217, volume 10, no 2, (2018). Cette étude rapporte que la phonétique aide à combler l’écart de réussite.

[915] U.K. Department of Education, English programmes of study: key stages 1 and 2: National curriculum in England, (2013), en ligne : U.K. Government https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/335186/PRIMARY_national_curriculum_-_English_220714.pdf.

[916] U.K. Department of Education, Key stage 1 assessment and reporting arrangements, (2019), en ligne : U.K. Government https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/838959/2020_KS1_assessment_and_reporting_arrangements.pdf [U.K. Department of Education, Key stage 1 assessment and reporting arrangements].

[917] U.K. Department of Education, « Guidance: Key stage 1 teacher assessment guidance », (2022), en ligne : UK Government https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/940852/2021_KS1_teacher_assessment_guidance_V1.0.pdf.

[918] U.K. Department of Education, Key stage 1 assessment and reporting arrangements, supra note 916.

[919] Mesuré selon l’admissibilité aux repas scolaires gratuits.

[920] U.K. Department of Education, « National Curriculum assessments », supra note 912.

[921] Ann-Louise Hordacre et al., Evaluation of the Trial of the UK Phonics Screening Check in South Australian Schools, (2017), en ligne : South Australia Department of Education www.education.sa.gov.au/sites/default/files/evaluation-uk-phonics-screening-check-sa.pdf?acsf_files_redirect [Hordacre et al.].

[922] « Year 1 Phonics Screening Check begins », (18 août 2020), en ligne : Steven Marshall, Premier of South Australia www.premier.sa.gov.au/news/media-releases/news/year-1-phonics-screening-check-begins

[923] « 2022 Phonics screening check: Information for parents/carers, families and the general community » (dernière consultation le 28 janvier 2022), en ligne (pdf) : South Australia Department of Education www.education.sa.gov.au/sites/default/files/phonics-screening-check-fact-sheet.pdf

[924] « About the Literacy Hub » (dernière consultation le 28 janvier 2022), en ligne : Literacy Hub https://literacyhub.edu.au/about-the-literacy-hub/; « Phonics Check: Year 1 » (dernière consultation le 28 janvier 2022), en ligne : Literacy Hub https://literacyhub.edu.au/phonics-check.html

[925] « Year 1 Phonics Screening Check » (dernière consultation le 12 janvier 2022), en ligne : New South Wales Government https://education.nsw.gov.au/teaching-and-learning/curriculum/literacy-and-numeracy/assessment-resources/phonics-screening-check

[926] Hordacre et al., supra note 921.

[927]Alabama, Arizona, Arkansas, Californie, Floride, Georgie, Illinois, Indiana, Kansas, Kentucky, Louisiane, Maine, Maryland, Massachusetts, Minnesota, Mississippi, Missouri, Montana, Nevada, New Hampshire, New Jersey, Nouveau-Mexique, Caroline du Nord, Oregon, Rhode Island, Caroline du Sud, Tennessee, Texas, Virginie, Virginie-Occidentale, Wyoming. Voir aussi : « Dyslexia in other countries: Dyslexia and Reading Instruction in the U.S. » (dernière consultation le 28 janvier 2022), en ligne : International Dyslexia Association Ontario idaontario.com/dyslexia-in-other-countries/; « State Dyslexia Laws » (dernière consultation le 24 octobre 2021), en ligne : Dyslegia: A Legislative Information Site dyslegia.com/state-dyslexia-laws/.

[928] Voir, par exemple : Connecticut State Department of Education, SLD/Dyslexia Assessment Resource Guide (octobre 2016), en ligne (pdf) : IDA Ontario idaontario.com/wp-content/uploads/2018/02/Connecticut-SLD-Dyslexia-Assessment-Resource-Guide-2016.pdf and Alabama State Board of Education, Alabama Dyslexia Resource Guide (dernière modification le 27 octobre 2016), en ligne (pdf) : IDA Ontario idaontario.com/wp-content/uploads/2017/06/Alabama-dyslexia-resource-guide.pdf. Voir aussi : « Universal Screening for Reading Difficulties: Screening Tools – Selection and Use » (dernière consultation le 29 janvier 2022), en ligne : Decoding Dyslexia Canada https://decodingdyslexiaca.org/universal-screening/screening-tools-selection-use.

[929] Voir, par exemple : The Dyslexie Handbook: Procedures concerning dyslexia and related disorders, (2018), en ligne : Texas Education Agency https://tea.texas.gov/sites/default/files/2018-Dyslexia-Handbook_Approved_Accomodated_12_11_2018.pdf

[930] « Screening and identifying characteristics of dyslexia » (19 août 2019), en ligne : Minnesota Department of Education https://education.mn.gov/mdeprod/idcplg?IdcService=GET_FILEetdDocName=MDE086773etRevisionSelectionMethod=latestReleasedetRendition=primary.

[931] « Section 3323.251: Dyslexia Screening » (12 avril 2021), en ligne : Ohio Legislative Services Commission https://codes.ohio.gov/ohio-revised-code/section-3323.251. Pour l’année scolaire 2022–2023, tous les élèves de la 1re à la 3e année doivent faire l’objet d’« une mesure de dépistage de la dyslexie de niveau 1 » avant la fin de l’année scolaire. Les élèves inscrits en maternelle durant l’année scolaire 2022–2023 doivent faire l’objet d’un dépistage au moyen de cette mesure entre le 1er janvier 2023 et le 1er janvier 2024. Pour toutes les années scolaires subséquentes, tous les élèves de la maternelle doivent recevoir « une mesure de dépistage de la dyslexie de niveau 1 » entre le 1er janvier de la première année d’école et le 1er janvier suivant. D’autres élèves de la 1re à la 6e année peuvent faire l’objet d’un dépistage si un parent ou le personnel enseignant le demande.

[932] « Answers to frequently asked questions about Ohio’s dyslexia support laws now available online », (5 mai 2021), en ligne : Ohio Department of Education http://education.ohio.gov/Media/Ed-Connection/May-10-2021/Answers-to-frequently-asked-questions-about-Ohio%E2%80%99s.

[933] « Mayor de Blasio and Chancellor Porter announce academic recovery plan for pivotal school year ahead » (dernière modification le 13 juillet 2021), en ligne : New York City Department of Education schools.nyc.gov/about-us/news/announcements/contentdetails/2021/07/09/mayor-de-blasio-and-chancellor-porter-announce-academic-recovery-plan-for-pivotal-school-year-ahead; Alex Zimmerman, « Carranza wants to assess NYC students throughout the year, but critics decry overtesting » (27 September 2019), en ligne : Chalkbeat New York https://ny.chalkbeat.org/2019/9/27/21121783/carranza-wants-to-assess-nyc-students-throughout-the-year-but-critics-decry-overtesting; Claire Hunt, « Department of Education implements mandatory literacy screenings for kindergarten to second grade students in New York City » (14 octobre 2021), en ligne : Columbia Spectator columbiaspectator.com/news/2021/10/14/department-of-education-implements-mandatory-literacy-screenings-for-kindergarten-to-second-grade-students-in-new-york-city/

[934] Alex Zimmerman et Yoav Gonen, « NYC plans to screen nearly 200,000 students in the early grades to uncover struggling readers. Then what? » (1e septembre 2021), en ligne : Chalkbeat New York https://ny.chalkbeat.org/2021/9/1/22652793/literacy-screening-nyc-schools [Zimmerman et Gonen, « NYC plans to screen »].

[935] Jennifer Buckingham et Kevin Wheldall, « Why all states and territories should follow SA’s lead and introduce the Year 1 Phonics Check » (11 juin 2020), en ligne : Nomanis nomanis.com.au/single-post/why-all-states-and-territories-should-follow-south-australia-s-lead-and-introduce-the-year-1-phonics; Zimmerman et Gonen, « NYC plans to screen », supra note 934.

[936] La vérificatrice générale, 2020 Value for Money Audit: Curriculum, supra note 328, à la p. 3.

[937] Loi sur l’éducation, LRO 1990, chap. E.2, par. 8(3) [Loi sur l’éducation].

[938] Wilsa Audet et al., Evaluation report: the impact of the Literacy and Numeracy Secretariat: changes in Ontario’s Education System (Canadian Language and Literacy Research Network, 2009), en ligne : Internet Archive https://web.archive.org/web/20190621095755/www.edu.gov.on.ca/eng/document/reports/ome_report09_en.pdf p. 63.

[939] M.J. Gallagher et al., « Achieving Excellence: Bringing Effective Literacy Pedagogy to Scale in Ontario’s Publicly-Funded Education System », Journal of Educational Change 477, volume 17, no 4 (novembre 2016) [Gallagher et al., « Achieving Excellence »].

[940] R Childs with M Herbert et al, A Study About Policy/Program Memorandum (NPP 155: Diagnostic Assessment In Support of Student Learning, (12 mai 2014), préparé pour le compte du ministère de l’Éducation de l’Ontario, aux p. 6 et 7 https://www.researchgate.net/publication/320707367_A_Study_about_PolicyProgram_Memorandum_PPM_155_Diagnostic_Assessment_in_Support_of_Student_Learning_Final_Report [Childs Report].

[941] Ministère de l’Éducation de l’Ontario. Faire croître le succès : Évaluation et communication du rendement des élèves fréquentant les écoles de l’Ontario, (2010), en ligne : ministère de l’Éducation de l’Ontario http://www.edu.gov.on.ca/fre/policyfunding/growSuccessfr.pdf [Ministère de l’Éducation de l’Ontario, Faire croître le succès].

[942] Lynne Hollingshead, « Teacher Professionalism Constructed in Policy » (dernière consultation 29 janvier 2022), en ligne : Quest Conference http://www.questconference.ca/wp-content/uploads/2019/01/2014HollingsheadArticle.pdf

[943] Childs Report, supra note 940, aux p. 5 et 26

[944] Moats, Teaching Reading Is Rocket Science, supra note 22, plus loin.

[945] NPP 11, supra note 209.

[946] La vérificatrice générale a recommandé l’apport de changements au document stratégique principal sur l’évaluation, Faire croître le succès, « pour tenir compte de l’évolution des connaissances sur l’évaluation et des nouveaux engagements en matière d’éducation de la petite enfance, d’équité, d’inclusion, des élèves identifiés comme étant en difficulté, de la pédagogie pertinente et adaptée sur le plan culturel et d’utilisation de la technologie ». Bureau de la vérificatrice générale de l’Ontario, Audit de l’optimisation des ressources : Élaboration, mise en oeuvre et prestation du curriculum (2020), supra note 328, à la p. 43.

[947] Geva et Wade-Woolley, « Issues in the assessment of reading disability in second language children », supra note 458; D’Angiulli et al., « Schooling », supra note 764.

[948] NPP 8, supra note 209.

[949] Le ministère note que la surveillance est actuellement suspendue pour minimiser le fardeau de déclaration pendant la COVID-19.

[950] Ministère de l’Éducation de l’Ontario, Note Politique/Programmes 155 : L’utilisation des outils diagnostiques en appui à l’apprentissage des élèves, publiée le 7 janvier 2013, en ligne : ministère de l’Éducation de l’Ontario ontario.ca/document/education-ontario-policy-and-program-direction/policyprogram-memorandum-155 [NPP 155].

[951] Childs Report, supra note 940, à la p. 24. D’après le Childs Report, « formel » peut avoir été utilisé pour signifier « acheté, par opposition à des outils d’évaluation développés par des enseignants », ou peut-être pour signifier « mandaté par le conseil », ibid.

[952] Ministère de l’Éducation de l’Ontario, Growing Success, supra note 941, à la p. 144.

[953] Gersten et al., Assisting Students Struggling with Reading, supra note 58, à la p. 4.

[954] S.D. Martin et E.S. Shapiro, « Examining the accuracy of teachers’ judgements of DIBELS performance » Psychology in the Schools 343, volume 48, no 4 (2011).

[955] Les évaluations de l’enfance en difficulté et les évaluations imposées par la province ne sont pas visées par la NPP 155. De plus, le ministère a des pouvoirs en vertu de la Loi sur l’éducation, voir : 8(1), 8(3)(a) et 11.1.

[956] « Note Politique/Programmes 155 (NPP 155) : L’évaluation diagnostique en appui à l’apprentissage des élèves – Conseils aux membres » (dernière modification en décembre 2018), en ligne : Elementary Teachers Federation of Ontario www.etfo.ca/SupportingMembers/Employees/PRSMattersBulletin/Pages/Policy%20and%20Program%20Memorandum%20155.aspx.

[957] Vivian McCaffrey et al., It’s Elementary: A brief history of Ontario’s public elementary teachers and their federations (2018), p. 12, en ligne : Elementary Teachers Federation of Ontario www.etfo.ca/AboutETFO/History/Documents/Chapter%20One%20-%20ETFO%27s%20Second%20Decade%202009%20to%202018.pdf.

[958] Gallagher et al., « Achieving excellence », supra note 939, à la p. 486.

[959] Ibid.

[960] Central Agreement Articles, « Part A », en ligne : http://www.edu.gov.on.ca/fre/agreements/ETFOAnnexefre.pdf, à C10.00 (d).

[961] Childs Report, supra note 940, à la p. 16.

[962] Ibid, à la p. 18.

[963] Ibid, à la p. 19 : « Bien qu’à l’échelle du conseil, on se préoccupe du manque d’uniformisation, le membre du personnel enseignant voit en l’adoption de la NPP 155 un témoignage du besoin de respecter le jugement professionnel des enseignants, ‘quelque chose qui a été ignoré en raison des besoins du conseil axés sur les données’ ».

[964] Childs Report, supra note 940.

[965] Ibid, à la p. 15

[966] Ibid, à la p. 22 : « Avant le NPP 155, les enseignants devaient administrer des outils d’évaluation diagnostique spécifiés par le conseil en septembre et des ‘tâches d’ancrage’ supplémentaires en février pour mesurer les progrès. »

[967] Brief submitted to the Ontario Ministry of Education regarding education assessment in Ontario (janvier 2018), en ligne : Conseils ontariens des directrices et des directeurs de l’ éducation de languge française https://codelf.ca/fichiers/pdf/memoire-du-codelf-8janv2018.pdf.

[968] Loi de 2005 sur l’accessibilité pour les personnes handicapées de l’Ontario, L.O. 2005, chap. 11. [Loi de 2005 sur l’accessibilité pour les personnes handicapées de l’Ontario].

[969] K–12 Education Standards Development Committee, Development of proposed Kindergarten to Grade 12 (K12) education standards – 2021 initial recommendations report, (30 novembre 2021) à Initial proposed long-term objective: Guiding principles statements, en ligne : Ontario https://www.ontario.ca/fr/document/elaboration-de-normes-proposees-pour-leducation-de-la-maternelle-la-12e-annee-rapport-de/presentations-et-recommandations-sur-les-categories#section-2 [K–12 Education Standards Development Committee, Development of proposed K-12 education standards].

[970] Ibid, à Présentations et recommandations sur les catégories d’obstacles : s. 3.

[971] Parker et al, « A brief report », supra note 806.

[972] J.E. Spector, « How reliable are informal reading inventories? », 42 Psychology in the Schools 593, (2005) [Spector, « How reliable are informal reading inventories? »].

[973] Parker et al., « A brief report », supra note 806.

[974] Ibid, à la p. 64.

[975] Ibid, à pla p. 65. Voir aussi pour la prise en charge des mauvaises propriétés psychométriques des inventaires de lecture, Spector : « How reliable are informal reading inventories? », supra note 972.

[976] Ministère de l’Éducation de l’Ontario, A Guide to Effective Instruction in Reading, supra note 730.

[977] Ministère de l’Éducation de l’Ontario, The Kindergarten Program 2016, supra note 707.

[978] M.M. Clay, An observation survey of early literacy achievement, 4e édition, (Portsmouth, NH: Heinemann, 2019).

[979] Ministère de l’Éducation de l’Ontario, A Guide to Effective Instruction in Reading supra note 730.

[980] Jerome V. D’Agostino et al., « The Generalizability of Running Record Accuracy and Self-Correction Scores », Reading Psychology 111, volume 42, no 2, DOI : www.tandfonline.com/doi/full/10.1080/02702711.2021.1880177.

[981] « Fountas et Pinnell Apps » (dernière consultation le 27 janvier 2022), en ligne : Fountas et Pinnell Literacy: Elevating Teacher Experience fountasandpinnell.com/apps/; « Running Records – Second Read » (dernière consultation le 27 janvier 2022), en ligne : Fountas et Pinnell Literacy: Elevating Teacher Experience fountasandpinnell.com/forum/messages?TopicID=219. Voir aussi : Fountas et Pinnell, Guided Reading, supra note 702.   

[982] Les propriétés psychométriques font référence à la validité et à la fiabilité de l’outil de mesure.
[983] Moats, Teaching Reading Is Rocket Science, supra note 22, à la p. 22; Parker et al., « A brief report », supra note 806. Voir aussi pour la prise en charge des mauvaises propriétés psychométriques des inventaires de lecture, Spector : « How reliable are informal reading inventories? », supra note 972.

[984] Shanahan, « What constitutes a science of reading instruction? », supra note 700, à S239.

[985] Parker et al., « A brief report », supra note 806.

[986] Gersten et al, Assisting Students Struggling with Reading, supra note 883.

[987] J.R. Jenkins et E. Johnson, « Universal screening for reading problems: Why and how should we do this » (2018), en ligne (pdf) : RTI action network. RTI-Action-Network_Why_and_How.pdf (decodingdyslexiaca.org); J.K. Gilbert et al., « Early screening for risk of reading disabilities: Recommendations for a four-step screening system », Assessment for effective intervention 6, volume 38, no 1, (2012).

[988] Gersten et al, Assisting Students Struggling with Reading, supra note 883.

[989] NICHD: National Reading Panel Report, supra note 654.

[990] Nous incluons des personnes qui ont de l’expérience en classe : titulaire de classe, candidat à l’enseignement, enseignant de soutien à l’apprentissage, directeur, directeur adjoint, spécialiste en littératie en milieu scolaire, éducateur spécialisé, éducateur de la petite enfance.

[991] Inclus les orthophonistes privés et en conseil.

[992] R.K. Wagner et al., Comprehensive test of phonological processing: CTOPP (Austin, TX: Pro-ed, 1999).

[993] Loi de 1991 sur les professions de la santé réglementées, L.O. 1991, chap. 18; Loi de 1991 sur les audiologistes et les orthophonistes, L.O. 1991, chap. 19; Loi de 2004 sur la protection des renseignements personnels sur la santé, L.O. 2004, chap. 3, annexe A; Loi de 1996 sur le consentement aux soins de santé, L.O. 1996, chap. 2, annexe A; Loi sur l’éducation : pour les étudiants de moins de 18 ans, les parents et tuteurs doivent donner leur consentement par écrit.

 

Book Prev / Next Navigation