Suivez-nous sur Twitter Suivez-nous sur Facebook VQ  velo.qc.ca 
Reportages

La science peut-elle définir l'école idéale ?

Par Jean-Benoît Nadeau - 24/08/2017


Une école où les enfants réussissent et où les taux de décrochage sont négligeables, ça existe ! Et ce, grâce aux « données probantes », une approche qui fonctionne, mais qui est chaudement débattue.

En 2005, la Commission scolaire de la Rivière-du-Nord (CSRDN) à Saint-Jérôme est frappée de plein fouet par des statistiques affligeantes : le taux de décrochage grimpe à 43 %. Chez les garçons, 52 % ! « Ça nous a fait très mal », se rappelle Katia Lavallée, directrice à l’école primaire Sainte-Anne, à Mirabel.

Douze ans plus tard, la commission scolaire a mis fin à l’hémorragie. Mieux, ses élèves réussissent maintenant de façon éclatante. « En 2016, le taux de réussite en lecture en sixième année est passé de 79 % à 93 %, dit Sébastien Tardif, directeur général adjoint à la réussite scolaire à la CSRDN. On s’attend même à une forte hausse du taux de diplomation. »

Sébastien Tardif ne le dit pas tout haut, mais il se pourrait que la CSRDN réussisse le coup de l’Ontario qui a augmenté le taux de diplomation de 68 % à 85 % depuis 2003 – et jusqu’à 91 % dans les conseils scolaires francophones – alors que la moyenne québécoise, elle, est passée de 69 % à 74 %. « Une différence inacceptable, juge Égide Royer, professeur associé au département d’études sur l’enseignement et l’apprentissage de l’Université Laval, à Québec. Un jeune né à l’ouest de la rivière des Outaouais a entre 10 % et 20 % plus de chances d’obtenir son diplôme secondaire juste parce que le Québec a opté pour des approches trop souvent fondées sur des croyances plutôt que sur des données empiriques. »

Le secret de la CSRDN, comme celui de l’Ontario (et aussi de l’Iowa et du Massachusetts, qui obtiennent des résultats comparables), se résume à deux expressions qui créent une polémique dans le milieu de la recherche et dans les couloirs du ministère de l’Éducation du Québec : les « données probantes » et « l’enseignement efficace ».

Les données probantes, c’est l’idée qu’on peut soumettre la pédagogie à une analyse empirique et statistique pour établir ce qui marche et ce qui ne marche pas, à quel degré, et dans quelles conditions. L’enseignement efficace, lui, est une approche pédagogique qui implique une rétroaction constante entre l’enseignant et les élèves, ainsi que la collaboration entre les enseignants entre eux, et avec l’institution.
Bref, le but est de fonder les pratiques éducatives sur des « preuves », ou du moins sur des données scientifiques. Et de rester attentif aux signaux qu’envoient les élèves. « Le message principal, c’est qu’il faut arrêter d’improviser », résume Égide Royer.

Le concept paraît simple. Mais, au Québec, on commence tout juste à le mettre en application.

Selon Monique Brodeur, doyenne de la faculté d’éducation de l’UQAM, le retard québécois s’expliquerait par une posture en éducation qui est plus romantique que scientifique. « Par exemple, le Ministère a implanté une approche de l’enseignement de la lecture – appelée méthode globale – qui ne correspond pas à l’état des connaissances scientifiques. » Et qui, de toute évidence, n’a rien fait pour améliorer la compétence en lecture des enfants québécois.

Pourtant, depuis le milieu des années 1990, de plus en plus de chercheurs introduisent les données probantes en éducation, comme ils l’ont fait en médecine, il y a 50 ans, puis en service social et en psychologie. En fait, les données probantes ont tellement pénétré le champ médical que tout le travail clinique en dépend désormais; on ne conçoit plus la médecine clinique autrement. « Pourquoi est-ce que l’éducation serait le seul domaine où on ne se fonderait pas sur des données empiriques ? » demande Éric Dion qui dirige le Laboratoire sur les pratiques d’enseignement appuyées par la recherche à l’UQAM.

Le mouvement pour le recours aux données probantes en éducation s’est toutefois accéléré avec la publication en 2008 de l’ouvrage Visible Learning (L’apprentissage visible, non traduit), aujourd’hui considéré comme la référence. Son auteur est John Hattie, professeur et directeur de l’Institut de recherche en éducation à l’université de Melbourne en Australie.

Pendant 15 ans, son équipe a recoupé les résultats de 800 méta-analyses, lesquelles faisaient elles-mêmes des recoupements de 52 000 articles portant sur 146 000 analyses auprès de 240 millions d’élèves. Cette méga-analyse a recensé 138 « facteurs d’influence », tant sur le plan des méthodes pédagogiques que des conditions socioculturelles (ethnicité, famille, sexe, etc.), de la technologie et de l’organisation (taille des classes, de l’école, etc.).

Le premier constat qui en ressort ? Presque tout ce qu’on essaie en enseignement produit un effet positif, même modeste. Moins de 5 % des actions, comme le redoublement, produisent un effet négatif. Mais pour John Hattie, dont l’étude hiérarchise les facteurs d’influence selon leur efficacité, se contenter d’« avoir de l’effet » est insuffisant. Les enseignants, mais également les fonctionnaires qui pensent les politiques éducatives, devraient faire mieux que la moitié inférieure des études répertoriées.

Joint par Skype à Melbourne, John Hattie explique que son classement peut se résumer à une démonstration statistique de ce que les pédagogues savent depuis Aristote : l’« enseignement efficace », c’est tout simplement l’art de remettre en question son propre enseignement, et donc de chercher à approfondir la rétroaction avec les élèves. « On fait fausse route en pensant qu’un enseignement efficace, cela consiste essentiellement à évaluer l’élève, dit-il. Au contraire, ça consiste pour le professeur à évaluer son propre enseignement. »

Et l’enseignement efficace a des effets très largement supérieurs aux facteurs technologiques, organisationnels ou socioéconomiques. En d’autres termes, les bons enseignants sont capables de faire mentir tous les autres facteurs d’influence négatifs comme la pauvreté ou la classe sociale. Surtout, les enseignants efficaces sont capables d’obtenir d’excellents résultats, même quand les autorités leur imposent des programmes médiocres.

Hattie 101

C’est l’étude de John Hattie, et quelques autres encore, qui a inspiré les réformes à la CSRDN. « On savait où commencer, dit Marc Saint-Pierre qui était le prédécesseur de Sébastien Tardif et qui a implanté les premières mesures avant de prendre sa retraite en 2012. On savait que les principaux marqueurs du décrochage sont des problèmes de lecture à sept ans, des troubles de comportement à neuf ans et des retards d’apprentissage au début du secondaire. Un enfant qui a des retards de lecture à sept ans court quatre fois plus de risques de devenir décrocheur. »

Voilà pourquoi Marc Saint-Pierre a choisi d’introduire dans les classes de maternelle un petit programme conçu par l’équipe de la professeure Monique Brodeur, de l’UQAM. La forêt de l’alphabet, un programme dispensé à raison de 25 minutes par jour pendant 26 semaines, met l’accent sur l’apprentissage du nom et du son des lettres, et vise le développement du vocabulaire et de la conscience phonémique. La méthode globale, celle choisie par le Ministère, met plutôt l’accent sur la recherche de sens et la capacité d’analyse – ce qui équivaudrait à mettre la charrue devant les bœufs, selon les données probantes. « Cette dernière méthode s’avère particulièrement dommageable pour les élèves en situation de vulnérabilité, qui viennent par exemple d’un milieu défavorisé ou qui présentent des troubles d’apprentissage », indique Monique Brodeur.



Dans sa classe de première année de l’école du Joli-Bois, à Sainte-Sophie, Isabelle Jean voit clairement l’effet des changements introduits en maternelle. « Les enfants qui m’arrivent en première année sont nettement plus avancés, raconte-t-elle en montrant divers tableaux. Auparavant, ils pouvaient effectuer la fusion des sons, comme “p” et “a” égale “pa”, vers le mois de février ou mars. Maintenant, c’est acquis en novembre ! Et à la fin de l’année, j’empiète sur le programme de deuxième année. »
En plus de former tous les enseignants de maternelle à La forêt de l’alphabet, la CSRDN ajoute en cascade d’autres programmes de lecture jusqu’à la deuxième année, dont notamment Apprendre à lire à deux, de l’équipe du laboratoire dirigé par le chercheur Éric Dion. À partir de la troisième année, la CSRDN oriente plutôt son action sur les troubles de comportement et le suivi intensif des cas problématiques. « On a mis en place un programme de soutien aux comportements positifs, parce que les études démontrent que la punition, ça ne marche pas », dit Marc Saint-Pierre.
« La CSRDN a planifié son affaire soigneusement : un bon déploiement, un soutien adéquat des enseignants et des écoles, un leadership partagé, commente Monique Brodeur qui a préfacé le dernier livre de John Hattie (L’apprentissage visible pour les enseignants, PUQ, 2017). Mais, pour commencer, ils ont fait les bons choix en recourant à des approches dont l’efficacité avait été démontrée avec rigueur. »

« Depuis 2010, on parle du programme entre nous comme du “tsunami de la réussite”, souligne Katia Lavallée, de l’école primaire Sainte-Anne, à Mirabel. Les enseignants sont plus ouverts à réfléchir à leur pratique. Ils n’ont plus le réflexe de voir ça comme une menace, mais comme un levier. »

Chose certaine, le tsunami de Saint-Jérôme fait des vagues. Les Commissions scolaires des Laurentides et de Marguerite-Bourgeoys, à Montréal, ont commencé à implanter les méthodes développées à Saint-Jérôme, incluant son système de monitorage (voir l’encadré à la page 29). Elles ont aussi influencé la nouvelle politique de réussite scolaire annoncée en juin par le ministère de l’Éducation.

Au sein même de la CSRDN, les données probantes et l’enseignement efficace créent un effet d’entraînement au-delà du niveau primaire, constate Sébastien Tardif.
Un exemple éloquent est celui de Martin Patry, enseignant de sciences à l’école secondaire Cap-Jeunesse à Saint-Jérôme. En novembre 2016, il a confectionné un fichier Excel qui compile les résultats de ses 200 élèves et lui fournit un portrait précis du niveau de compréhension de chacun d’entre eux et de chaque classe.

« Si seulement 42 % des élèves ont réussi la question 3, je suis capable d’examiner ce que j’ai fait de travers. Je peux aussi montrer ces résultats aux élèves qui sont tout surpris d’apprendre que ça va très bien sur certaines notions et moins sur d’autres. Je peux ainsi organiser des reprises mieux ciblées. Cela me fait gagner beaucoup de temps. Je ne m’en passerais plus. »

Martin Patry a poussé le bouchon plus loin en instituant un système de contrôle par votation. À la fin du cours, il pose des questions sur la matière et les élèves procèdent à un vote avec un carton qu’il scanne avec son iPhone. Grâce à une appli (Plickers), le résultat du groupe apparaît sur le tableau blanc. « Je sais tout de suite (et eux aussi) ce qu’ils ont compris, et je peux m’ajuster au cours suivant. Les jeunes “embarquent”. Ce ne sont pas juste les trois mêmes “bolés” qui votent. »
L’enseignant fait aujourd’hui des émules. Ses collègues en science lui ont demandé récemment comment employer sa méthode. « Ça change la culture de l’école », affirme M. Patry.

Cette approche correspond en tous points aux recommandations de John Hattie qui, lorsqu’on lui rapporte l’expérience, s’exclame sur Skype :« Oui! ils ont compris !, en levant le poing. On peut déterminer statistiquement quelle méthode serait la meilleure, mais l'essentiel, c'est de se donner les outils pour l'évaluation et le suivi. C'est la clé en éducation. Ce que les gens enseignent, à la limite, on s'en balance. »

Un paradigme difficile à changer

John Hattie n’a pas que des adeptes. Dans les officines des ministères, dans les milieux de recherche et dans les syndicats, certains critiquent âprement ses travaux.
Car les méta-analyses ont des limites évidentes, puisqu’elles sont strictement statistiques, explique Égide Royer. « Elles sont valides pour de grands groupes, dit-il, mais pas nécessairement pour des cas individuels. » Les élèves ne sont pas des souris de laboratoire uniformes. Cas type, il est prouvé que le redoublement scolaire, appliqué en masse, a un effet globalement négatif. Mais il peut être approprié dans certains cas particuliers.

Une autre réserve, les données probantes sont souvent la généralisation de petites études locales qui peuvent avoir un biais culturel. Une objection qui irrite profondément John Hattie : « Les données démontrent que les uniformes, l’écriture cursive, par exemple, ça n’est pas très efficace. Mais si vous y tenez, faites-le et après quoi, occupons-nous plutôt de ce qui produit vraiment une différence. »
Mais il faut aussi admettre que les détracteurs de John Hattie lui font souvent dire des choses qu’il ne dit pas. Ainsi, bien des gens affirment que les données probantes ouvriront la porte à l’uniformisation des programmes et à la mainmise de l’État sur le travail des enseignants. Au contraire, rétorque John Hattie. La notion d’enseignement efficace suppose justement que l’enseignant conserve toute sa latitude et qu’il exerce son jugement professionnel, en rétroaction avec ses élèves. « Voilà l’erreur à ne pas commettre : croire qu’il n’y a qu’une seule méthode qui fonctionne », insiste-t-il.

Même son de cloche du côté de Frédéric Saussez, professeur agrégé de la faculté d’éducation à l’Université de Sherbrooke : « Il existe un risque de dérapage si l’on présente les données probantes comme la vérité, au mépris des variantes locales. La science ne doit pas dire quoi faire au politique, mais quoi ne pas faire. La science, ce n’est pas la vérité; c’est un projet de connaissance. Sinon, on réintroduit la foi. » Il insiste toutefois : « On ne peut pas être contre les données probantes. Si c’est le cas, on est contre la science. »



Malheureusement, à l’heure actuelle, « chacun protège sa chapelle épistémologique », déplore Marc Saint-Pierre, retraité de la CSRDN. Il est le plus féroce critique de ceux qui sont réticents face aux données probantes. « Ça va faire, les études d’atmosphère du type “on se sent bien” ! Pour régler nos problèmes, on a besoin d’approches dont l’efficacité a été démontrée empiriquement. Quand on a voulu introduire La forêt de l’alphabet, des fonctionnaires du Ministère ont protesté en disant que notre approche était trop “scolarisante”, qu’on “volait l’enfance des enfants”. » La CSRDN proposait une approche ludique et joyeuse, avec des jeunes assis en rond autour d’une marionnette. Les fonctionnaires voyaient plutôt des « petits assis en rangées », se rappelle Marc Saint-Pierre. « Il y a encore des fonctionnaires qui disent : “C’est pas vrai” quand on leur montre nos données de recherche. Les gens ne reconnaissent même pas les faits. »

Résultat, les politiques font parfois fausse route. « On ne peut pas déployer des mesures sur la base de non-études », dit Égide Royer en citant le bilan controversé des tableaux blancs interactifs introduits dans les écoles en 2011, un programme qui a coûté 240 millions de dollars pour peu de résultats (ce que les données existantes prévoyaient, d’ailleurs).

Cela étant dit, les données probantes peuvent être utilisées de façon abusive par des fonctionnaires obnubilés par la quête des résultats. C’est justement ce qui s’est passé avec le programme américain No Child Left Behind (« Pas d’enfant oublié »), voté en 2002 aux États-Unis. Le gouvernement fédéral souhaitait augmenter la performance de l’enseignement par un système de récompense-punition. La carotte : les écoles qui voyaient leurs résultats s’améliorer recevaient de généreuses subventions.  Le bâton : les écoles qui plafonnaient ou qui reculaient voyaient diminuer leurs subventions. La caricature de ce qu’il ne faut surtout pas faire ! En raison de mauvais résultats, des écoles ont fermé et des enseignants ont été congédiés. Si bien que les directions d’école, pour se prémunir, ont eu tendance à imposer un enseignement axé sur la réussite de tests dès la première année, ce qui est l’une des pires méthodes pédagogiques. « Mais la mauvaise utilisation des données probantes, ça n’a pas de rapport avec les données probantes, soupire Marc Saint-Pierre. C’est de la politique. »
À Saint-Jérôme, l’esprit est tout autre. Les résultats des élèves, des classes et de l’école servent plutôt au dépistage précoce des futurs décrocheurs et à une meilleure allocation des ressources. « Les écoles qui ont des difficultés reçoivent plus de ressources selon les matières, dit Sébastien Tardif. Et les directions d’école sont formées à ne pas prendre ombrage de “perdre des ressources” au bénéfice des écoles qui ont davantage de problèmes à régler. On pense pour le bien de tous. » 

 
Suivre les élèves à la trace

Pour améliorer son taux de réussite, la Commission scolaire de la Rivière-du-Nord (CSRDN) à Saint-Jérôme ne s’est pas bornée à appliquer à l’aveugle ses méthodes, toutes probantes qu’elles fussent. Elle a créé de toutes pièces un «tableau de bord», c'est-dire un système de monitorage qui recueille les données sur ses élèves, depuis la maternelle jusqu’à la cinquième secondaire, et qui est accessible aux enseignants, aux professionnels, aux directions d’école et aux cadres de la Commission scolaire.

« Un directeur d’école peut voir les statistiques de son institution pour toutes les matières et une série d’indicateurs, comme l’absentéisme, l’indiscipline, les suspensions et l’intimidation. Il peut voir ce qui se passe dans chaque classe et auprès de chaque élève. On sait même dans quel local l’élève se trouve à quelle heure, dit François Léveillé, directeur adjoint des Services des technologies de l’information. Ça permet d’améliorer l'allocation de ressources et le dépistage précoce, entre autres. »

Nommée directrice de l’école Sainte-Anne à Mirabel en septembre 2016, Katia Lavallée a constaté que son école affichait un fort taux de troubles de comportement – l’un des principaux indicateurs du décrochage scolaire. « C’était comme ça depuis longtemps. On ne sait pas trop pourquoi », déplore-t-elle. Grâce au portrait offert par le tableau de bord, elle a réussi à mobiliser toute l’école pour régler ce problème. « Jusqu’au 2 mars dernier, on avait une moyenne de 142 cas de comportements inadéquats par mois. On l’a baissée à neuf », confirme-t-elle.

Depuis l’introduction du tableau de bord, le niveau de gestion a atteint des sommets inégalés. « Quand un directeur d’école m’appelle parce qu’il s’arrache les cheveux sur le cas d’un élève, on ne passe plus quatre jours à rassembler le matériel : tout est là, jusqu’aux rapports sur le comportement. Tout le monde parle le même langage. On n’échappe plus personne », affirme François Léveillé.
 
 Un nouvel institut
L’un des piliers de la nouvelle politique de la réussite scolaire du ministère de l’Éducation sera l‘Institut national d’excellence en éducation. Il n’aura pas pignon sur rue; il s’agira vraisemblablement d’un réseau de chercheurs ayant pour tâche de valider des pratiques éducatives en fonction des données empiriques disponibles. Cet Institut, qui s’inspirera d’organismes similaires dans le domaine de la santé, aura pour mandat d’aviser directement le ministre. Une telle approche empêchera la mise en place de mesures à la mode sans preuves scientifiques de leur efficacité. Les nouvelles pratiques ne seront pas forcément proscrites, mais devront être validées progressivement par expérimentation avant d’être implantées dans l’ensemble du système.


Photos: Virginie Gosselin

>>> Article paru dans le numéro de septembre 2017


Afficher tous les textes de cette section