La pratique fondée sur les preuves en éducation : pourquoi pas ? Imprimer Envoyer
La recherche - Les données probantes
Écrit par Kerry Hempenstall (trad. Françoise Appy)   
Lundi, 01 Septembre 2014 00:00

Source : NIFDI

Dr. Kerry Hempenstall

RMIT University

La pratique fondée sur les preuves en éducation : pourquoi pas ?

Traduction (avec la permission expresse de l'auteur) :

Françoise APPY

Il s’agit d’une mise à jour de : Hempenstall, K. (2006). What does evidence-based practice in education mean? Australian Journal of Learning Disabilities, 11(2), 83-92.

 


Note de la traductrice

Dans cet article très documenté, Kerry Hempenstall fait un état des lieux de la pratique basée sur les preuves et explique toutes les difficultés à l’introduire dans les sciences de l’éducation.

Il décrit avec justesse cette ancienne tradition du monde éducatif qui consiste à aligner les réformes les unes après les autres, réformes basées sur des idées séduisantes, des opinions... mais jamais liées à l’efficacité démontrée scientifiquement. Cela qui contribue à laisser stagner le métier d’enseignant et à le dé-professionnaliser, comme l’exprimaient très bien Maggs et White (1982, p 131) : « Peu de professionnels sont aussi dépendants de la mythologie et moins ouverts aux découvertes empiriques que ne le sont les enseignants. »

En évoquant les autres métiers, il montre que c’est l’enseignement sans aucun doute, qui résiste le plus à la pratique basée sur les preuves.  Il ne reste plus qu’à espérer que le temps fera son affaire et qu’un jour viendra où l’utilisation des données scientifiques fera partie de la culture enseignante et de celle des décideurs. Tout comme cela a été le cas pour la médecine

 

Résumé

 

Aux États-Unis et en Grande-Bretagne, ces dernières années, on note une importance accrue des pratiques fondées sur les données probantes en matière d'éducation. Ce mouvement est susceptible de s’intensifier depuis le récent décret du Cabinet du gouvernement américain de gestion et du budget (ZIENT, 2012) qui « demande à l'ensemble de l'exécutif d’utiliser tous les moyens disponibles pour promouvoir l'utilisation de la preuve rigoureuse dans la prise de décision, l'administration du programme, et la planification ». La pratique basée sur les preuves (EBP) a influencé de nombreuses professions au cours des dernières années. Une simple recherche sur Google donne plus de 73.000.000 résultats. Parmi eux, à des degrés divers de mise en œuvre, se trouvent des domaines aussi divers que l'agriculture, l'orthophonie, l'ergothérapie, le transport, la bibliothèque et la pratique de l'information, la gestion, les soins infirmiers, la pharmacie, la dentisterie et les soins de santé.

Plusieurs problèmes méritent une attention particulière. D’une manière générale, la piètre qualité de la plupart des recherches en éducation dans le passé a rendu le processus d’évaluation difficile, en particulier pour les enseignants qui n’ont pas été formés pour distinguer les recherches pertinentes. La formation des enseignants n’a pas permis aux enseignants d’avoir la capacité ni la motivation pour explorer les preuves qui pourraient améliorer leur efficacité. En attendant que les enseignants aient cette aptitude, on a espéré que des organisations comme WWCH [1] pourraient assurer le filtrage afin de simplifier les choix relatifs aux pratiques ayant démontré leur efficacité. Cependant, selon les critères stricts utilisés dans ce processus, très peu d’études sur lesquelles s’appuyer auraient été conçues correctement.

--

--

Qu’est-ce que l’EBP [2] en enseignement signifie ?

 

Les enseignants sont de plus en plus sous les feux de la rampe médiatique : trop d’élèves échouent. Les enseignants actuels insuffisamment formés. Nos jeunes les plus brillants ne choisissent pas l’enseignement. Qu’est-ce que cela nous dit sur les professeurs en poste aujourd’hui ? Les enseignants ne sont-ils pas dignes de confiance ? L’avenir d'une nation dépend de la prochaine génération d'étudiants. Alors, comment répondre à cela en tant que nation ?

L’histoire de l’enseignement est celle de l’adoption régulière de nouvelles idées, mais cela se fait sans évaluation à large échelle et sans les recherches scientifiques nécessaires pour distinguer les réformes efficaces des réformes inefficaces. « En général, quelqu’un prend connaissance d’une idée qu’il apprécie et il encourage son adoption… souvent les changements proposés sont à la fois simples et uniques – plus d’évaluations des élèves, baisse du niveau d’exigence pour les diplômes d’enseignants, modèles d’amélioration calqués sur le fonctionnement d’une école particulière » (Levin, p.740)

Cette absence de perspective scientifique a écarté toute amélioration systématique du système éducatif, et a empêché le développement de la profession enseignante pendant très longtemps (Carnine, 1995a ; Hempenstall, 1996 ; Marshall, 1993 ; Stone, 1996). Il y a quelques années, en Australie, Maggs et White (1982) ont exprimé leur découragement : « Peu de professionnels sont aussi dépendants de la mythologie  et moins ouverts aux découvertes empiriques que ne le sont les enseignants » (p 131).

Depuis, un consensus s’est développé parmi les chercheurs empiriques sur le nombre de questions relatives à l’efficacité en enseignement, et beaucoup d’intérêt (Gersten, Chard, & Baker, 2000) est porté aux moyens par lesquels ces découvertes pourraient porter leurs fruits dans l’amélioration des résultats auprès des élèves. Carnine (2000) a noté que l’enseignement continue à être imperméable à la recherche sur les pratiques efficaces ; il a exploré les différences entre l’enseignement et les autres disciplines, comme la médecine, fortement liées à la recherche comme source essentielle d’informations.

La médecine basée sur les preuves est bien connue depuis les années 1990. Elle permet aux praticiens d’avoir accès aux informations sur l’efficacité et les risques des différentes interventions, en utilisant des estimations fiables des bénéfices et dommages,  comme un guide dans leur pratique. La profession médicale est largement favorable à cette pratique parce qu’elle offre un système en constante amélioration, fournissant de meilleures issues médicales pour les patients. Ainsi, plus d’attention est donnée aux découvertes de la recherche par les praticiens dans leur gestion des patients et leurs conditions médicales. Les praticiens ont des organisations comme Medline et Cochrane Collaboration qui ont pour mission  d’examiner la recherche, en utilisant des critères spécifiques pour sélectionner des études méthodologiquement acceptables. Puis, elles interprètent les découvertes et fournissent un résumé du statut des divers traitements dans divers contextes médicaux. Ainsi, les praticiens ont le choix d’accepter des interprétations prédigérées de la recherche ou alors de faire leur propre examen. Cette dernière option présume qu’ils en aient le temps et l’expertise afin de discerner les recherches fiables de celles qui le sont moins.

En dépit de ces changements en médecine, persiste le problème de l’acceptation par les praticiens. Le premier audit à large échelle du système de santé australien a trouvé que 43 % des patients ne recevaient pas des traitements basés sur les meilleures preuves disponibles (Runciman et al., 2012). Le professeur Ian Harris, directeur du Whitlam Orthopaedic Research Centre, note qu’un peu moins de la moitié des opérations réalisées en Australie ont été correctement évaluées. « Nous savons souvent que quelque chose ne fonctionne pas, mais il y a aussi des milliers et des milliers de médecins à qui l’on a enseigné certaines procédures qu’ils persistent à utiliser …changer les croyances et les comportements des cliniciens, même face à des preuves évidentes, reste un challenge de haut niveau (p 5) » (Medew, 2012).

Le financement de la recherche est aussi un élément critique dans la pratique basée sur les preuves. Alors que la santé et l’éducation consomment une part équivalente du budget fédéral, le financement de la recherche médicale est bien supérieur à celui de la recherche en éducation. Le département de l’Éducation des États-Unis dépense annuellement quelques 80 millions de dollars dans la recherche en éducation ; alors que le département de la santé (Department of Health and Human Services) finance la recherche médicale à raison de 33 milliards de dollars chaque année (The Haan Foundation, 2012).

Dans une initiative semblable à celle de la médecine dans les années 90, l’American Psychological Association (Chambless & Ollendick, 2001) a introduit le terme “traitements soutenus empiriquement comme moyen de focaliser sur les efficacités respectives des diverses psychothérapies. Avant cela, de nombreux psychologues pensaient qu’ils se devaient de développer un métier dans lequel la compétence viendrait d’une combinaison de qualités personnelles, d’intuition, d’expérience. Le résultat fut une extrême variabilité parmi les praticiens.

L’idée était d’imaginer des moyens pour évaluer les thérapies relatives à différents problèmes psychologiques, afin que les praticiens puissent les utiliser comme guide pour leur pratique. Le critère pour considérer qu’un traitement est bien implanté comprend l’efficacité par les résultats de deux études cliniques contrôlées ou une large série d’études contrôlées d’études de cas, la validité des manuels de traitement pour s’assurer de la fidélité de traitement, et la provision des caractéristiques des clients clairement spécifiées. Un second niveau comprend des critères pour des traitements probablement efficaces. Ces critères ont nécessité moins d’études, et/ou un standard de rigueur moindre. La troisième catégorie comprenait des traitements expérimentaux, qui n’avaient  assez de preuves pour atteindre probablement le statut d’efficacité.

L’approche de l’American Psychological Association pour les traitements soutenus empiriquement pourrait fournir un modèle adaptable aux besoins de l’enseignement. Il y a potentiellement de grands avantages pour le système éducatif à partir du moment où des questions récurrentes trouvent des réponses. Quelle approche de la lecture est le plus susceptible de provoquer la littératie ?  Doit-on utiliser la “promotion sociale” ou alors doit-on généraliser les redoublements ? Est-ce que des classes de plus petites tailles font  la différence ? Est-ce que des programmes d’été doivent être fournis aux élèves en difficultés ?  Est-ce qu’en Grande Section, la classe doit se tenir toute la journée ? Quels sont les moyens les plus efficaces  pour fournir une remédiation aux enfants qui sont loin derrière ? En psychologie comme en médecine, on doit cependant noter que 15 années après, il reste encore des poches de résistance envers les initiatives de pratique basée sur les preuves.

Le premier signe révélateur d’un mouvement similaire dans l’enseignement est apparu avec le Reading Excellence Act (The 1999 Omnibus Appropriations Bill, 1998), en réponse à l’état peu satisfaisant des performances en lecture aux États-Unis. Il reconnaissait que la cause était en partie due aux méthodes en vigueur d’apprentissage de la lecture, et que les pratiques pour la littératie n’avaient pas tenu compte des développements de la compréhension du processus de lecture. L’Act et ses successeurs ont tenté de réduire l’écart entre la recherche et la pratique de classe, en demandant que seuls les programmes de lecture ayant montré leur efficacité selon les critères stricts de la recherche, reçoivent des fonds fédéraux. Cela a inversé une tendance dans laquelle le critère pour l’adoption d’un modèle était sa fidélité à une idée préconçue de “justesse”, plutôt qu’une efficacité démontrée auprès des élèves. Le financement fédéral concerne maintenant uniquement les programmes ayant démontré de manière probante leur efficacité par une recherche fiable et réplicable.

La recherche fiable et réplicable a été définie comme ensemble d’études scientifiques objectives, valides qui : (a) comprennent des échantillons rigoureusement définis de sujets suffisamment larges et représentatifs pour soutenir les conclusions générales tirées ; (b) reposent sur  des mesures qui rejoignent des standards établis de fiabilité et de validité ; (c) testent des théories en concurrence, dans lesquelles existent de multiples théories ; (d) sont sujettes à des revues de pairs avant la publication de leurs résultats ; et (e) découvrent des stratégies efficaces pour améliorer les habiletés en lecture (The 1999 Omnibus Appropriations Bill, 1998).

En Grande-Bretagne, des questionnements identiques ont conduit au National Literacy Strategy (Department for Education and Employment, 1998) qui demandait à ce que les approches de l’enseignement de la lecture soient basées sur les conclusions de la recherche. Par exemple : « Il doit y avoir un enseignement systématique, régulier et fréquent de la conscience phonologique, de la phonologie et de l’épellation. » (National Literacy Strategy, 1998, p.11).

En pratique, ce texte a souffert d’une forte résistance interne du milieu éducatif, et n’a pas atteint ses objectifs. Il a aussi été compromis en soutenant le three cueing system [3], connu en Angleterre sous le nom de Searclight model. Sous l’influence du rapport Rose (2006), une nouvelle approche plus directive fut insituée, connue sous le nom de  Primary National Strategy (2006).

En Australie, le National Enquiry into the Teaching of Literacy (2005) est également parvenu à des conclusions similaires sur le véritable rôle de la recherche en éducation. L’Australian Government’s Review of Funding for Schooling Panel (2011) déplore le manque généralisé de données probantes pour les programmes d’enseignement et l’absence d’évaluation des effets des programmes sur l’enseignement (Nous Group, 2011).

Slavin (2002) argumente que demander des preuves avant l’adoption des programmes réduirait le mouvement de balancier qui a caractérisé l’enseignement jusqu’à aujourd’hui et pourrait avoir des conséquences révolutionnaires dans l’amenuisement des différences de performances au sein de notre communauté.

Le National Research Council's Center for Education (Towne, 2002) suggère que les enseignants devraient s’intéresser à la recherche qui : (a) pose des questions significatives pouvant être étudiées de manière empirique ; (b) lie la recherche à la théorie ; (c) utilise des méthodes permettant une enquête directe sur la question ; (d) fournit une chaîne cohérente de raisonnement rigoureux ; (e) reproduit et généralise ; (f) est transparente et propose un débat savant. Le message du NRC est clairement d’améliorer la qualité de la recherche en éducation, et de réaffirmer le lien entre la recherche scientifique et la pratique enseignante. Enfin, les issues d’une recherche saine devraient renseigner les décideurs en éducation, de la même manière qu’un tel processus a été adopté dans les professions médicales. Les domaines qui se sont développées sans précédent sur le siècle dernier, comme la médecine, la technologie, les transports, l’agriculture sont ceux qui ont adopté la recherche comme élément déterminant de leur pratique (Shavelson & Towne, 2002).

De la même manière, en Australie en 2005, le National Inquiry into the Teaching of Literacy [4] a soutenu « qu’un curriculum et une évaluation d’enseignement et d’apprentissage  devaient être davantage liés aux découvertes  de la recherche sur les données probantes qui indiquent les pratiques efficaces, y compris celles qui sont manifestement efficaces pour les besoins particuliers de certains enfants. » (p.9). Cette enquête recommande un programme national fournissant des guide aux pratiques efficaces basés sur la recherche, le premier devant concerner la lecture. Au total, le rapport utilise le terme « basé sur les preuves » à 48 reprises.

Ainsi, il ressort que l’enseignement et la recherche ne sont pas liés de manière adéquate dans ce pays. Pourquoi l’éducation  a –t-elle été si lente à considérer la recherche comme source de connaissance sur les pratiques ? Carnine (1999) argumente que ce sont les décideurs qui constituent la plus forte ligne de résistance. Il décrit les politiques éducatives comme dépourvues de cadres scientifiques, et ainsi enclines à accepter des propositions basées sur les bonnes intentions et sur des opinions sans preuves. Le professeur Cuttance, directeur du Melbourne University's Centre for Applied Educational Research était tout aussi direct : «  Les auteurs des politiques éducatives ne tiennent pas compte de l’ensemble de la recherche en éducation produite, et les professeurs encore moins » (Cuttance, 2005, p.5).

Carnine (1995b) pointe également que les enseignants ne sont pas formés pour accéder eux-mêmes les recherches et pour les évaluer. Leurs instituts de formation n’ont pas développé chez eux une culture de la recherche, et considèrent l’enseignement comme une forme d’art, dans lequel l’expérience, la personnalité, l’intuition ou la créativité sont les seuls éléments déterminants de la pratique. Par exemple, ils estiment qu’un peu moins d’un sur 200 professeurs sont des usagers expérimentés de la base de données éducative ERIC [5].

Si nous considérons un autre angle de vue, Meyer (1991), cité dans Gable & Warren, 1993) accuse la communauté scientifique d’être trop isolée des salles de classe. Elle argumente que les enseignants ne s’intéresseront pas à la recherche tant que sa crédibilité ne sera pas améliorée. La recherche est souvent difficile à comprendre, et le langage précis scientifique et précautionneux n’a pas le même impact que les affirmations merveilleuses des idéologues et des gens à la mode, non concernés par l’éthique scientifique.

Fister and Kemp (1993) ont considéré plusieurs obstacles à l’enseignement basé sur la recherche, le plus important étant l’absence d’un lien de responsabilité entre les décideurs et les performances des élèves. Un tel lien était improbable jusqu’à récemment, quand les résultats des évaluations nationales étaient liées à l’obtention de financements. Ils attribuent aussi quelque responsabilité à la communauté scientifique qui n’a pas vu la nécessité de connecter la recherche de manière adéquate avec les préoccupations des enseignants. Les critiques spécifiques reposent sur l’échec d’une communication claire des résultats destinée aux futurs utilisateurs. Les chercheurs ont souvent validé des pratiques sur des durées trop courtes, et dans des séries de configurations trop limitées afin de stimuler l’adoption de programmes généraux. Sans considérer les ramifications organisationnelles (comme les coûts du personnel) de manière correcte, la viabilité même des meilleures interventions ne peut pas être garantie. Les méthodes d’introduction et la formation du personnel dans les pratiques innovantes peuvent avoir une portée déterminante dans leur adoption et leur prolongement.

Woodward (1993) a mis en exergue l’important gouffre culturel entre les chercheurs et les enseignants. Les chercheurs voient les enseignants comme  inutilement conservateurs et résistants au changement. Alors que les enseignants considèrent les chercheurs comme irréalistes dans leurs attentes et manquant de la compréhension du système et de la culture propres à l’éducation. Les enseignants se défendent des appels au changement par la critique implicite de leurs pratiques passées, et la dévaluation perçue du professionnalisme des enseignants. Leach (1987) argumente que la collaboration entre les agents du changement et les enseignants est un élément nécessaire dans l’acceptation d’une nouvelle pratique. Selon lui, les enseignants ont besoin d’être invités  à faire une contribution qui qui s’étende au-delà de de la seule implantation des idées des autres. Il y a des signes qu’une telle culture est peut-être en train de se développer. Viadero (2002) a reporté un certain nombre d’initiatives dans lesquelles des enseignants ont réfléchi sur leur propre travail, utilisant à la fois des outils quantitatifs et qualitatifs. Elle a aussi noté que l’American Educational Research Association a une subdivision consacrée à la pratique.

Certains ont argumenté que la science a peu à offrir à l’enseignement et que les initiatives des professeurs, la créativité et l’intuition fournissent les meilleurs moyens pour répondre aux besoins des élèves. Par exemple, Weaver considère que la recherche scientifique ajoute peu de valeur à l’éducation  (Weaver et al., 1997). «  Il semble futile d’essayer de montrer la supériorité d’une méthode d’enseignement sur une autre par la recherche empirique » (Weaver, 1988, p.220). Ces auteurs insistent souvent sur  le caractère unique de chaque enfant, et utilisant cette unicité comme argument contre les pédagogies basées sur le fait qu’il y a assez de points communs à tous les enfants pour permettre de faire des groupes d’enseignement avec les mêmes matériaux et les mêmes techniques. D’autres ont argumenté que l’enseignement lui-même est inefficace comparé à l’impact du statut socio-économique et au désavantage social. (Coleman et al., Jencks et al., 1972). Smith (1992) a argumenté que seule la relation entre un professeur et un enfant était importante dans l’apprentissage. En outre, il minimise l’importance de l’enseignement au profit d’une perspective naturaliste « L’apprentissage est continu, spontané et sans effort, il ne requiert aucune attention particulière, ni motivation consciente ni renforcement spécifique » (p 432). D’autres encore voient la recherche comme réductrice, et incapable de comprendre la nature holistique du processus d’apprentissage (Cimbricz, 2002 ; Poplin, 1988).

Quelles conséquences sont apparues dans d’autres domaines, après l’échec à ne pas pouvoir incorporer les résultats d’études scientifiques ?

Galilée observait les lunes de Jupiter en 1610. La réfutation de Francesco Sizi sur la question fut : il y a 7 fenêtres dans la tête, 2 narines, deux oreilles, deux yeux et une bouche. Donc dans les cieux, elles sont aussi au nombre de sept – deux étoiles favorables, deux peu propices, deux sommités, et Mercure toute seule indécise et indifférente. De ceci et de maints autres phénomènes naturels similaires comme les sept métaux, etc.,  nous observons que le nombre de planètes est nécessairement sept… Nous divisons la semaine en sept jours, et les avons nommés selon les sept planètes. Si nous augmentons le nombre de planètes, le système s’écroule dans son entier… Plus encore, les satellites sont invisibles à l’œil nu, par conséquent, ils ne peuvent pas avoir  d’influence sur la terre, par conséquent ils seraient inutiles et par conséquent ils n’existent pas (Holton & Roller, 1958, tel que cité  Stanovich, 1996, p.9).

Galilée nous a enseigné la valeur des observations contrôlées, tandis que Sizi à mis en évidence les limitations de la théorisation de fauteuil [6]. L’échec à incorporer des découvertes empiriques dans la pratique peut avoir de lourdes conséquences. Même la médecine a une histoire courte relativement à la recherche. Au début du 20e siècle, la pratique médicale en était à un stade équivalent à celui de l’éducation aujourd’hui. Par exemple, il était connu que les bactéries jouaient un rôle critique dans les infections, et 50 ans auparavant, Lister avait montré l’importance des procédures antiseptiques en chirurgie. Mais, dans ce début de siècle, les chirurgiens continuaient encore d’essuyer leurs instruments sur n’importe quel tissu non stérile qui se présentait à eux, avec des conséquences funestes sur les patients.

Plus récemment, le conseil d’un pédiatre, Dr Benjamin Spock préconisant de faire dormir les enfants sur le ventre dans leurs berceaux, a causé environ 60 000 décès par mort subite du nourrisson aux USA, en Grande Bretagne et en Australie entre 1974 et 1991, selon les chercheurs de l’Institute of Child Health à Londres (Dobson & Elliott, 2005). Son conseil ne s’appuyait pas sur des preuves empiriques, mais plutôt sur une analyse fauteuil. Le livre, Baby and Child Care (Spock, 1946) eut énormément d’impact, et fut vendu à plus de 50 millions d’exemplaires.  Mais alors que le livre continuait de diffuser cette pratique, des revues de facteurs de risque sur la mort subite du nourrisson en 1970 notaient le risque causé par le sommeil sur le ventre. Dans les années 1990, quand les campagnes publiques ont changé cette pratique, les morts subites du nourrisson ont diminué de moitié dans une année. Récemment, de plus en plus de pratiques médicales traditionnelles sont soumises à des tests empiriques alors que la profession installe de plus en plus sa crédibilité.

Est-ce qu’il y a des exemples dans le domaine éducatif, dans lesquels les pratiques basées uniquement sur des croyances, non soutenues par la recherche, se sont révélées incorrectes, mais ont conduit à un enseignement inutile ?

  • Apprendre à lire est aussi naturel qu’apprendre à écrire (National Council of Teachers of English, 1999).
  • Les enfants n’apprennent pas à lire afin d’être capables de lire un livre, ils apprennent à lire en lisant des livres (NZ Ministry of Education, as cited in Mooney, 1988).
  • La lecture des parents à l’enfant suffit pour susciter la lecture (Fox, 2005).
  • Les bons lecteurs font une lecture en diagonale plus qu’ils ne s’attardent sur les détails. (Goodman, 1985).
  • Les lecteurs fluents identifient les mots comme des idéogrammes. (Smith, 1973).
  • La lecture habile comprend la prédiction à partir du contexte (Emmitt, 1996).
  • La langue anglaise est trop irrégulière pour que l’approche phonique soit utile (Smith, 1999).
  • La précision n’est pas nécessaire pour une lecture efficace (Goodman, 1974).
  • L’orthographe dérive simplement de l’acte d’écrire (Goodman, 1989).
  • Suivre les styles d’apprentissage des élèves améliore les résultats scolaires (Carbo, & Hodges, 1988 ; DEECD, 2012b ; Dunn & Dunn, 1987).

Ces affirmations ont influencé les pratiques éducatives pendant plus de 20 ans, même si la recherche a montré qu’elles étaient incorrectes ou insuffisamment démontrées (Hempenstall, 1999). La conséquence a été un fardeau inutile pour les élèves en difficultés dans l’apprentissage de la lecture. Non seulement, on a refusé de leur fournir des stratégies utiles, mais de plus on les a encouragés à employer des stratégies inefficaces. Regardez maintenant le genre de conseil fourni dans une lettre d’information d’une école locale :

« Si votre enfant rencontre une difficulté avec un mot : demandez-lui de chercher des indices dans les images. Demandez-lui de lire ou de relire le passage et d’essayer d’y inclure un mot qui ferait du sens. Demandez-lui de regarder la première lettre afin de l’aider à deviner ce que ce mot pourrait bien être. »

Lorsque des croyances non fondées guident les pratiques, nous risquons l’incohérence au niveau des enseignants et le désastre au niveau du système éducatif.

Il y  a 3 groupes avec lesquels les chercheurs doivent communiquer pour savoir si leurs innovations doivent être adoptées. Au niveau de la classe, les enseignants sont le point de mire de telles innovations et leur participation compétente et enthousiaste est nécessaire si l’on veut réussir. Au niveau administratif, on donne aux principaux de plus en plus de liberté quant à la manière de dépenser les budgets ; ainsi, le temps passé à discuter des priorités éducatives et des moyens financiers de les accomplir est peut-être du temps passé utilement, en gardant à l’esprit le commentaire de Gersten et Guskey (1985) sur l’importance d’un leadership fort en éducation. Plus largement, au niveau du système, les décideurs ont vraisemblablement besoin d’informations diverses et d’assurance sur la viabilité du changement de pratique.

Peut-être à cause de la frustration causée par des problèmes liés à la mise en place des pratiques efficaces, nous commençons à voir une approche descendante dans laquelle des pratiques basées sur les données probantes sont  requises, comme en Grande-Bretagne (Primary National Strategy (2006) ; mais aussi parfois on en fait un principe préalable au financement, comme dans le projet No Child Left Behind en 2001 (U.S. Department of Education, 2002). Reste à voir si ce type d’approche sera efficace pour le changement des pratiques. Dans tous les cas, reste un besoin urgent de communiquer aux parents et aux enseignants à propos des pratiques de classe dans un esprit constructif et coopératif.

En Australie, on commence à voir s’exercer des pressions pour un changement, et on remet peu à peu en cause la vision de l’enseignement comme une activité purement artisanale. Des rapports comme le National Inquiry into the Teaching of Literacy (2005) ont incité le monde éducatif à adopter les comportements et les pratiques d’une profession reposant sur les données probantes. Les évaluations nationales ont conduit à une plus grande transparence des progrès des élèves et ont ainsi permis d’améliorer l’information  de l’opinion. La vigilance budgétaire du gouvernement est plus grande que dans le passé,  et les attentes d’une profession peu encline aux évaluations formelles sont des résultats mesurables. Un autre élément incitatif fut cette affaire dans laquelle un parent d’élève de Melbourne poursuivit une école privée pour violation du Trade Practices Act [7] (Rood & Leung, 2006). L’argument était que l’école avait échoué à atteindre l’objectif promis de mettre un terme aux difficultés en lecture de l’enfant. En 2005, en réaction à ces divers éléments, le National Institute for Quality Teaching and School Leadership commença un processus pour installer une accréditation nationale de l’enseignement. L’Australian Council for Educational Research évalue régulièrement les polices et pratiques dans les programmes d’enseignement d’Australie. Le but est d’augmenter et de surveiller la qualité des programmes d’enseignement dans toute la nation.

Il y a une autre difficulté à l’adoption des pratiques basées sur les données probantes. Est-ce que le standard de la recherche en éducation est, d’une manière générale, assez haut pour que l’on ait suffisamment confiance dans ses découvertes ? Autrement dit,  certaines disciplines (comme la lecture) poussent à la confiance ; alors que dans d’autres domaines, la qualité de la recherche baigne dans l’incertitude. Cela est dû en partie à la prépondérance d’études à court terme, conçues de manière inadéquate. Quand Slavin (2004) a examiné l’American Educational Research Journal sur la période 2000-2003, seulement 3 articles sur 112 ont révélé des contrôles de comparaisons expérimentales dans des études randomisées contenant des traitements raisonnablement étendus. Le  National Reading Panel (2000) a sélectionné un corpus de recherches à partir d’approximativement 100 000 études sur la lecture ayant été publiées avant 1966, et un autre portant sur 15 000 publiés avant 2000.  Il a sélectionné seulement des études expérimentales ou quasi expérimentales et parmi elles seulement celles répondant aux rigoureux standards scientifiques permettant de tirer des conclusions. Conscience phonémique : sur 1962 études, 52 ont répondu aux critères méthodologiques de la recherche ; Approche phonique : sur 1 373 études, 38 ont répondu aux critères ; Lecture orale guidée : sur 364 études, 16 ont répondu aux critères ; Enseignement du vocabulaire : sur 20 000 études, 50 ont répondu aux critères ; Compréhension : sur 453 études, 205 ont répondu aux critères. Par conséquent, il y a de toute évidence un besoin pour une recherche en éducation  plus rigoureuse.

Dans les domaines nécessitant la confidence, comment pouvons-nous estimer les résultats des recherches empiriques ? Stanovich et Stanovich (2003) proposent que les demandes en concurrence sur la connaissance soient évaluées selon trois critères. D’abord, les découvertes devraient être publiées dans des revues de référence. Deuxièmement, les découvertes devraient avoir été répliquées par des chercheurs indépendants n’ayant aucun intérêt dans les résultats. Troisièmement, il y a un consensus dans la communauté des chercheurs sur le sujet,  au sujet de la fiabilité et la validité des diverses découvertes – le critère de preuve évidente. Même si l’utilisation de ces critères n’est pas infaillible, cela offre une meilleure garantie contre les fausses réclamations pour la connaissance.  Sans la recherche comme guide, les systèmes éducatifs sont la proie de toutes sortes de gourous, de maisons d’éditions et de zélotes idéologiques. Gersten (2001) déplore que les professeurs soient « inondés de désinformation » (p 45).

Malheureusement, la formation ne fournit pas aux enseignants assez de connaissances sur la structure de la recherche pour  un examen critique de cette recherche. En fait, certaines sommités pédagogiques prônant la méthode globale (courant dominant dans les instituts de formation depuis les 20 dernières années) argumentent que la recherche a été incapable de déterminer une pratique (Hempenstall, 1999). Les enseignants en formation ont besoin qu’on leur fournisse une solide compréhension des conceptions de la recherche afin de s’adapter aux changements des politiques (National Inquiry into the Teaching of Literacy, 2005). Par exemple, en médecine, en psychologie, et dans de nombreuses autres disciplines, les essais randomisés contrôlés sont considérés comme un gold standard [8] pour évaluer l’efficacité d’une intervention. Les formations dans ces professions mettent un fort accent sur la recherche empirique. Il y a aussi beaucoup à apprendre sur l’interprétation des autres formes de recherche (U.S. Department of Education, 2003). En éducation cependant, il y a des preuves montrant que le niveau de la préparation des recherches quantitatives a diminué dans les programmes des enseignants sur les 20 dernières années (Lomax, 2004).

Existe-t-il des raccourcis rapides pour distinguer le bon grain de l’ivraie ? Si c’est le cas, où peut-on trouver l’information sur n’importe quelle zone de consensus ? Les  gouvernements qui se sont orientés vers un rôle charnière pour établir des politiques de recherche en éducation, ont en général constitué des panels de chercheurs prestigieux afin de lire attentivement les données probantes dans certains domaines, et diffuser largement leurs conclusions (ex : National Reading Panel, 2000). Ils assemblent toute la recherche méthodologiquement acceptable, et synthétisent les résultats, en utilisant des procédés statistiques comme la méta-analyse, afin de permettre des jugements sur l’efficacité. Cela comprend inclure les résultats de plusieurs études afin de fournir une grande base de données réduisant l’incertitude statistique qui inévitablement accompagne les études isolées.

Il y a donc des recommandations pour la pratique, fournies par ces corpus, elles sont des ressources précieuses répondant à la question : Qu’est-ce qui marche ? Cela comprend le National Reading Panel, l’American Institutes for Research, le National Institute for Child Health and Human Development, et The What Works Clearinghouse, Coalition for Evidence-Based Policy. On trouvera une liste complète en appendice. Par exemple, Lloyd (2006) résume un certain nombre de ces méta-analyses pour certaines approches. Dans cette méthode, une ampleur de l’effet de 0.2 est considérée comme faible, 0.5 comme moyenne, et 0.8 comme importante (Cohen, 1988). Pour des programmes d’intervention précoce, il y a 74 études, 215 ampleurs de l’effet et un effet d’ensemble (ES) de 0.82. Pour les traitements comportementaux dans les classes où les élèves ont des problèmes de comportement, il y a 10 études, 26 ampleurs de l’effet, et un effet d’ensemble (ES) de 0.93. Pour la méthode globale, il y a 180 études, 637 ampleurs de l’effet et un effet d’ensemble de 0.09. Pour   l’entraînement perceptivo-moteur, il y a 180 études, 117 ampleurs de l’effet et un effet d’ensemble (ES) de 0.08. Pour les styles d’apprentissage,  il y a 39 études, 205 ampleurs de l’effet et un ES de 0.14.

Ces sources fournissent une grande aide, mais peuvent aussi être à l’origine de confusion car elles ne sont pas toutes d’accord sur le choix des études qui doivent être incluses dans leurs méta-analyses. Par exemple, l’analyse de Hattie sur le Direct Instruction, a révélé de forts effets (d = 0.99) pour  l’enseignement normal et spécialisé et pour les élèves en difficultés (d = 0.96), plus importants pour la lecture (d = 0.89) que pour les mathématiques (d = 0.50), identiques pour la plupart pour l’appréhension directe de mots simples (d = 0.64) ainsi que pour la compréhension de haut niveau (d = 0.54), et identique pour les élèves du primaire ou du secondaire. Par contre la Coalition for EVP ne comprend pas le Direct Instruction dans sa liste d’approches en raison de sa conception d’un manque d’études sur les effets à long terme. Le What Works Clearinghouse rejette la plupart des études sur le Direct Instruction car elles n’atteignent pas ses critères relativement à la justesse méthodologique, et ignorent celles qui ont plus de 20 ans. Il y a également eu des critiques (Briggs 2008 ; Slavin 2008) des décisions du WWC, particulièrement sur l’incohérence de l’application des standards sur ce qui constitue une recherche acceptable. Ainsi les revues à grande échelle ont leurs propres problèmes à résoudre avant d’être admises aveuglément. Il s’écoulera sans doute encore beaucoup de temps avant que les recherches gold standard atteignent la masse critique permettant de prendre des décisions quant à la pratique. Il est aussi discutable de savoir si l’éducation ne pourra jamais avoir des essais de contrôle randomisés comme standards.

Bien sûr, il n’y a pas que la large échelle des études méthodologiquement sophistiquées qui compte. Une étude isolée portant sur un petit nombre d’écoles ou classes n’est peut-être pas concluante en soi, mais plusieurs de ces études, de préférence réalisées par beaucoup de chercheurs dans divers lieux, peuvent augmenter la confiance dans la validité d’un programme (Slavin, 2003). Si l’une d’elle obtient des résultats positifs sur une intervention dans différentes circonstances et avec des personnels différents, on est fondé à donner priorité à cette intervention pour une étude gold standard à large échelle.

Si on adopte une vue d’ensemble, un certain nombre d’options sont disponibles pour une réforme éducative. L’une d’elles comprend l’utilisation d’un mandat, comme avec les polices éducatives en Angleterre. Une autre possibilité consisterait à inciter les écoles avec de l’argent comme aux USA avec le No Child Behind Act (US Dpt of Education 2002). Une autre est d’inculquer des habiletés et des attitudes lors de la formation des enseignants. Alors que ces options ne s’excluent pas les unes les autres, une troisième apparaît comme  une composante probable de toute réforme en Australie, étant donné l’établissement et les objectifs du National Institute for Quality Teaching and School Leadership (2005).

Il y a une prédiction pour l’avenir ;  peut-être dans 15 ans, les approches éducatives auront besoin de fournir les preuves des bénéfices mesurables avant d’être autorisées dans le curriculum des écoles. Les instituts de formation auront changé quand les nouvelles générations en prendront le contrôle. Les cours comprendront des unités consacrées aux pratiques fondées sur les preuves, peut-être à travers une liaison renforcée avec la psychologie cognitive. Les jeunes enseignants chercheront systématiquement les données et collecteront des données relatives à leurs activités pédagogiques. Ils deviendront des praticiens scientifiques dans leurs classes. Les progrès des élèves seront régulièrement surveillés, les problèmes d’apprentissage seront repérés très tôt et traités systématiquement. Les taux généraux d’échec des élèves baisseront. Optimiste ? Bien sûr !

Plus qu’aucune génération avant eux, les enfants nés aujourd’hui devraient bénéficier des avancées rapides de la compréhension du développement humain, et de la manière dont ce développement peut être optimisé.  Il y a eu une explosion de connaissances scientifiques sur l’individu en génétique, neurosciences, mais aussi sur le rôle des influences environnementales, comme le statut socio-économique, les pratiques éducatives dans la petite enfance, la nutrition. Cependant, à ce stade, il y a peu de preuves en éducation. Il y a une sérieuse déconnexion entre l’accumulation de connaissances, son acceptation et son implantation systématique au service de cette génération montante.  L’acceptation du rôle charnière pour l’empirisme est activement découragée par les conseillers des décideurs, dont les positions idéologiques dénoncent toute influence scientifique. Il y a des demandes sans précédent sur les jeunes pour s’en sortir dans une monde de plus en plus complexe. C’est un monde dans lequel le pur volume d’informations et les techniques sophistiquées de persuasion auxquelles ils seront soumis, pourront dépasser les capacités que les systèmes éducatifs succombant aux modes peuvent fournir aux jeunes. Une reconnaissance du véritable rôle de la science pour informer les politiques est un challenge majeur pour nous, afin d’aider la nouvelle génération. Cette perspective ne comprend pas une diminution du rôle de l’enseignant, mais plutôt l’intégration d’une sagesse professionnelle avec les meilleures preuves empiriques disponibles permettant de prendre des décisions sur la manière de délivrer les informations (Whitehurst 2002).

Les politiques basées sur les preuves ont un grand potentiel pour transformer la pratique éducative, comme la recherche en éducation. Les politiques basées sur les données probantes devraient en fin de compte définir l’éducation vers une sorte d’amélioration progressive, que la plupart des parties les plus victorieuses de notre économie et société ont entamé un siècle auparavant. Avec une solide recherche, une entreprise développementale,  et des politiques gouvernementales demandant des preuves solides de l’efficacité des programmes et pratiques dans nos écoles,  nous devrions voir des progrès véritables et générationnels à la place du mouvement de va-et-vient des opinions et des modes.  C’est un moment passionnant pour la recherche éducative et les réformes. Nous avons une opportunité unique pour donner son importance à la recherche et pour établir une fois pour toutes l’importance d’un support consistant et progressiste pour une recherche de haute qualité. Quelles que soient leurs orientations méthodologiques ou politiques, les chercheurs en éducation devraient soutenir le mouvement pour les données probantes dans les politiques éducatives, et puis se mettre au travail en fournissant les données nécessaires pour créer les écoles que nos enfants méritent (Slavin, 2002, p.20).

 

 

Références

- Briggs, D.C. (2008). Synthesizing causal inferences. Educational Researcher, 37(1), 15-22.

- Carbo, M., & Hodges, H. (1988, Summer). Learning styles strategies can help students at risk. Teaching Exceptional Children, 48-51.

- Carnine, D. (1991). Curricular interventions for teaching higher order thinking to all students: Introduction to the special series. Journal of Learning Disabilities, 24, 261-269.

- Carnine, D. (1995a). Trustworthiness, useability, and accessibility of educational research. Journal of Behavioral Education, 5, 251-258.

- Carnine, D. (1995b.). The professional context for collaboration and collaborative research. Remedial and Special Education, 16(6), 368-371.

- Carnine, D. (2000). Why education experts resist effective practices (and what it would take to make education more like medicine). Washington, DC: Fordham Foundation.
Source Internet : http://www.edexcellence.net/library/carnine.html

- Chambless, D. L. & Ollendick, T. H. (2001). Empirically supported psychological interventions: Controversies and evidence. Annual Review of Psychology, 52, 685-716.

- Cimbricz, S. (2002, January 9). State-mandated testing and teachers' beliefs and practice. Education Policy Analysis Archives, 10(2).
Source Internet : http://epaa.asu.edu/epaa/v10n2.html

- Cohen, J. (1988). Statistical power analysis for the behavioural sciences (2nd ed.), Hillsdale, NJ: Lawrence Earlbaum.

- Coleman, J., Campbell, E., Hobson, C., McPartland, J., Mood, A., Weinfeld, F. D., & York, R. (1966). Equality of educational opportunity. Washington D.C.: Department of Health, Education and Welfare.

- Cuttance, P. (2005). Education research 'irrelevant.' The Age, July 5, p.5.

- DEECD (2012). Student Support Group Guidelines 2012.
Source Internet : http://www.eduweb.vic.gov.au/edulibrary/public/stuman/wellbeing/SSG_Guidelines_2012.pdf

- Department for Education and Employment. (1998). The National Literacy Strategy: Framework for Teaching. London: Crown.

- Dobson, R., & Elliott, J. (2005). Dr Spock’s advice blamed for cot deaths. London: University College.
Source Internet : http://www.ucl.ac.uk/news-archive/in-the-news/may-2005/latest/newsitem.shtml?itnmay0504

- Dunn, R., & Dunn, K. (1987). Understanding learning styles and the need for individual diagnosis and prescription. Columbia, CT: The Learner's Dimension.

- Fister, S., & Kemp, K. (1993). “Translating research: Classroom application of validated instructional strategies”. In R.C. Greaves & P. J. McLaughlin (Eds.), Recent advances in special education and rehabilitation. Boston, MA: Andover Medical.

- Fox, M. (2005, August 16). Phonics has a phoney role in the literacy wars. Sydney Morning Herald, p.6.

- Gable, R. A. & Warren. S. F. (1993). “The enduring value of instructional research”. In Robert Gable & Steven Warren (Eds.), Advances in mental retardation and developmental disabilities: Strategies for teaching students with mild to severe mental retardation. Philadelphia: Jessica Kingsley.

- Gersten, R., & Guskey, T. (1985, Fall). Transforming teacher reluctance into a commitment to innovation. Direct Instruction News, 11-12.

- Gersten, R. (2001). Sorting out the roles of research in the improvement of practice. Learning Disabilities: Research & Practice, 16(1), 45-50.

- Gersten, R., Chard, D., & Baker, S. (2000). Factors enhancing sustained use of research-based instructional practices. Journal of Learning Disabilities, 33, 445-457.

- Haan Foundation. (2012). The federal education research project.
Source Internet : http://www.haan4kids.org/fed_proj/

- Hattie, J. A.C. (2009). Visible learning: A synthesis of over 800 meta-analyses relating to achievement. London and New York: Routledge.

- Hempenstall, K. (1996). The gulf between educational research and policy: The example of Direct Instruction and Whole Language. Behaviour Change, 13, 33-46.

- Hempenstall, K. (1999). The gulf between educational research and policy: The example of Direct Instruction and whole language. Effective School Practices, 18(1), 15-29.

- Jencks, C. S., Smith, M., Acland, H., Bane, M. J., Cohen, D., Ginits, H., Heyns, B., & Michelson, S. (1972). Inequality: A reassessment of the effect of family and schooling in America. New York: Basic Books.

- Leach, D. J. (1987). Increasing the use and maintenance of behaviour-based practices in schools: An example of a general problem for applied psychologists? Australian Psychologist, 22, 323-332.

- Lloyd, J.L. (2006). Teach effectively.
Source Internet : http://teacheffectively.com/index.php?s=meta+analysis

- Levin, B. (2010). Governments and education reform: Some lessons from the last 50 years. Journal of Education Policy, 25(6), 739-747.

- Lomax, R.G. (2004). Whither the future of quantitative literacy research? Reading Research Quarterly, 39(1), 107-112.

- Maggs, A., & White, R. (1982). The educational psychologist: Facing a new era. Psychology in the Schools, 19, 129-134.

- Marshall, J. (1993). Why Johnny can't teach. Reason, 25(7), 102-106.

- Medew, J. (2012). Push for tougher line on surgery. The Age, October 4, p.5.

- Mooney, M. (1988). Developing life-long readers. Wellington, New Zealand: Learning Media.

- National Inquiry into the Teaching of Literacy. (2005). Teaching Reading: National Inquiry into the Teaching of Literacy. Canberra: Department of Education, Science, and Training.
Source Internet : www.dest.gov.au/nitl/report.htm

- National Institute for Quality Teaching and School Leadership. (2005, August 25). National accreditation of pre-service teacher education.
Source Internet : http://www.teachingaustralia.edu.au/home/What we are saying/media_release_pre_service_teacher_ed_accreditation.pdf

- National Reading Panel. (2000). Teaching children to read: An evidence-based assessment of the scientific research literature on reading and its implications for reading instruction. Washington, DC: U.S. Department of Health and Human Services.

- Nous Group Consortium. (2011). Schooling challenges and opportunities: A report for the Review of Funding for Schooling Panel. Nous Group Consortium, August 29.
Source Internet : http://www.deewr.gov.au/Schooling/ReviewofFunding/Pages/PaperCommissionedResearch.aspx

- Poplin, M. (1988). The reductionist fallacy in learning disabilities: Replicating the past by reducing the present. Journal of Learning Disabilities, 21, 389-400.

- Primary National Strategy (2006). Primary framework for literacy and mathematics. UK: Department of Education and Skills.
Source Internet : http://www.standards.dfes.gov.uk/primaryframeworks/

- Rood, D., & Leung, C. C. (2006, August 16). Litigation warning as private school settles complaint over child's literacy. The Age, p.6.

- Rose, J. (2006). Independent review of the teaching of early reading. Bristol: Department for Education and Skills.
Source Internet : www.standards.dfes.gov.uk/rosereview/report.pdf

- Runciman, W.B., Hunt, T.D., Hannaford, N.A., Hibbert, P.D., Westbrook, J.I., Coiera, E.W., Day, R.O., Hindmarsh, D.M., McGlynn, E.A., & Braithwaite J. (2012). CareTrack: Assessing the appropriateness of health care delivery in Australia. Medical Journal of Australia, 197(2), 100-105.

- Shavelson, R. J., & Towne, L. (Eds.). (2002). Scientific research in education. Washington, DC: National Academy Press.

- Slavin, R. E. (2002). Evidence-based education policies: Transforming educational practice and research. Educational Researcher, 31(7), 15-21.

- Slavin, R. E. (2003). A reader's guide to scientifically based research. Educational Leadership, 60(5), 12-16.
Source Internet : http://www.ascd.org/publications/ed_lead/200302/slavin.html

- Slavin, R. E. (2004). Education research can and must address "What Works" questions. Educational Researcher, 33(1), 27-28.

- Slavin, R. E. (2008). Evidence-based reform in education: Which evidence counts? Educational Researcher, 37(1), 47-50.
Source Internet : http://search.proquest.com/docview/216905441?accountid=13552

- Smith, F. (1973). Psychology and reading. New York: Holt, Rinehart & Winston.

- Smith, F. (1992). Learning to read: The never-ending debate. Phi Delta Kappan, 74, 432-441.

- Spock B. (1946). The commonsense book of baby and child care. New York: Pocket Books.

- Stanovich, K. (1996). How to think straight about psychology (4th ed.). New York: Harper Collins.

- Stanovich, P. J., & Stanovich, K. E. (2003). How teachers can use scientifically based research to make curricular & instructional decisions. Jessup, MD: The National Institute for Literacy.
Source Internet : http://www.nifl.gov/partnershipforreading/publications/html/stanovich/

- Stone, J. E. (April 23, 1996). Developmentalism: An obscure but pervasive restriction on educational improvement. Education Policy Analysis Archives.
Source Internet : http://seamonkey.ed.asu.edu/epaa.

- The 1999 Omnibus Appropriations Bill (1998). The Reading Excellence Act (pp.956-1007).
Source Internet : http://www.house.gov/eeo

- Towne, L. (2002, February 6). The principles of scientifically based research. Speech presented at the U.S. Department of Education, Washington, DC.
Source Internet : www.ed.gov/nclb/research/

- U.S. Department of Education (2002, Jan). No Child Left Behind Act, 2001.
Source Internet : http://www.ed.gov/offices/OESE/esea/

- U.S. Department of Education (2003). Identifying and implementing educational practices supported by rigorous evidence: A user friendly guide. Washington, D.C.: Institute of Education Sciences, U.S. Department of Education.
Source Internet : http://www.ed.gov/print/rschstat/research/pubs/rigorousevid/guide/html

- Viadero, D. (2002). Research: Holding up a mirror. Editorial Projects in Education, 21(40), 32-35.

- Weaver, C. (1988). Reading: Progress and practice. Portsmouth, NJ: Heinemann.

- Weaver, C., Patterson, L, Ellis, L., Zinke, S., Eastman, P., & Moustafa, M. (1997). Big Brother and reading instruction.
Source Internet : http://www.m4pe.org/elsewhere.htm

- Whitehurst, G. J. (2002). Statement of Grover J. Whitehurst, Assistant Secretary for Research and Improvement, Before the Senate Committee on Health, Education, Labor and Pensions. Washington, D.C.: U.S. Department of Education.
Source Internet : http://www.ed.gov/offices/IES/speeches/

- Woodward, J. (1993). The technology of technology-based instruction: Comments on the research, development, and dissemination approach to innovation. Education & Treatment of Children, 16, 345-360.

- Zient, J.D. (2012). Use of evidence and evaluation in the 2014 Budget: Memorandum to the heads of executive departments and agencies. Executive Office of the President, Office of Management and Budget.
Source Internet : http://www.whitehouse.gov/sites/default/files/omb/memoranda/2012/m-12-14.pdf

 

Appendice

- Une excellente ressource pour commencer : The National Early Childhood Technical Assistance Center (NECTAC). NECTAC a compilé une liste de ressources sélectionnées sur la définition, la compréhension et la mise en œuvre de la pratique basée sur les données probantes. Des liens sont proposés et des ressources sont disponibles gratuitement, en ligne : http://www.nectac.org/topics/evbased/evbased.asp

- Eric Digests (http://www.ericdigests.org) a écrit de courts rapports 1000 – 1500 mots) sur des sujets essentiels en éducation. Un large éventail de thèmes est proposé : enseignement, apprentissage, charters-schools, éducation spécialisée, éducation supérieure, école à la maison et bien d’autres encore.

- The Promising Practices Network (http://www.promisingpractices.net) est un site Internet qui focalise sur les programmes et les pratiques que des recherches fiables repèrent comme efficaces pour l’amélioration des résultats des élèves, des jeunes, et des familles.

- Visible Learning Hattie, J. A.C. (2009). Visible learning: A synthesis of over 800 meta-analyses relating to achievement. London and New York: Routledge.

- Blueprints for Violence Prevention (http://www.colorado.edu/cspv/blueprints/index.html) est une initiative nationale pour la prévention de la violence consistant à identifier les programmes efficaces à faire baisser la violence des adolescents, crimes, agressions délinquance et toxicomanie.

- The International Campbell Collaboration (http://www.campbellcollaboration.org/Fralibrary.htm) offre un relevé systématique de revues de données probantes sur les effets des interventions sur le plan social, comportemental et éducatif.

- Social Programs That Work (http://www.excelgov.org/displayContent.asp?Keyword=prppcSocial) propose une série d’articles par la Coalition for Evidence-Based Policy sur des programmes sociaux soutenus par des preuves rigoureuses sur l’efficacité.

- Coalition for Evidence-Based Policy. (2003). Identifier et mettre en oeuvre  les pratiques éducatives soutenues par des preuves rigoureuses : un guide d’utilisation pratique. Washington, DC: U.S. Department of Education. Retrieved May 13, 2004. Suivre : http://toptierevidence.org/wordpress/

- Comprehensive School Reform Program Office. (2002). Recherches scientifiques et programme Comprehensive School Reform (CSR). Washington, DC: U.S. Department of Education. Retrieved May 13, 2004. Suivre : http://www.ed.gov/programs/compreform/guidance/appendc.pdf

- Florida Center for Reading Research a pour but de diffuser l’information sur les pratiques basées sur les données probantes en rapport avec la littératie et les évaluations des élèves depuis la maternelle jusqu’à l’âge de 12 ans. Suivre : www.fcrr.org/

- Le Department of Education’s American Institutes for Research a un nouveau guide 2005 qui utilise des critères scientifiques stricts pour évaluer la qualité et l’efficacité des méthodes d’enseignement de 22 écoles primaires. Les chercheurs de l’AIR ont conduit des revues considérables sur 800 études . Suivre : http://www.air.org/news/documents/Release200511csr.htm

- Les revues principales de la recherche primaire peuvent fournir plus de fiabilité à la valeur des programmes. Dans une méta-analyse du Department of US Education, Comprehensive School Reform and Student Achievement (2002, Nov), le Direct Instruction s’est vu attribuer le plus haut classement : la plus grande preuve d’efficacité, établie au niveau qualitatif, quantitatif, significatif statistiquement. Ses effets sont relativement forts et le modèle peut améliorer les résultats des élèves aux évaluations. Le modèle mérite certainement d’être connu, diffusé et d’être soutenu au niveau fédéral.

- Borman, G.D., Hewes, G.M., Overman, L.T., & Brown, S. (2002). Comprehensive school reform and student achievement : une méta-analyse. Report No. 59. Washington, DC: Center for Research on the Education of Students Placed At Risk (CRESPAR), U.S. Department of Education. Retrieved 12/2/03. Suivre : http://www.csos.jhu.edu./crespar/techReports/report59.pdf

- Le Council for Exceptional Children fournit des conclusions argumentées relatives aux pratiques professionnelles. Voir ce que dit sa série d’alertes sur l’enseignement de la conscience phonologique, les habiletés sociales, l’enseignement en groupe classe, le tutorat entre pairs, la récupération en lecture, l’évaluation formative, les évaluations de haut niveau, le Direct Instruction, l’apprentissage coopératif. Suivre : http://dldcec.org/ld_resources/alerts/

- Le Reading First Center de l’Oregon a fait une rencension et a évalué à programmes complets de lecture. Pour être considéré comme complet, un programme doit (a) s’adresser à tous les niveaux depuis la maternelle jusqu’au CE 2; et (b) contenir les 5 composantes de la lecture. Il y a Reading Mastery Plus 2002, Houghton Mifflin The Nation’s Choice 2003, Open Court 2002, Harcourt School Publishers Trophies 2003, Macmillan/McGraw-Hill Reading 2003, Scott Foresman Reading 2004, Success For All Foundation Success for All, Wright Group Literacy 2002, Rigby Literacy 2000. Ici:  Curriculum Review Panel. (2004). Review of Comprehensive Programs. Oregon Reading First Center. Retrieved 16/1/2005. Suivre : http://reading.uoregon.edu/curricula/core_report_amended_3-04.pdfhttp://www.peri.org.au/page/email_newsletter.html

- Le What Works Clearinghouse (http://www.w-w-c.org/) créé par le U.S. Department of Education's Institute of Education Sciences pour fournir aux éducateurs, décideurs et au public une source centralisée, indépendante et de confiance de preuves scientifiques de ce qui fonctionne en enseignement.

 


[1] . What Works Clearing House.

[2] . Evidence Based Practice ou pratique fondée sur les preuves (ou données probantes).

[3] . Méthode articulée autour de 3 principes : le principe sémantique (le sens), le principe syntaxique (la structure), le principe visuel (grapho-phonique).

[4] . Enquête nationale en littératie.

[5] . ERIC (Education Resources Information Center) est une ligne bibliothèque numérique de la recherche et de l'information de l'éducation. ERIC est parrainé par l'Institut des sciences de l'éducation du ministère de l'Éducation des États-Unis. Elle donne accès à 1,5 millions de notices bibliographiques (de citations, résumés, et d'autres données pertinentes) d'articles de journaux et d'autres documents liés à l'éducation, avec des centaines de nouveaux documents ajoutés chaque semaine.

[6] . Approche fournissant de nouveaux développements dans un domaine sans s’appuyer sur de nouvelles informations, mais plutôt une analyse ou synthèse de travaux déjà faits.

[7] . Loi sur les pratiques commerciales et en particulier sur la concurrence.

[8] . Test utilisé en médecine : il fait référence pour établir la validité d’un fait. Son but est d’être très fiable.

 
 
Une réalisation LSG Conseil.