Dossiers / Pédagogie / Évaluation des apprentissages

Évaluer bien pour décider bien : choisir nos référents



Capsule préparée par M. Robert Howe, consultant en pédagogie de l'enseignement supérieur, spécialiste en évaluation.

On le sait : les lecteurs de la présente Infolettre sont tous des décideurs. Enseignants, conseillers pédagogiques, cadres de collèges sont, dans l’action, des décideurs. S’il est bien entendu dans la perception de tous que les cadres prennent continuellement des décisions, les enseignants sont aussi des décideurs dans le quotidien. Dès le début des années ’90, des recherches ont établi que les enseignants prennent en salle de classe une décision toutes les trois minutes 1 . D’ailleurs, dès cette époque, Philippe Meirieu qualifiait les pédagogues de décideurs dans un processus qui, vu d’aujourd’hui, aurait été qualifié d’aide à la réussite (cité par Hadji, 1990 )2.

Prendre une décision, c’est s’appuyer sur une évaluation. C’est porter d’abord un jugement professionnel. Prendre une bonne ou une mauvaise décision, c’est s’appuyer sur une bonne ou une mauvaise évaluation. On sait qu’évaluer consiste à porter un jugement professionnel. Mais sur quoi se fonde ce jugement? Et comment y trouve-t-on la source d’une bonne ou d’une mauvaise décision?
DeKetele (2009) définit l’évaluation comme une comparaison entre un ensemble d’informations et un ensemble de critères en vue de prendre une décision 3. Cette définition est celle que j’utilise dans mes cours depuis des années. Elle dit tout simplement que, quand on évalue, on compare.

En amont de la décision et de l’action, il y a toujours un processus de comparaison. Et ce sera cette comparaison qui va guider le jugement professionnel. Mais si l’évaluation consiste en une comparaison, cela pose la question de savoir à quoi je compare? Et c’est ici qu’entrent en jeu les référents. La documentation nomme deux sortes de référents : les normes et les critères.

Lorsque je fais une comparaison, je me réfère à quoi? À une norme ou à un critère?

On fait une évaluation normative lorsqu’on compare les individus4 entre eux. L'étudiant est plus grand que, plus petit que, plus rapide que, au dessus de la moyenne, en bas de la moyenne, etc. Par contre, on fait une évaluation critériée lorsqu’on compare un individu à un critère externe et objectif, par exemple un critère de performance. Edward Haertel (2006) fait une excellente étude des nuances entre ces deux approches dans le contexte de l’interprétation des résultats et des décisions à prendre5.

Prenons l’exemple d’un cours de conduite automobile. Sur la route, l’instructeur pourrait évaluer de façon normative en concluant que Pierre conduit mieux que Julie, et que tous deux sont au dessus de la moyenne des apprentis. Mais ce même instructeur fera une évaluation critériée s’il compare la conduite de Pierre au critère « sans accident, en gardant une distance sécuritaire et en ayant un comportement de conduite préventive ». Donc, l'évaluation critériée consiste à comparer la conduite de l'étudiant à cette description d'une conduite automobile dans les conditions prescrites (ici, dans un contexte dit authentique).

Quelles sont les pratiques des enseignants, aujourd’hui? Dans les collèges, fait-on de l’évaluation normative ou fait-on de l’évaluation critériée? La réponse est simple: les enseignants de cégep font les deux. Nous évaluons d’abord de façon critériée, à savoir si l'étudiant a atteint les objectifs prévus au plan de cours, à la hauteur des standards adoptés (critères de performance et conditions de réalisation). Ces standards sont les référents à partir desquels on va faire notre comparaison, lorsqu’on veut porter un jugement. Ici, les enseignants font de l'évaluation critériée. Mais ils font aussi, fréquemment, de l'évaluation normative. On va calculer la moyenne de la classe et on va comparer les étudiants à cette moyenne. Untel est au dessus de la moyenne, un autre est en bas de la moyenne. Les cégeps le font dans les bulletins, le Ministère aussi le fait. Lorsque l'on calcule la cote R ou son ancêtre la cote Z, on fait toujours de l'évaluation normative, puisque les étudiants y sont comparés aux autres étudiants d'une certaine cohorte. Donc, l'évaluation normative et l'évaluation critériée sont deux approches qui cohabitent spontanément dans nos pratiques régulières au collégial. Ce sont deux façons utiles et pertinentes de décrire ce qui est, à partir de deux angles de vue différents.

Mais revenons aux critères et à l’évaluation critériée. Tous les programmes du Ministère sont conçus de façon à focaliser notre attention d’abord sur des compétences à développer (ce qu’on aura convenu de désigner comme étant l’approche « par compétences », par distanciation d’une « approche par contenu » ou « approche disciplinaire »). Et toutes les compétences prévues aux programmes sont caractérisées, dans les devis ministériels d’abord puis dans les plans cadres locaux ensuite, par des jeux de critères qui, avec les « conditions de réalisation » constituent les standards à hauteur desquels nous amenons nos étudiants en fin de programme.

Scallon (2004, pages 229-230), décrit bien les caractéristiques nécessaires des critères d’évaluation6. Leroux (2010, chapitre 2) situe clairement les critères d’évaluation dans le cheminement de l’évaluation des compétences7 . Côté (2014, page 59) décrit aussi le concept de critère d’évaluation et le conjugue avec la notion d’indicateur observable et mesurable8 .

Dans une conférence TED de 2005, le psychologue américain Dan Guilbert a présenté une discussion fort intéressante (et pleine d’humour) du processus de décision (voir Why we make bad decisions » sur http://www.ted.com/talks/dan_gilbert_researches_happiness  ). Lui aussi affirme que toute décision est le fruit d’une comparaison. Et qu’une décision sera dite bonne ou mauvaise en fonction des critères sur lesquels on fondera cette comparaison. Entre autres, il donne l’exemple de la décision d’acheter un billet de loterie. Selon Guilbert, je prendrais une mauvaise décision si je fondais celle-ci sur mes probabilités de gagner à cette loterie, les économistes ayant démontré que ces probabilités sont minimes. Mais je prendrais peut-être une bonne décision si je me fondais sur le confort psychologique que me procurera cette dépense pendant le mois d’attente où je suis dans l’espoir. Ici, ma décision de dépenser ce $20 en billet de loterie sera « bonne » ou « mauvaise » en fonction du critère sur lequel je fonde mon jugement : un critère d’économiste ou un critère de psychologue…

Ainsi, dans tous les cas, nos décisions se fondent sur notre jugement et ce jugement, à son tour, se fonde sur une comparaison à un critère d’évaluation. Autre critère, autre jugement, autre décision. Le choix des critères d’évaluation, on le voit tout de suite, est déterminant. C’est pourquoi plusieurs auteurs, dont Scallon et Côté (op cit.), nous recommandent, lorsque nous prenons des décisions dans des contextes professionnels, d’appuyer les critères d’évaluation sur des consensus d’équipe. Un consensus en assemblée départementale, un consensus en comité de programme, un consensus en équipe de direction. Même si tous conviennent que consensus ne signifie pas unanimité, on accepte généralement que ce consensus d’équipe va conférer à toute décision la légitimité et la validité que nous en attendons. Prendre une « bonne » décision, c’est d’abord évaluer correctement et les bonnes pratiques en évaluation recommandent de ne pas lésiner sur le choix de nos critères d’évaluation.

----- 30 -----

Tout commentaire ou suggestion de votre part sera bienvenu. Vous pouvez les adresser à howerobert@sympatico.ca.
Rédacteur : Robert Howe, consultant en pédagogie de l'enseignement supérieur, spécialiste en évaluation

Références :

 1. Stiggins, R. (1991). Relevant classroom assessment training for teachers. Educational Measurement: Issues and Practice. 10 (1), 7-12

 2. Hadji, C. (1990). L’apprentissage assisté par l’évaluation : Mythe ou réalité. Cahiers pédagogiques. No. 281, 20-23.

  3. Jean-Marie De Ketele, Xavier Roegiers. (2009). Méthodologie du recueil d’informations : Fondements      des méthodes d’observation, de questionnaires, d’interviews et d’études de documents. Bruxelles. De Boeck Supérieur, 4ième édition. 2009. page 34.
 4.  Notons ici que le mot « individu » doit être entendu dans son acception la plus inclusive : Comme en statistiques, ce mot réfère à des « unités », autant des arbres fruitiers que des spécimens géologiques que … des personnes. Évidemment, dans notre contexte scolaire, on pensera spontanément aux étudiants ou, si on est cadre, à des membres du personnel, par exemple.

  5. Haertel, E. H. In: Brennan, R., ed. (2006) Educational Measurement, 4ième édition. American Council on Education. Chapitre 3: Reliability. Pages 66-67

 6. Scallon, G. (2004). L’évaluation des apprentissages dans une approche par compétences. Saint-Laurent : Éditions du renouveau pédagogique. 342 p.

 7.  Leroux, J.L. (2010b). L'évaluation des compétences au collégial : un regard sur des pratiques évaluatives. Saint-Hyacinthe : Cégep de Saint-Hyacinthe. Rapport de recherche PAREA.

 8. Côté, France (2014). Construire des grilles d’évaluation descriptives au collégial. Guide d’élaboration et exemples de grille. Presses de l’Université du Québec.  168 pages.





 
NOUVEAU

Les alertes du Portail

Le Portail est fier de vous offrir un tout nouveau service d'alertes. Recevez un résumé quotidien de ce qui a été publié sur le portail, ou des notifications instantanées par courriel sur des sujets qui vous intéressent.

 
 
>> lescegeps.com/alertes
 
 

 




Les partenaires du Portail