Évaluations CP/CE1 : l’inspection générale trouve difficilement des arguments positifs

| popularité : 75%
Un rapport de l’inspection générale (IG) vient de sortir sur les évaluations CP/CE1 suite à des observations faites lors des passations de septembre 2019. L’inspection propose des préconisations et peine à être positive alors que les écoles observées ont été choisies par les Dasen.

On connaît la propension de l’IG à rédiger des rapports dans lesquels les difficultés sont évoquées avec des mots choisis et euphémisants. À lire ce rapport, on peut se dire que les évaluations CP/CE1 sont loin d’avoir fait leurs preuves et de pouvoir être considérées comme des preuves scientifiques sur lesquelles appuyer une politique ministérielle ou une action pédagogique.
Un exemple : alors que les 43 écoles n’ont pas été choisies au hasard puisque retenues par les Dasen eux-mêmes et malgré la présence des IG dans les classes lors de la passation, les enseignants n’ont pas tous respecté les consignes de passation, les jugeant inadaptées.

Lors des entretiens avec les enseignants, ce sont les épreuves de mathématiques qui ont été les plus critiquées.  Celles de français semblent davantage correspondre à ce que des élèves de ces niveaux devraient savoir faire.

L’IG enjoint les concepteurs à revoir leur copie en mathématiques dont seule la moitié des exercices est appréciée par les équipes interrogées. Les améliorations apportées entre la première et la deuxième session n’ont pas suffi pour que les enseignants envisagent d’un bon œil ces évaluations.

Selon l’IG, le regard des équipes des écoles retenues dans le panel est généralement positif mais un tiers reste à convaincre.

Les documents d’aide fournis par Eduscol sont soit inconnus, soit inutilisés par la majorité des enseignants interrogés. C’est une des problématiques du protocole, il n’y a pas assez de temps dédiés pour que les enseignants s’en saisissent.

La transmission des résultats aux familles existe dans la majorité des cas même si des équipes s’y refusent, jugeant que les résultats ne reflètent pas le niveau des élèves.

Les conditions de passation sont très disparates suivant les moyens humains et matériels disponibles. Ce qui entraîne des doutes supplémentaires quant à la valeur scientifique des résultats en vue d’un pilotage académique voire national.
Le rapport pointe le flou de ce pilotage même sur le plan local :« Les évaluations ont-elles eu un impact sur les formations qui seront déployées cette année ? Des accompagnements vont-ils être organisés pour mieux aider les écoles qui accueillent les élèves les plus fragiles ? »

Ainsi, alors que ces évaluations sont présentées dans la communication officielle comme des supports essentiels pour déterminer des politiques de formation et d’animation pédagogique des circonscriptions et au sein des écoles, la mission ne constate pas d’effets de ces évaluations sur le pilotage pédagogique, sur l’ajustement des plans de formation. Ce qui est un comble, car si ces évaluations se révèlent peu utiles pour les enseignants dans leur classe et qu’elles ne sont pas exploitées par l’encadrement pédagogique, on ne voit pas au final à quoi elles peuvent bien servir.

Le SE-Unsa considère que ces évaluations devraient être au service des équipes pour l’amélioration du suivi des élèves les plus fragiles. Or, actuellement, de la conception à la passation, de nombreux paramètres empêchent ces évaluations d’être un outil pertinent. De nombreux exercices devraient être revus, des temps d’appropriation devraient être prévus pour les enseignants, des moyens humains également afin que les élèves puissent les passer dans de bonnes conditions. Enfin certains exercices sont encore trop longs et ne prennent pas en compte ce que les élèves sont en capacité de comprendre et d’exécuter.