Des évaluations mi-CP 2020 qui ne nous apprennent rien

| popularité : 19%
La Direction de l’évaluation, de la prospective et de la performance (DEPP) a publié sa note annuelle sur les évaluations de mi-CP 2020. Nous n’y apprenons malheureusement rien que nous ne savions déjà.
 
Les différences entre les résultats des élèves suivant leur lieu de scolarisation restent les mêmes : le privé fait mieux que le public ; le public hors éducation prioritaire fait mieux que le public en éducation prioritaire (EP).
Est-ce à dire que la politique de l’EP ne fonctionne pas ?
Pas forcément, car les élèves ne sont pas les mêmes.
Tout aussi ennuyeux, la note ne permet pas de mesurer l’efficience du dédoublement en terme de résultats scolaires.
 
On peut également s’interroger sur la pertinence des compétences choisies par la DEPP, ainsi que sur l’adéquation qu’il y a entre les compétences traitées et les exercices proposés :
 
En Français sont retenus :
  • identifier des mots rapidement, décoder aisément des mots inconnus irréguliers, reconnaître des mots fréquents et des mots irréguliers mémorisés ;
  • lire et comprendre des textes adaptés à la maturité et à la culture scolaire des élèves ;
  • lire à voix haute avec fluidité.
 
En Mathématiques, ce sont quatre des attendus des programmes qui sont évalués :
  • comprendre et utiliser des nombres entiers pour dénombrer, ordonner, repérer, comparer ;
  • nommer, lire, écrire, représenter des nombres entiers ;
  • résoudre des problèmes en utilisant des nombres entiers et le calcul ;
  • calculer avec des nombres entiers.
 
La question de savoir ce qu’il semblerait important d’évaluer pour un enseignant de CP à cette époque de l’année n’est jamais posée. Or ce sont bien les enseignants qui, en tant que professionnels de terrain, sont les plus à même de réfléchir à ce qu’ils peuvent attendre de leurs élèves au mois de février.
 
Il est également assez crispant de lire la façon dont les seuils sont construits dans la note : « Le travail mené avec des inspecteurs, des conseillers pédagogiques, des maîtres formateurs, des enseignants de grande section, de CP et de CE1, complété par le traitement statistique de la DEPP, avec l’appui du conseil scientifique de l’Éducation nationale et de la Direction générale de l’enseignement scolaire (DGESCO) a permis de déterminer ces seuils. »
Ainsi les seuils sont calculés en fonction des premiers résultats des élèves, ce qui fait que l’on peut faire dire aux évaluations tout ce que l’on veut en matière d’évolution des résultats d’une année sur l’autre ou entre le début et la moitié de l’année. Seule la comparaison entre les différents secteurs d’enseignement semble intéressante, car tous les élèves sont logés à la même enseigne même si les conditions de passation ne sont sans doute pas les mêmes suivant les territoires.
 
Ne serait-il pas intéressant d’avoir une photographie de l’hétérogénéité des classes suivant le secteur de scolarisation ? On sait que 70% des élèves en difficulté sont scolarisés hors EP mais que la concentration d’élèves en difficulté se situe en EP. Avec une telle photographie, on pourrait mieux voir les effets de la mixité sociale et se poser des questions sur les politiques éducatives à mettre en place.
 
Avec ces évaluations, le ministère s’est doté d’un outil inopérant qui n’a d’autre utilité que d’approuver sa propre politique éducative tout en ayant un coût en temps et en énergie sur le terrain. La confiance en les enseignants est totalement absente du protocole et leur expertise annihilée.
 
Pour le SE-Unsa, à l’issue de la crise sanitaire, dans le “monde d’après”, il ne faudra pas uniquement travailler sur l’école à distance dans des états généraux du numérique éducatif mais interroger plus globalement l’école sur son fonctionnement, ses missions, les leviers qu’elle possède réellement pour lutter contre les inégalités et la façon dont elle entre en interaction avec le reste de la société.