> II- EDUCATION PRIORITAIRE (Politique. d’) : Types de documents et Pilotage > EDUC. PRIOR. TYPES DE DOCUMENTS > Educ. prior. Positions de chercheurs et d’experts ou ex-responsables du MEN > L’école obligatoire peut être mieux pilotée (3) (Marc Bablet)

Voir à gauche les mots-clés liés à cet article

L’école obligatoire peut être mieux pilotée (3) (Marc Bablet)

31 janvier 2019

Le premier degré peut être mieux piloté (3)

On a vu dans les précédents billets comment le pilotage du premier degré semble conçu par le ministère actuellement. On a cherché à comprendre les enjeux du pilotage et on a fait des propositions pour améliorer le processus. On veut maintenant revenir plus précisément à la question de la place de l’évaluation dans le pilotage.

L’évaluation des résultats des élèves est indispensable mais pas suffisante pour décider ce qu’il faut améliorer dans une politique éducative

Pour mieux piloter, l’analyse de la situation ne peut se suffire des statistiques de résultats des élèves comme le propose la gouvernance par les nombres, il faut aussi bien connaître ce qui se passe dans les académies, départements, circonscriptions, écoles et classes et le partager honnêtement. La domination de la gouvernance par les nombres depuis les années quatre vingt dix a fait beaucoup de mal à la réflexion pédagogique et éducative, la résumant souvent à des comparaisons de nombres, là où il faut construire des hypothèses explicatives. Il faut notamment disposer d’une analyse du travail réalisé actuellement véritablement par l’ensemble des acteurs sur tel ou tel sujet d’intérêt national. Or les « dialogues stratégiques » entre le niveau national et les académies ne parlent pas de cela. Il est significatif que rien ne soit retiré des rapports d’inspection que les IEN réalisent très régulièrement dans les classes (on peut dire la même chose pour ceux des IAIPR dans le second degré). Il est significatif que rien ne leur soit demandé sur l’état réel de l’art d’enseigner dans le quotidien des classes avant de prendre des décisions nationales ou académiques. On préfère gloser sur la prétendue méthode globale (ça paye auprès du grand public, dont il n’est heureusement pas si certain qu’il se laissera prendre pour un grand imbécile bien longtemps) que savoir quelles sont les manières réelles d’enseigner des enseignants du premier degré en France, lesquels ne sont évidemment pas associés à l’analyse de leurs propres pratiques dans cette perspective. Il faudrait aussi disposer de véritables analyses des conditions de l’enseignement (notamment l’expérience professionnelle des personnels) et des environnements socio culturels des écoles et collèges (notamment l’usage des ressources culturelles par les familles).
Si l’on regarde les positionnements respectifs des académies tels qu’ils apparaissent dans la « géographie de l’école » de la DEPP 3, on perçoit régulièrement que des académies comme Paris ou Rennes caracolent en tête des résultats des élèves, notamment en mathématiques tandis que les DOM, Amiens ou Créteil sont en queue de peloton par exemple à l’entrée en sixième. Or si l’on s’en tient à l’indice social, Amiens est plus bas dans le classement que Créteil. Il y a donc un problème spécifique à Créteil relativement à l’enseignement des mathématiques. La DEPP propose des outils de grande qualité qui ont été améliorés au cours du temps qui permettent – si l’on prend le temps nécessaire pour y travailler – de voir où sont les problèmes ; mais une fois que l’on a dit cela on n’a rien expliqué, or, pour agir, il faut expliquer et pour expliquer, il faut quitter les nombres et travailler sur des hypothèses explicatives. Qu’en est-il du recrutement des enseignants du premier degré, de leurs études antérieures, de leur formation ? Qu’en est-il de l’engagement en mathématiques des conseillers pédagogiques et des IEN ? Qu’en est il des pratiques mises en œuvre dans les classes en mathématiques ? Béatrice Gille (co-auteure du rapport de 2006), quand elle était rectrice de Créteil, a mis en place un observatoire des pratiques en éducation prioritaire 3, outil très intéressant pour aller plus loin sur les sujets qu’un tel observatoire se donne ou se voit donner chaque année. On pourrait aller plus loin en animant le collectif des inspecteurs et conseillers pédagogiques comme constituant un tel observatoire, cela permettrait que les rapports d’inspection soient désormais transformés en notes d’observation adaptées à une autre fonction que la notation individuelle. Cela permettrait que les observations conduites servent vraiment le système en favorisant des hypothèses explicatives sur les difficultés observées grâce aux données chiffrées. Outre que cela aurait un rôle à jouer dans la formation, comme nous l’avions proposé dans la refondation avec le développement d’observations croisées, cela permettrait à l’encadrement de voir quelles perspectives de travail ils doit se donner pour améliorer le fonctionnement du système. Je ne doute pas qu’individuellement certains inspecteurs et conseillers travaillent de cette manière mais je ne vois pas souvent des IA ou recteurs qui animent ainsi leurs collectifs d’inspecteurs. Il faut pour cela que les conseils d’inspecteurs soient des lieux d’échanges et non des lieux d’instructions descendantes. En ce moment malheureusement l’instruction descendante et le contrôle remontant sont à l’honneur…

Améliorer la politique d’éducation prioritaire en affinant la connaissance des besoins pédagogiques des élèves

Dans ces billets j’ai souvent défendu la refondation de l’éducation prioritaire, cela ne veut pas dire qu’il faille penser que tout va bien et que l’on peut se contenter de ce qui a été fait de 2013 à 2017. Je l’ai défendue parce que je vois un ministre qui ne s’y intéresse pas vraiment (La DGESCO n’est pas actuellement en situation de piloter quoi que ce soit) et qui pilonne le système avec des idées libérales parfaitement en contradiction avec ce que nous avons fait et au mépris de toute analyse rationnelle des besoins du premier degré aujourd’hui.

Pour améliorer la politique d’éducation prioritaire dans le premier degré aujourd’hui, il faut d’abord partager des constats, des analyses et partager une définition d’objectifs à atteindre nationalement ou localement en fonction de la diversité des réalités. Pour cela il faut réinterroger ce qui est d’ores et déjà envisagé. Il faut connaître la situation des apprentissages scolaires en éducation prioritaire et pouvoir les mettre en relation avec ce que l’on sait des raisons de cette situation. Pour cela les évaluations sont indispensables mais pas suffisantes comme on vient de le dire ci dessus.

Il est une autre fonction des évaluations qui est de permettre de se donner des objectifs qui entraînent les acteurs vers des réalisations favorables à l’atteinte des dits objectifs. Autrement dit, il faut se donner des objectifs à la fois ambitieux et réalistes.

Dans l’état actuel des écarts de résultats entre l’éducation prioritaire et le reste du système, la proposition de l’annexe de la loi de 2013 de ramener à moins de 10% les écarts de résultats entre l’éducation prioritaire et le reste du système au CM2 mériterait sans doute d’être nuancée car selon les disciplines et les territoires les écarts observés sont différents. Si l’on regarde ce qu’il en est pour la maîtrise de la langue, les évaluations CEDRE de la DEPP (note d’information 2016-20) 3 montrent la progression en cours : « Comme déjà observé en 2009, bien qu’il reste significatif, l’écart de performances entre l’éducation prioritaire (EP) et le public hors éducation prioritaire tend à se réduire en 2015. En 2003, cette différence était de 33 points ; en 2015, elle n’est plus que de 20 points, sans que la moyenne du public hors EP ne varie. » On pourrait donc dire que l’objectif d’un écart de 10 points est envisageable pour dans une douzaine d’année pour l’ensemble de l’éducation prioritaire. Mais il faudrait, en outre, distinguer REP et REP+ car les écarts sont toujours beaucoup plus importants en REP+ et on ne peut envisager de se donner un même objectif dans des environnements aussi différents. On risquerait de démoraliser les collègues des REP+ qui ne seraient pas en mesure d’atteindre des résultats qui sont envisageables en REP. Ceci n’empêche nullement de disposer d’un objectif national moyen.

De plus en plus les évaluations de la DEPP prennent en compte l’indice social en constituant des groupes et elles disent moins souvent le fait d’appartenir ou non à l’éducation prioritaire. Pour permettre le pilotage de l’éducation prioritaire, il faut demander à la DEPP de faire les deux et de systématiquement donner une bonne représentativité aux REP+ et aux REP dans les évaluations afin de pouvoir prendre en compte ces environnements spécifiques et de bien comprendre ce qui évolue ou pas dans les différentes disciplines. Il serait regrettable de ne pas pouvoir établir ces comparaisons dans l’ensemble des disciplines évaluées, d’une part pour fixer des objectifs pertinents au regard des résultats du public hors EP, d’autre part pour pouvoir comparer les évolutions dans le temps et estimer comment la politique porte ses fruits. Il est par exemple intéressant de voir grâce à la Note d’information 12-04 qu’en Anglais le score hors EP public passe de 251 à 270 entre 2004 et 2010 (évolution de 19 points) alors qu’il passe de 237 à 245 dans l’éducation prioritaire (évolution de seulement 8 points qui creuse l’écart entre EP et hors EP public, écart qui passe de 14 à 25) montrant que, sur la période, l’éducation prioritaire a régressé sur ce point. Il faudrait trouver des explications à ce phénomène pour pouvoir faire quelque chose d’utile de ces données.

Des évaluations qui correspondent bien au socle et aux programmes comme celles de CEDRE sont indispensables à une bonne perception des réalités des apprentissages. Le système éducatif a à la fois besoin de ce type d’évaluations de système et d’outils pour le pilotage local de la classe, de l’école, du réseau ou de la circonscription. En outre des suivis de cohortes sont tout aussi indispensables pour bien savoir quels élèves sont là au départ et à l’arrivée, pour suivre l’évolution des apprentissages dans les groupes pour comprendre les parcours mis en œuvre pour les élèves. Mais ces évaluations ne sauraient suffire si on ne connaît pas précisément quelles procédures d’enseignement, quelles conditions de l’enseignement et quelles réalités sociales de l’environnement contribuent à les expliquer. Pour cela il faut creuser l’analyse de situation en complexité. Les professionnels compétents, enseignants, inspecteurs et chercheurs doivent pouvoir y travailler.

Pour des évaluations diagnostiques vraiment pertinentes et bien utilisées

S’agissant de l’usage des évaluations pédagogiques diagnostiques, il faut plaider sans relâche pour qu’elles soient élaborées, comme l’ont été celles de 1989 à 2005 au CE2 et en 6ème avant que la droite casse ce dispositif (qui donnait satisfaction), avec un appui fort des enseignants qui sont les premiers experts des apprentissages de leurs élèves et avec l’appui des formateurs et des inspecteurs. Le matériel en question de 1997 à 2005 est encore disponible sur un site du ministère 3. Je ne peux qu’inviter les équipes à s’en emparer pour voir quels sont les exercices qui peuvent leur servir à mieux connaître les besoins de leurs élèves au regard de compétences essentielles comme la production d’écrit ou la résolution de problèmes. Si l’on veut une véritable appropriation des évaluations par les professionnels, il faut qu’ils soient associés au dispositif dès sa production. Il faut ensuite qu’ils puissent travailler en équipe sur l’analyse des résultats de leurs élèves comme nous l’avons fait à l’époque en travaillant ensemble professeurs des écoles et professeurs des collèges sur les productions du début de sixième. Il fut d’ailleurs très intéressant de faire passer les mêmes épreuves en fin de CM2 et en début de sixième et de voir comment les congés ont un effet qui peut amener les professeurs des écoles et ceux des collèges à ne pas toujours se comprendre car l’élève qui quitte le CM2 n’est pas, au regard de toutes les compétences, le même que celui qui rentre en sixième. Il est d’ailleurs intéressant de mettre en évidence que ces compétences considérées comme acquises en fin de CM2 et dont on observe qu’elles ne sont pas disponibles en début de sixième sont le plus souvent des compétences récemment acquises au CM2 qui n’ont pas eu le temps de se fixer et que les congés d’été très longs en France ont de fait réduit l’efficacité du contexte scolaire et ont contribué à faire oublier ce qui n’a pu se stabiliser.

Nous sommes nombreux à avoir utilisé les évaluations nationales à plusieurs fins et pour ma part je ne vois pas de difficulté à cela dès lors que l’on est très explicite sur ce que l’on fait. Le premier usage est pour observer la manière dont les élèves réalisent une tâche : dans ce cas ce n’est pas le produit de l’évaluation qui nous intéresse mais l’observation de l’élève entrain de réaliser la tâche que demande l’évaluation. Il est aussi intéressant de savoir auprès de l’élève comment il conçoit cette tâche. Je suis très favorable au travail conduit par « Apprenance » 3 qui s’appuie sur des entretiens avec les élèves au cours des tâches d’apprentissage ou d’évaluation pour aider les enseignants à bien saisir les difficultés que rencontrent les élèves dans leurs tâches scolaires.

Contrairement à ce que préconise actuellement le niveau national sur EDUSCOL, il ne s’agit pas de permettre la personnalisation des enseignements. Je ne crois pas possible qu’un enseignant établisse un programme de travail par élève même dans les CP à 12, en outre je ne trouve pas cela souhaitable. La logique de personnalisation repose sur l’idée que l’élève apprend seul dans un échange individuel avec le maître or nous savons bien que ce n’est pas ainsi que les choses se passent à l’école ni d’ailleurs en dehors de l’école. Il y a sur ce sujet des travaux très intéressants conduits par le GFEN 3. Ce qu’il s’agit de construire avec les évaluations pédagogiques, c’est une bonne représentation des besoins des élèves qui permettra de concevoir les activités de manière à ce que chacun y trouve ce dont il a besoin dans une dynamique collective. Il faut pour cela non seulement les résultats des évaluations mais la bonne compréhension des difficultés rencontrées par les élèves pour y répondre. Cela plaide pour que deux maîtres travaillent ensemble l’un qui assure la passation et l’autre qui observe les élèves au travail.

Un second usage doit permettre de voir où en est un groupe d’élèves à partir des résultats des épreuves proposées. Ainsi sait-on sur quelle hétérogénéité on peut s’appuyer, on peut réfléchir à comment on peut utiliser cette hétérogénéité comme cela est proposé dans le dossier de la DGESCO que j’ai déjà cité.

Un troisième usage doit permettre de situer l’école ou le réseau d’écoles, ou la circonscription par rapport à des références nationales qui sont des moyennes soit REP+, REP ou HEP ou pour l’ensemble du public. A partir de ces comparaisons que l’on peut conduire par matière, par exercice dans la matière ou par item dans l’exercice, on est à même de déterminer des objets de travail partagés qui peuvent donner lieu à des échanges de pratiques ou d’outils pédagogiques. On rejoint ici un dispositif très intéressant que la DEPP a abandonné pour des raisons qui restent obscures : PACEM 3 qui consistait a analyser en équipe les difficultés des élèves au moyen des évaluations, à former les collègues enseignants en conséquence des difficultés des élèves et à repasser des évaluations pour voir comment la situation avait évolué après un travail d’enseignement approfondi sur les compétences évaluées. Il ne s’agissait alors pas d’une évaluation à usage de l’encadrement mais d’une évaluation véritablement au service direct de la pratique pédagogique… On rejoint aussi ce que recommande le rapport de l’inspection générale sur le champ pédagogique 3 comme procédure de travail, les temps de travail collectif filés : « De manière générale, les formations les plus appréciées des enseignants et les plus réussies d’après ce que la mission a pu observer par ailleurs dans les classes sont celles qui s’inscrivent dans la durée. Ces formations filées peuvent se décliner de façon très diverse en fonction des contextes et du pilotage du réseau. » Ce type de formation permet comme PACEM de proposer que les évaluations soient vraiment au cœur de la pratique professionnelle.

Pour ceux qui souhaiteraient resituer ces propositions dans une présentation plus large de la question de l’évaluation je peux vous renvoyer à une conférence que j’ai donnée au centre Alain Savary. 3

Extrait de mediapart/fr du 30.01.19 : Le premier degré peut être mieux piloté (3)

 

Le blog de Marc Bablet (22 billets)

Répondre à cet article