> II- EDUCATION PRIORITAIRE (Politique. d’) : Types de documents et Pilotage > EDUC. PRIOR. TYPES DE DOCUMENTS > Educ. prior. Formation(s) et colloques > Educ. prior. Rencontres et productions OZP > Journée OZP 2021. Evaluer l’éducation prioritaire : 2) Intervention d’Anne (...)

Voir à gauche les mots-clés liés à cet article

Journée OZP 2021. Evaluer l’éducation prioritaire : 2) Intervention d’Anne Armand (texte et enregistrement audio)

1er décembre 2021

Journée nationale OZP du 27 novembre 2021.
40 ans d’éducation prioritaire, et après ?

Evaluer l’éducation prioritaire

L’enregistrement audio d’Anne Armand (17:33)

Ce texte reprend la seconde des deux interventions successives de Marc Bablet et Anne Armand sur le thème "Peut-on / Comment / évaluer les politiques d’éducation prioritaire ?"

 

Deuxième partie : Quels enseignements tirer du panorama que Marc Bablet a présenté sur les différentes évaluations de l’éducation prioritaire ?

Je vais répondre à travers trois questions :
  Qu’évalue-t-on ?
  Quand et pourquoi évalue-t-on ?
  Qui évalue ?

 

1) Qu’évalue-t-on ?

Si nous en avions le temps, je vous proposerais un jeu de devinettes : d’où sont tirées les expressions suivantes, des préconisations du rapport de 1997, de celui de 2006, ou du référentiel ?

 Un message politique fort : priorité et accompagnement, ambition et réussite scolaire
 Lutter contre l’effet ghetto
 Des projets ciblés, centrés sur les apprentissages
 Atténuer les ruptures, installer une continuité éducative
 Accompagner les enseignants, les reconnaître, les stabiliser
 Des pratiques pédagogiques efficaces bénéficiant de l’appui de la recherche
 Des initiatives en direction des familles
 Des recommandations en direction des partenaires

Vous feriez sans doute erreur, et j’ai moi-même été trompée, car elles sont toutes empruntées au rapport Moisan-Simon mais se retrouvent également en 2006 et 2013. On préconise donc toujours la même chose, selon les mêmes priorités (l’apprentissage du lire – écrire – s’exprimer / la centration sur les apprentissages / la continuité pédagogique / la politique RH / la relation école – famille / la relation avec les partenaires.

Ces répétitions traduisent une continuité forte, indépendamment du contexte politique. Elles traduisent les objectifs de l’éducation prioritaire et les repères possibles pour une évaluation : ces préconisations peuvent-être retournées comme autant de critère d’évaluation :
  Les projets sont-ils centrés sur les apprentissages ?
  Le collectif réussit-il à créer une continuité pédagogique ?
  Les acteurs sont-ils reconnus, soutenus par leur hiérarchie respective ?
  Les pratiques pédagogiques sont-elles questionnées à la lumière des acquis de la recherche, appropriées par le terrain ?
  Les familles sont-elles reconnues comme partenaires ?
  Les partenaires sont-ils partie prenante du collectif ?

Pour autant, quand on a les critères pour évaluer, en a-t-on les outils ?

Prenons l’exemple du premier critère : ambition et réussite scolaire. L’ambition est-elle là ? Quels outils de mesure pour répondre à cette question ?
 Se référer aux documents écrits comme le projet de réseau, les comptes rendus des réunions du conseil pédagogique ;
 Prendre en compte l’expression par les acteurs d’un réseau des enjeux collectifs ;
 Prendre en compte la qualité des indicateurs de réussite dont se dotent les acteurs (exemple dans l’enquête de l’OZP de la variété des réponses à la question de l’exigence pédagogique, voir table ronde).

La réussite est-elle là ? Même interrogation, même si a priori la réponse paraît plus facile à apporter :
 Mesurer les écarts de réussite entre le réseau (les écoles / le collège) et d’autres taux de réussite, mais
• Que vaut le rapport à une moyenne ? Une moyenne nationale est utile pour rappeler un horizon, pour laisser le réseau inscrit dans une dynamique (on en reparlera dans la table ronde sur l’exigence pédagogique) ; se référer à une moyenne nationale fait courir le risque du découragement chez les acteurs et du discours de condamnation chez les décideurs (l’éducation prioritaire ne sert à rien puisque les écarts continuent de se creuser).
 Mesurer les écarts par rapport au niveau de difficulté socio-culturelle et aux attendus (mesure de la plus-value), mais
• On sait que la population n’est pas stable dans les lieux d’éducation prioritaire, donc qu’une prise en compte d’une plus-value ou moins-value globale (indicateurs à l’entrée au CP, à l’entrée en 6ème, résultats aux évaluations nationales, au brevet, taux de passage en seconde et type d’orientation) n’a pas forcément de valeur scientifique.
• A-t-on vraiment les outils statistiques « toute chose étant égale par ailleurs » ? Pas pour le brevet (contrôle continu / épreuves ponctuelles), pas pour le passage en seconde (par exemple, poids des représentations des familles, des enseignants, des élèves eux-mêmes sur les orientations, richesse de l’offre scolaire de proximité, impact des compétences linguistiques – cas des élèves non francophones, effets genrés).
 Mesurer les écarts de réussite de chaque élève entre deux moments de sa scolarité (mesurer la progression)

En conclusion, et pour une évaluation raisonnée de l’éducation prioritaire, on peut dire que mesurer la réussite scolaire d’un réseau suppose d’évaluer dans un même mouvement des dynamiques, des contextes et des résultats.

• Si l’on s’en tient aux résultats bruts, on risque de se contenter d’un « ça marche ou pas » simpliste.
• On doit donc toujours prendre en compte les contextes de l’évaluation dans l’ensemble de leurs composantes : par exemple un même résultat peut-il donner lieu à la même interprétation s’il est obtenu dans un réseau où il y a 40% de contractuels et dans un autre où il y en a 7%.
• Il faut aussi bien penser à la dynamique à l’œuvre dans le pilotage et dans les mises en œuvre qu’au contexte d’exercice pour relativiser les résultats obtenus.
• Sur quoi les résultats observés et comparés doivent ils porter, des compétences découpées en morceaux ou des compétences larges comme « comprendre », « écrire » ?

 

2) Quand et pourquoi évalue-t-on ?

J’insisterais d’abord sur les enjeux politiques spécifiques du système français.

Nous sommes habitués à voir régulièrement le nouveau ministre annoncer qu’il se démarque de son prédécesseur et lance une nouvelle politique éducative (ou relance une politique antérieure … contre la précédente). Par exemple récemment le remplacement de la mesure « Plus de maîtres que de classes » à celle du dédoublement des CP-CE1.

Je prends un autre exemple sur lequel on a tout le recul nécessaire : le passage des Réseaux Ambition Réussite (RAR) aux Collèges Lycées, puis aux Écoles, Collèges Lycées pour l’Ambition, l’Innovation et la Réussite (CLAIR puis ECLAIR).
  A la rentrée septembre 2010, le programme CLAIR est lancé dans 105 collèges et lycées et 10 académies (deux repères, la création du préfet des études, en remplacement du professeur référent, et du contrat d’objectifs). Le programme se fonde sur le discours du ministre en clôture des États généraux de la sécurité à l’école (8 avril 2010) et est présenté dans la circulaire DGESCO n° 2010-096 du 7 juillet 2010 (BO du 22 juillet 2010).
  Une mission d’inspection générale (IGEN – IGAENR) est lancée, pour suivre l’expérimentation. Le calendrier de travail habituel des inspections générales fait qu’une mission ne va pas trop tôt sur le terrain (le temps que la rentrée se fasse, que l’expérimentation se mette en route) ; et pour rendre une note au ministre en juin, la rédaction doit en être terminée au 15 mai. Les pilotes de la mission demandent donc recevoir les rapports des membres de la mission au plus tard pour le 15 avril. Les observations et les prises d’information sur le terrain se terminent donc au plus tard fin mars. Un semestre, au maximum, d’observation permet un suivi, et pas une évaluation.
  La note est rendue au ministre en juin (n° 2011-069 – juin 2011).
  A la rentrée 2001, l’expérimentation est élargie à toutes les académies et à 297 collèges et 28 lycées et aux écoles primaires (la liste publiée au B.O occupe 46 pages) dont presque tous les RAR qui étaient demeurés en l’état en 2010-2011 (B.O. du 27 juillet 2011).
  Le 9 janvier 2012, une lettre de mission est envoyée à l’inspection générale pour suivre l’élargissement du programme CLAIR aux écoles et collège Ambition Réussite pour devenir le programme ECLAIR.

Cette intrication entre politique et éducation n’est pas la même dans les autres pays. Lors de la conférence de la SICI (association internationale des inspecteurs généraux) de novembre 2017, j’ai présenté une diapositive à mes collègues étrangers, qui ont manifesté leur surprise : il n’y avait aucun rapport entre les priorités données à l’inspection générale de la rentrée 2014 à la rentrée 2017 (Les enseignements pratiques interdisciplinaires (EPI) au collège - L’accompagnement personnalisé (AP) école – collège - Le cycle 3 en CM1 – CM2 – 6ème) et celles qui ont été données en septembre 2017 (Les CP dédoublés - L’orientation des élèves dans l’enseignement supérieur - Le baccalauréat - L’apprentissage (voie professionnelle).
– nouveau contrat

La conclusion de cette diapositive était claire : le politique ne se fonde pas sur de vraies évaluations pour décider de ses orientations. Et nous étions loin, en France, du schéma d’un suivi des préconisations :
• Inspection – diagnostic – identification des leviers et des freins
• -> Préconisations – contrat de progression
• -> Accompagnement – nouvelle inspection : mesure des changements – nouveau contrat

Il faut donc toujours se demander dans quel contexte intervient une évaluation.

Et heureusement, l’évaluation a de vraies fonctions : elle est un outil de pilotage. Elle sert à :
• vérifier que la politique est effectivement mise en œuvre à chacun des niveaux : un préalable indispensable pour ne pas parler dans le vide ;
• valider la politique, la conforter ;
• faciliter des réorientations ;
• valider certaines manières de la mettre en œuvre ;
• mettre en évidence des façons meilleures que d’autres ;
• réguler l’action nationale, locale, du réseau, dans les classes.

Enfin, l’évaluation est un outil militant.
  En exemple, on pense à l’évaluation conduite par l’OZP concernant les retombées de la refondation de 2013 : l’association s’est substituée au ministère qui n’a pas mis en œuvre l’évaluation prévue par la loi « au bout de cinq ans » de la refondation, qui aurait dû être conduite en 2019.
  On pense aussi à l’évaluation de la formation des maîtres, conduite par le Centre Alain Savary, comme aux évaluations réalisées par les syndicats professionnels.

 

3) Qui évalue ?

Vous connaissez les instances traditionnelles :

• La DEPP : évaluation statistique (indicateurs)
• L’IGEN : évaluation qualitative (dire d’experts fondé sur l’observation du terrain)
• L’IGAENR : évaluation quantitative
• La DGESCO : évaluation par enquête déclarative
• Le CNESCO : évaluation par collation de résultats de chercheurs
• La Cour des Comptes : évaluation par examens des comptes et des rapports.

Depuis une dizaine d’année émerge un élément nouveau : la reconnaissance des acteurs de terrain dans le domaine de l’évaluation comme dans la conduite des politiques éducatives.

Je cite le propos de Christian Maroy, interviewé pour présenter la conférence internationale sur la gouvernance des politiques éducatives du CNESCO (citation de l’Expresso du Café pédagogique du 15 novembre 2021) (c’est moi qui souligne les termes mis en italiques) :

« Toute politique éducative (…) ne peut être efficace que si elle est effective, réellement mise en œuvre par les acteurs de terrain concernés, souvent les enseignants en cas de réforme pédagogique. Elle implique qu’ils acceptent d’adopter les changements proposés ou imposés, car dans leur métier complexe, l’autonomie de jugement et de décision est incontournable. La recherche est très convergente à ce sujet. Elle souligne dès lors à quel point il importe que la politique soit légitime à leurs yeux, sous plusieurs angles : elle doit être acceptable sur le plan moral de ses finalités et valeurs ; elle doit leur paraître crédible sur le plan de l’argumentaire du changement (fondements théoriques de la pratique proposée par ex.) ; surtout, le changement proposé doit être plausible, faisable, compte tenu des conditions concrètes, des contraintes et urgences de leurs pratiques. Cette légitimité "de terrain" est la plus difficile à rencontrer. Les décideurs politiques défendent souvent les réformes en faisant appel à des valeurs consensuelles (réussite des élèves etc.) et s’appuient sur les recherches scientifiques pour justifier leur pertinence ou leur efficacité. Cela ne suffit pas. Il faut créer les conditions pratiques favorables au changement et faire place à cet effet aux connaissances des acteurs de terrain. Ainsi, la légitimité est une condition de l’effectivité et au-delà une des conditions de l’efficacité d’une réforme.

Dernier point enseignement du panorama présenté par Marc Bablet, sous la forme d’une question : vit-on la fin d’une époque ? Je parle ici de la réforme de l’inspection générale et de sa compétence traditionnelle en matière d’évaluation.

Je cite cette fois une note de l’OZP, mise en ligne le 3 novembre 2021 :

« Actuellement il n’existe pas à l’Inspection générale de "collège" spécifiquement dédié à l’éducation prioritaire. Celui qui semble le plus s’en rapprocher est le "collège Établissements, territoires et politiques éducatives" (voir composition ci-dessus) qui couvre un champ beaucoup plus large et composite mais dans lequel on relève quelques noms d’inspecteurs généraux ayant participé à des rapports sur ce domaine ou sur des domaines proches comme la pauvreté.

L’organigramme officiel de l’Inspection générale n’a jamais comporté de groupe Éducation prioritaire. Cependant, à l’initiative en 2007 d’Anne Armand, auteure de deux rapports sur l’EP, puis en 2011 du doyen Erick Roser et en 2016 de la doyenne Anne Armand, ont été créés, en superposition des groupes disciplinaires et de spécialités mais en dehors de l’organigramme officiel, des groupes "d’étude et d’expertise" dans le domaine de l’éducation prioritaire.

Ces groupes transversaux permettaient aux IG qui en faisaient partie d’assurer une veille sur l’éducation prioritaire, de se rencontrer et de partager leurs retours de terrain sur ce dispositif.

Depuis la réforme de l’inspection générale, ces groupes ont cessé d’exister et le collège actuel "Établissements, territoires et politiques éducatives" comprend trop d’inspecteurs (près d’une soixantaine) et a en charge des domaines trop nombreux et disparates pour pouvoir consacrer une attention suffisante à la seule l’éducation prioritaire. (Site OZP – QZ 3 novembre 2021) »

 

Pour conclure : Qu’attendons-nous comme évaluation ?

  La mise à disposition des éléments d’information pour permettre le débat entre professionnels et avec le public avant tout infléchissement de la politique (le contraire de 2010 et de 2017).

  Une évaluation en continu en vue de l’amélioration des pratiques utiles à la réussite de tous niveaux.

Quel changement de modèle cela induit-il ?

Passer d’un modèle descendant (le nouveau gouvernement vient avec sa politique déjà décidée et la met en place, modèle 1981, 1988, 2010 et 2017), ou du modèle intermédiaire (le nouveau gouvernement demande des rapports pour infléchir sa politique et en tient plus ou moins compte, modèle de 1992, 1997, 2006)

-> pour tendre vers un modèle démocratique : le nouveau gouvernement veut savoir dans quel sens il est souhaitable d’infléchir la politique publique et demande des informations sur le sujet à partager avec les professionnels et le public (par exemple, utilisation de convention citoyenne). Les professionnels les parents et partenaires, les inspections, la recherche contribuent et débattent. La nouvelle politique est définie avec les mêmes interlocuteurs puis des arbitrages politiques sont décidés sur certains points après débat (la refondation est ce qui s’en rapproche le plus).

Anne Armand

 

Voir les autres comptes rendus de la journée déjà en ligne
en particulier Journée OZP 2021. Evaluer l’éducation prioritaire : 1) Intervention de Marc Bablet (texte et enregistrement audio)

Répondre à cet article