Mesurer l'insertion des diplômés du supérieur : un exercice à haut risque !

Publié le : 27/09/2012


Mesurer l'insertion des diplômés du supérieur : un exercice à haut risque !

par Brigitte Blondet, MCF biologie, retraitée

Le choix des indicateurs de mesure de l'insertion produit des résultats fortement différents. Il convient donc d'en proposer une interprétation critique.

La loi LRU a ajouté l'insertion professionnelle aux précédentes missions du service public de l'enseignement supérieur et de la recherche. De plus, le décret d'avril 2009 sur le statut des enseignants- chercheurs stipule que ceux-ci « assurent la direction, le conseil, le tutorat et l'orientation des étudiants et contribuent à leur insertion professionnelle ». Parallèlement la LOLF exige des administrations qu'elles se fixent des objectifs et des indicateurs de performance. Les
universités sont donc évaluées en ce qui concerne l'insertion professionnelle de leurs étudiants, ce critère de performance étant pris en compte dans l'allocation des moyens aux établissements. La mesure de la « performance insertion » devient donc un enjeu pour chaque université et l'établissement d'indicateurs d'insertion un exercice périlleux ! Chaque université est tenue de produire des chiffres sur le devenir de ses étudiants. Mais il existe une grande diversité des indicateurs censés « mesurer l'insertion ». Situer les universités selon cette mesure suppose de choisir parmi de multiples options qui n'aboutissent pas au même classement(1).
Quelques exemples permettent d'illustrer les difficultés de l'exercice :

QUELS « TAUX » PRENDRE EN COMPTE POUR MESURER L'INSERTION DES ÉTUDIANTS ?

Ainsi que l'indique une publication du Céreq de septembre 2011(2), le taux de chômage des jeunes est souvent mal interprété. Il est, en effet, confondu avec la proportion de jeunes au chômage, alors qu'il ne se rapporte qu'aux seuls actifs et non à l'ensemble des jeunes. Des écarts de taux de chômage reflètent bien un accès plus ou moins facile à l'emploi, mais aussi la propension des jeunes considérés à poursuivre leurs études. Le taux d'emploi (population en emploi/ensemble de la population) semble plus pertinent.

QUEL RECUL CHOISIR POUR OBSERVER LE DEVENIR DES JEUNES DIPLÔMÉS ?

Le recul pris varie selon les enquêtes. Dans les rapports annuels de performance, le ministère de l'Enseignement supérieur mesure l'insertion trois ans après la sortie du système éducatif. Le ministère de l'Industrie, quant à lui, évalue au bout de douze à vingt-quatre mois l'insertion des diplômés des écoles d'ingénieurs. Beaucoup d'écoles de commerce ou d'ingénieurs choisissent un recul de quelques mois seulement. Le choix du recul observé n'est pas anodin, les repositionnements et les mobilités étant fréquents dans les deux ou trois premières années professionnelles. Il est évident aussi que toute comparaison entre des chiffres obtenus dans ces conditions variées est impossible.

QUELLE PRISE EN COMPTE DE LA QUALITÉ DE L'INSERTION ?

Là encore, plusieurs choix sont possibles. Pour les rapports annuels de performance associés aux lois de finance, seuls les emplois à un niveau cadre ou
profession intermédiaire sont pris en compte. Les autres emplois, considérés comme inadéquats pour un diplômé de licence ou plus, sont écartés. En revanche, le ministère de l'Industrie dans son évaluation de l'insertion des diplômés des écoles d'ingénieurs dont il a la tutelle prend en compte tous les emplois sans distinction.

COMMENT INTÉGRER LES EFFETS DE STRUCTURE OU DE CONTEXTE AUXQUELS SONT SOUMIS LES DIFFÉRENTS ÉTABLISSEMENTS ?

Comme l'ont montré les travaux du Céreq, le taux d'insertion ne peut, en l'absence de données sur la structure de la population étudiante (origine socioculturelle, parcours scolaire antérieur, sélection à l'entrée), ses niveaux de sortie, l'état du marché du travail local où se présentent les diplômés, servir à mesurer la performance des établissements. Or il n'y a pas de méthode réellement efficace pour isoler parfaitement les effets de structure ou de contexte. Le risque existe donc d'attribuer à la qualité des formations ou des établissements ce qui ne leur est pas imputable.
Ces quelques exemples illustrent bien les nombreux pièges que recèle l'établissement d'indicateurs de l'insertion professionnelle des étudiants. L'étude
de celle-ci nécessite sérieux et démarche scientifique. Les classements, les palmarès d'écoles d'ingénieurs, de commerce ou d'universités n'ont pas de sens dans l'absolu. Ils diffèrent selon les critères retenus. Le SNESUP ne peut accepter que « l'insertion professionnelle soit utilisée par le gouvernement pour promouvoir sa politique de l'excellence réservée à quelquesuns et pour moduler le financement des établissements en fonction de leur "performance"
»(3), c'est-à-dire au détriment des étudiants ». ?

(1) www.cereq.fr/index.php/publications/Comparer- les-universites-au-regard-de-l-insertion-professionnelle- de-leurs-etudiants.-
(2) « Harmoniser les mesures de l'insertion des diplômés du supérieur », Dominique Epiphane et Stéphane Jugnot, Bref du Céreq n° 291, septembre 2011.
(3) « Insertion professionnelle : une mission dévoyée », Michelle Lauton, VRS n° 387, octobre-novembre-décembre 2011.