La fonction dvaluation dans ladministration publique qubcoise

Transcription

La fonction dvaluation dans ladministration publique qubcoise
Pernelle Smits
Steve Jacob
La fonction d’évaluation dans
l’administration publique
québécoise : analyse de la
cohérence du système d’actions
Sommaire : Cet article analyse la fonction d’évaluation dans l’administration
publique du Québec au cours des années 2000 comme un système organisé
d’actions (valeurs, environnement, ressources et modalités, pratique, effets) avec
ses cohérences et incohérences. Trois constats émergent : les activités de soutien de
la pratique évaluative de la part des ministères centraux sont quasiment absentes,
la transparence auprès des citoyens dans le processus évaluatif est peu présente, la
réalisation et l’utilisation d’évaluations de portée stratégique parait peu fréquente.
Cet article met en évidence certaines cohérences et incohérences d’une fonction de
gestion, et propose une façon directe et systématique de souligner les points à
améliorer.
Abstract: In this article, we analyze the evaluation function within the Quebec
public administration during the 2000s as an organized action system (values,
environment, resources and procedures, practice, impacts) with its consistencies
and inconsistencies. Three findings emerge: the support that central agencies give
to the evaluation practice is almost non-existent; the transparency of the evaluation process for the citizens is barely noticeable; and the undertaking and use
of the strategic use of evaluations seem rare. This article brings the attention to
some consistencies/inconsistencies of the management function, and suggests a
direct and systematic way to highlight what needs to be improved.
Introduction1
e
« En ce début de XXI siècle, en Occident, la folie sociale a pris un nouveau nom, celui
d’ÉVALUATION » (Abelhauser, Gori et coll. 2011)
Comment faire pour que la fonction d’évaluation soit plus utile aux
administrations publiques et à l’action publique? Comment faire pour que
l’information produite soutienne le fonctionnement d’une administration
publique efficace?
Pernelle Smits est chercheure à l’ÉNAP et aussi rattachée à l’Université de Montréal. Steve Jacob
est professeur à la Faculté des sciences sociales, Département de science politique, Université
Laval. Cet article n’aurait pu se faire sans la contribution de quelques collaborateurs,
notamment la Direction des études et analyses en dépenses publiques du Secrétariat du Conseil
du Trésor, dont nous soulignons la bonne volonté à contribuer à la réflexion, la disponibilité,
l’œil averti et le professionnalisme dans cette collaboration. Nous les remercions.
CANADIAN PUBLIC ADMINISTRATION / ADMINISTRATION PUBLIQUE DU CANADA
VOLUME 57, NO. 1 (MARCH/MARS 2014), PP. 71–96
© The Institute of Public Administration of Canada/L’Institut d’administration publique du Canada 2014
PERNELLE SMITS, STEVE JACOB
Une réflexion sur la cohérence d’un ensemble de ressources, actions,
système de valeurs et culture organisationnelle basée sur la gestion axée
sur les résultats peut être informée par l’étude de l’action sociale.
Plusieurs théoriciens de l’action sociale se sont penchés sur les théories
qui permettent de décrire et de comprendre l’action individuelle et
sociale (Talcott 1977; Bourdieu et Wacquant 1992). Sicotte et coll. (Sicotte
1998; Sicotte 1999) proposent un cadre d’analyse de l’action sociale qui
prend place dans le contexte de la vie organisationnelle plutôt que
sociétale. Ce cadre a l’intérêt d’être à la fois intégrateur et
opérationnalisé et propose qu’un système organisé d’actions soit compris
comme un arrangement de moyens, de ressources et de modes de production, de valeurs et de capacités d’adaptation à l’environnement. Il
vise à atteindre des objectifs organisationnels. En reprenant ce découpage
du fonctionnement organisationnel, nous proposons d’examiner la
fonction d’évaluation de l’administration publique québécoise sous ces
mêmes aspects, c’est-à-dire l’environnement et les valeurs, les ressources
et les modalités de production, ainsi que la pratique évaluative et ses
effets.
Lorsqu’un système d’actions est organisé, c’est-à-dire qu’il existe une
cohérence entre ses composantes, il possède la capacité de modifier la
trajectoire des évènements. Ainsi, une fonction d’évaluation au Québec qui
répondrait aux critères d’un système organisé d’actions aurait la capacité
d’influencer certains aspects administratifs comme le devenir des programmes ou l’allocation des budgets dans le contexte de l’administration
publique québécoise.
Le présupposé du cadre des systèmes organisés d’action est que tout
système organisé est plus efficace dans l’atteinte de ces finalités et sera
pérenne si les ajustements se font entre les composantes du système. Une
fonction d’évaluation dont les ressources, les modalités, les valeurs, la
pratique et les finalités sont cohérentes serait plus performante.
Cet article se concentre sur le cas de la fonction d’évaluation au sein des
ministères de l’administration publique du Québec. L’essor de l’évaluation
est concomitant avec l’introduction du système de budgétisation de programme au Québec (Marceau, Otis et coll. 1992). Le Québec a subi
plusieurs vagues de réformes concernant la fonction d’évaluation entre les
années 1970 et 2000 (Marceau, Otis et coll. 1992; Marceau, Otis et coll. 1992;
Marceau 2007) avec un soutien politique variable (Marceau 1994). Le cadre
de gestion axée sur les résultats est introduit au Québec par la Loi sur
l’administration publique (LAP) adoptée en 2000 (Gouvernement du Québec
2000). Cette loi ne mentionne pas explicitement l’évaluation, mais insiste
sur les principes d’atteinte des résultats en fonction d’objectifs
préalablement établis, de reddition de comptes portant sur la performance
dans l’atteinte des résultats et d’utilisation optimale des ressources (article
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
2). En 2002, le Conseil du Trésor édictait des orientations relatives à la
fonction d’évaluation de programme dans les ministères et organismes
(Conseil du Trésor du Québec 2002).
L’information disponible concernant le suivi de la mise en œuvre de la
LAP suggère que de nombreux programmes sont mis en place sans être
revus, que l’attention porte principalement sur le suivi des processus plutôt
que sur les résultats des programmes, et que les recommandations des
rapports ne semblent pas engendrer de changements majeurs sur
l’ajustement des programmes ou des budgets.
Plusieurs auteurs se sont penchés sur certaines dimensions de la
fonction d’évaluation dans différents pays. Ainsi, les politiques
d’évaluation, les profils des évaluateurs, les mécanismes mis en place ont
été rapportés en Amérique du Nord, en Europe, Asie, Afrique, Amérique
Latine (Weiss 1979; Marceau et Turgeon 1994; Furubo 2002). Nous
proposons d’étudier l’ensemble des dimensions de la fonction d’évaluation
pour une même administration publique. L’analyse porte ici sur un niveau
microscopique de la cohérence des dimensions qui composent la fonction
d’évaluation plutôt que sur la cohérence horizontale entre la fonction
d’évaluation, de planification, de budgétisation, ou verticale entre les
niveaux de responsabilités gouvernementales.
Afin d’analyser la fonction d’évaluation au Québec, plusieurs niveaux
d’analyse sont envisageables. Il est possible de partir du plus spécifique
pour aller vers le plus général en observant d’abord la situation dans les
ministères, puis au niveau exécutif ou gouvernemental, voire de l’État
québécois dans son ensemble. Dans cette étude, nous nous nous
concentrons sur la fonction d’évaluation dans les ministères. Par ailleurs,
la perspective empruntée est organisationnelle et les concepts du cadre
analytique sont appliqués à l’ensemble des ministères, par exemple,
les ressources en évaluation des ministères, la pratique d’évaluation
dans les ministères par les évaluateurs, directeurs et gestionnaires
d’évaluation, plutôt que de s’intéresser aux ressources en évaluation des
pouvoirs législatif, exécutif et judiciaire. Nous examinons en priorité le
fonctionnement intra ministériel au niveau des employés, plutôt que les
dynamiques politiques qui auraient pu mobiliser d’autres perspectives
théoriques que celle retenue dans ce travail.
En bref, cet article propose un cadre d’analyse de la fonction de gestion
dans une administration publique, et porte la réflexion sur les zones
de cohérence et d’incohérence de l’organisation et du fonctionnement
de la fonction d’évaluation dans les ministères (M) au Québec. Pour
ce faire, l’analyse se fonde sur quatre aspects d’un système d’action
collective : l’environnement et les valeurs, les ressources et modalités
organisationnelles, la pratique de l’évaluation, les finalités effectives et
poursuivies de la fonction d’évaluation.
PERNELLE SMITS, STEVE JACOB
L’article comprend six sections. Nous présentons tout d’abord la
méthodologie employée pour la collecte et l’analyse des données. Ensuite,
nous détaillons chacun des quatre aspects d’un système d’action
collective : l’environnement et les valeurs, les ressources et modalités
organisationnelles, la pratique de l’évaluation, les finalités effectives et
théoriques de la fonction d’évaluation. Enfin, dans la dernière section, une
analyse croisée de ces différents aspects fait ressortir les cohérences et
incohérences de la fonction d’évaluation au Québec.
Méthodologie
Pour décrire la fonction d’évaluation dans l’administration publique
québécoise, nous avons mobilisé plusieurs sources de données telles que
les documents législatifs2, les articles et chapitres décrivant la pratique
évaluative au Québec, les rapports administratifs qui présentent des
aspects spécifiques de la fonction d’évaluation, ainsi que des commentaires
d’acteurs clés qui ont été associés à cette recherche. Pour réaliser cette
étude, nous avons procédé en plusieurs étapes décrites ci-dessous. Il s’agit
de l’opérationnalisation des variables, de la formation d’un groupe de
lancement, de la revue documentaire, de la rédaction et la validation d’une
synthèse descriptive de la fonction d’évaluation au Québec, ainsi que de
l’analyse de l’ensemble des données recueillies.
Opérationnalisation des variables
Afin de documenter la fonction d’évaluation d’après le cadre analytique
choisi, les variables suivantes ont été considérées : valeurs, environnement,
ressources et modalités, pratique, et effets. Nous avons aussi, pour
l’analyse subséquente, dû définir les concepts de cohérence et
d’incohérence.
La valeur est définie comme un système d’idées et de principes sur
lequel se fonde l’action (Wei 2008) de la fonction d’évaluation au Québec
et de l’administration publique du Québec. Les valeurs correspondent à ce
qu’il est juste de faire.
L’environnement signifie le périmètre d’exercice de la fonction
d’évaluation au sein de l’administration publique. L’environnement de la
fonction d’évaluation inclut l’appui législatif et réglementaire qui est donné
directement et indirectement à la fonction d’évaluation.
Les ressources et modalités reprennent l’ensemble des intrants
mentionnés dans un modèle logique (Knowlton et Phillips 2012) incluant
les ressources humaines, financières, matérielles ainsi que les modalités ou
procédures de fonctionnement d’une organisation pour réaliser une
évaluation.
La pratique d’évaluation fait référence à la répétition de compétences
acquises (Pickering 1990; Raelin 1997; Cook et Brown 1999; Whittington
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
2003; Raelin 2007) dans l’exercice des évaluations, lors de leur
encadrement, direction ou amélioration. La pratique est à la base d’une
expertise professionnelle d’évaluation ou de gestion d’évaluation. Elle
reprend la façon dont les choses sont faites.
Les effets comprennent les finalités anticipées et les objectifs atteints
par l’exercice de l’évaluation. Les effets peuvent être les utilisations
conceptuelles, instrumentales et symboliques (Weiss, Murphy-Graham et al.
2005) et porter sur les rapports d’évaluation ou le processus évaluatif (Ilse et
Alba 1989; Cousins et Earl 1992; Fetterman et coll. 1996; Patton 1998). Les
effets regroupent ici l’ensemble des répercussions théoriques et empiriques
des rapports d’évaluation dans un objectif tant formatif que sommatif.
Afin de réaliser l’analyse des composantes de la fonction d’évaluation
que nous venons de définir, nous utilisons les concepts de cohérence et
d’incohérence. Cohérence peut, selon les études, faire appel à la
complémentarité, à la persistance dans le temps, etc., (Picciotto 2005; May
2006; Rolland 2010). Nous considérons ici la cohérence interne de la
fonction d’évaluation, plus précisément la cohérence des composantes de
la fonction d’évaluation. Il s’agit de situations ancrées pour lesquelles deux
composantes ne sont pas en contradiction l’une avec l’autre, ou encore, que
l’une soutient l’autre. Par exemple, lorsque les ressources mobilisées pour
réaliser l’évaluation permettent de soutenir la pratique évaluative avec des
formations couvrant l’ensemble des compétences essentielles d’un
évaluateur (Société Canadienne d’Évaluation 2010).
L’incohérence correspond aux situations pour lesquelles les dimensions
prises deux à deux interfèrent l’une avec l’autre, se contredisent, ou
lorsqu’une composante ne permet pas de rendre l’autre efficace.
Récolte et analyse des données
Un groupe de lancement avait pour tâche de commenter et compléter la
procédure de collecte de données. Les membres du groupe de lancement
(n = 6) travaillent ou ont travaillé à la réalisation, l’encadrement ou la
gestion d’évaluations dans et pour les ministères au Québec. Nous n’avons
pas rejoint de personnes directement en lien avec le Conseil des ministres.
Quelques réunions avec le groupe ont permis de préciser le champ d’étude
et de rassembler les documents pertinents à chaque composante de la
fonction d’évaluation au Québec de 2000 à 2011. Les documents identifiés
sont:
– Des sondages récents sur les évaluateurs (Groupe des responsables en
analyse et évaluation de programme 2008), et des données sur l’état de
l’évaluation (Secrétariat du Conseil du Trésor 2011), et le sondage.
– Le site Internet du Vérificateur général du Québec et les rapports
de la Commission d’Administration publique concernant la fonction
PERNELLE SMITS, STEVE JACOB
d’évaluation (Commission de l’administration publique 2008;
Commission de l’administration publique 2011).
– Les textes encadrant la fonction d’évaluation au Québec : LAP
(Gouvernement du Québec 2000), directive (Conseil du Trésor du
Québec 2002), loi sur la diffusion (Gouvernement du Québec 1982).
Les documents ont permis d’extraire les points concernant chacune des
composantes de la fonction d’évaluation et de rédiger une description
préliminaire (analyse de premier niveau). Le groupe de lancement a ajouté,
mis à jour et complété la description préliminaire. L’analyse a procédé de
façon étapiste:
– Analyse de premier niveau : elle a consisté à diagnostiquer les composantes de la fonction d’évaluation une à une à partir des documents et
commentaires des acteurs.
– Analyse de deuxième niveau : il a s’agit de relever les cohérences et
incohérences pour chaque composante de la fonction d’évaluation prise
deux à deux (dyade).
– Analyse de troisième niveau : nous avons réalisé un regroupement
thématique des cohérences et incohérences. Le regroupement thématique
fait partie des étapes de l’analyse qualitative souvent mobilisées pour
mettre en évidence, à partir des données, les thèmes émergents (May
2006). Ces thèmes émergents constituent les constats présentés dans la
section discussion et conclusion.
L’exhaustivité des données repose en partie sur la participation, la
connaissance et la profondeur des commentaires des acteurs. Certaines
limites accompagnent cet exercice, notamment la qualité inégale des
sources de données selon leur provenance, le biais de désirabilité qui
consiste ici pour les acteurs clés à vouloir présenter leur organisation sous
un angle favorable, et le devoir de réserve.
Résultats
Environnement et valeurs
Environnement législatif et réglementaire
Comme nous l’avons mentionné en introduction, la fonction d’évaluation
au Québec existe depuis de nombreuses années, ce qui positionne la
province parmi les pionniers en termes d’institutionnalisation. Nous avons
aussi vu que les principes de la nouvelle gestion publique ont été promus
au sein de la fonction publique à la suite de l’adoption, en 2000, de la Loi
sur l’administration publique (LAP). L’article 75 de cette loi stipule que le
Conseil du Trésor peut établir des mécanismes de contrôle et exiger la mise
en place d’évaluation. L’article 78 concourt dans le même sens et en élargit
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
la portée au renseignement utile à l’exercice des fonctions du président ou
de celles du Conseil du Trésor.
De façon générale, la LAP contribue à enraciner des réflexes de nature
évaluative en introduisant une obligation de planification par objectifs
(article 9), en lien avec la gestion des dépenses (article 46). Toutefois,
l’arrimage entre la planification, la budgétisation et l’évaluation reste à
resserrer (Saskatchewan Government 2010; Secrétariat du Conseil du
Trésor 2011).
Au début 2013, la fonction évaluative est toujours encadrée par les
Orientations relatives à la fonction d’évaluation de programme (Conseil du
Trésor du Québec 2002) émises par le Conseil du Trésor le 28 mai 2002. Les
orientations contenues dans le document s’appliquent à l’ensemble des
ministères et organismes visés par le chapitre II de la LAP (art. 5), à savoir
les ministères, les organismes budgétaires ainsi que ceux désignés par le
ministre dont ils relèvent. Plus spécifiquement, les orientations s’adressent
aux sous-ministres ou dirigeants d’organismes (Conseil du Trésor du
Québec 2002).
Ainsi, alors que l’administration centrale ne dispose pas de politiques ou
de directives d’évaluation en tant que telles, sauf dans le cas de programmes visés par des normes spécifiques du Conseil du Trésor, certains
ministères disposent de leur propre politique d’évaluation puisque la
responsabilité de la gestion axée sur les résultats incombe individuellement
à chaque sous-ministre et dirigeant d’organisme qui est directement imputable de sa gestion administrative devant l’Assemblée nationale (art. 29).
Pour aider ces hauts fonctionnaires, le SCT a mis à leur disposition une
publication intitulée L’évaluation de programmes : document destiné aux
dirigeantes et dirigeants de ministères et d’organismes.
Enfin, mentionnons la politique d’évaluation fédérale dont les exigences
s’appliquent aux transferts fédéraux vers les provinces. Cette politique a
été renouvelée en 2009 et les ministères fédéraux ont jusqu’au 31 mars 2013
pour la mettre pleinement en œuvre. Ainsi, les ministères provinciaux qui
reçoivent des sommes du gouvernement fédéral doivent se conformer aux
exigences de la Politique sur l’évaluation du gouvernement du Canada,
soit transmettre l’information qui permettra au gouvernement fédéral
d’assumer ses responsabilités en matière d’évaluation, soit prendre en
charge l’évaluation et transmettre les résultats de celle-ci au gouvernement
du Canada.
Valeurs de l’administration publique et éthique de l’évaluation
Les évaluateurs qui œuvrent au sein de la fonction publique québécoise
sont soumis à un encadrement éthique qui ne cesse de se développer (Loi
sur la transparence et l’éthique en matière de lobbyisme en 2002, commissaire à
l’éthique de l’Assemblée nationale en 2010) en raison de scandales publics
PERNELLE SMITS, STEVE JACOB
(Boisvert 2009) et des attentes élevées de la population en termes
d’intégrité, d’honnêteté et de transparence (Jacob 2011). Par conséquent,
nous assistons à la multiplication d’énoncés de valeurs, de codes d’éthique
et de codes de déontologie. Une étude empirique récente (Jacob, Imbeau et
coll. 2011) montre que la multiplication des textes crée de la confusion et
ne prémunit pas les évaluateurs des dilemmes éthiques.
Dans cette section, nous présentons les principales valeurs qui encadrent
la conduite des fonctionnaires québécois en général. Les valeurs qui
s’appliquent à l’ensemble des membres de la fonction publique sont
contenues dans plusieurs documents officiels. Le Tableau 1 présente ces
valeurs en distinguant celles qui sont liées au professionnalisme, à
l’administration et aux citoyens. En l’absence de normes à caractère
contraignant pour les évaluateurs de la fonction publique, les mêmes
valeurs de l’administration publique s’appliquent.
De manière générale, ces énoncés prescriptifs promeuvent la
compétence des agents publics, la publicité à l’égard des citoyens ainsi que
l’impartialité, l’intégrité, la loyauté, le respect, la neutralité et la discrétion
Tableau 1. Valeurs de l’administration publique québécoise
Document officiel
L’éthique dans la fonction
publique québécoise
(2003)
[Énoncé explicite]
Règlement sur l’éthique
et la discipline dans
la fonction publique
(2002)
[Périphrase]
Loi sur la fonction
publique
[Énoncé explicite]
Valeurs liées au
professionnalisme
Valeurs liées à
l’administration
Compétence
Impartialité
Intégrité
Loyauté
Respect
Discrétion
Intégrité
Compétence
Impartialité
Loyauté
Discrétion
Intégrité
Neutralité
Réserve
Loi sur l’administration
publique (2000)
[Énoncé explicite]
Déclaration de valeurs de
l’administration publique
québécoise (ND)
[Énoncé explicite]
Valeurs liées aux
citoyens
Qualité du service
Diligence
Rendre publique
la déclaration
de services aux
citoyens
Compétence
Impartialité
Intégrité
Loyauté
Respect
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
de la fonction publique. À ces valeurs s’ajoutent celles figurant dans les
déclarations de valeurs adoptées par différents ministères.
Depuis plusieurs années, la communauté internationale des évaluateurs
se préoccupe des enjeux éthiques de la pratique évaluative qui peuvent
affecter les évaluateurs ou les personnes impliquées dans une évaluation.
Le Québec n’échappe pas à cette tendance, comme en témoignent les
tentatives de rédaction d’une charte de l’évaluation par des associations
professionnelles en évaluation (Jacob et Boisvert 2010). En l’absence d’un
texte québécois, les évaluateurs qui œuvrent au sein de la fonction
publique québécoise peuvent, sur une base volontaire, se référer aux
normes du Joint Committee on Standards for Educational Evaluation, aux lignes
directrices de la Société canadienne d’évaluation3, aux normes en
évaluation du gouvernement fédéral ou à des chartes d’évaluation qui
soulignent la compétence, l’intégrité et l’imputabilité.
Ressources humaines, financières et matérielles et modalités organisationnelles
Selon des données préliminaires présentement disponibles, la pratique
évaluative est nettement répandue dans les ministères québécois. Près de
trois-quarts des ministères produisent des évaluations (Secrétariat du
Conseil du Trésor 2011).
Les activités de soutien de la pratique évaluative de la
part des ministères centraux sont quasi absentes
En comparant la situation d’un point de vue chronologique, nous
observons une certaine stabilité dans la pratique d’évaluation au sein des
ministères (Secrétariat du Conseil du Trésor 2011). Au cours de l’année
budgétaire 2009–2010, les employés de la fonction publique québécoise ont
contribué à 162 projets d’évaluations (Secrétariat du Conseil du Trésor
2011). En 2009–2010, plus de 90% des ministères ont nommé un
responsable d’évaluation. Il s’agit d’une nette augmentation puisqu’en
2007–2008, cette situation s’observait dans 77% des cas (Secrétariat du
Conseil du Trésor 2011).
Ces chiffres sont en accord avec une pratique effective de l’évaluation et
la forte implication des ministères dans la conduite des évaluations. Il
arrive aussi que le gestionnaire d’évaluation soit également en charge des
opérations de vérification interne. En fait, dans plusieurs ministères,
certains répondants interrogés ont exprimé des appréhensions à l’effet que
le port de cette double casquette puisse se faire au détriment de la fonction
d’évaluation.
En règle générale, « [aucune] directive ne préconise de budget pour
l’évaluation, ni de budget dédié, ni de part de budget de projet alloué
PERNELLE SMITS, STEVE JACOB
systématiquement aux évaluations » (Secrétariat du Conseil du Trésor
2011). Nous ne disposons pas des budgets détaillés pour l’évaluation.
Cependant, l’estimation des budgets alloués aux programmes qui ont fait
l’objet d’une évaluation au cours de l’année financière 2009–2010 sont
disponibles. Le budget estimé des programmes qui font l’objet d’une
évaluation dépasse les 8 milliards de dollars, ce qui représente environ
13 % du montant total des dépenses de programmes du gouvernement qui
sont évaluées sur un total avoisinant les 60 milliards de dollars (Secrétariat
du Conseil du Trésor 2011).
Selon un sondage du Groupe des responsables en analyse et évaluation
de programme, en 2008, les évaluations dans l’administration publique du
Québec ont été réalisées par 130 individus (Groupe des responsables en
analyse et évaluation de programme 2008). La plupart des évaluations ont
été conduites à l’interne, dans les ministères et les organismes, plutôt que
confiées à des évaluateurs externes. Les ministères du gouvernement du
Québec ont vu augmenter le nombre de ressources humaines dans ce
secteur depuis 2004, passant de 84 à 103 pour le même nombre
d’organisations (Groupe des responsables en analyse et évaluation de
programme 2008). Sachant que la tendance générale dans l’administration
québécoise est aux nombreux départs en retraite, des questionnements
quant à la mémoire institutionnelle et à la transmission des savoirs
s’imposent. De plus, la répartition des évaluateurs dans les ministères
reste très hétérogène, quelques uns seulement disposant d’équipes
chevronnées (Groupe des responsables en analyse et évaluation de
programme 2008).
En étudiant la proportion de la tâche consacrée à l’évaluation, chaque
catégorie d’emploi consacre la majorité de sa tâche à l’évaluation. Dans les
ministères (voir Tableau 2), les employés qui consacrent plus de 80 % de
leur tâche à l’évaluation sont une majorité (90 sur 103 employés). Il s’agit
d’une tendance stable par rapport à la situation de 2004 pour la plupart des
employés. Les cadres sont ceux qui y consacrent le moins de temps et les
professionnels ceux qui se consacrent presque exclusivement aux tâches
d’évaluation.
Modalités organisationnelles
Dans la section précédente, nous avons vu que l’organisation du cadre de
gestion de la fonction d’évaluation, telle qu’établie par la Loi sur
l’administration publique, est décentralisée. Ainsi, la grande majorité des
ministères ont leurs propres structures de gestion ou de support
informationnel pour les soutenir dans leurs évaluations. Dans le Tableau 3,
nous voyons que les modalités organisationnelles reposent principalement
sur l’adoption d’un cadre de référence en évaluation ou sur la mise en
place d’un comité ministériel d’évaluation.
84 (51,2%)
14
60
7
3
Nombre
(% par type
d’organisation)
2004
48
93
100
63
Proportion
de la tâche
(%)
16
Nombre
d’organisations
répondantes
103 (79,2%)
13
64
17
9
N
2008
52
96
86
73
Proportion
de la
tâche (%)
16
Nombre
d’organisations
répondantes
Source : 2008 – (Groupe des responsables en analyse et évaluation de programme 2008), (décembre 2008 et janvier 2009).
L’enquête ne précise pas si les données de 2004 et de 2008 sont calculées sur la même base. Tableau repris intégralement du
rapport.
Ministères
Cadres
Professionnels
Occasionnels / contractuels
Autres
Type d’organisation
Tableau 2. Effectifs en évaluation par catégorie d’emploi (estimations)
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
PERNELLE SMITS, STEVE JACOB
Tableau 3. Pourcentage des ministères équipés pour l’évaluation (estimation)
Mécanismes
Possèdent un comité ministériel d’évaluation
Possèdent un cadre de référence en évaluation de programmes
Partagent les services, soit en demande, soit en offre
Mettent en place un comité d’évaluation participant à la réalisation
des mandats
Ministères
8
16
3
14
Source : données préliminaires (Secrétariat du Conseil du Trésor 2011). Tableau
repris intégralement du rapport.
Le peu de soutien assuré par les organismes centraux du Québec auprès
des ministères en matière d’évaluation de programme est une des
conséquences de cette décentralisation. Le rôle des organismes centraux à
cet égard est limité et s’appuie sur des effectifs réduits. Par exemple, en
2011, une seule personne au SCT était affectée à l’encadrement de
l’évaluation de programme pour l’ensemble des ministères et organismes
du gouvernement du Québec. Le ministère du Conseil exécutif (MCE), qui
appuie le Premier ministre et le Conseil des ministres, n’était pas plus actif
en termes d’évaluation puisque son mandat ne concerne pas cette pratique
et que son Comité des priorités (formé de ministres) a notamment pour
fonction l’encadrement général de la planification stratégique ministérielle.
Dans son rôle de soutien au Comité des priorités, le MCE favorise toutefois
la cohérence entre la planification stratégique et le recours à l’évaluation,
par exemple pour assurer la mesurabilité des objectifs stratégiques et des
indicateurs de résultats qui y correspondent. Toutefois, les liens entre la
planification stratégique et l’évaluation de programme sont informels, ni le
législateur, ni le Conseil des ministres, ni le Conseil du Trésor n’ayant
statué officiellement en ce sens.
Il est difficile de pouvoir réaliser des évaluations comparatives entre les
ministères puisqu’il n’y a pas de système spécifique, conçu pour assurer le
suivi des indicateurs de rendement par exemple, que ce soit au plan
opérationnel ou au plan des résultats des programmes sur les clientèles
visées, en termes d’extrants et d’effets. Les évaluations menées par des tiers
sont également extrêmement rares même si le Vérificateur général du
Québec (VGQ) peut, dans les limites prescrites par sa loi constitutive,
vérifier les actions des ministères et organismes. Ce niveau d’intérêt du
VGQ s’explique notamment par les réserves prévues par sa loi constitutive
qui stipule que les vérifications du Vérificateur général ne doivent pas
mettre en cause le bien-fondé des politiques et objectifs de programme de
l’organisme public ou de l’organisme du gouvernement (article 25 de la Loi
sur le Vérificateur général).
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
Il n’existe pas non plus à ce jour beaucoup de mécanismes de suivi ou
de vérification de la qualité des évaluations. Une collecte d’informations
est cependant réalisée annuellement par le SCT. Elle consiste en un
sondage réalisé dans le cadre du Rapport sur l’application de la Loi sur
l’administration publique, tel que prévu par cette dernière (art. 28). Il est
laissé à la discrétion du répondant de déterminer ce qui constitue une
évaluation de programme. Le rapport produit par le SCT fournit, depuis
2005, des informations sur la fonction d’évaluation au sein du
gouvernement du Québec en présentant des informations sur le nombre
d’évaluations réalisées, les budgets déployés, le rôle et l’implication du
sous-ministre ou du dirigeant d’organisme envers l’évaluation. De
plus, à notre connaissance, aucune méta-évaluation n’a été réalisée sur la
qualité des évaluations de programmes produites par l’administration
publique du Québec. Dans les ministères, le contrôle de la qualité des
évaluations est assuré par l’intermédiaire du responsable de la fonction
et du client de l’évaluation. Il n’y a pas à ce jour d’examen régulier par
les organismes centraux des produits d’évaluation afin de poser un
jugement sur leur qualité et leur capacité à répondre aux besoins
d’information.
Les examens externes sont pratiquement impossibles à réaliser
puisqu’une partie des évaluations réalisées au sein de l’administration
publique du Québec ne sont pas accessibles au public. À ce sujet, les
directives du SCT en matière d’évaluation sont brèves et générales, il n’y
a aucune mention concernant la confidentialité des rapports ni leur format.
La diffusion du rapport est laissée à la discrétion de chaque sous-ministre
ou dirigeant d’organisme.
La transparence auprès des citoyens dans le processus
évaluatif est peu présente
À ce sujet, le Règlement sur la diffusion de l’information et sur la protection
des renseignements personnels contient des dispositions concernant les conditions et les exigences relatives aux documents qui doivent être rendus
publics. Plus précisément l’article 4 de ce Règlement précise que : « 7° Les
études, les rapports de recherches ou de statistiques, produits par
l’organisme public ou pour son compte dont la diffusion présente un
intérêt pour l’information du public » doivent être diffusés. Ce texte
s’applique à toute information produite par l’administration publique
québécoise et ne vise pas spécifiquement les rapports d’évaluation. Bien
qu’un argument puisse être avancé à l’effet que les rapports d’évaluation
soient des renseignements d’intérêt pour le citoyen et qu’ils devraient par
conséquent être systématiquement rendus accessibles, la loi ne prévoit pas
PERNELLE SMITS, STEVE JACOB
explicitement un tel automatisme et laisse place à une analyse au cas par
cas de chaque document. Cette possibilité est encore plus grande en ce
qui concerne les recommandations qui découlent d’une évaluation
explicitement visées par les restrictions au droit d’accès prévu à la section
II , article 37 de la Loi sur l’accès à l’information (Gouvernement du Québec
1982).
La section suivante élabore sur les pratiques effectives de diffusion des
évaluations, en plus du contenu du cadre légal et réglementaire sur l’accès
et la diffusion qui vient d’être discuté.
Pratique de l’évaluation
Plusieurs entités de l’État québécois sont interpellées par l’information
produite par la fonction d’évaluation : le Conseil du Trésor, son président
et son Secrétariat, l’Assemblée nationale et ses commissions parlementaires
(notamment la Commission de l’administration publique), le Vérificateur
général du Québec et, en premier lieu, les ministères.
Commission de l’administration publique de l’Assemblée nationale
En 2008, la Commission de l’administration publique (CAP) a publié, dans
le cadre de son vingtième rapport, ses critères pour l’analyse des rapports
annuels de gestion concernant la qualité de l’information et la performance. Plusieurs de ces critères sont étroitement associés à des travaux
d’évaluation, notamment la présentation des résultats atteints et de leur
mise en contexte, des liens entre les coûts, les activités, les produits et
services et les résultats ainsi que l’utilisation des ressources de façon
optimale (Commission de l’administration publique 2008).
Vérificateur général du québec
Le VGQ, à compter de l’automne 2011, a émis des observations et des
recommandations au regard de l’évaluation de programmes et souligne
qu’il y a peu d’évaluations qui abordent la question de la pertinence, et que
beaucoup traitent des activités sans refléter l’atteinte des résultats. Dans
son rapport du 30 novembre 2011, une analyse critique du plan stratégique,
du plan d’évaluation de programme et du rapport annuel du ministère de
la Famille et des Aînés recommande notamment la fixation d’indicateurs
de résultats et l’élaboration d’objectifs ciblés. Il en va de même pour ce qui
se rapporte à la coordination, au niveau gouvernemental, d’une stratégie
interministérielle orchestrée par le ministère de l’Emploi et de la Solidarité
sociale (MESS) sur la lutte contre la pauvreté et, en 2010 pour la coordination gouvernementale du développement durable qui souffre des mêmes
maux. Le rapport déposé à l’automne 2012 par le VGQ présente également
des constats et des recommandations concernant l’évaluation des
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
programmes administrés par différents fonds de recherche relevant du
gouvernement du Québec.
Conseil du Trésor et son secrétariat
Le Conseil du Trésor a adopté des orientations en évaluation en 2002, dont
des dispositions à l’effet de décentraliser aux sous-ministres et dirigeants
d’organismes les responsabilités afférentes à la fonction d’évaluation. Le
Secrétariat du Conseil du Trésor n’a pas exercé de façon systématique une
surveillance à l’encontre des ministères eu égard à la fonction d’évaluation
de programme ou des actions interministérielles, sauf dans le cas
d’évaluations produites expressément à la demande du gouvernement, du
Conseil du Trésor ou de son président. Le développement de ces mesures,
le cas échéant, relève des hauts dirigeants des ministères eux-mêmes. Pour
le Secrétariat du Conseil du Trésor, l’une des conséquences de cette
décentralisation est qu’il reçoit rarement les évaluations produites par les
ministères, sauf celles qu’il exige, et que les informations reçues ne
répondent pas nécessairement à ses besoins. Lorsque les évaluations sont
transmises, les analystes budgétaires reçoivent des rapports sous une
forme non standardisée, notamment eu égard aux résultats atteints par les
programmes. Outre le caractère décentralisé des orientations de 2002, le
peu de développement et d’outils produits à l’intention des évaluateurs et
de leurs coordonnateurs à ce jour peut être expliqué partiellement par le
peu d’effectifs dédiés au suivi des orientations sur la fonction d’évaluation
de programme.
Ministères et organismes
L’organisation de la fonction d’évaluation de programme varie beaucoup
entre les organisations. Dans certains ministères, les unités responsables de
fonctions telles que l’analyse des politiques, la planification et l’évaluation
peuvent interagir (voire relever d’une même direction), dans d’autres, la
fonction d’évaluation reste largement à renforcer. Un portrait à jour de
chaque ministère n’est pas disponible. Cependant, un forum a permis
de partager l’organisation de la fonction d’évaluation dans plusieurs
ministères au Québec (Smits 2012).
Du côté des communautés de pratiques, l’information se rapportant à
l’évaluation, telle que les rapports d’évaluation ou les procédures, peut
s’échanger de façon ad hoc par le Groupe des responsables en analyse
et évaluation de programme (GRAEP), dans le cadre d’activités de la
Société québécoise d’évaluations de programme (SQEP), de la Société
canadienne d’évaluation (SCE) et par l’entremise d’échanges individuels
entre évaluateurs.
Malgré l’absence d’exigences explicites et externes pour produire et
diffuser des évaluations, comme un système de suivi normalisé et commun
PERNELLE SMITS, STEVE JACOB
aux ministères, des examens réguliers de la qualité des évaluations ou des
méta-évaluations, une publication en ligne, environ une centaine de projets
d’évaluation étaient en cours en 2010 (Secrétariat du Conseil du Trésor
2011).
Au sein des ministères, les hauts dirigeants approuvent les programmes
à évaluer dans plus de 90 % des ministères. Ils approuvent aussi la portée
des évaluations dans plus de 65 % des cas. Selon les répondants interrogés,
la décision sur le contenu et celle de mener une évaluation reposent
principalement sur les préoccupations immédiates des ministères, sur
certains programmes, et sur une planification des évaluations sur plusieurs
années.
Notons que l’imputabilité quant aux constatations et résultats des
programmes évalués est du ressort des sous-ministres ou dirigeants
d’organisme (Conseil du Trésor du Québec 2002). D’ailleurs, le VGQ et la
CAP interpellent de plus en plus les hauts fonctionnaires et non les
ministres sur les impacts des programmes et des politiques publiques.
Sur 18 recommandations liées à l’évaluation de programmes des vingtsept rapports sur l’imputabilité des sous-ministres et des dirigeants
d’organismes produits par la Commission de l’administration publique, de
1997 à 2011, aucune recommandation ne s’adresse à un ministre ou au
gouvernement. L’évacuation relative du rôle des ministres dans la
reddition de comptes sur la gestion de l’administration publique a déjà été
discutée (Gow 1995) de façon générale, et se retrouve spécifiquement dans
l’imputabilité liée aux effets et impacts des programmes, dont la mesure
repose principalement sur la fonction d’évaluation.
Diffusion publique des
rapports d’évaluation
La diffusion publique des rapports d’évaluation varie selon le ministère.
Les rapports demandés par le Conseil du Trésor ne sont jamais diffusés :
ils sont produits pour répondre à des besoins d’information rattachés à la
préparation du budget de dépenses et à son suivi. Certains ministères
rendent leurs rapports d’évaluation disponibles au public sur Internet ou
assurent une diffusion plus restreinte via des capsules internes, par
exemple. La publication des rapports d’évaluation passe par l’approbation
des hauts dirigeants dans plus de 90 % des ministères (Secrétariat du
Conseil du Trésor 2011). La fréquence de diffusion parait plus élevée pour
les ministères à vocation sociale.
À moins d’une exigence explicite à cet effet, il n’y a généralement pas
de diffusion des rapports d’évaluation par un ministère. Toutefois, la Loi
sur l’accès aux documents des organismes publics et sur la protection des
renseignements personnels (Gouvernement du Québec 1982) prescrit que
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
toutes les études d’intérêt pour le citoyen doivent être rendues publiques
dans certaines conditions.
Finalités des évaluations
Les finalités des évaluations au Québec sont essentiellement de deux
ordres : opérationnelles et stratégiques. L’amélioration des programmes et
la satisfaction des clientèles desservies préoccupent généralement
davantage les ministères et leurs dirigeants; alors que le gouvernement,
le Conseil du Trésor et son Secrétariat, ainsi que dans certains cas le
ministère du Conseil exécutif, vont s’intéresser davantage aux résultats des
programmes.
Une fois l’évaluation réalisée, le suivi des résultats est essentiellement
assuré par les ministères. Ce suivi peut faire l’objet de vérifications par le
VGQ et donner lieu à l’audition du ministre et, si celui-ci y consent, du
sous-ministre ou du dirigeant d’organisme, en commission parlementaire,
cette dernière ayant la possibilité de revenir sur les résultats des
évaluations. Au cours de cette recherche, nous n’avons pas pu identifier
d’études sur l’utilisation des rapports d’évaluation par les commissions de
l’Assemblée Nationale. Habituellement, les recommandations des rapports
d’évaluation sont discutées à l’interne, dans les ministères, par le biais des
comités aviseurs institués pour l’évaluation du programme concerné.
L’unité responsable du programme peut présenter sa réponse à l’égard des
constats et des recommandations de l’évaluation, puis les décisions
éventuelles sont prises par le sous-ministre ou le dirigeant d’organisme
concernant les suites à donner. La principale reddition de comptes qui se
fait actuellement consécutivement à une évaluation de programme est
interne et elle a pour premier client le sous-ministre ou le dirigeant
d’organisme, de même que le gestionnaire du programme évalué et les
hauts dirigeants (sous-ministres adjoints et directeurs généraux). Bien
qu’aucune procédure formelle n’encadre, au niveau gouvernemental,
l’utilisation des évaluations ou des résultats pour la prise de décision, la
commission parlementaire de l’administration publique ou toute autre
commission compétente peut ou non faire des recommandations dans ce
sens. La commission parlementaire, au moment de l’étude des crédits, peut
revenir auprès du sous-ministre ou dirigeant d’organisme et demander
d’approfondir des points liés aux résultats anticipés dans le plan
stratégique ou encore dans le plan de gestion des dépenses annuelles. Le
Vérificateur général peut occasionnellement revenir sur les résultats
anticipés (Commission de l’administration publique 2011).
Actuellement, les résultats des évaluations servent surtout à améliorer
les processus opérationnels. Le haut dirigeant utilise les évaluations pour
répondre à ses propres besoins de gestion qui sont souvent à court terme.
Dans le cas des évaluations demandées ponctuellement par le Conseil du
PERNELLE SMITS, STEVE JACOB
Trésor ou son Secrétariat, elles sont utilisées notamment pour rendre des
comptes sur les programmes et leurs résultats, appuyer la création d’un
nouveau programme ou prendre des décisions ponctuelles sur le
renouvellement, le non-renouvellement ou le renouvellement partiel des
ressources. Les besoins stratégiques du gouvernement en matière
d’information pour appuyer sa prise de décisions, notamment en matière
d’allocation des ressources, sont actuellement comblés sur la base d’une
fonction d’évaluation peu coordonnée par une entité centrale, en partie en
raison des modalités instituées par les orientations de 2002. Pour répondre
aux besoins du CT, notamment aux fins de la préparation du budget de
dépenses et son suivi, ce dernier peut exiger qu’une évaluation soit prévue
dans le document spécifique accompagnant un programme de subvention
normé. Cette norme mentionne alors explicitement l’exigence de réaliser
une évaluation lors du renouvellement du programme. De même, dans les
demandes adressées au Conseil du Trésor et dans les mémoires déposés au
gouvernement, qui transitent à la fois par le SCT et par le ministère du
Conseil exécutif, les ministères peuvent présenter des analyses de besoins
ainsi qu’une synthèse des résultats d’évaluations à l’appui de leurs
recommandations aux autorités gouvernementales.
La réalisation et l’utilisation d’évaluations de portée
stratégique paraissent peu fréquentes
Compte tenu du caractère confidentiel des mémoires et autres documents
transmis au et depuis le Conseil du Trésor ou le Conseil des ministres, il n’y
a pas de documentation disponible sur le suivi systématique des
recommandations faites dans le cadre d’évaluation de programmes. Selon
un sondage réalisé par le SCT pour l’année financière 2010–2011, les
ministères rapportent un haut degré d’utilisation des évaluations
notamment pour la modification des programmes (> 90 %) et moins
fréquemment, pour l’allocation de ressources (< 65 %) et l’élaboration de
plans stratégiques (< 60 %). La faible utilisation des évaluations dans les
rapports annuels de gestion (< 50 %) est cohérente avec la perception
d’organismes centraux (Secrétariat du Conseil du Trésor 2011). À ce jour, il
n’y a pas au Québec de procédure systématique ou établie pour ajuster la
production des évaluations aux échéanciers décisionnels ou ajuster les
décisions stratégiques aux résultats d’évaluation. Il n’y a pas d’arrimage
avec les cycles de planification budgétaire, sauf pour des besoins particuliers
à la discrétion de gestionnaires des ministères ou si le Conseil du Trésor
l’exige spécifiquement. En dehors des programmes normés et d’autres cas
d’exception, l’information évaluative sur les programmes des ministères ne
parvient généralement pas jusqu’au CT.
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
Cohérence du système?
Afin d’analyser dans quelle mesure le système organisé de « fonction
d’évaluation » québécoise est cohérent, chaque composante est regardée
deux à deux. Ainsi le Tableau 4 présente l’analyse croisée pour chaque
dyade, relève les cohérences (+) et incohérences (-), et récapitule les
grandes lignes pour chaque composante (cellules grisées).
Cohérence
Il semble peu surprenant que les moyens déployés autour de la fonction
d’évaluation au Québec conduisent à une place assez réduite de cette
fonction de gestion au regard de sa potentialité. Avec une fonction
d’évaluation vivant en autarcie, une faible utilisation des évaluations pour
des orientations stratégiques de programmes s’installe. En effet, plusieurs
facteurs concourent à un relatif isolement de la fonction d’évaluation. Les
moyens en ressources humaines, les appuis règlementaires, les acteurs
impliqués dans les choix d’évaluation et ceux qui rendent des comptes
sur les résultats des programmes évalués et l’utilisation de rapports
d’évaluation restent centrés sur les préoccupations internes des ministères,
plutôt qu’arrimés avec les préoccupations du gouvernement ou d’autres
instances de l’administration publique comme le SCT, le ministère du
Conseil exécutif ou d’autres ministères (pour les actions interministérielles).
Les orientations de 2002 sont essentiellement dirigées vers les sous-ministres
et dirigeants d’organismes, ce qui renforce éventuellement la place assez
réduite de la fonction d’évaluation hors des ministères. De même, la fonction
d’évaluation tend à rester centrée sur elle-même à l’intérieur d’un ministère,
plutôt qu’arrimée à d’autres fonctions de gestion d’une même organisation
comme la planification, la vérification interne, la gestion financière ou
l’exécution de programmes.
Incohérence
Il est surprenant, après plus de dix ans, de constater un soutien de
l’administration publique québécoise dans le sens d’une visibilité accrue
à la fonction d’évaluation alors même que des variations marquées
sont constatées dans l’exécution des évaluations et dans les décisions
subséquentes. Une incohérence majeure de la fonction d’évaluation au
Québec des années 2000 pourrait se formuler ainsi : la tentative de visibilité
de la fonction d’évaluation doit composer avec une large variabilité des
pratiques liées à l’évaluation. Cette visibilité passe entre autres par les
orientations, la production d’un guide, les mises en poste de directeur
d’évaluation. Mais par ailleurs, le Règlement sur la diffusion de l’information
et sur la protection des renseignements personnels énonce que la publication
d’informations telles que des études, des rapports de recherche ou de
statistiques revêt une utilité publique, comme peuvent l’être les rapports
+ Approbation des choix de
programmes à évaluer et
de la publication des
rapports par les SM et DO
imputables.
Ë 13% du montant des
dépenses de programmes
sont évalués
Ë Environ 100 professionnels
dans M
Ë Absence de monitorage
central commun aux MO
ou d’examen de la qualité
(sauf par le VG)
Ë Accès et diffusion publique
des rapports dépend des
interprétations tirées de la
Loi sur l’accès et de son
règlement.
Ë Imputabilité des SM et DO
devant l’Assemblée
nationale.
– Absence de système
gouvernemental
d’amélioration continue
des évaluations
– Difficultés de rencontrer
les attentes de
professionnalisme sans
formation des
professionnels et
sensibilisation des SM et
DO responsables.
Ressources et
modalités
organisationnelles
Pratique de l’évaluation
+ Absence de
+ Poids relatif de
systématisation des
l’évaluation dans les textes
évaluations au Québec
(LAP, orientations) et le
sauf dans le cas de
volume de RH et
décisions spécifiques du
financières accordées
CT ou de transferts
+ Principe d’imputabilité
fédéraux.
ministérielle.
Ressources et modalités
organisationnelles
Ë Politique d’évaluation
fédérale (ententes
Québec-Canada)
Ë Orientations relatives à la
fonction d’évaluation
(Québec) Orientations
visant les SM et DO
Ë Professionnalisme/égard à
l’administration/
perspective citoyenne
Environnement et valeurs
Environnement et
valeurs
Incohérence
(-)
Cohérence
(+)
+ Caractère peu stratégique
de l’utilisation des
rapports d’évaluation
accentuant le
positionnement non
stratégique de la fonction
d’évaluation dans
l’administration publique
et une utilisation
sous-optimale des
informations produites.
Non identifiée
Finalités
Tableau 4. Analyse des cohérences et incohérences du système organisé d’actions – Fonction d’évaluation
PERNELLE SMITS, STEVE JACOB
– Théoriquement
l’imputabilité de
l’administration publique
doit refléter une
alimentation en
information stratégique
plutôt que seulement
opérationnelle
– Accès aux résultats
d’évaluation limité au
niveau parlementaire
notamment pour la
reddition de comptes.
– Nécessité d’arrimer la
production des évaluations
des MO en fonction des
besoins d’informer une
décision cohérente avec les
échéanciers
gouvernementaux.
– Audition devant
– Diffusion dans les MO à
l’Assemblée nationale
vocation économique
chaque 4 ans eu égard à
moins habituelle bien
leur gestion administrative
qu’ils soient sous la même
– Peu de diffusion
obligation d’informer le
systématique bien que les
citoyen.
valeurs de l’administration
encouragent la prise en
compte des attentes des
citoyens.
Ë Déclenchement selon les
besoins du SM ou DO, sur
proposition du directeur
d’évaluation, ou en vertu
d’une exigence du CT ou
d’une entente
Québec-Canada
Ë Transmission par les MO
des résultats au Conseil du
Trésor pour les
programmes normés.
Ë Approbation des choix de
programmes et de
publication dans 90 % des
cas
Ë Diffusion plus répandue
dans les ministères à
vocation sociale.
– Approbation par les hauts
fonctionnaires des
évaluations, mais peu
d’utilisation stratégique vu
leur portée souvent
opérationnelle.
Ë Portée et utilisation
opérationnelle plus que
stratégique
Ë Peu de pression
parlementaire et citoyenne
pour la diffusion publique
et un suivi sur l’utilisation
des rapports
Ë Utilisation des informations
pour les besoins
budgétaires pour le CT sur
demande spécifique, pour
une faible proportion des
évaluations produites
Ë Peu d’ajustement des plans
d’évaluation aux
échéanciers décisionnels.
+ Diffusion des évaluations
peu répandue dans les
MO à vocation
économique
+ Faible implication des
parlementaires et de la
voix citoyenne faible dans
la planification, le
déclenchement et
l’utilisation des
évaluations
+ Utilisation budgétaire lors
de programmes normés
du CT.
Note : l’état de chacune des composantes est résumé dans la case grise correspondante; les cohérences par dyade sont situées dans la partie droite du
tableau, les incohérences par dyade sont situées dans la partie gauche.
M : ministère, SM : sous ministre, A : adjoint, CT : Conseil du Trésor, VG : vérificateur général, DO : directeurs d’organismes.
Finalités
Pratique de
l’évaluation
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
PERNELLE SMITS, STEVE JACOB
d’évaluation; pourtant chaque ministère applique différemment la diffusion des rapports d’évaluation. Théoriquement, les évaluations peuvent
contribuer au suivi des actions publiques, à leur amélioration, à la bonne
gouvernance, etc. En outre, les équipes d’évaluateurs varient grandement
en nombre et capacité d’un ministère à l’autre, ne permettant donc pas
totalement de remplir les objectifs théoriques de l’évaluation pour tous les
ministères. Les formations en évaluation offertes aux évaluateurs dans les
ministères et la sensibilisation des dirigeants à l’évaluation fluctuent aussi
largement.
Discussion et conclusion
De l’analyse croisée des composantes prises deux à deux, trois constats
émergent : 1. Les activités de soutien de la pratique évaluative de la part
des ministères centraux sont quasi absentes; 2. La transparence auprès des
citoyens dans le processus évaluatif est peu présente; 3. La réalisation et
l’utilisation d’évaluations de portée stratégique paraissent peu fréquentes.
1. Les activités de soutien de la pratique évaluative de la part des
ministères centraux sont quasi absentes.
À l’échelle gouvernementale, l’absence de système d’amélioration continue des évaluations et le manque de formation et de sensibilisation des
acteurs concernés jouent en défaveur d’une amélioration continue de la
qualité de la pratique, tel que son ajustement à des pratiques émergentes
pertinentes. Une organisation apprenante qui se renouvelle et fait face aux
défis qu’elle rencontre a besoin de s’appuyer sur l’ajustement et le
renouvellement de ces pratiques, évaluatives entre autres, et de capitaliser
sur les projets à succès. L’échange de « bonnes pratiques » entre
professionnels en évaluation semble essentiel pour soutenir de tels objectifs.
Quelques plateformes d’échanges sur l’évaluation dans la fonction
publique existent : notamment à travers les activités du GRAEP, de la
SQEP ou de la SCE, des rencontres ponctuelles entre chercheurs et
utilisateurs de la recherche, ou la mobilisation d’un réseau universitaire
existant (ReQUE). Toutefois, l’animation de tels réseaux nécessitent un
soutien et un engagement sur le long terme.
2. La transparence auprès des citoyens dans le processus évaluatif est peu
présente.
Le déclenchement d’évaluations et l’utilisation des résultats des
évaluations par les parlementaires et les citoyens, par exemple par
l’entremise de la diffusion publique de l’information résultant des
évaluations, semble assez ténue dans les conditions actuelles qui encadrent
la visibilité publique des rapports d’évaluation, puisque la pratique de
diffusion reste du ressort du dirigeant de chaque ministère.
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
Certains rapportent que la diffusion de cette information serait plus
répandue dans les ministères à vocation sociale que dans ceux à vocation
économique. Une administration publique accordant la priorité à la qualité
des services aux citoyens peut bénéficier de moyens pour prendre en
compte les attentes des citoyens, par exemple, à travers des consultations
publiques ou en recourant aux approches participatives actives. À ce jour,
les moyens en place ne semblent pas permettre une diffusion étendue des
évaluations, ni une pratique commune de diffusion entre ministères,
comme semble l’illustrer l’écart rapporté entre les ministères à vocation
sociale et ceux à vocation économique.
3. La réalisation et l’utilisation d’évaluations de portée stratégique
paraissent peu fréquentes.
Les évaluations sont en grande majorité employées à des fins
opérationnelles, pour mettre en œuvre des programmes, ou ajuster des
budgets dans les ministères bien plus qu’à des fins stratégiques comme la
remise en cause de l’existence même de programme, ou la reddition de
comptes auprès du gouvernement, des parlementaires et ultimement, des
citoyens. L’exercice et le contenu des dispositions règlementaires dans ce
sens laissent cette marge de manœuvre aux dirigeants des organisations. Le
déploiement de l’outil d’évaluation des programmes annoncé dans le
Message du président du Conseil du Trésor dans le cadre du Budget de
dépenses 2013–2014 (novembre 2012) pourrait en partie répondre à cette
faible utilisation au niveau stratégique, bien que n’adressant ni l’efficacité
du système d’imputabilité parlementaire, ni la participation active des
citoyens.
Dans le cadre de la présente étude, l’analyse croisée présente certaines
limites. La compétence des ressources humaines (professionnels,
directeurs, haut gestionnaires) à s‘acquitter de leurs tâches d’évaluation
avec le professionnalisme requis d’un évaluateur ou d’un gestionnaire de
la fonction, telle que définie par exemple dans les Normes en évaluation de
programme adoptées par la Société canadienne d’évaluation, peut
difficilement être appréciée. En effet, aucune étude publique à ce jour ne
mentionne le niveau de scolarité, l’expérience en évaluation, les modalités
de recrutement, ou le profil de compétences en évaluation comme c’est le
cas pour certaines analyses publiées par le gouvernement fédéral du
Canada. Cependant, un sondage de cette teneur est en phase de
préparation avancée.
Des valeurs telles que l’impartialité, l’intégrité, la loyauté et le respect de
la fonction publique concernant le personnel qui exerce en évaluation ne
sont pas non plus directement documentées avec les données obtenues.
Des entrevues en profondeur permettraient de répondre de manière plus
précise. Cependant, il ne semble pas y avoir de raison de croire que la
PERNELLE SMITS, STEVE JACOB
fonction d’évaluation soit exercée de manière différente qu’une autre
fonction de gestion où un fonctionnaire est soumis aux mêmes dispositifs,
à défaut d’obligations spécifiques.
Finalement, cet article propose un cadre d’analyse alliant volet théorique
(réglementation, loi, etc.), et volet empirique (actualisation de la fonction
d’évaluation). Ainsi l’ensemble des dimensions choisies (valeurs et
environnement, ressources et modalités, pratique, effets) offre un regard
complémentaire pour l’étude et la compréhension du fonctionnement
d’une fonction de gestion, soit l’évaluation de programme. Il applique une
approche méthodologique systématique pour relever les cohérences et
incohérences de cette fonction de gestion. L’analyse croisée par dyade
présente l’avantage de dégager des zones possibles d’action pour remettre
en question et éventuellement améliorer les pratiques futures.
Des applications d’un cadre d’analyse similaire à d’autres fonctions de
gestion (par exemple, la planification stratégique), permettraient d’élargir
et de préciser le potentiel explicatif et analytique d’un tel cadre. Un suivi
de l’évolution de la fonction étudiée alimenterait l’argumentation sur la
force du cadre analytique et celle de la comparaison par dyade. De
nouvelles modalités de soutien de la fonction d’évaluation d’une administration publique pourraient être ainsi ébauchées.
Notes
1 Remarque à l’intention des praticiens : Cet article est conçu comme une réflexion
conceptuelle sur une pratique de gestion, l’évaluation, et propose un cadre permettant de
mettre en évidence les forces et faiblesses de l’actualisation d’une telle fonction, par une
analyse systématique de la situation. Il n’est pas question ici de défendre ou de remettre
en question l’existence même de la fonction évaluative, mais de prendre pour acquis que
l’évaluation fait partie des moyens disponibles auprès des administrations contemporaines.
2 Plus précisément dans les ministères.
3 Les normes de la Société canadienne d’évaluation reprennent les standards du Joint Committee on Standards for Educational Evaluation.
Bibliographie
Abelhauser, A., R. Gori, et M.-J. Sauret. 2011. La folie évaluation : les nouvelles fabriques de la
servitude.
Boisvert, Y. 2009. Les scandales politiques. Montréal : Liber.
Bourdieu, P., et L.J.D. Wacquant. 1992. An Invitation to Reflexive Sociology. Chicago.
Commission de l’administration publique. 2008. Vingtième rapport sur l’imputabilité des sousministres et des dirigeants d’organismes publics. Québec.
Commission de l’administration publique. 2011. Vingt-septième rapport sur l’imputabilité des
sous-ministres et des dirigeants d’organismes publics. Québec.
Conseil du Trésor du Québec. 2002. Recueil des politiques de gestion.Orientations en évaluation.
Cook, S.D.N., et J.S. Brown. 1999. “Bridging Epistemologies : The Generative Dance Between
Organizational Knowledge and Organizational Knowing.” Organization Science 10 (4):
381–400.
LA FONCTION D’ÉVALUATION DANS L’ADMINISTRATION PUBLIQUE QUÉBÉCOISE
Cousins, J.B., et L.M. Earl. 1992. “The case for participatory evaluation.” Educational Evaluation
and Policy Analysis 14 (4): 397–418.
Fetterman, D.M., S. Kaftarian, et A. Wandersman. 1996. Empowerment evaluation : Knowledge
and tools for self-assessment and accountability. Thousand Oaks, CA: Sage.
Furubo, J.-E., R.C. Rist, R. Sandahl. 2002. “International Atlas of Evaluation.”
Gouvernement du Québec. 1982. Loi sur l’accès aux documents des organismes publics et sur la
protection des renseignements personnels.
Gouvernement du Québec. 2000. Loi sur l’administration publique.
Gow, J.I. 1995. « Propos dissidents sur l’imputabilité parlementaire des hauts fonctionnaires
québécois ». Administration publique du Canada 38 (1): 145–9.
Groupe des responsables en analyse et évaluation de programme. 2008. Sondage : Québec.
Ilse, B., G. Alba. 1989. “Participatory evaluation : A tool to assess projects and empower
people.” New Directions for Program Evaluation 42: 9–18.
Jacob, S. 2011. L’évaluation face aux défis de la professionnalisation et de l’éthique. Québec :
PerfEval.
Jacob, S., Y. Boisvert. 2010. “To be or not to be a profession: Pros, Cons and Challenges for
Evaluation.” Evaluation. The International Journal of Theory, Research and Practice 16 (4): 349–69.
Jacob, S., L.M. Imbeau, et J.-F. Bélanger. 2011. « La nouvelle gestion publique et
l’accroissement des marges de manœuvre. Un terreau propice au développement de
l’éthique? » Administration publique du Canada 54 (2): 189–215.
Knowlton, L.W., and C.C. Phillips. 2012. The Logic Model Guidebook : Better Strategies for Great
Results. SAGE Publications, Inc.
Marceau, R. 1994. « L’évaluation de programmes : rationalisation des dépenses ou stratégie
de marketing ». Un État réduit? / A Down-Sized State? (Dirs) Robert Bernier et James
Iain Gow. Sainte-Foy : Presses de l’Université du Québec : 261–76.
Marceau, R. 2007. « L’expérience québécoise des trente dernières années en évaluation ».
L’évaluation des politiques au niveau régional. S. Jacob, F. Varone et J.-L. Genard. Bruxelles : Peter
Lang : 143–55.
Marceau, R., D. Otis, et P. Simard. 1992. « La gestion de l’évaluation de programme
au gouvernement du Québec ». Management public : comprendre et gérer les institutions de
l’État. R. Parenteau et G. Éthier. Sillery : Presses de l’Université du Québec : 481–97.
Marceau, R., D. Otis, et coll. 1992. « La planification d’une évaluation de programme ».
Management public : comprendre et gérer les institutions de l’État. R. Parenteau et G. Éthier.
Sillery, Presses de l’Université du Québec : 445–77.
Marceau, R., D. Otis, et P. Simard. 1992. ‘Program Evaluation in the Government of Quebec.’
Action-Oriented Evaluation in Organizations : Canadian Practice. J. Hudson. Toronto : Wall &
Emerson: 48–63.
Marceau, R., et J. Turgeon. 1994. « Une analyse comparative de processus institutionnels
d’évaluation des programmes publics ». Les organisations publiques à la recherche de l’efficacité.
M. Charih et M. Paquin. Québec : ENAP: 183–207.
May, E. 2006. « Towards the Institutionalization of Monitoring and Evaluation Systems in
Latin America and the Caribbean : Proceedings of a World Bank/Inter-American Development Bank Conference », World Bank: 95.
Patton, M. Q. 1998. “Discovering process use.” Evaluation 4 (2): 225–33.
Picciotto, R. 2005. “The Evaluation of Policy Coherence for Development.” Evaluation 11 (3):
311–30.
Pickering, A. 1990. “Knowledge, practice and mere construction.” Social Studies of Science 20
(4): 682–729.
Raelin, J. 1997. “A model of work-based learning.” Organization Science 6: 563–78.
Raelin, J. 2007. “Towards an epistemology of Practice.” Academy of Management Learning &
Education Journal 6 (4): 459–519.
PERNELLE SMITS, STEVE JACOB
Rolland, J.-P. 2010. Étude sur la cohérence des politiques commerciales en Afrique de l’ Ouest. Rapport
final : A. f. d. développement.
Saskatchewan government. 2010. Interjuridictional comparisons. 2011.
Secrétariat du Conseil du Trésor. 2011. L’évaluation de programme au Québec : Un état de
situation au 26 avril 2011. Direction de la planification stratégique et de l’Administration
publique.
Secrétariat du Conseil du Trésor. 2011. « Rapport de la présidente du Conseil du Trésor et
ministre responsable de l’Administration gouvernementale sur l’application de la Loi sur
l’administration publique 2009–2010 ».
Sicotte, C., F. Champagne, A.P. Contandriopoulos, J. Barnsley, F. Béland, S.G. Leggat, J.L.
Denis, H. Bilodeau, A. Langley, M. Brémond, G.R. Baker. 1998. “A conceptual framework
for the analysis of health care organizations’ performance.” Health Serv Manage Res 11 (1):
24–41.
Sicotte, C., F. Champagne, A.P. Contandriopoulos. 1999. « La performance organisationnelle
des organisations de santé ». Ruptures, revue transdisciplinaire en santé 6 (1) : 34–46.
Smits, P. 2012. Défis et pratiques actuels pour le recours aux évaluations dans les prises de
décision. 2 février 2012. Rapport du forum ENAP-GETOSS-GRAEP.
Société Canadienne d’Évaluation. 2010. « L’évaluation au Canada : référentiel des
compétences professionnelles requises à son exercice ».
Talcott, P. 1977. Social Systems and the Evolution of Action Theory. New York.
Wei, P. 2008. « Les valeurs fondatrices des sociétés contemporaines ». Diogène 1 (221): 73–99.
Weiss, C.H. 1979. “The many meanings of research utilization.” Public Administration Review
39 (5): 426–31.
Weiss, C.H., E. Murphy-Graham, et S. Birkeland. 2005. “An Alternate Route to Policy
Influence: How Evaluations Affect D.A.R.E.” American Journal of Evaluation 26 (1): 12–30.
Whittington, R. 2003. “The Work of Strategizing and Organizing : For a Practice Perspective.”
Strategic Organization 1 (1): 117–25.