L`art d`évaluer les programmes
Transcription
L`art d`évaluer les programmes
L’art d’évaluer les programmes* Judy Layne Pour que l’évaluation des programmes joue un rôle significatif dans le processus d’élaboration des politiques officielles, l’application des paradigmes doit évoluer considérablement. P our que l’évaluation des programmes joue un rôle significatif dans le processus d’élaboration des politiques officielles, des principes nouveaux et ingénieux doivent voir le jour. Les relations uniques et complexes entre la politique et l’évaluation des programmes comportent toutes sortes de difficultés que les démarches scientifiques traditionnelles face à l’évaluation ne permettent pas de résoudre correctement. Je mettrai d’abord l’accent sur ce que l’évaluation des programmes pourrait apporter au processus d’élaboration des politiques officielles, et je comparerai cet apport au rôle qu’elle joue à l’heure actuelle dans la prise de décisions aux échelons politiques. Puis, en m’inspirant de la documentation sur la question, je ferai valoir qu’il est nécessaire d’adopter des Judy Layne est doyenne des sciences et de la santé, à l’Institute of Applied Science and Technology de la Saskatchewan. À l’heure actuelle, elle suit le programme de maîtrise en administration publique; elle a remporté deux médailles d’or dans le cadre de ses études de premier cycle en sciences, en éducation et en gestion du personnel. Aujourd’hui, dans ses études universitaires, elle s’intéresse notamment à l’évaluation des programmes et à la mesure du rendement dans le secteur public, ainsi qu’aux différents modèles de prestation des services, par exemple les partenariats entre le secteur public et le secteur privé. Elle a travaillé dans ces deux secteurs en gestion des ressources humaines et a publié, dans des revues professionnelles, des articles sur différents sujets se rapportant à la gestion des ressources humaines et à la gestion en général. approches qualitatives astucieuses dans l’évaluation des programmes, pour en améliorer l’à-propos et l’application dans un contexte politique. Enfin, je ferai certaines suggestions pour modifier le processus d’évaluation des programmes, en prêtant une attention particulière à la nécessité d’accroître la participation des intervenants à cette évaluation. Concours possible de l’évaluation des programmes à la prise de décisions aux échelons politiques L’évaluation des programmes doit permettre de recueillir des données précises à des fins de planification, de faire ressortir les rapports de cause à effet en vue de déterminer quelles variables il faut modifier dans les * Le présent article est une version abrégée du document rédigé par Judy Layne dans le cadre de sa maîtrise en administration publique. L’Association canadienne des programmes publics du Canada et la Division du Manitoba de l’Institut d’administration publique du Canada ont attribué à son document le titre de meilleur texte soumis par un étudiant de deuxième cycle en 1998 dans l’ensemble du pays. Optimum, La revue de gestion du secteur public • vol. 29, nos 2/3 (1-10) 1 L’ A R T D ’ É VA L U E R L E S P R O G R A M M E S programmes pour obtenir les résultats voulus et d’obtenir de l’information sur les coûts et les avantages pour mieux choisir les mesures d’intervention les plus fructueuses. Selon Wise, il y a « beaucoup de tapage publicitaire sur la rationalité que [l’évaluation] pourrait apporter dans l’univers chaotique du gouvernement »1. Or, les effets de la recherche évaluative sur l’orientation des politiques officielles sont relativement limités. Dans l’ensemble, peu d’études auraient produit un impact notable sur l’élaboration des politiques aux échelons politiques. De nombreux auteurs2,3,4 confirment qu’il a très rarement été décidé d’annuler ou de réduire des programmes publics qui, après évaluation, avaient été jugés inefficaces. Au Canada, les praticiens semblent avoir réduit le rôle de l’évaluation des programmes à celui d’« outil de gestion, alors qu’il devrait présenter un véritable défi pour le gouvernement »5. En outre, il semble que la publication des constatations découlant d’une évaluation ne soit pas une pratique généralisée : en effet, les ministères conservent habituellement à l’interne les rapports qui renferment ces constatations. Certains auteurs font remarquer qu’au Canada, l’activité d’évaluation vise à répondre aux besoins en information non pas des citoyens, mais plutôt des gestionnaires de programmes6,7,8. Il existe bien entendu certaines exceptions dignes de mention, dont le rapport en 21 volumes du Groupe de travail Nielsen, qui appartient au domaine public. En règle générale toutefois, la presse ou le grand public ne prennent connaissance des constatations issues de l’évaluation qu’après qu’elles ont été intensivement examinées et revues à l’interne. De plus, bien qu’on s’accorde généralement pour reconnaître, dans la documentation, que la consultation des intervenants fait partie intégrante du processus d’évaluation, il est évident que cette consultation n’a pas lieu9. Schelling, comme le cite Greenberger, estime que « l’analyse des intérêts des participants est sans doute aussi importante que l’analyse des problèmes »10. Le président du Conseil du Trésor précise que le gouverne-ment doit « travailler afin de répondre aux attentes du public »11. Cependant, le seul moyen que le gouvernement a de savoir si ses programmes officiels répondent à ces attentes, c’est de faire participer le public au processus d’évaluation. Renouf croit que « nous avons rendu Ottawa davantage capable d’évaluer Ottawa, 2 au lieu de donner à la collectivité canadienne de meilleurs moyens d’évaluer son gouvernement fédéral »12. L’évaluation des programmes et l’élaboration des politiques officielles La raison d’être de l’évaluation et ses modalités d’application L’évaluation des programmes peut se faire pour des raisons très diverses qu’on classera généralement sous des objectifs généraux comme l’amélioration des politiques officielles et (ou) des services offerts. Pal affirme que, si on effectue des études évaluatives, c’est principalement pour déterminer si « les politiques, les programmes et les opérations sont efficaces »13. Son propos n’est pas parfaitement clair; d’autres auteurs définissent plus en détail la notion d’« efficacité ». Rossi et Berk décrivent en termes généraux les objectifs de l’évaluation14. À leurs yeux, l’évaluation vise à répondre à des questions importantes qui surgissent pendant l’élaboration des politiques et au moment de la conception et de la mise en œuvre des programmes; elle sert aussi à contrôler l’efficience et l’efficacité des programmes en place ou proposés. Précisons qu’il est rare de trouver, dans la documentation, des références aux études évaluatives portant sur des programmes qu’on songe à instaurer. Patton laisse entendre que l’évaluation des programmes, en plus de servir à la prise de décisions aux échelons politiques peut avoir d’autres utilités15. En voici quelquesunes : améliorer la mise en œuvre des programmes, élaborer des objectifs plus clairs pour ces programmes, réunir des renseignements plus précis sur les besoins des clients et susciter une mûre réflexion à propos d’un programme (qui pourrait ne porter fruit que plus tard). Simeon est d’avis que la simple réalisation d’une étude évaluative peut créer une conjoncture favorable au changement; il cite les commentaires d’une personne interrogée dans le cadre des travaux du Groupe Nielsen, qui estimait que l’étude en soi faisait sauter certains obstacles et insufflait de nouvelles idées au sein du gouvernement16. Optimum, La revue de gestion du secteur public • vol. 29, nos 2/3 L’ A R T D ’ É VA L U E R L E S P R O G R A M M E S Le motif de l’évaluation peut être purement politique; ce peut être, par exemple, de bâtir l’image d’un programme ou du gouvernement lui-même17. Patton laisse entendre par ailleurs que les représentants politiques pourraient se servir de l’évaluation expressément pour tuer un programme 18; or, rien dans la documentation ne vient confirmer cette position. Il est vraisemblable également d’avancer à titre spéculatif que les politiciens pourraient vouloir recourir à l’évaluation pour justifier une position déjà adoptée. Pour leur part, Rossi, Freeman et Wright ont une vision pessimiste de l’objectif qui sous-tend l’évaluation des programmes. Ils concluent que celui qui commande une étude évaluative exprime implicitement le doute que le programme visé n’est peut-être pas aussi efficace qu’on l’aurait espéré19. C’est peut-être Berk et Rossi qui énoncent le motif qui reflète le mieux le contexte politique dans lequel doit se dérouler l’évaluation des programmes. Pour eux, l’évaluation permet d’ « apporter la meilleure information qui soit sur les grandes questions d’intérêt public, en tenant compte d’un ensemble de contraintes réelles » 20 . À mon avis, la « meilleure information qui soit » est une information utile et pertinente qui tient compte des considérations politiques, du processus et des éléments de mesure des résultats. On peut classer les méthodes d’évaluation en deux catégories : celles qui sont axées sur l’impact et celles qui portent essentiellement sur le processus. Les évaluations d’impact, appelées aussi études de résultats ou études sommatives, sont réalisées après la mise en œuvre d’un programme. Elles permettent d’évaluer rétrospectivement les résultats d’un programme par rapport aux objectifs. Bien que la majorité des études évaluatives mettent l’accent sur l’impact des programmes, souvent elles sont réalisées trop tard pour jouer un rôle significatif dans l’orientation des décisions d’intérêt public, puisque, comme le signale si justement Palumbo, « les politiques existent indépendamment du reste une fois qu’elles ont été mises en œuvre »21. L’évaluation d’impact soulève un problème de connaissance des relations de cause à effet, puisque le programme est vu comme une variable causale et qu’on s’efforce, dans le cadre de l’évaluation, d’en isoler l’impact par rapport à celui des autres facteurs. Il est difficile, voire impossible, d’établir cette relation de cause à effet. Les Optimum, La revue de gestion du secteur public • vol. 29, nos 2/3 études de coûts-avantages, qui appartiennent à la catégorie des évaluations d’impact, comportent un autre problème, puisqu’elles ont pour objet d’attribuer une valeur monétaire aux coûts et aux avantages souvent intangibles des programmes de l’État. L’évaluation des processus, appelée étude formative, consiste à analyser la mise en œuvre des programmes. Elle a pour objet de déterminer si un programme est offert à son public cible selon la « dose » prévue22 et comment on pourrait l’améliorer. Palumbo et Nachmias font observer que même si, traditionnellement, l’évaluation apporte une information sommative qui permet de décider si un programme public doit être maintenu ou abandonné, on semble opter de plus en plus pour l’évaluation des processus23. Cette évolution s’explique peut-être en partie par le fait que les décisions sur « la vie ou la mort » d’un programme sont rarement prises dans les milieux politiques, d’après ce que l’on a pu constater. Les évaluations exhaustives comprennent à la fois des études formatives et des études sommatives 24 . Ce regroupement des processus et des données sur l’impact des programmes paraît logique et complémentaire, puisque la qualité de la mise en œuvre d’un programme, mesurée grâce à l’évaluation des processus, n’est pas nécessairement synonyme de la qualité du programme lui-même, mesurée au moyen de l’évaluation d’impact. À mon avis, pour que les politiciens soient en mesure d’utiliser au maximum l’évaluation des programmes afin de prendre des décisions, il leur faut un apport continuel et ininterrompu de constatations découlant des évaluations; et le meilleur moyen d’y arriver est de combiner l’examen des processus et l’évaluation d’impact. L’évaluation des programmes comme activité scientifique L’évaluation des programmes est devenue une activité scientifique. En effet, il faut reconnaître que c’est grâce aux assises solides de l’analyse quantitative scientifique, dont elle s’inspire, que l’évaluation des programmes a évolué. Aujourd’hui, on continue de présenter l’évaluation des programmes comme un secteur d’activité scientifique et systématique. On l’a décrite tantôt comme une « science de 3 L’ A R T D ’ É VA L U E R L E S P R O G R A M M E S l’information »25, tantôt comme « la science funeste de l’analyse des politiques »26. Les écrits confirment que, même si son application a évolué dans une certaine mesure, le paradigme prépondérant est toujours celui de la recherche scientifique. La grande rigueur exercée encore aujourd’hui sur le plan de la méthode cadre bien avec le modèle scientifique positiviste. En fait, ceux et celles qui œuvrent dans le domaine croient souvent que la rigueur de la méthodologie employée est un gage d’immunité contre l’influence politique et les autres influences contextuelles27. Les défis de l’évaluation des programmes dans un contexte politique Les défis que présente l’évaluation des programmes dans un contexte politique sont nombreux et variés, par exemple, l’instabilité du contexte dans lequel se déroule l’évaluation. En définitive, à cause d’une conjoncture marquée par de constantes compressions d’effectifs et de budgets, on a moins d’argent à consacrer à la recherche évaluative, et ceux et celles qui travaillent dans ce contexte donnent la priorité à d’autres activités que l’évaluation, ce qui est compréhensible. Pal note avec à-propos le paradoxe d’une situation financière qui met en relief la nécessité de l’évaluation, tout en en restreignant l’application28. Le coût élevé de nombreuses études évaluatives complique encore ce problème. Derlien affirme que 20 p. 100 des évaluations effectuées aux États-Unis en 1984 ont coûté plus de 100 000 $29. Souvent, le calendrier de la vie politique et celui de l’évaluation des programmes sont contradictoires. Le processus annuel de budgétisation, dans le cadre duquel on prend souvent des décisions de financement rapides à partir de données incomplètes, peut obliger à réaliser rapidement des études évaluatives. À cause du peu de temps dont disposent les représentants politiques pour faire bonne impression sur l’électorat, il est sans doute plus sage, politiquement, de lancer un nouveau programme que d’en évaluer un ancien30. Généralement, aux yeux des gestionnaires et des employés chargés des programmes, les études évaluatives 4 représentent une menace. Cela est compréhensible, puisqu’on peut penser que c’est ce groupe qui a le plus à perdre ou à gagner si on décide d’abolir ou de maintenir un programme. Puisque les constatations qui ressortent de l’évaluation révèlent souvent des vérités désagréables, Pal note qu’on est tenté de « tuer ou, du moins, d’ignorer le messager »31. McCleary, comme le cite Kelly, relève avec cynisme la réaction que le personnel chargé des programmes a face à l’évaluation : Lorsque cela est possible, les travailleurs se servent des statistiques non pas comme de statistiques, mais plutôt comme des instruments pour réduire leur charge de travail32. Cette critique est sans doute trop dure; Rogers offre un point de vue plus réaliste, en citant Hartle qui affirme que « rare est le chien prêt à porter le bâton qui servira à le battre »33. En outre, les administrateurs de programmes se sentent obligés de présenter la preuve de l’efficacité de leurs programmes, compte tenu de l’intolérance des milieux politiques pour l’échec. Étant donné la rareté apparente des évaluations « positives », nous pourrions nous attendre à ce que la stratégie adoptée par les administrateurs soit d’intégrer leur programme à une étude évaluative portant sur plusieurs programmes, pour faire comparativement bonne impression. Les objectifs des programmes constituent souvent des baromètres médiocres pour mesurer le succès. Ils sont souvent imprécis, non mesurables, exagérés et parfois incompatibles. Parfois, les objectifs définis indiquent que le but a été formulé de façon précipitée parce qu’on s’efforçait de faire approuver le financement. Ils peuvent aussi avoir été formulés ainsi à dessein afin de recueillir des appuis plus vastes. À l’étape de l’élaboration des programmes, on pense rarement à se munir d’indicateurs quantitatifs et qualitatifs complets de l’efficacité. L’évaluation sommative des réalisations découlant d’un programme est riche de défis pour d’autres raisons. Premièrement, il est plus difficile de quantifier des objectifs de rendement dans le secteur public que dans le secteur privé. On pourrait en fait affirmer que l’importance accordée à la quantification a pour effet de faire porter l’évaluation des programmes sur des notions banales qu’on peut mesurer facilement. Deuxièmement, les données de base pour les comparaisons après la mise en œuvre des programmes sont souvent absentes. Troisièmement, comme le signale Rein, l’opinion des gens sur le caractère opportun Optimum, La revue de gestion du secteur public • vol. 29, nos 2/3 L’ A R T D ’ É VA L U E R L E S P R O G R A M M E S ou souhaitable de l’évaluation change avec le temps34. Quatrièmement, les intervenants ont tous des définitions différentes de la notion de succès et, parfois, ils ne sont prêts à en accepter que certains baromètres. Enfin, alors que dans la recherche scientifique toutes les variables, sauf la variable de contrôle, doivent rester constantes pour permettre d’isoler les effets35, il est difficile d’isoler les conséquences des programmes publics par rapport aux autres facteurs déterminants. Le processus d’évaluation des programmes oblige à faire des compromis difficiles. Chaque analyse évaluative est unique, et il n’est pas possible de généraliser comme on le fait dans le domaine scientifique positiviste. Il faut réaliser un équilibre harmonieux entre, d’une part, la faisabilité et le coût des différentes méthodologies d’évaluation et, d’autre part, les avantages et l’utilisation des constatations qui ressortent de l’évaluation36. On considère souvent que la participation de différents intervenants à l’évaluation menace l’intégrité des constatations. La recherche scientifique traditionnelle oblige le chercheur à demeurer objectif par rapport à l’objet de son étude. Si on juge essentiel de tenir compte dans l’évaluation de l’opinion de différents intervenants, on doit assurer un juste équilibre entre la consultation et la neutralité. Une difficulté intéressante réside dans l’absence de critères établis pour juger du mérite relatif des diverses valeurs des intervenants. Guba et Lincoln souhaitent que les valeurs des intervenants soient traitées équitablement pendant toute la durée de l’évaluation37. Bien qu’il soit noble d’affirmer que « toutes les valeurs naissent égales », je soutiens pour ma part qu’ultimement, la prise de décisions aux échelons politiques réclame un classement des valeurs par priorité ou selon la hiérarchie. Nécessité d’une nouvelle approche face à l’évaluation des programmes Le Robert définit l’art comme l’« activité consciente et créatrice tendue vers un but ». Il est nécessaire d’adopter, face à l’évaluation des programmes, une approche ingénieuse davantage axée sur la qualité pour en réaliser le Optimum, La revue de gestion du secteur public • vol. 29, nos 2/3 véritable potentiel dans l’élaboration des politiques d’intérêt public. Cela ne veut pas dire qu’il faille renoncer aux méthodes scientifiques dans la recherche évaluative; il faut plutôt faire de l’évaluation un art. Pour les besoins de cet exposé, il est utile de noter l’adage « L’art est le miroir de la vie ». Comme l’art, la recherche évaluative doit s’effectuer en tenant compte de la réalité du contexte dans lequel elle se déroule. Cette réalité peut réunir les caractéristiques suivantes. Premièrement, les faits ne déterminent pas à eux seuls les politiques d’intérêt public; autrement dit, les constatations qui découlent de l’évaluation doivent rivaliser avec une foule de facteurs non scientifiques qui influent sur la prise de décisions aux échelons politiques38. Deuxièmement, le processus de prise de décisions aux échelons politiques est essentiellement un art, puisqu’il consiste à discuter et à négocier pour produire des résultats satisfaisants. On peut soutenir qu’il doit en aller de même du processus d’évaluation. Troisièmement, comme le signale Patton, bien que l’univers politique des intérêts particuliers et des différents intervenants soit rationnel et logique, cette rationalité ou cette logique n’est pas celle de l’économie. Il affirme également que l’idéal visé lorsqu’on définit explicitement des objectifs et qu’on mesure leur réalisation est « un modèle de raison humaine et de rationalité. La réalité de la pratique de l’évaluation dans un contexte politique montre que nous n’atteignons pas toujours nos idéaux rationnels »39. La science et l’évaluation des programmes poursuivent des objectifs différents et n’ont pas la même mission. Premièrement, la science est en quête de vérité, tandis que l’évaluation doit être en quête d’information. Comme le fait observer Qvortrup, l’évaluation doit « déborder le cadre de la systématisation de la réalité empirique »40. Deuxièmement, la science a pour mission d’être objective, alors que l’évaluation des programmes n’a pas d’objectif unique ou de résultat exact. Troisièmement, le contrôle est un principe sur lequel repose la recherche scientifique, et l’évaluation des programmes ne peut pas exercer de contrôle sur la réalité politique. Selon Patton, l’évaluation exige qu’on adopte une approche de résolution de problèmes qui soit adaptable aux changements, et non une approche technique visant à mouler et à définir des conditions selon un modèle préconçu41. 5 L’ A R T D ’ É VA L U E R L E S P R O G R A M M E S Il est nécessaire d’adopter une approche consultative plus qualitative pour améliorer la pertinence et l’utilisation des constatations découlant des évaluations de programmes dans un contexte politique. Brightman et Noble décrivent les « scientifiques de la décision », dont font partie les chercheurs-évaluateurs traditionnels, comme « désespérément naïfs et intellectuellement arrogants. Naïfs, parce qu’ils croient que la résolution des problèmes commence et se termine par une analyse; arrogants, parce qu’ils optent pour la rigueur mathématique au lieu des résultats »42. Greenberger note qu’en mettant essentiellement l’accent sur les questions techniques et économiques au détriment des questions importantes pour les représentants politiques, les évaluateurs « partent défavorisés dans la course à l’attention et à l’influence, et leur travail perd l’impact qu’il aurait normalement pu produire »43. Une approche ingénieuse s’harmonise avec les normes d’évaluation professionnelles établies que sont l’utilité, la faisabilité, la pertinence et l’exactitude. Bien qu’il ne fasse aucun doute que les méthodes scientifiques telles que les techniques d’échantillonnage soient utiles dans l’évaluation des programmes, les critères scientifiques traditionnels (validité, fiabilité et objectivité), pour leur part, ne conviennent pas aux normes ni aux hypothèses des milieux politiques. Les processus techniques de l’évaluation scientifique ne peuvent s’adapter au pluralisme des valeurs. On doit plutôt faire appel à des méthodes ingénieuses pour tenir compte des points de vue des différents intervenants. Comme Katz, certains auteurs estiment qu’on ne peut pas résoudre le problème du pluralisme des valeurs par l’analyse44. Au lieu de « jeter le bébé avec l’eau du bain », on préfère adopter des positions comme celle de Greenberger, qui affirme qu’« à eux seuls, les faits ne permettent pas de résoudre une controverse enracinée dans des valeurs subjectives et des positions idéologiques » 45 , et comme celle de Rossi, Freeman et Wright, qui sont d’accord pour dire que les faits se situent souvent « en dehors du débat dont les principaux thèmes sont axés sur les valeurs »46. Kelly cite Kimmel pour mieux étayer le plaidoyer en faveur des approches nouvelles et qualitatives face à l’évaluation des programmes, lorsqu’il fait observer que « la mesurabilité n’est pas un indice de l’importance » 47 . Effectivement, on relève de nombreux exemples d’études 6 évaluatives dans lesquelles ce qui a été omis peut être considéré comme aussi essentiel, voire plus important que ce qui a été pris en compte. Enfin, on peut dire que l’évaluation est un art puisque, comme l’art, l’un de ses principaux avantages est de jeter un regard neuf sur la réalité. Suggestions pour changer l’évaluation des programmes : lui donner un rôle significatif dans l’élaboration des politiques officielles Je fais ci-après certaines suggestions pour changer l’approche scientifique qu’on a traditionnellement eue face à l’évaluation des programmes, pour que celle-ci puisse ainsi jouer un rôle significatif dans la prise de décisions aux échelons politiques. Adopter une approche de résolution de problème en situation L’évaluation doit viser, dans son application, non plus la rigueur méthodologique, mais l’ingéniosité. Les travaux de plusieurs auteurs mettent en relief le point de vue selon lequel la démarche à adopter dans les études évaluatives en est une de résolution de problèmes en situation, dans laquelle les critères de décision sont multiples et souples48-51. L’ingéniosité se traduira par le recours à l’éventail complet des méthodologies offertes dans le domaine et aux meilleurs techniques qualitatives et quantitatives qui soit, pour l’étude à réaliser. La méthodologie de l’évaluation doit mettre en équilibre les objectifs liés à la validité de la recherche et ceux qui ont trait à l’utilité et à la pertinence. Je suis d’accord avec le point de vue des auteurs qui, comme Patton, affirment que l’utilité doit être le critère prépondérant dans les décisions découlant d’une évaluation52. Autrement dit, le recours à des méthodes scientifiques trop complexes qui peuvent porter atteinte à la Optimum, La revue de gestion du secteur public • vol. 29, nos 2/3 L’ A R T D ’ É VA L U E R L E S P R O G R A M M E S pertinence et à l’utilité des constatations doit être pondéré en fonction des risques pour la validité. Les préoccupations liées à la précision technique doivent être examinées dans le contexte « de l’esprit et du défi » des normes d’évaluation professionnelles53. Accroître la diffusion des constatations découlant de l’évaluation Il faudrait diffuser plus largement les constatations issues de l’évaluation parmi les députés et le grand public, ce qui favoriserait l’ouverture et l’examen des politiques officielles. On considère que la publication des résultats des évaluations fait partie intégrante de l’effort déployé pour promouvoir, au gouvernement, l’obligation de rendre des comptes. On doit faire appel à différents moyens pour atteindre cet objectif, notamment insister davantage sur l’évaluation dans les rapports annuels, assurer une couverture médiatique plus grande, améliorer les rapports présentés au Parlement et offrir de meilleurs moyens d’accès électroniques. Rist saisit toute l’importance de la diffusion de l’information lorsqu’il affirme qu’une diffusion plus large des résultats des évaluations donne lieu à un climat de changement différent de celui que l’on crée lorsqu’on restreint la diffusion des constatations issues de l’évaluation54. Bien que le président du Conseil du Trésor reconnaisse qu’« il est important que les citoyens et les contribuables aient accès à l’information relative aux coûts des activités et des programmes du gouvernement »55, les coûts ne sont pas le seul facteur important, et il faut d’autres indicateurs pour connaître l’efficacité des programmes. S’il est impossible, pour des motifs valables, de faire participer les intervenants à l’évaluation d’un programme, on pense qu’il est d’autant plus important de faire une diffusion plus large des résultats de l’évaluation, afin de susciter la discussion et le débat. Accroître la participation des intervenants On doit accroître la participation des intervenants à tous les aspects de l’évaluation. Renouf parle de la nécessité de « réaffirmer la responsabilité de la collectivité face aux Optimum, La revue de gestion du secteur public • vol. 29, nos 2/3 questions économiques »56. Bemelmans-Videc et Conner font observer que, puisque les programmes de l’État visent à orienter les processus sociaux en apportant des changements aux activités des citoyens, « il faudrait tenir compte du point de vue des intervenants à la fin de la chaîne des relations de cause à effet »57. Le président du Conseil du Trésor reconnaît que la participation accrue d’intervenants de l’extérieur permettrait d’« améliorer la confiance des organismes centraux en utilisant les conclusions d’études effectuées par les ministères pour prendre des décisions importantes »58, et le contrôleur général explique qu’en élargissant et en approfondissant les formes actuelles de consultation des clients dans les programmes publics, on créerait un « environnement propice au changement »59. Palumbo va même jusqu’à affirmer qu’on devrait tenir compte, dans les évaluations, de l’avis des opposants à un programme60. Selon moi, il est aussi important d’analyser les besoins et les intérêts des intervenants que de se pencher sur les questions techniques et économiques. En outre, si l’évaluation est effectivement une recherche de « la meilleure information qui soit », il est certain qu’en tenant compte de l’opinion des intervenants, on apportera aux représentants politiques des données complètes pour leur permettre de prendre des décisions éclairées. Bien que je reconnaisse la nécessité d’examiner, dans chaque cas, l’effort, le coût et la complexité que représente la consultation des intervenants, on peut recourir à des solutions ingénieuses pour répondre aux préoccupations de cette nature. Patton donne l’exemple d’une situation dans laquelle on a fait appel à des jurés éventuels qui attendaient de faire partie d’un groupe de discussion, pour réunir rapidement et à peu de frais des données à partir d’un échantillon aléatoire relativement important d’intervenants 61 . On peut affirmer que l’évaluation des programmes permet de consulter les intervenants à deux niveaux, ce qui améliore la méthodologie dans les deux cas. Au premier niveau, les intervenants participent aux entrevues et expriment leur avis pendant la réalisation des études évaluatives. Au deuxième niveau, soit celui que l’on préfère, les intervenants participent activement à tous les aspects de la conception et de la réalisation de l’évaluation. Il est utile de faire un commentaire particulier sur la consultation, à titre d’intervenants, des gestionnaires et des 7 L’ A R T D ’ É VA L U E R L E S P R O G R A M M E S employés chargés des programmes. La méthode d’évaluation doit permettre de prévoir leurs réactions – bien compréhensibles – à l’évaluation des programmes et doit comporter des mesures pour faire face à ces réactions. Le meilleur moyen de réaliser cet objectif est peut-être de les faire participer davantage à tous les aspects du processus d’évaluation. Les préoccupations que pourraient soulever la participation du personnel chargé des programmes, notamment le parti pris et la subjectivité, doivent être jaugés par rapport aux avantages éventuellement plus importants de leur participation : engagement plus grand à l’endroit du processus d’évaluation, réduction des frais de collecte des données et perfectionnement des compétences internes. Redéfinir le rôle de l’évaluateur Conformément à l’évolution des paradigmes dans le processus d’évaluation, le rôle de l’évaluateur doit lui aussi être redéfini. Guba et Lincoln proposent une thèse qui suscite de multiples réflexions sur l’évolution de l’évaluation des programmes62. Ils parlent en effet d’une « quatrième génération » d’évaluation, dans laquelle on conserve les rôles traditionnels, mais en les redéfinissant. Selon ce modèle, l’évaluateur, plutôt que les outils de mesure plus normalisés, est le principal instrument de l’étude. Au lieu de fixer une image au travers d’un objectif scientifique, l’évaluateur « tâche d’éclairer la scène » et permet de comprendre différents principes. Au lieu de juger les données, il devient le médiateur du processus subjectif. À ce titre, les auteurs affirment que les décisions ne peuvent être prises tant qu’on ne s’entend pas sur des compromis entre différentes valeurs ou que certains intervenants ne sont pas assez puissants pour contrôler le processus63. De même, Guba et Lincoln reconnaissent que cette dernière situation est répandue, mais estiment qu’il s’agit d’une « situation immorale »64. Pour ma part, je soutiens que ces auteurs sont peut-être trop sévères dans leurs critiques et quelque peu naïfs dans leur notion de compromis. Par contre, je reconnais que le compromis n’est pas toujours possible ou n’est pas nécessairement la meilleure solution. On peut plutôt penser que la disponibilité de l’information pertinente sur différentes valeurs peut constituer un cadre plus complet pour la prise de décisions aux échelons politiques. 8 Harmoniser le contenu des constatations de l’évaluation Les études doivent faire état des résultats négatifs, même s’ils sont imprévus, autant que des résultats positifs. Bien que les constatations positives soient évidemment plus intéressantes politiquement, on doit tenir compte des résultats négatifs imprévus si on s’engage véritablement à améliorer les politiques65. Les rapports d’évaluation doivent présenter des recommandations précises, au lieu de comporter des critiques qui sont souvent théoriques66 et doivent faire état des atouts des programmes autant que de leurs lacunes, de façon à susciter un engagement à l’endroit du processus d’évaluation. Orienter le processus d’évaluation en fonction du processus de décision politique Bien qu’on examine les constatations qui ressortent de l’évaluation dans le contexte de la discussion et du débat, le processus d’évaluation lui-même doit être à l’image de cette discussion et de ce débat parmi les intervenants. Nachmias souligne que dans la plupart des cas, ni les constatations issues de l’évaluation, ni les facteurs qui amènent les décideurs politiques à agir comme ils le font sont parfaitement limpides 67. Un processus d’évaluation qui prévoit la consultation des intervenants à toutes les étapes permettrait de rendre ces deux éléments plus clairs. Élargir le rôle de l’évaluation des programmes Enfin, il faudrait faire de l’évaluation des programmes un instrument de planification. Cette affirmation est incompatible avec le rôle d’instrument de mesure rétrospective traditionnellement attribué à l’évaluation. Pour devenir un instrument de planification efficace, l’évaluation doit jouer un rôle « chronologique » dans la planification des programmes, dans leur mise en œuvre et dans l’évaluation des résultats. Optimum, La revue de gestion du secteur public • vol. 29, nos 2/3 L’ A R T D ’ É VA L U E R L E S P R O G R A M M E S Conclusion Les paradigmes devront évoluer considérablement pour que l’évaluation des programmes joue un rôle significatif dans le processus d’élaboration des politiques officielles. Le paradigme prépondérant est toujours celui de la recherche scientifique traditionnelle. Pourtant, l’interface entre la politique et l’évaluation présente des défis complexes, que les démarches scientifiques traditionnelles en matière d’évaluation ne permettent pas de relever. Voilà pourquoi l’évaluation des programmes ne réalise pas, à l’heure actuelle, son véritable potentiel d’outil de décision politique. Pour répondre aux préoccupations sur la pertinence et l’utilisation des résultats des évaluations, une seule solution s’offre à nous : appliquer des méthodes d’évaluation ingénieuses qui sont axées sur la résolution des problèmes en situation et qui emploient un ensemble de techniques qualitatives et quantitatives. On peut rendre l’évaluation des programmes plus utile aux milieux politiques en apportant certains changements précis à la démarche, notamment en insistant sur la participation des intervenants, en diffusant davantage les constatations des études, en redéfinissant le rôle de l’évaluateur et en élargissant le rôle de l’évaluation des programmes pour en faire un instrument de planification. En optant pour la pertinence aux dépens de la rigueur scientifique dans la pratique de l’évaluation, il est certain qu’on ébranle sérieusement le paradigme scientifique existant et l’équilibre actuel des pouvoirs politiques. La description de l’artiste fournie en 1923 par Robert Henri (et citée par Patton) peut en fait s’appliquer à l’évaluateur dans ce nouveau contexte : « Tout individu qui, quelle que soit son œuvre, possède un tempérament artistique devient une créature inventive, un chercheur redoutable, un être capable d’extérioriser ses sentiments…. Il dérange, bouleverse, éclaire et crée des moyens de mieux comprendre la réalité. Lorsque ceux et celles qui ne sont pas des artistes essaient de fermer le livre, il l’ouvre et montre qu’on peut y ajouter encore d’autres pages. »68 Notes 1. C.H. Weiss (réd.). Using Social Research in Public Policy Making, Lexington, Mass., Lexington Books, 1977, p. 4. du Trésor, Ottawa, Conseil du Trésor du Canada, Direction de la planification et des communications, 1995-1996, p. 1. 2. Emil J. Posovac et Raymond G. Carey. Program Evaluation : Methods and Case Studies, Englewood Cliffs, N.J., Prentice-Hall, 1980, p. 2. 12. Harold Renouf. « The Public Monitoring of Public Expenditures ». Dans G. Bruce Doern et Allan M. Maslove (réd.). The Public Evaluation of Government Spending, Montréal, Institute of Research on Public Policy, 1979, p. 93. 3. Donald J. Savoie. The Politics of Public Spending in Canada, Toronto, University of Toronto Press, 1990. 4. Robert V. Segsworth. « Policy and Program Evaluation in the Government of Canada », dans Ray C. Rist (réd.). Program Evaluation and the Management of Government: Patterns and Prospects across Eight Nations, New Brunswick, N.J., Transaction Publishers, 1990, p. 21-36. 5. Leslie A. Pal. Beyond Policy Analysis: Public Issue Management in Turbulent Times, Scarborough, Ont., ITP Nelson, 1997, p. 235. 6. Kenneth Kernaghan et David Siegel. Public Administration in Canada, Agincourt, Methuen Publications, 1987. 7. Segsworth, 1990, op. cit. 8. Pal, 1997, op. cit. 9. Le terme intervenant employé dans cet article s’entend des représentants politiques, des gestionnaires et employés chargés des programmes, des clients et du grand public. 13. Pal, 1997, op. cit., p. 254. 14. Peter H. Rossi et Richard A. Berk. « An Overview of Evaluation Strategies and Procedures », Human Organizations, vol. 40, no 4 (1981), p. 287. 15. Michael Q. Patton. Creative Evaluation, Newbury Park, Sage, 1987, p. 74. 16. James C. Simeon. « Groupe de travail Neilsen sur l’étude des programmes et la réorganisation de l’administration fédérale », Optimum, vol. 20, no 1 (1989-1990), p. 7. 17. Robert E. Floden et Stephen S. Weimer. « Rationality to Ritual: The Multiple Roles of Evaluation in Governmental Processes », Policy Sciences, vol. 9, no 1 (1978), p. 16. 18. Patton, 1987, op. cit., p. 20. 10. Martin Greenberger. Caught Unawares: The Energy Decade in Retrospect, Cambridge, Mass., Ballinger, 1983, p. 300. 19. Peter H. Rossi, Howard E. Freeman et Sonia R. Wright. Evaluation – A Systematic Approach, Beverly Hills, Sage Publications, Inc., 1979, p. 308. 11. Conseil du Trésor du Canada. Pour une fonction d’examen plus efficace : rapport annuel présenté au Parlement par le Président du Conseil 20. Richard A. Berk et Peter H. Rossi. Thinking about Program Evaluation, Newbury Park, Sage, 1990, p. 9. Optimum, La revue de gestion du secteur public • vol. 29, nos 2/3 9 L’ A R T D ’ É VA L U E R L E S P R O G R A M M E S 21. Dennis J. Palumbo (réd.). The Politics of Program Evaluation, Newbury Park, Sage, 1987, p. 41. 22. Mary A. Scheirer. « Designing and Using Process Evaluation », dans J.S. Wholey, H.P. Hatry and K.E. Newcomer (réd.). Handbook of Practical Program Evaluation, San Francisco, Jossey-Bass, 1994, p. 40. 23. Dennis J. Palumbo et David Nachmias. « The Preconditions for Successful Evaluation: Is There An Ideal Paradigm? », Policy Sciences, vol. l6 (1983), p. 68. 24. Howard E. Freeman. « Evaluation Research and Public Policies: The Dartmouth/OECD Conference », dans Gene M. Lyons (réd.). Social Research and Public Policies, Hanover, N.H., University Press of New England, 1975, p. 146. 25. Posovac et Carey, 1980, op. cit. 26. Pal, 1997, op. cit., p. 259. 27. Palumbo et Nachmias, 1983, op. cit., p. 71. 28. Pal, 1997, op. cit., p. 259. 29. Hans-Ulrich Derlien, « Genesis and Structure of Evaluation Efforts in Comparative Perspective », dans Ray C. Rist (réd.). Program Evaluation and the Management of Government, New Brunswick, Transaction Publishers, 1990, p. 173. 30. Joseph S. Wholey. « Assessing the Feasibility and Likely Usefulness of Evaluation », Handbook of Practical Program Evaluation, San Francisco, Jossey-Bass, 1994. 31. Pal, 1997, op. cit., p. 234. 32. Rita M. Kelly. « The Politics of Meaning and Policy Inquiry ». In Dennis J. Palumbo (réd.). The Politics of Program Evaluation, Newbury Park, Sage, 1987, p. 273. 33. Harry Rogers. « Program Evaluation in the Federal Government ». Dans Doern et Maslove, 1979, op. cit., p. 86. 34. Martin Rein. From Policy to Practice, New York, M.E. Sharpe Inc., 1983, p. 135. 35. Richard P. Seiter. Evaluation Research as a Feedback Mechanism for Criminal Justice Policy Making : A Critical Analysis, San Francisco, R & E Research Associates, Inc., 1978, p. 24. 36. Wholey, 1994, op. cit., p. 15. 37. Egon G. Guba et Yvonna S. Lincoln. « The Countenances of Fourth-Generation Evaluation: Description, Judgment and Negotiation », dans Dennis J. Palumbo (réd.). The Politics of Program Evaluation, Newbury Park, Sage, 1987, p. 212. 38. David Nachmias. « The Role of Evaluation in Public Policy », Policy Studies Journal, vol. 8, no 7 (1980), p. 1168. 39. Patton, 1987, op. cit. 40. Mette Qvortrup. « Models in Evaluation : A Method to Increase Utilization », dans J. Mayne, M.L. Behmelmans-Videc, et coll. (réd.). Advancing Public Policy Evaluation – Learning from International Experiences, Amsterdam, Elsevier Science Publishers, 1992, p. 269. 10 41. Patton, 1987, op. cit., p. 24. 42. Harvey Brightman et Carl Noble. « On the Ineffective Education of Decision Scientists », Decision Sciences, vol. 10, no 1 (1979), p. 156. 43. Greenberger, 1983, op. cit., p. 299. 44. James E. Katz. Congress and National Energy Policy, New Brunswick, Transaction Publishers, 1984, p. 234. 45. Greenberger, 1983, op. cit., p. 271. 46. Rossi, Freeman et Wright, 1979, op. cit. 47. Kelly, 1987, op. cit., p. 275. 48. David Nachmias. Public Policy Evaluation: Approaches and Methods, New York, St. Martin’s Press, 1979. 49. Walter L. Wallace. Principles of Scientific Sociology, New York, Aldine Publishing Co., 1983, p. 378. 50. Michael Q. Patton. Utilization-Focused Evaluation (2e éd.), Beverly Hills, Sage, 1986, p. 87, et 1987, op. cit. 51. Palumbo, 1987, op. cit. 52. Patton, op. cit., 1986, p. 289. 53. Ibid., p. 220. 54. Ray C. Rist (réd.). Program Evaluation and the Management of Government, New Brunswick, N.J., Transaction Publishers, 1990, p. 9. 55. Conseil du Trésor du Canada, 1995-1996, op. cit., p. 8. 56. Renouf, 1979, op. cit., p. 95. 57. Marie-Louise Bemelmans-Videc et Ross Conner. « The Outcomes of Evaluation », dans J. Mayne, M.L Bemelmans-Videc, J. Hudson et R. Conner (réd.). Advancing Public Policy Evaluation : Learning from International Experiences, Amsterdam, Elsevier Science Publishers B.V., 1987, p. 245. 58. Conseil du Trésor du Canada, 1995-1996, op. cit., p. 11. 59. Contrôleur général. Aborder les années 90 : perspectives gouvernementales pour l’évaluation de programmes, Ottawa, Ont., Ministre des Approvisionnements et Services Canada, (juin 1991). 60. Palumbo, 1987, op. cit., p. 35. 61. Patton, 1987, op. cit., p. 213. 62. Guba et Lincoln, 1987, op. cit., p. 209-231. 63. Ibid. 64. Ibid. 65. Hans-Urich Derlien. « Program Evaluation in the Federal Republic of Germany ». Dans Ray C. Rist (réd.), 1990, op. cit., p. 46. 66. David Glover.« Politiques publiques : une rencontre entre chercheurs et décideurs », Le CRDI explore, vol. 23, no 3 (octobre 1995), p. 4. 67. Nachmias, 1979, op. cit. 68. Patton, 1987, op. cit., p. 153. Optimum, La revue de gestion du secteur public • vol. 29, nos 2/3