v GUEST EDITOR`S REMARKS - Canadian Evaluation Society
Transcription
v GUEST EDITOR`S REMARKS - Canadian Evaluation Society
v GUEST EDITOR’S REMARKS This issue of the Journal celebrates its 20th year of publication and, perhaps fittingly enough, takes an historical perspective, presenting review articles dealing with developments in evaluation, particularly in Canada, across various fields of practice, including health, child welfare, social services, health networks, and federal government evaluation efforts, as well as reviews of the use of such practice tools as client satisfaction measures and two reviews of articles published in this Journal over its life. The first two articles, by Lisa Birch and Steve Jacob and Emily Addison and Courtney Amo, present analyses of materials published in this Journal over its 20-year history, providing something of a perspective on how the Canadian evaluation field has evolved and offering benchmarks for future comparative assessments. While covering slightly different time periods and types of published materials, the two articles complement each other, providing interesting insights into the focus and content of published materials and the manner in which these have changed over time. Birch and Jacob cover articles, research notes, and book reviews published in the Journal from Spring 1986 through Fall 2004 — a total of 382 pieces. The scope of the article by Addison and Amo is slightly different, covering only articles and research and practice notes (not book reviews) published in issues from Spring 1986 through Fall 2005 — a total of 370 pieces. While the two articles use different categories to present their results, the overall conclusions are generally similar. Among their findings are that the vast majority of authors publishing in the Journal were Canadian, with a majority from the province of Ontario and representing a variety of disciplines in university settings. While there has been some increase in the number of French-language articles, the vast majority of published pieces have been written in English, and while there have been changes over time, the published articles represent a rough balance in the proportion dealing with general discussions of evaluation topics, including methodological concerns, and those dealing with evaluation cases. Almost two-thirds of the articles and research notes dealt with content related to mental health, social services, government, health, and education. The third article, by Catherine Worthington, provides a thoughtful review of one of the most commonly used evaluation tools in differ- vi THE CANADIAN JOURNAL OF PROGRAM EVALUATION ent evaluation practice fields: client satisfaction instruments. While Worthington’s article deals mainly with the use of client or patient satisfaction instruments in the field of health care, her review analysis is relevant to any field of practice in which client satisfaction is an evaluation concern. She carefully describes and assesses major approaches to satisfaction theory and research, concluding with a discussion of emerging approaches and implications for evaluation practice. The next four articles present reviews of evaluation in specific practice fields — social services, child welfare, health, and education. The first of these, by Robert Flynn and Danielle Bouchard, presents a review of Canadian child welfare outcome evaluations published in the last 10 years. Only studies using an experimental or quasi-experimental design were included in the review and, quite surprisingly for such a large field of service, only four randomized and six non-randomized impact evaluations were found. These form the basis for this review. This means that, as Flynn and Bouchard note, Canadian child welfare outcome studies are published at a rate of approximately one a year, what would most likely be viewed as a terribly disappointing number, given the number of children and families implicated in provincial and territorial child welfare systems and the huge expenditure of funds used to deliver services to them. The evidence is clear: Provincial and territorial governments simply do not value program evaluation, regardless of the amount of verbal support given to such practices. Programs having little or no empirical support continue to be operated and new services implemented with no substantive consideration given to documenting their efficacy, even though, as this review by Flynn and Bouchard demonstrates, the more rigorous the evaluation, the more likely that program effects will not significantly differ from zero. Given that child welfare administrators have failed at documenting the worth of their services, they may well want to consider adopting the medical credo of doing no harm and taking responsibility for showing the benign effects of their interventions with children and families. Jackie Sieppert’s article can be seen as expanding some of Flynn and Bouchard’s findings to the broader context of social services. He reviews some themes dominating evaluation trends in social services over the last decade — developing performance measurement systems, taking on a community-level perspective on outcomes and evaluation processes, developing an organizational capacity in social service agencies to undertake evaluation studies, and involving and LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME vii empowering community stakeholders to identify the range of relevant measures and types of data that best relate to desired outcomes. Sieppert calls for funding bodies to invest in building the capacity of social service organizations to undertake program evaluations, and notes that this means social service administrators must begin mounting reasonable evaluation efforts so as to provide accountability for the worth of the services provided. Underlying this effort probably means that social work training programs must begin taking on more of an applied social science orientation, emphasizing training in program evaluation methods, and putting much less emphasis on what is often seen as a proclivity to reinforce student biases toward left-wing ideological position-taking. It probably seems reasonable to expect that emphasis on substantive skills training in research and evaluation methods must overtake an emphasis on ideological positioning, of whatever stripe, if social workers are to play leading roles in bringing about the kind of changes Sieppert sees as necessary. The next article, by Janice Popp and her colleagues, deals with reviewing the evaluation of Canadian child and youth health networks. Key findings from the literature on networks and their evaluation are described, the experience of work on a network evaluation reviewed, and key lessons identified for evaluating network effectiveness. To a considerable extent, evaluation work on networks poses similar challenges to evaluating issues of a horizontal nature that cut across two or more departments or agencies. These are more common than one might initially expect, involving many programs in this country in which both provincial and federal governments play a role — whether funding, implementing, evaluating, or auditing — as well as programs in which two or more federal or provincial agencies are involved. An example of a program in which two federal agencies play roles is the federal parole program in which the federal corrections agency as well as the federal parole agency play important operational roles. Lorna Earl, A. Sidiq Ali, and Linda E. Lee’s article reviews the evaluation of school improvement in Canada. Complexities and challenges of defining and evaluating school improvement are described and illustrated using the case example of the Manitoba School Improvement Program. These authors then turn to reviewing research on school effectiveness and establishing a theoretical model to be used for the purpose of designing both ideal and practically realistic evaluation designs. The final article shifts to a review of federal government efforts at viii THE CANADIAN JOURNAL OF PROGRAM EVALUATION evaluation. Robert Segsworth presents a history of program evaluation in the federal government, tracing the evolution of federal evaluation policy, along with changes in the central locus of evaluation and the amount and type of resources deployed. A key finding from Segsworth’s analysis is that a central policy and central organizational arrangements have been the principal influence on the federal evaluation effort. In the 1980s there was a clear evaluation policy and a strong central organization staffed with evaluation specialists. These conditions facilitated the rapid development of evaluation units in departments and agencies and the production of evaluation products across government. In the early 1990s the evaluation policy was weakened, and then in 1994 further diluted by immersion in a broader review policy. The central evaluation organization was dismantled and, largely as a result, departments and agencies reduced their investment in program evaluation. Then in 2001, when the conditions of the early 1980s were recreated — a strong policy, well staffed central coordinating function — departments and agencies once again appeared to follow the lead, creating or strengthening local evaluation units and increasing evaluation outputs. In short, Segsworth traces the ups and downs of federal evaluation efforts, and the pity is that federal bureaucrats seem to have trouble setting and maintaining a consistent focus on program evaluation. It would be interesting to know who were the officials responsible for proposing that the federal evaluation policy be weakened. But to give federal bureaucrats at least a backhanded compliment, in contrast to their provincial counterparts who have been consistent in doing little, they have, as Segsworth documents so well, at least made sporadic efforts to evaluate the huge number of programs and services paid for by the citizenry. An interview with the Guest Editor finishes off this issue. That interview was carried out by the Editor, J. Bradley Cousins, and gratitude is expressed to him for his work. Brad had the idea for this anniversary issue, and he either did much of the work himself or encouraged, cajoled, and persistently pushed the rest of us to get our parts done. Joe Hudson, Professor Emeritus Faculty of Social Work, University of Calgary, Calgary, Alberta <[email protected]> December 2005 LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME ix UN MOT DU RÉDACTEUR INVITÉ Cette publication de la Revue souligne sa 20ième année de publication et, comme il le fallait, l’édition se concentre sur un point de vue historique, présentant des exposés de synthèse qui traitent des cheminements en évaluation, surtout au Canada, à travers différents domaines de la pratique, notamment la santé, la protection de l’enfance, les services sociaux, les réseaux de santé, les efforts d’évaluation du gouvernement fédéral, ainsi que les examens de l’utilisation d’outils de la pratique comme les mesures de satisfaction de la clientèle, et deux critiques d’articles parus dans la Revue au cours de sa vie. Les deux premiers articles, de Lisa Birch et Steve Jacob et d’Emily Addison et Courtney Amo, présentent des analyses d’articles publiés dans la Revue au cours de ses 20 années de publication, en fournissant un certain point de vue sur l’évolution du domaine de l’évaluation au Canada et en présentant des points de repère pour des évaluations comparatives à venir. Même s’ils couvrent des périodes légèrement différentes et des genres différents d’articles, les deux articles se complètent en fournissant des aperçus intéressants de l’accent et du contenu du matériel publié ainsi que de l’évolution des articles au fil des ans. Le premier article, de Birch et Jacob, traite des articles, des notes de recherche, et des comptes rendus de livres publiés dans la Revue du printemps 1986 à l’automne 2004, analysant un total de 382 textes. La portée du deuxième article, celui d’Addison et Amo, est quelque peu différente, traitant seulement des articles et des notes de recherche et de pratique, mais pas de comptes rendus de livres, publiés dans des éditions du printemps 1986 à l’automne 2005, analysant un total de 370 textes. Bien que les deux articles utilisent des catégories différentes pour présenter leurs résultats, les conclusions globales sont en général semblables. Parmi les constatations, on note le fait que la grande majorité des auteurs publiant dans la Revue étaient Canadiens, provenant majoritairement de l’Ontario, et qu’ils représentaient une variété de disciplines du monde universitaire. Même s’il y a eu une certaine augmentation du nombre d’articles en français, la grande majorité des articles publiés ont été écrits en anglais et, bien qu’il y ait eu des changements au fil du temps, les articles publiés représentent un certain équilibre entre articles traitant des discussions générales des thèmes d’évaluation, y compris des préoccupations méthodologiques, et articles traitant de diverses situations d’évaluation. Presque les deux tiers du contenu des articles et notes x THE CANADIAN JOURNAL OF PROGRAM EVALUATION de recherche avaient trait à la santé mentale, aux services sociaux, au gouvernement, à la santé, et à l’éducation. Le troisième article, de Catherine Worthington, présente une critique réfléchie d’un des outils d’évaluation les plus utilisés dans différents domaines de la pratique de l’évaluation, soit, les instruments de mesure de la satisfaction de la clientèle. Même si l’article de Worthington traite surtout de l’utilisation des instruments de mesure de la satisfaction des clients ou des patients dans le domaine des soins de santé, son analyse est pertinente pour n’importe quel domaine de pratique pour lequel la satisfaction de la clientèle est une préoccupation pour l’évaluation. Elle décrit soigneusement et analyse les principales approches de la théorie et de la recherche touchant la satisfaction et conclut par une discussion sur les approches nouvelles et les répercussions sur la pratique de l’évaluation. Les quatre articles suivants présentent des analyses de l’évaluation dans des domaines précis de pratique—les services sociaux, la protection de l’enfance, la santé, et l’éducation. Le premier des quatre articles, celui de Robert Flynn et Danielle Bouchard, examine les évaluations publiées au cours de la dernière décennie sur les résultats de la protection de l’enfance au Canada. Seules les études utilisant une conception expérimentale ou quasi expérimentale ont fait partie de l’étude et, chose assez surprenante pour un si grand domaine de service, seules quatre évaluations randomisées et six non randomisées ont été trouvées sur les impacts. Ces évaluations forment la base de l’étude. Ceci veut dire que, comme le notent Flynn et Bouchard, les études sur les résultats de la protection de l’enfance au Canada sont publiées à un rythme d’environ une étude par année, ce qui peut être probablement perçu comme un nombre terriblement décevant, étant donné le nombre d’enfants et de familles participant aux systèmes provinciaux et territoriaux de protection de l’enfance et les dépenses considérables de fonds pour leur offrir ces services. La preuve est claire : les gouvernements provinciaux et territoriaux n’accordent aucune valeur à l’évaluation de programme, peu importe le soutien verbal exprimé pour de telles pratiques. Les programmes qui ont peu de soutien empirique, ou aucun, continuent de fonctionner, et de nouveaux services sont instaurés sans analyse significative pour documenter leur efficacité, même si, comme le démontre cette étude de Flynn et Bouchard, plus l’évaluation est rigoureuse, plus il est probable que les effets du programme ne différeront pas beaucoup de zéro. Étant donné que les administrateurs de la protection de l’enfance ne se sont pas préoccupés de documenter la valeur de leurs LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME xi services, ils pourraient peut-être désirer envisager l’adoption du credo médical visant à ne faire aucun mal et à prendre la responsabilité de démontrer les effets bénins de leurs interventions auprès des enfants et des familles. L’article de Jackie Sieppert sert à élargir certaines constatations de Flynn et Bouchard en les appliquant au contexte plus large des services sociaux. Cet article examine certains thèmes qui ont dominé les tendances de l’évaluation dans les services sociaux au cours de la dernière décennie—le développement de systèmes de mesure du rendement, l’adoption d’un point de vue communautaire pour les résultats et les processus d’évaluation, le renforcement de capacité organisationnelle chez les agences de service social pour entreprendre des études d’évaluation, et l’implication et la responsabilisation des intervenants communautaires pour identifier la gamme des mesures pertinentes et le genre de données qui sont mieux liés aux résultats désirés. Sieppert demande aux organismes de financement d’investir dans le renforcement de la capacité des organismes de service social à effectuer des évaluations de programme et note que ceci veut dire que les administrateurs de services sociaux doivent commencer à déployer des efforts raisonnables d’évaluation afin d’assumer la responsabilité de la valeur des services fournis. Pour appuyer cet effort, les programmes de formation en travail social doivent commencer à adopter plus l’orientation des sciences sociales appliquées, soulignant la formation dans les méthodes d’évaluation de programme et plaçant moins d’accent sur ce qui est souvent perçu comme une tendance à renforcer les préjugés des étudiants sur la position idéologique de gauche. Il semble raisonnable probablement de s’attendre à ce que l’accent sur la formation de compétences de fond sur les méthodes de recherche et d’évaluation prenne le dessus sur l’accent sur la position idéologique, de quelque couleur qu’elle soit, si les travailleurs sociaux doivent jouer des rôles de premier plan pour entraîner le genre de changements qui est nécessaire, selon Sieppert. L’article suivant, de Janice Popp et de ses collègues, traite de l’examen de l’évaluation des réseaux de santé pour les enfants et les jeunes au Canada. Les principales constatations tirées de la littérature sur les réseaux et leur évaluation sont décrites, l’expérience de travail d’évaluation d’un réseau est examinée, et les principales leçons sont identifiées pour l’évaluation de l’efficacité du réseau. Dans une grande mesure, le travail d’évaluation des réseaux pose des défis semblables aux questions d’évaluation de nature horizontale qui peuvent croiser deux ministères ou agences ou plus. Ces dernières xii THE CANADIAN JOURNAL OF PROGRAM EVALUATION sont plus courantes que ce à quoi on pourrait s’attendre, impliquant plusieurs programmes nationaux dans lesquels tant les gouvernements provinciaux que fédéral jouent un rôle—que ce soit pour le financement, la mise en œuvre, l’évaluation, la vérification—ainsi que les programmes impliquant deux ou plus agences fédérales ou provinciales. Un exemple de programme pour lequel deux agences fédérales jouent un rôle est le programme fédéral des libérations conditionnelles dans le Service correctionnelle du Canada ainsi que la Commission national des libérations conditionnelles jouent des rôles opérationnels importants. L’article de Lorna Earl, A. Sidiq Ali, et Linda E. Lee examine l’évaluation de l’amélioration des écoles au Canada. Les complexités et les défis liés à l’évaluation de l’amélioration des écoles sont décrits et illustrés en utilisant un exemple du Manitoba School Improvement Program. Ces auteurs se penchent ensuite sur l’examen de la recherche sur l’efficacité des écoles et sur l’établissement d’un modèle théorique qui sert à établir des conceptions pour une évaluation idéale et réaliste dans la pratique. Le dernier article aborde les efforts d’évaluation du gouvernement fédéral. Robert Segsworth présente un historique de l’évaluation de programme au gouvernement fédéral, traçant l’évolution de la politique fédérale en matière d’évaluation ainsi que les changements dans le lieu central de l’évaluation et la quantité et le genre de ressources déployées. Une constatation clé découlant de l’analyse de Segsworth est qu’une politique centrale et des aménagements organisationnels centraux ont été l’influence principale des efforts d’évaluation du fédéral. Au cours des années 1980, il existait une politique claire sur l’évaluation et une organisation centrale énergique dotée de spécialistes de l’évaluation. Ces conditions ont facilité le développement rapide d’unités d’évaluation au sein des ministères et agences ainsi que la production de produits d’évaluation au sein du gouvernement. Au début des années 1990, la politique d’évaluation a été affaiblie et ensuite, en 1994, diluée davantage par son intégration à une politique plus large sur l’examen. L’organisation centrale d’évaluation a été démantelée et, surtout à cause de cette situation, les ministères et agences ont réduit leur investissement dans le domaine de l’évaluation de programme. Ensuite, en 2001, lorsque les conditions du début des années 1980 ont été créées à nouveau—une politique forte, une fonction centrale de coordination bien dotée—les ministères et les agences ont à nouveau emboîté le pas, en créant ou en consolidant les unités locales d’évaluation et en augmentant les résultats d’éva- LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME xiii luation. En résumé, Segsworth fait le tracé des hauts et des bas des efforts d’évaluation du fédéral, et, ce qui est triste, les bureaucrates fédéraux semblent avoir des problèmes à établir et à conserver une concentration constante sur l’évaluation de programme. Il serait intéressant de savoir qui étaient les représentants responsables de proposer que la politique du fédéral en matière d’évaluation soit affaiblie. Mais il faut quand même complimenter les bureaucrates fédéraux par rapport à leurs collègues provinciaux qui ont fait preuve d’une grande constance à en faire très peu. En fait, les représentants du fédéral, comme l’article de Segsworth le documente si bien, ont fait au moins des efforts sporadiques pour évaluer l’énorme quantité de programmes et services payés par les contribuables. Une entrevue avec le rédacteur invité termine cette publication. L’entrevue a été réalisée par le rédacteur en chef, J. Bradley Cousins, et nous lui sommes reconnaissants pour son travail. C’est lui qui a eu l’idée de publier cette édition anniversaire et il a fait une grande partie du travail lui-même en plus d’encourager, bichonner, et inciter le reste de notre équipe à préparer nos sections. Joe Hudson, Professeur émérite Faculté du travail social, University of Calgary Calgary, Alberta <[email protected]> décembre 2005