v EDITOR`S REMARKS - Canadian Evaluation Society

Transcription

v EDITOR`S REMARKS - Canadian Evaluation Society
v
EDITOR’S REMARKS
Understanding and taking into account the complexities of the context
within which programs occur is becoming increasingly essential to
evaluation practice, regardless of the approach taken. Many would
argue that evaluators need to develop not only their sensitivities to
context but also their skills in integrating stakeholder value perspectives into the evaluation process. The first four articles in this issue
of the Journal address these challenges from different perspectives.
First, Valéry Ridde uses a previously developed framework for collaborative inquiry processes to analyze three independent participatory evaluation projects. He does this with the goal of critiquing the
framework, suggesting modifications to it, and proposing ongoing
direction for further inquiry in this area. Ridde’s contribution is primarily theoretical, with implications for understanding the dynamics
of the participatory process at deeper levels than is presently the
case. The next three articles, in contrast, build on case examples of
participatory or collaborative evaluation approaches to develop lessons learnt for evaluation practice.
Alma Estable and her colleagues recount their experiences in evaluating a community-based health promotion research project. The
approach taken by the authors provided them with insights into the
functioning of a partnership in a complex and changing environment. It permitted the identification of changes to the partnership
that may be linked to the evaluation process itself. Next, Michelle
Anderson-Draper looks closely at the issue of cultural competence for
evaluators through the evaluation of a project designed to address
issues of family violence. Her analysis generated several implications
for practice including relationship building, learning facilitation,
and the development of evaluator competencies. I am pleased to
acknowledge the Anderson-Draper article as a revised version of the
winning entry from the 2005 Canadian Evaluation Society Student
Paper Contest. Finally, Colla MacDonald and associates used a community-based participatory research framework in the evaluation
of an online dementia care program. Their article is rich in insights
into the dynamics and challenges of working within the community
of professional practice to generate evaluative knowledge.
Nadine Lanctôt and Julie Chouinard provide an interesting case study
focused on the implementation of a multi-site program from a youth
centre in Québec. Their analyses succeed in illuminating a host of
vi
THE CANADIAN JOURNAL OF PROGRAM EVALUATION
structural factors influencing the implementation process and offer
valuable insight for both program managers and those charged with
the responsibility of evaluating program implementation.
The final two feature articles address the complexities inherent in conducting accurate and useful outcome evaluations. First, Joan Bishop
and Evelyn Vingilis use a causal modelling approach to develop and
implement a conceptual framework for client outcomes in community
mental health services. The framework consisted of hypothesized
links among treatment and mediating variables and intermediate
and longer term outcome variables and was validated and modified
on the basis of input from stakeholders. Bishop and Vingilis describe
an approach worthy of serious consideration for evaluation in the
field of community mental health. Finally, Ian Cahill and colleagues
develop a solution to a problem of comparing outcomes of participants
to non-participants. Specifically, they focus on the problem of producing biased outcome estimates when using a conventional approach
to determining the implementation period for the non-participant
group. Using a simulation method, they develop and test a solution
that applies semi-parametric duration models.
The current issue also includes a Research and Practice Note and
four book reviews. John Mayne proposes the concept of performance
studies: limited, single-issue inquiries that focus on an ad hoc basis on
aspects of performance that typically do not lend themselves well to
ongoing measurement. Mayne provides a comparison of performance
studies to evaluation and performance measurement and suggests
that such an approach would be an effective, low-cost way of supporting results-based management under appropriate circumstances. As
an interesting follow-up, one of the books reviewed is a comprehensive
treatise on evaluation and performance measurement. The others,
including one French-language review, focus on qualitative and case
study methodology and evaluator role and identity. I hope that you
will enjoy reading them.
J. Bradley Cousins
Editor-in-chief
Ottawa, August 2006
LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME
vii
REMARQUES DU RÉDACTEUR EN CHEF
Comprendre et tenir compte des complexités du contexte dans lequel
les programmes sont mis en oeuvre devient un élément de plus en plus
incontournable de la pratique de l’évaluation, et ce, peu importe l’approche adoptée. Beaucoup soutiendraient que les évaluateurs ont non
seulement besoin d’être sensibilisés au contexte, mais qu’ils doivent
également développer leurs aptitudes à intégrer les points de vue des
intervenants au processus d’évaluation. Les quatre premiers articles
de ce numéro de la Revue examinent ces défis sous différents angles.
Tout d’abord, Valéry Ridde utilise un cadre de travail élaboré antérieurement pour des processus d’enquête participatifs pour analyser
trois projets d’évaluation participative indépendants. Il le fait en vue
de mettre à l’épreuve le cadre de travail afin d’y suggérer des modifications et de proposer une orientation pour des recherches futures
dans ce domaine. La contribution de Ridde est principalement théorique et permet une compréhension beaucoup plus approfondie de la
dynamique du processus participatif que ce n’est le cas actuellement.
Les trois articles suivants s’appuient quant à eux sur des exemples
d’approches participatives ou collaboratives en évaluation et en dégagent des leçons pour la pratique de l’évaluation.
Alma Estable et ses collègues relatent leurs expériences dans le cadre
de l’évaluation d’un projet de recherche communautaire en promotion
de la santé. L’approche adoptée par les auteures leur a permis de
mieux comprendre le fonctionnement d’un partenariat dans un environnement complexe et changeant. Le projet a permis d’identifier les
changements dans le partenariat qui pourraient être dus au processus
d’évaluation comme tel. Ensuite, Michelle Anderson-Draper examine
de près la question de compétence culturelle pour les évaluateurs en
s’appuyant sur l’évaluation d’un projet conçu pour aborder les questions de violence familiale. Son analyse a de nombreuses retombées
sur la pratique, notamment l’établissement de relations, la promotion
de l’apprentissage, et le perfectionnement des compétences des évaluateurs. C’est avec plaisir que je souligne aussi que l’article d’AndersonDraper est une version révisée du manuscrit gagnant du Concours de
dissertation étudiante de 2005 de la Société canadienne d’évaluation.
Enfin, Colla MacDonald et ses associés utilisent un cadre de recherche
participative communautaire pour évaluer un programme de soins
aux personnes atteintes de démence offert sur Internet. Leur article
fournit de précieux renseignements sur la dynamique et les défis qu’on
doit relever quand on travaille au sein de la communauté de pratique
professionnelle pour produire des connaissances en évaluation.
viii
THE CANADIAN JOURNAL OF PROGRAM EVALUATION
Nadine Lanctôt et Julie Chouinard présentent une étude de cas intéressante fondée sur la mise en œuvre d’un programme multisites mis
sur pied par un centre jeunesse au Québec. Leurs analyses mettent
en lumière une foule de facteurs structuraux qui influencent le processus de mise en œuvre et contiennent d’importantes leçons à la fois
pour les gestionnaires de programmes et pour ceux qui sont chargés
d’évaluer la mise en œuvre de ces derniers.
Les deux derniers articles de fond abordent les complexités liées à la
réalisation d’évaluations des résultats pertinentes et utiles. D’abord,
Joan Bishop et Evelyn Vingilis utilisent une approche de modélisation
causale pour élaborer et mettre en œuvre un cadre de travail conceptuel pour analyser les effets des services communautaires de santé
mentale sur les patients. Le cadre de travail consistait en des liens
hypothétiques entre le traitement, les variables de médiation, et les
variables des effets à moyen et à long terme. Il a été validé et modifié
pour tenir compte des commentaires et suggestions des intervenants.
Bishop et Vingilis décrivent une approche qui mérite d’être prise en
considération dans le cadre d’évaluation de services communautaires
de santé mentale. Enfin, Ian Cahill et ses collègues trouvent une solution au problème de la comparaison des effets sur les participants
et les non-participants. Plus spécifiquement, ils mettent l’accent sur
le problème de production d’estimations biaisées des effets lorsqu’on
utilise une approche traditionnelle pour déterminer la période de
mise en œuvre pour le groupe de non-participants. En utilisant une
méthode de simulation, ils élaborent et mettent à l’essai une solution
qui utilise des modèles de durée semi-paramétriques.
Le présent numéro comprend aussi une note sur la recherche et les
méthodes et quatre comptes rendus de livres. John Mayne propose le
concept d’études du rendement : des enquêtes limitées à une question
unique qui mettent l’accent, de façon ponctuelle, sur certains aspects
du rendement qui, typiquement, se prêtent mal à une mesure continue. Mayne compare les études du rendement à l’évaluation et à
la mesure du rendement et suggère qu’une telle approche serait un
moyen efficace et peu coûteux d’appuyer la gestion axée sur les résultats dans des circonstances appropriées. Plus loin dans la Revue
s’ensuit un compte-rendu d’un traité exhaustif sur l’évaluation et la
mesure du rendement. Les autres, dont un compte-rendu en français,
mettent l’accent sur les méthodologies qualitatives et d’études de cas
et le rôle et l’identité de l’évaluateur. Bonne lecture!
J. Bradley Cousins
Rédacteur en chef
Ottawa, août 2006