199 interview with joe hudson, founding editor of cjpe entrevue avec
Transcription
199 interview with joe hudson, founding editor of cjpe entrevue avec
The Canadian Journal of Program Evaluation Vol. 20 No. 3 Pages 199–221 ISSN 0834-1516 Copyright © 2005 Canadian Evaluation Society 199 INTERVIEW WITH JOE HUDSON, FOUNDING EDITOR OF CJPE ENTREVUE AVEC JOE HUDSON, RÉDACTEUR FONDATEUR DE LA RCÉP J. Bradley Cousins Current Editor J. Bradley Cousins Rédacteur actuel [Brad Cousins] Joe, I am truly delighted with the opportunity to talk with you. I know that our readers are interested in learning about how the Journal got its start 20-plus years ago, but first, could you describe your career trajectory and the development of your interests in evaluation? [Brad Cousins] Joe, je suis réellement content d’avoir l’occasion de m’entretenir avec vous. Je sais que nos lecteurs voudront savoir comment la Revue a débuté il y a plus de 20 ans, mais tout d’abord, pourriez-vous raconter votre cheminement de carrière et comment vous êtes venu à vous intéresser à l’évaluation? [Joe Hudson] Sure … I grew up in New Westminster, spent some time in the British Merchant Marine, finally graduating from UBC, and then went to Prince Albert to work as a Classification Officer in the Saskatchewan federal prison. That experience drove my interest in group work and, more generally, social work, so I enrolled at the University of Minnesota, graduated with a Master’s degree in Social Work, and returned to the prison with great expectations of bringing about the kind of changes I thought were so badly needed. Those expectations quickly evaporated. The warden was not terribly impressed with my new degree and had quite different ideas about how to run a prison. Since he had the power to carry through with his views, and I didn’t, I finally resigned, going to Calgary to work [Joe Hudson] Bien sûr … J’ai grandi à New Westminster et j’ai passé quelque temps dans la marine marchande britannique. Après avoir obtenu un diplôme de l’UBC, je suis allé à Prince Albert pour travailler comme agent de classification dans une prison fédérale de la Saskatchewan. Cette expérience m’a amené à m’intéresser au travail de groupe et, plus généralement, au travail social, donc je me suis inscrit à l’Université du Minnesota où j’ai obtenu une maîtrise en travail social. Je suis ensuite retourné à la prison tout feu tout flamme, espérant y apporter le genre de changements qui selon moi étaient nécessaires. Ces attentes se sont rapidement envolées. Le directeur de la prison n’était pas terriblement impressionné par mon nouveau diplôme et il avait des idées pas mal différentes sur la façon de diriger une prison. Étant donné qu’il avait le pouvoir de mettre ses idées à exécution et 200 THE CANADIAN JOURNAL OF PROGRAM EVALUATION in a private residential treatment centre with others interested in dealing with people more in line with my views. From Calgary, I moved back to Minnesota and enrolled in the doctoral program in Social Work and Sociology at the University, beginning a lifelong friendship with Len Rutman, who had come from Winnipeg to enroll in the same program. Together, we developed our interests in program evaluation, not from any instructors, but from reading, discussions with other students, work on our dissertations, and some contracted work at designing an evaluation for Hennepin County (Minneapolis) probation services and organizing a series of continuing education workshops on program evaluation in the human services. My dissertation was an evaluation using an experimental design to determine the effects of parole supervision for juvenileaged boys and girls. Just before finishing that, a student colleague and I got interested in the notion of victim reparations and how a corrections program could be designed around offenders making reparations to their victims. We wrote a program design proposal centring on offender reparations and gave it to the newly appointed state Commissioner of Corrections, Dr. David Fogel, a very colourful, controversial, and well-known criminologist quite pas moi, je me suis résigné; j’ai fini par donner ma démission et j’ai démenagé à Calgary pour travailler dans un centre de traitement résidentiel privé avec des collègues dont les idées se rapprochaient davantage des miennes. De Calgary, je suis retourné au Minnesota, et je me suis inscrit au programme de doctorat en travail social et en sociologie à l’université, où j’ai fait la connaissance de Len Rutman, qui est devenu un ami de longue date et qui était venu de Winnipeg pour s’inscrire à ce même programme. Ensemble, nous avons développé nos intérêts en évaluation de programme, non pas à cause de l’influence de nos professeurs, mais à partir de nos lectures, de nos discussions avec d’autres étudiants, des travaux effectués sur nos thèses et dans le cadre d’emplois contractuels, notamment la conception d’une évaluation pour les services de probation de Hennepin County (Minneapolis), et de l’organisation d’une série d’ateliers d’éducation permanente sur l’évaluation de programme dans les services sociaux. Ma thèse était une évaluation fondée sur une méthodologie expérimentale visant à déterminer les effets de la supervision de la libération conditionnelle pour les garçons et filles mineurs. Juste avant de la terminer, un autre étudiant et moi avons commencé à nous intéresser à la notion de réparation—par le contrevenant—des torts causés à la victime et à la conception d’un programme correctionnel fondé sur cette notion. Nous avons élaboré une proposition relative à la conception LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME receptive to what others probably would have seen as crazy ideas. He supported the notion of considering crime victims in the corrections system, and especially the idea of a victim-offender reparations scheme. He got our proposal funded with a federal grant, and offered me the job as director of what was called the Minnesota Restitution Center. I took the job and, having completed my degree, left the university. This was 1972, and the Center program amounted to the first systematic attempt to hold face-to-face victim and offender meetings to develop plans of reparation for making good the harm caused — what has since come to be known as restorative justice programming. After the Center program had been running for a while, the idea of victim reparations was picked up and implemented in dozens of other programs, such as the KitchenerWaterloo restorative justice program in this country. Evaluation was a key element of this pioneering program and essentially involved randomly selecting inmates incarcerated for property crimes in the state prison with average sentences of five years and offering them an opportunity to meet with their victims at the prison to negotiate a plan to pay back the damages done. Once the reparation plan was prepared, the offender was released on parole four months after admission to the prison. An experimental design 201 d’un tel programme et l’avons remise à un commissaire l’État pour les services correctionnels nouvellement arrivé en fonction, David Fogel, Ph.D., un criminologue réputé, flamboyant, controversé, et très réceptif à des idées que d’autres considéreraient probablement comme saugrenues. Il appuyait la notion de l’inclusion des victimes d’actes criminels dans le système correctionnel et était particulièrement ouvert à l’idée de mettre en place un mécanisme de réparation des torts causés aux victimes par les contrevenants. Il a réussi à obtenir une subvention fédérale pour notre proposition et m’a offert un emploi comme directeur de ce qu’on appelait à l’époque le Minnesota Restitution Center. J’ai accepté le poste et, puisque j’avais déjà obtenu mon diplôme, j’ai quitté l’université. C’était en 1972 et le programme du centre constituait la première tentative d’organiser des rencontres personnelles entre la victime et le contrevenant en vue de déterminer comment ce dernier pouvait réparer les torts qu’il avait causés—ce qu’on connaît maintenant sous le nom de programme de « justice réparatrice. » Après qu’elle eut fait ses preuves au centre, l’idée de réparation a été adoptée et mise en oeuvre dans des douzaines d’autres programmes comme le programme de justice réparatrice de Kitchener-Waterloo ici au Canada. L’évaluation était un élément-clé de ce programme novateur et consistait essentiellement à sélectionner des détenus incarcérés à la prison d’État pour des crimes contre les biens et qui purgeaient des peines moyennes de 202 THE CANADIAN JOURNAL OF PROGRAM EVALUATION was built in to the program, the staff was largely composed of exoffenders, residents were housed on one floor of the downtown Minneapolis YMCA and were assisted to obtain employment, their reparation payments were monitored, along with their payment of family support, and they were supervised in accordance with their parole conditions. I learned much from this work, but two things in particular related to my growing interest in program evaluation. One concerned what I called the “yah but” experience. It ran like this: When the core program idea was explained, people would inevitably get around to saying that, yes, the idea of bringing offenders and victims together to negotiate an agreement for paying back the damages done was an interesting one, but then they quickly added the qualifying “but” as to why it would not work … and here the reasons ran the gamut from victims not being willing to meet with the people who had stolen from them, to victims being terribly vengeful and making any attempt at negotiations useless, to offenders using the opportunity to meet with their victims as a way to re-victimize them, and on and on, all without a shred of evidence to support very dogmatically held views. These “yah but” responses struck to the heart of what I found particularly appealing about program evaluation and the aim of cinq ans et à leur offrir l’occasion de rencontrer leurs victimes à la prison et de négocier un plan de réparation des torts causés. Une fois le plan élaboré, le contrevenant bénéficiait d’une libération conditionnelle quatre mois après son admission à la prison. Une méthodologie expérimentale a été intégrée au programme; le personnel était composé, en grande partie, d’ancien contrevenants; les résidents étaient tous logés sur un étage du YMCA du centre-ville de Minneapolis et on les aidait à obtenir un emploi; leurs paiements de réparation étaient surveillés, de même que leurs paiements de pension alimentaire, et ils étaient surveillés selon les conditions régissant leur libération conditionnelle. Ce travail m’a beaucoup appris, mais deux choses en particulier m’ont porté à m’intéresser davantage à l’évaluation de programme. L’une d’elles concernait ce que j’appelle l’expérience « oui, mais », que je pourrais décrire comme ceci : une fois qu’on a expliqué l’idée centrale d’un programme, les gens disaient inévitablement qu’en effet l’idée de réunir les contrevenants et les victimes en vue de négocier une entente pour réparer les torts causés était intéressante, mais ils s’empressaient d’ajouter un « mais » et d’énumérer les raisons pourquoi cela ne fonctionnerait pas… Dans ce cas-ci, on a fourni toutes sortes de raisons, entre autres, que les victimes refuseraient de rencontrer les gens qui leur avaient dérobé des biens, que les victimes adopteraient une attitude vengeresse et saboteraient toute tentative de négociation, que les contreve- LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME empirically testing out the worth of programming efforts. Another thing that struck me from work in that early restorative justice program related to the experimental design we put in place to test program outcomes. Following program implementation, it quickly became apparent that the evaluation design was inappropriate. The design should have been tailored more appropriately to the level of program development. Our programming efforts were truly untested, and flexibility to shift and alter the active programming ingredients in light of changing circumstances was sorely needed. As the program director I needed evaluation information that was quickly fed back to better inform about changing programming needs. But the experimental design did not allow for this kind of flexibility, and even if it had been available, feeding back information to change program elements in midstream would have caused serious attribution problems. Instead of trying to rigorously test program effects, we would have been much better advised to use a design that provided an ongoing stream of information about the program, one that could be changed in light of new circumstances and the emphasis being placed on different program elements. After the Restitution Center, I moved into the central office of 203 nants profiteraient de l’occasion pour rencontrer leurs victimes et ensuite les victimiser à nouveau, et ainsi de suite, le tout sans la moindre preuve pour étayer ces opinions très dogmatiques. Cette attitude du « oui, mais » est exactement pourquoi j’étais particulièrement attiré par l’évaluation de programme, qui visait à prouver, de façon empirique, le mérite des programmes mis en œuvre. Une autre chose qui m’a frappé pendant les premières années que j’ai passées à travailler dans ce programme de justice réparatrice est la méthodologie expérimentale qu’on avait mise en place pour vérifier les résultats du programme. Après la mise en œuvre du programme, on s’est vite rendu compte que la méthodologie d’évaluation était inadéquate. Elle aurait dû être mieux adaptée à l’étape du développement du programme. Nos initiatives d’élaboration de programme étaient mal testées, et il y avait un grand besoin de prévoir une certaine souplesse qui permettrait de modifier et de changer des ingrédients actifs du programme selon les circonstances. En tant que directeur du programme, j’avais besoin de renseignements fournis par l’évaluation rapidement afin de prendre des décisions éclairées quant aux changements à apporter au programme. Mais la méthodologie expérimentale n’offrait pas une telle souplesse et, même si cela avait été le cas, le fait de fournir une rétroaction en vue de changer des éléments du programme en cours de route aurait causé de graves problèmes d’attribution. Au lieu d’essayer de procéder à des tests rigoureux des 204 THE CANADIAN JOURNAL OF PROGRAM EVALUATION the Minnesota Department of Corrections with responsibilities for Research, Planning and Information Systems and then, later, Victim Services. Much of the work involved building an evaluation capability, upgrading the offender-based information system, preparing a state-wide corrections master plan, and implementing a comprehensive community corrections policy. Minnesota has always been regarded as being at the forefront of developments in the human services, and the 1970s was an especially exciting time to be working there in the corrections field. Pioneering efforts were being implemented by state corrections staff to set up a variety of crime victim services — the Department was responsible for state-wide programming for victims of sexual assault as well as for battered women — sentencing guidelines were being developed, and major policy initiatives carried out to reduce reliance on prisons and training schools. While working in the Department I continued my interest in restorative justice programming and, with a colleague at the University, was awarded a research grant from the National Institute of Justice to carry out a national evaluation of restorative justice programming. Taking a leave of absence from the Department of Corrections, I spent the two years from 1978 to 1980 working on this evaluation study and then upon its completion, ac- effets du programme, nous aurions mieux fait d’utiliser une méthodologie qui pouvait fournir un débit soutenu de renseignements sur le programme et qu’on pourrait modifier selon les circonstances afin de mettre l’accent sur certains éléments particuliers du programme. Après le Restitution Center, j’ai occupé un poste à l’administration centrale du Minnesota Department of Corrections (MDC) où j’avais des fonctions liées à la recherche, la planification, et les systèmes d’information et, plus tard, les services aux victimes. Une bonne partie de ce travail consistait à développer les capacités d’évaluation; à mettre à niveau le système d’information sur les contrevenants; à élaborer un plan directeur pour les services correctionnels à l’échelle de l’État; et à mettre en œuvre une politique détaillée sur les services correctionnels communautaires. Le Minnesota a toujours été à l’avant-garde des développements en matière de services sociaux et les années 70 étaient une époque particulièrement stimulante pour ceux qui y travaillaient dans le domaine des services correctionnels. Le personnel des services correctionnels de l’État déployait les premiers efforts pour instaurer un éventail de services d’aide aux victimes d’actes criminels. Le MDC était chargé de mettre en place, à l’échelle de l’État, des programmes pour les victimes d’agression sexuelle et les femmes battues. On élaborait des lignes directrices en matière de détermination de la peine et on mettait en œuvre d’importantes politiques visant à réduire le recours LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME cepted an offer from the Office of the Auditor General of Canada to move to Ottawa and head up work carrying out the effectiveness mandate of the Office. Just as with corrections in Minnesota in the 1970s, the early 1980s was an exciting time to be involved with evaluation work in the federal government — the Program Evaluation Branch of the Office of the Comptroller General had been recently established and federal evaluation guidelines published; departments and agencies were under pressure to hire evaluation staff, prepare plans, and conduct evaluation studies; and the Auditor General had been given an expanded value for money audit mandate that, in part, gave that Office responsibility for conducting what could be seen as amounting to meta-evaluations of departmental efforts. Coming to the audit office in 1980, I found only one staff member with knowledge of program evaluation. There was no written methodology to describe how to carry out the audit mandate. Consultants had been used to do the effectiveness audit work, and they were given much discretion in their work. Perhaps the most graphic description of the situation at that time was brought home to me when, upon first visiting the Office, I asked my future boss for some written materials describing how the effectiveness audit mandate was carried out and 205 aux prisons et aux centres d’éducation surveillée. Tout en travaillant au MDC, j’ai continué à m’intéresser aux programmes de justice réparatrice et un collègue de l’université et moi avons obtenu une bourse de recherche du National Institute of Justice pour procéder à une évaluation nationale des programmes de justice réparatrice. J’ai pris congé du MDC, et j’ai consacré deux ans (de 1978 à 1980) à cette étude évaluative; une fois celle-ci complétée, j’ai accepté une offre du Bureau du vérificateur général du Canada, et j’ai déménagé à Ottawa pour diriger les travaux liés au mandat d’efficacité du Bureau. Tout comme dans les services correctionnels au Minnesota dans les années 70, le début des années 80 était une période captivante pour l’évaluation au gouvernement fédéral : on venait de créer la direction de l’évaluation de programme au Bureau du contrôleur général (BCG) et de publier des lignes directrices en matière d’évaluation pour le gouvernement fédéral; on incitait les ministères et organismes à embaucher du personnel d’évaluation, à élaborer des plans, et à effectuer des études d’évaluation; et le Vérificateur général venait de recevoir un mandat élargi de vérification de la rentabilité en vertu duquel il devait, entre autres, effectuer ce qui pourrait être perçu comme des méta-évaluations des initiatives ministérielles. Quand je suis arrivé au Bureau du vérificateur général en 1980, je n’y ai trouvé qu’un seul employé qui possé- 206 THE CANADIAN JOURNAL OF PROGRAM EVALUATION he responded by handing me a copy of the 1978 Auditor General Act. While this legislation stipulated that government departments were to have satisfactory procedures in place to measure and report program effectiveness, it said nothing about how auditors carried out their work to arrive at judgements about the extent to which government was meeting requirements of the law. Regardless, a very competent staff was recruited, detailed audit methodology prepared and published, and by 1983 we completed a government-wide audit of program evaluation, covering the organization of evaluation in 19 federal departments and agencies and the evaluation studies and plans prepared in those departments. The executive summary of that audit report was published in the Evaluation Review Annual for that year. [BC] What were some of the biggest challenges involved with audit and evaluation in Ottawa in the early 1980s when the first big impetus was given to these functions? [JH] Besides the challenge of recruiting audit staff with knowledge of program evaluation and developing the methodology for auditing effectiveness measurement and reporting procedures, a number of thorny substantive issues had to be addressed in auditing government evaluation efforts. One of the most vexing concerned dait des connaissances en évaluation de programme. Il n’existait aucune méthodologie écrite décrivant comment réaliser le mandat de vérification. Jusque-là, on avait eu recours à des experts-conseils pour effectuer les vérifications de l’efficacité, et on les accordait une grande discrétion dans leurs travaux. Je crois que j’ai réellement saisi la situation qui régnait dans le Bureau quand, à ma première visite, j’ai demandé à mon futur patron de la documentation sur le mandat de vérification de l’efficacité et, en guise de réponse, il m’a remis une copie de la Loi sur le vérificateur général (1978). Bien que cette loi stipulait que les ministères du gouvernement devaient avoir des procédures satisfaisantes en place pour mesurer et rendre compte de l’efficacité de programme, elle ne mentionnait rien sur comment les vérificateurs effectuaient leur travail ou déterminaient dans quelle mesure le gouvernement adhérait aux exigences de la loi. En tout cas, on a recruté un personnel très compétent et on a préparé et publié une méthodologie de vérification détaillée et, en 1983, nous avons réalisé, à l’échelle du gouvernement, une vérification de l’évaluation de programme de l’organisation de l’évaluation dans 19 ministères et organismes fédéraux, ainsi que des études et projets d’évaluation élaborés dans ces ministères et organismes. Le sommaire de ce rapport de vérification a été publié dans la Evaluation Review Annual cette année-là. [BC] Quels sont les plus grands défis que présentaient la vérifi- LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME the audit mandate of the Auditor General and the extent it fit with the Treasury Board evaluation policy and the work of the Comptroller General’s Evaluation Branch. In a nutshell, the effectiveness audit mandate amounts to determining whether government departments and agencies have implemented satisfactory procedures to measure and report program effectiveness, where reasonable and appropriate. In principle, these measurement procedures could take the form of either periodic effectiveness/outcome evaluation studies or performance measurement/ongoing program monitoring systems capturing and reporting information on program outcome indicators. While insular Canadian evaluators might deny the legitimacy of monitoring systems/performance measurement systems as a form of program evaluation, most others take a different view. For example, American Evaluation Association Standards identify ongoing monitoring types of evaluations as probably the most commonly used form of program evaluation. In contrast, however, the Treasury Board evaluation policy (1977-47) in effect in the early 1980s, which served as the driving force for the work of the Comptroller General’s Evaluation Branch, dealt only with periodic program evaluation studies which could, legitimately, address a variety of issues besides program effectiveness. Ongoing monitor- 207 cation et l’évaluation à Ottawa au début des années 80 quand ces fonctions ont reçu leur premier grand élan? [JH] En plus du défi de recruter du personnel de vérification possédant des connaissances en évaluation de programme et d’élaborer une méthodologie pour vérifier la mesure de l’efficacité et les procédures pour en rendre compte, plusieurs questions de fond épineuses devaient être examinées dans le cadre de la vérification des démarches d’évaluation du gouvernement. Une des questions les plus frustrantes concernait le mandat du Vérificateur général et dans quelle mesure elle correspondait à la politique d’évaluation du Conseil du Trésor et au travail de la direction de l’évaluation de programme du Contrôleur général. Bref, le mandat de vérification de l’efficacité revient à déterminer si les ministères et organismes du gouvernement ont mis en œuvre des procédures satisfaisantes pour mesurer et rendre compte de l’efficacité de programme, lorsque raisonnable et approprié. En principe, ces procédures de mesure pourraient prendre la forme d’études d’évaluation périodiques sur l’efficacité et les résultats des programmes, ou encore des systèmes de mesure du rendement ou de surveillance continue des programmes qui permettent de saisir et rendre compte des renseignements pertinents sur les indicateurs des résultats des programmes. Les évaluateurs canadiens insulaires remettront peut-être en question le 208 THE CANADIAN JOURNAL OF PROGRAM EVALUATION ing systems, called performance measurement systems in the government vernacular, were the subject of a different Treasury Board policy (1976-25), seen as anathema by the OCG Evaluation Branch officials, and regarded by them as a failed policy initiative that was not to be confused with their work at implementing the program evaluation policy. The quandary for us in the audit office, then, was twofold. First, could an audit of effectiveness measurement legitimately cover program evaluation studies that had nothing to do with measuring program effectiveness? In fact, most studies done in government departments did not deal with measuring program outcomes, impacts, or effects. Compounding this issue was the related one about whether effectiveness audit work could legitimately exclude dealing with ongoing performance measurement systems that either were in place or could reasonably and appropriately be implemented to provide information on program effectiveness. Both issues were key to implementing the audit mandate and, depending on the position taken by the audit office, seen by officials in the OCG Evaluation Branch as having the potential to seriously damage their work at implementing the government’s evaluation policy. Their concerns were legitimate, given the narrow scope of the program evaluation and performance measurement policies in caractère légitime des systèmes de surveillance et de mesure du rendement comme forme d’évaluation de programme, la plupart des autres évaluateurs sont d’une opinion toute autre. Par exemple, les normes de l’American Evaluation Association constatent que la surveillance continue est probablement la forme la plus utilisée d’évaluation de programme. Cependant, la politique d’évaluation du Conseil du Trésor (1977-47), en vigueur depuis le début des années 80 et qui a servi de moteur aux travaux de la direction de l’évaluation de programme du Contrôleur général, ne traitait que d’évaluations de programme périodiques qui pourraient, légitimement, aborder un éventail de questions autres que l’efficacité d’un programme. Les systèmes de surveillance continue—appelés systèmes de mesure du rendement dans le jargon gouvernemental—faisaient l’objet d’une politique différente du Conseil du Trésor (1976-25), considérée comme anathème par les fonctionnaires dans la direction de l’évaluation de programme du BCG et comme une initiative stratégique qui a échoué et qu’il ne fallait pas confondre avec leurs fonctions, soit de mettre en œuvre la politique d’évaluation de programme. Pour le personnel du Bureau du vérificateur général, la confusion était double. En premier lieu, on se demandait si une vérification de la mesure de l’efficacité pourrait, en toute légitimité, couvrir des études d’évaluation de programme qui n’ont rien à voir avec la mesure de l’efficacité de LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME place in government. At the same time, concerns about being true to the audit mandate were also legitimate. The fundamental issue was that government policies for program evaluation and performance measurement were unnecessarily and inappropriately conceived independent of each other and the audit mandate. The three sets of policies must have been drafted without any thoughtful consideration of each other; thus they operated to some considerable extent at cross-purposes. But that’s probably not a rare occurrence in government. After six years in the audit office and wanting change, I took advantage of an opportunity for a secondment to the newly established Office of the Inspector General of the Canadian Security Intelligence Service. Being the new incumbent of this Office and wanting to move quickly to carry out his mandate, the Inspector General requested and obtained position secondments from the audit office, RCMP, Civil Service Commission, and the Ontario Provincial Police. Working with senior staff from these agencies on program audits of CSIS programs was particularly interesting and enjoyable. To my way of thinking, and following the views of Eleanor Chelimsky, this work could just as well have been called “program evaluation” as “program auditing.” After all, only effectiveness or outcome types of evaluations are substantively 209 programme. En fait, la plupart des études effectuées au sein des ministères gouvernementaux ne traitaient pas de la mesure des résultats, des impacts ou des effets des programmes. À cette question venait s’ajouter celle de savoir si la vérification de l’efficacité pourrait légitimement exclure les systèmes de mesure continue du rendement déjà en place ou qui pourraient être mis en oeuvre raisonnablement et adéquatement afin de fournir des données sur l’efficacité de programme. Les deux questions constituaient des éléments clés de la mise en œuvre du mandat de vérification et, dépendant de la position prise par le Bureau du vérificateur général, les fonctionnaires de la direction de l’évaluation de programme du BCG considéraient qu’elles risquaient de sérieusement compromettre les efforts qu’ils déployaient pour mettre en œuvre la politique d’évaluation du gouvernement. Leurs préoccupations étaient légitimes, étant donné la portée limitée des politiques d’évaluation de programme et de mesure du rendement en vigueur au gouvernement. En même temps, la préoccupation de rester fidèle au mandat de vérification était également fondée. La question fondamentale était que les politiques gouvernementales en matière d’évaluation de programme et de mesure du rendement étaient— inutilement et de manière inappropriée—élaborées indépendamment les unes des autres et du mandat de vérification. Les trois ensembles de politiques ont probablement été élaborés sans égard les unes aux autres et visaient donc, en grande partie, des 210 THE CANADIAN JOURNAL OF PROGRAM EVALUATION different from program audits in terms of the types of questions addressed. While program audits do not address questions of causality, which outcome evaluations do, both audits and evaluations have in common a concern with addressing descriptive (“What are characteristics of a program?”) and normative (“To what extent does a program meet specific standards?”) types of questions. While I was working in the Inspector General’s office, Ron Robinson, then President of the Evaluation Society, asked if I would take on the task of starting this Journal. That was in February, 1986. I agreed, began advertising for members of the Society interested in joining the editorial board, found an Ottawa printer, and actively began soliciting articles, interviews, book reviews, and opinion pieces for the first issue, which appeared that Spring in April. Leaving Ottawa in late June, 1986, I continued with my Journal responsibilities for the next couple of years, before turning it over to Richard Grinnell, a Calgary faculty colleague. However, my involvement with the Journal continued and I served as Book Review Editor for a number of years, as well as on the Editorial Board, and then spent a couple of years helping revive the Society Newsletter at the request of the CES President, John McDermott. objectifs contradictoires. Mais ce n’est probablement pas une chose rare au gouvernement. Après six années au Bureau du vérificateur général, je voulais un changement et j’ai profité de la possibilité d’un détachement au nouveau Bureau de l’inspecteur général du Service canadien du renseignement de sécurité. En tant que nouveau responsable de ce bureau et voulant commencer tout de suite à exécuter son mandat, l’Inspecteur général a demandé et obtenu que des employés du Bureau du vérificateur général, de la GRC, de la Commission de la fonction publique, et de la Police provinciale de l’Ontario soient temporairement affectés à son bureau. Travailler avec des cadres supérieurs de ces organismes sur la vérification des programmes du SCRS a été particulièrement intéressant et agréable. Selon moi et d’après les opinions d’Eleanor Chelimsky, ce travail aurait pu tout aussi bien s’appeler « évaluation de programme » que « vérification. » Après tout, seules les évaluations axées sur l’efficacité ou les résultats diffèrent passablement de la vérification de programme pour ce qui est du genre de question abordée. Bien que les vérifications de programme n’abordent pas les questions de causalité—contrairement aux évaluations des résultats—les vérifications et les évaluations cherchent toutes les deux à répondre à des questions de type descriptif (« Quelles sont les caractéristiques d’un programme? ») et de type normatif (« Dans quelle mesure un programme répond-il à des normes précises? »). LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME [BC] Thanks very much. Okay, so when Ron Robinson asked you to start the Journal, what was the impetus behind that? What mandate were you given? What was the vision for the Journal and who developed that? [JH] As I recall, the impetus behind the Executive members of the Society deciding to start a journal went something along the lines of them seeing the organization as having achieved a sizeable membership base, successfully having sponsored several annual conferences bringing in substantial revenues, and now wanting to provide additional services for the membership. The idea of providing a journal subscription as part of the membership services was seen to fit nicely with the growing financial reserves of the Society and the credibility a journal could, potentially, provide. The mandate and vision for the Journal came out of communications with Ron Robinson, the President of CES and members of the Executive Committee. We agreed that, in general, a journal must have intellectual credibility by meeting such a requirement as anonymous article reviews, as well as providing informative and useful information for the readership. My editorial statement in the first issue of the Journal (Vol. 1, No. 1, April, 1986) listed the aim as one of providing a lively exchange 211 Pendant que je travaillais au bureau de l’inspecteur général, Ron Robinson, alors président de la Société canadienne d’évaluation, m’a demandé si j’accepterais de me charger du lancement de cette Revue. C’était en février 1986. J’ai accepté et j’ai commencé à publier des annonces invitant les membres de la Société à siéger au sein du comité de rédaction. J’ai trouvé un imprimeur à Ottawa et j’ai activement commencé à solliciter des articles, des entrevues, des comptes rendus de livres, et des opinions pour le premier numéro, qui a été publié ce printemps-là en avril. Même après avoir quitté Ottawa à la fin de juin 1986, j’ai continué à travailler pour la Revue pendant les deux années qui ont suivi, avant de passer les rênes à Richard Grinnell, un collègue qui enseignait à l’University of Calgary. J’ai toutefois continué à participer à la production de la Revue à titre de rédacteur des comptes rendus de livres pendant plusieurs années; j’ai également siégé au sein du comité de rédaction, puis j’ai passé environ deux ans à aider à réactiver le bulletin de nouvelles de la Société à la demande du président de la SCÉ, John McDermott. [BC] : Merci beaucoup. Donc quand Ron Robinson vous a demandé de lancer la Revue, qu’estce qui l’a motivé à le faire? Quel mandat avez-vous reçu? Quelle vision avait-on pour la Revue et qui a élaboré cette vision? [JH] : Si je me souviens bien, les 212 THE CANADIAN JOURNAL OF PROGRAM EVALUATION of views on significant evaluation topics of current interest, largely, but not exclusively, by Canadians in both official languages. In a more negative vein, I restated the aim as one of avoiding the publication of a lot of homogenized yackety-yak. In addition to the articles included in each issue, I hoped to include an interview with well-known people in the field, an opinion and comments piece, research notes, and book reviews. Consequently, I was able to enlist the volunteer services of many exceptionally talented people in the evaluation field. For example, in the first issue of the Journal, Kenneth Watson, the well-known Ottawa consultant, was kind enough to complete a fascinating interview with Donald T. Campbell; Alan Gratias, the pioneering federal evaluator and bon vivant, contributed a humorous opinion and comment piece; Michael Rayner, the Comptroller General of Canada, and Joseph Wholey from the Urban Institute in Washington, D.C., each wrote on the utilization of evaluation in their respective governments; Len Rutman made some incisive observations on Canadian federal evaluations; and Neil Maxwell from the Office of the Auditor General of Canada and John Mayne from the Office of the Comptroller General engaged in a spirited debate on the place of performance measurement systems and program membres du comité exécutif de la Société ont voulu créer une revue parce qu’ une fois que l’organisation avait établi un base important d’adhérants et qu’elle avait parrainé avec succès plusieurs congrès annuels qui ont généré des revenus importants, ils voulaient à ce moment-là offrir davantage de services aux membres. Selon eux, offrir l’abonnement à la Revue comme privilège d’adhésion cadrait bien avec les réserves financières croissantes de la Société et avec la crédibilité accrue que pourrait fournir une revue. Le mandat et la vision pour la Revue découlaient de mes entretiens avec Ron Robinson, président de la SCÉ, et les membres du comité exécutif. Nous nous sommes mis d’accord sur le fait que, de façon générale, une revue doit posséder de la crédibilité intellectuelle en satisfaisant à des critères comme des lectures à l’aveugle des articles et doit fournir des renseignements utiles et pertinents aux lecteurs. Le commentaire que j’ai publié dans le premier numéro de la Revue (Volume 1, numéro 1, avril 1986) stipulait que le principal objectif visé était de fournir un forum d’échange sur des sujets actuels en évaluation formulées principalement, mais pas exclusivement, par des Canadiens et dans les deux langues officielles. Sur une note un peu plus négative, j’ai réitéré que voulions éviter de publier un tas de verbiage synthétisé. En plus des articles, j’espérais inclure, dans chaque numéro, une entrevue avec des gens bien connus dans le domaine, une section Opinion et Com- LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME evaluation. Subsequent issues of the Journal contained interviews with Michael Patton, John Conrad, and others with insights on evaluation and its practice. Most generally, my vision was to have a journal that contributed to an ongoing dialogue with the readership about program evaluation, sharing insights, suggestions, and contributions from evaluators and others in different parts of the country as well as outside. I hoped the Journal would be a forum for debate and some controversy, believing that differences are not measures of absurdity. Members of the Editorial Board, along with many other interested members of the Society, greatly helped in moving toward the Journal aims. Initially, the greatest challenge was generating responses from the readership for contributions. To a much greater extent than I wanted during the first year or two of the Journal, I found myself having to go out and directly solicit contributions, whether these were articles, book reviews, or willingness to do interviews with notable figures in the field. Once contacted, however, people were quite willing to take an active role in taking on tasks, and increasingly, over the years, as the Journal became more accepted, there was a corresponding increase in the number and quality of submissions. Of course, that brings a whole new set of chal- 213 mentaires, des notes sur la recherche, et des comptes rendus de livres. J’ai eu donc l’occasion de bénéficier des services bénévoles de plusieurs personnes talentueuses dans le domaine de l’évaluation. Par exemple, dans le premier numéro de la Revue, Kenneth Watson, expert-conseil bien connu d’Ottawa, a eu l’amabilité de réaliser une entrevue captivante avec Donald T. Campbell; Alan Gratias, un pionnier de l’évaluation au gouvernement fédéral et bon vivant, a contribué une Opinion/Commentaire humoristique; Michael Rayner, Contrôleur général du Canada, et Joseph Wholey du Urban Institute à Washington, D.C., ont chacun écrit des articles sur l’utilisation de l’évaluation dans leurs gouvernements respectifs; Len Rutman a fait des observations très percutantes sur les évaluations fédérales canadiennes; et Neil Maxwell du Bureau du vérificateur général du Canada et John Mayne du Bureau du Contrôleur général ont pris part à une discussion animée sur la place des systèmes de mesure du rendement et de l’évaluation de programme. Les numéros subséquents de la Revue contenaient des entrevues avec Michael Patton, John Conrad, et d’autres éminents intervenants du domaine de l’évaluation. De façon générale, ma vision était d’une revue qui favoriserait un dialogue continu avec les lecteurs au sujet de l’évaluation de programme, ainsi que le partage de connaissances, de suggestions, et de contributions d’évaluateurs et d’autres intéressés dans diverses parties du pays et de l’étranger. J’espérais que la Revue serait un forum pour la discussion et 214 THE CANADIAN JOURNAL OF PROGRAM EVALUATION lenges about making difficult decisions of what to publish. Besides the challenge of obtaining sufficient quality materials for early issues of the Journal was the more mundane task of getting the mechanics of publication completed in a timely manner. This was before the day of widespread use of computers in the publishing field and much time had to be spent reviewing submissions, making final editorial changes, checking back with the authors on the edited manuscripts, reviewing the typeset proofs as they came back from the printer, and all the other mundane but important tasks necessary for Journal production. Being new to the work, I had a steep learning curve, but had the good fortune to be associated with many hard-working people who were willing to offer guidance. Not least important of these were the people I worked with in my day job at the Office of the Inspector General. Producing an evaluation journal was not a priority of the staff of the Office but they tolerated my avocation with great good grace. Once at the Faculty of Social Work, work on the Journal fit much closer with other academic responsibilities, and the Dean willingly supported the administrative costs associated with producing the Journal. Much credit must go to Dean Ray Tomlison for his support. un peu de controverse, puisque je suis d’avis que les différences ne sont pas des mesures d’absurdité. Les membres du comité de rédaction et de nombreux autres membres intéressés de la Société ont grandement aidé à faire avancer les objectifs de la Revue. Initialement, le plus grand défi consistait à persuader les lecteurs de nous envoyer des articles. Pendant les deux premières années d’existence de la Revue, j’ai dû beaucoup trop souvent solliciter moi-même des contributions, que ce soit des articles, des comptes rendus de livres, ou des entrevues avec des intervenants du domaine. Une fois contactés, cependant, les gens étaient plus que disposés à jouer un rôle actif et à accomplir des tâches; donc, au fur et à mesure, au fil des ans, le lectorat de la Revue a pris de l’ampleur, et on a vu augmenter le nombre et la qualité des articles soumis. Bien sûr, cela posait un tout nouveau problème, soit celui de savoir comment décider quoi publier. En plus du défi d’obtenir suffisamment d’articles de qualité pour les premiers numéros de la Revue, il fallait également s’assurer que les rouages de la publication fonctionnaient adéquatement et que les tâches pouvaient être complétées à temps. C’était bien avant l’époque des ordinateurs et de l’édition électronique, et on passait beaucoup de temps à examiner les articles, à corriger le contenu, à communiquer avec les auteurs des manuscrits révisés, à relire les épreuves fournies par l’imprimeur, et toutes les autres tâches fastidieuses mais importantes LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME [BC] I’m glad you raised the part about the steep learning curve. I had a similar experience when I took on the role of editor but the infrastructure and operating procedures were pretty much already in place! I can scarcely imagine some of the challenges that you confronted. I suppose the publisher played an important role in meeting at least some of those challenges. Has the University of Calgary Press been the Journal’s publisher since its inception? Could you tell us a bit about how that relationship came about? [JH] No, originally, and all during the time I was involved as Editor, the Journal was published in Ottawa by a small, private printing company, now defunct. Richard Grinnell, who took on editorial responsibilities from me, must be given credit for coming up with the idea, making contacts with the University Press, handling all negotiations, and shifting publication responsibilities to that Press. While I have been distant from the arrangement, it appears to have worked well for the University Press and for the Journal. [BC] Joe, much of your work has been in the government sector, at least earlier in your career and certainly a good portion of our readership is government-based. What are 215 et nécessaires à la production de la Revue. Étant novice, j’avais beaucoup à apprendre, mais j’ai eu la bonne fortune de collaborer avec des gens très dévoués qui me fournissaient volontiers conseils et appui. Certains de ces gens étaient mes collègues du Bureau de l’inspecteur général. La production d’une revue sur l’évaluation n’était pas une priorité pour le personnel du Bureau mais ils ont toléré ma vocation de bonne grâce. Quand j’étais à la Faculté de travail social, le travail que j’accomplissais pour la Revue correspondait plus étroitement à mes autres responsabilités académiques, et le doyen a gracieusement accepté de défrayer les coûts administratifs associés à la production de la Revue. On doit une fière chandelle au doyen Ray Tomlison pour son appui. [BC] Je suis content que vous ayez mentionné la période d’apprentissage. J’ai vécu une expérience semblable quand j’ai accepté le rôle de rédacteur mais l’infrastructure et les méthodes de fonctionnement étaient déjà bien en place! Je ne peux qu’imaginer les défis que vous avez dû relever. Je suppose que l’éditeur vous a fourni une précieuse aide en ces sens. Est-ce que University of Calgary Press a été l’éditeur de la Revue depuis sa création? Pouvez-vous nous raconter un peu comment cette relation a débuté? [JH] Non, à l’origine et pendant tout le temps où j’étais rédacteur, la Revue a été publiée à Ottawa par une petite entreprise d’impression qui a cessé 216 THE CANADIAN JOURNAL OF PROGRAM EVALUATION your thoughts on evaluation in government? In what ways has evaluation within the government evolved since the Journal’s inception? [JH] It’s a platitude, but I do think that the systematic collection of information about a program, program component, or set of activities is part and parcel of good management, whether in government or elsewhere. Central to this process, though, is the importance of thinking through what is the program, component, or set of activities to be the focus of information collection, what are the questions needing to have information brought to bear on them, what methods should be used to collect the information, and how will the information be used once reported. Those are questions that require joint work between evaluators and information users, and that, too often, is not the case. My experience has been that potential users of information, not infrequently, leave decisions on such critical questions to the evaluator who, also not infrequently, is quite happy making them. And that is not likely to lead to the production of useful evaluation information used for enhancing program operations. Michael Patton’s emphasis on user involvement in making all critical decisions in planning, conducting, reporting, and using evaluations, it seems to me, is absolutely critical, whether the evaluation is done in or outside government. d’exister. C’est Richard Grinnell—le rédacteur qui m’a succédé—qui en a eu l’idée; il a contacté University of Calgary Press et s’est chargé de toutes les négociations entourant la transition des responsabilités de publication à cette organisation. Je n’ai pas participé directement à ces discussions, mais il semble que cette entente fonctionne bien pour la Revue et University of Calgary Press. [BC] Joe, une bonne partie de votre travail a été dans le secteur public—au moins au début de votre carrière—et bon nombre de nos lecteurs travaillent pour le gouvernement. Que pensez-vous de l’évaluation dans la fonction publique? Comment l’évaluation au gouvernement a-t-elle évolué depuis la création de la Revue? [JH] Cela peut paraître évident, mais je pense que la collecte systématique de données au sujet d’un programme, d’une composante d’un programme, ou d’un ensemble d’activités fait partie d’une saine gestion, que ce soit au gouvernement au ailleurs. Au cœur de ce processus, cependant, est l’importance de réfléchir soigneusement à ce qu’est le programme, la composante, ou l’ensemble d’activités qui fait l’objet de la collecte de données, aux questions sur lesquelles on a besoin de recueillir des données, aux méthodes à utiliser pour recueillir les données, et à la façon dont les données seront utilisées une fois présentées. Ce sont là des questions qui exigent une collaboration entre les évaluateurs et ceux qui utiliseront les données et, souvent, ce LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME How evaluation has evolved the past few years in the federal government is not something I know much about directly, and it is only through reading Robert Segsworth’s work, another former editor of this Journal, that I have some notion of what transpired over the years since I left Ottawa. My impression, confirmed to some extent by Robert’s article in this issue of the Journal, is that the 1980s were the heyday of federal evaluation initiatives, and despite much maneuvering and many bureaucratic machinations, there has been a decrease in the value placed on program evaluation by federal decision-makers. How you can properly manage an organization without good information is a mystery to me, but maybe the quality of federal government decisions serve as testimony to the amount and type of information relied upon. But not to beat up on the federal government, the state of program evaluation in provincial and municipal governments is probably a whole lot worse. A couple of experiences lead me to this view. One is the survey of provincial government evaluation activities carried out in the mid-1980s and the way in which this study was suppressed when the provinces became upset with what they saw were likely to be very embarrassing survey findings demonstrating the dismal state of provincial evaluation efforts. The 217 n’est pas le cas. L’expérience m’a appris que les utilisateurs potentiels de l’information laissent trop souvent les décisions relatives à ces questions cruciales à l’évaluateur qui, également trop souvent, n’est que trop heureux de prendre de telles décisions. Et cela ne permettra probablement pas de produire des données d’évaluation utiles pouvant être utilisées pour améliorer les programmes. L’accent que met Michael Patton sur la participation des utilisateurs à la prise des décisions cruciales aux stades de la planification, de l’exécution, des processus de rendre compte, et de l’utilisation des évaluations semble, du moins à mon avis, être absolument essentiel, et ce, que l’évaluation soit effectuée dans la fonction publique ou ailleurs. Je ne sais pas trop comment l’évaluation a évolué au gouvernement fédéral les dernières années, du moins pas directement; c’est seulement en lisant les écrits de Robert Segsworth, un autre ancien rédacteur de la Revue, que je me fait une idée de ce qui s’est passé dans le domaine depuis que j’ai quitté Ottawa. J’avais l’impression—impression qui a été confirmée dans une certaine mesure par l’article que publie Robert dans ce numéro de la Revue—que les années 80 étaient les beaux jours des initiatives d’évaluation fédérales et, malgré toutes les manœuvres et machinations bureaucratiques, l’importance qu’accordent les décideurs fédéraux à l’évaluation de programme a diminué. Je ne comprends pas comment on peut gérer un organisme sans disposer de données adéquates, mais peut-être que la qua- 218 THE CANADIAN JOURNAL OF PROGRAM EVALUATION other experience occurred soon after I came back to Alberta from Ottawa. In the course of visiting with a very senior official in the office of the provincial auditor general, I asked how the effectiveness measurement mandate of his Office was carried out, since his law was essentially identical to the federal mandate. His answer was that he didn’t do effectiveness audit work because if he were to carry out this provision of the provincial audit law, the government would change the mandate — a case of what I thought was one of neutering oneself so others might not exercise the opportunity. So, it’s useful to keep in mind that whatever the state of evaluation and its audit is in the federal government, it’s probably a whole lot worse in the provinces. And that’s a shame. [BC] There’s lots of talk these days about mainstreaming evaluation, integrating evaluation into organizational culture, and the like. What are some of your thoughts about the value of evaluation, such as type of work of greatest value for money? [JH] I agree; evaluation is integral to good management. Managing without good information is not managing, it’s just blind decisionmaking, mucking around. The key is for managers to identify what information they need to make decisions and then put procedures in lité des décisions du gouvernement fédéral est un témoignage de la quantité et du type de renseignements sur lesquels ces décisions s’appuient. Sans vouloir critiquer le gouvernement fédéral, l’état de l’évaluation de programme dans les gouvernements provinciaux et les administrations municipales est probablement bien pire. J’en suis venu à cette conclusion après avoir fait une ou deux expériences. L’une d’elle était le sondage sur les activités d’évaluation dans les gouvernements provinciaux effectué au milieu des années 80 et la façon dont cette étude a été passée sous silence quand les provinces ont réalisé que les résultats du sondage allaient probablement les mettre dans l’embarras en dévoilant l’état pitoyable de leurs initiatives d’évaluation. L’autre expérience est survenue peu de temps après mon retour en Alberta après mon départ d’Ottawa. Lors d’une visite à un très haut fonctionnaire du bureau du vérificateur général de la province, j’ai demandé comment on s’y prenait pour mettre en œuvre le mandat de mesure de l’efficacité au bureau, puisque la loi était essentiellement identique au mandat fédéral. Il m’a répondu qu’il n’effectuait pas de vérifications de l’efficacité car s’il devait exécuter cette disposition de la loi provinciale sur la vérification, le gouvernement changerait le mandat—ce qui d’après moi équivalait à se neutraliser pour que d’autres n’aient pas l’occasion de le faire. Donc il faut se rappeler que peu importe l’état de l’évaluation et de la vérification au gouvernement fédéral, c’est probable- LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME place to obtain that information in a simple and direct manner. The use of ongoing monitoring systems that routinely compile and report information on key questions about specific programming components, it seems to me, is generally the best way to proceed. While there is a place for periodic program evaluation studies, it is likely quite limited, restricted to particular sets of programming activities requiring in-depth attention and for which there is the luxury of having considerable time available to obtain the needed information. The information generated from periodic evaluation studies is not likely to be either cost-effective or timely when such studies are implemented in an across-theboard manner in any organization. Breadth and timeliness, not so much the depth of information, are generally needed more in organizational settings, at least the ones I am most familiar with that confront rapid change. If there are programming questions coming out of an ongoing monitoring system requiring more detailed study, then a periodic evaluation could be commissioned. In this way, the original Treasury Board Policy on Program Evaluation, I think, had it totally backwards by placing emphasis on the conduct of acrossthe-board periodic studies rather than on monitoring systems/performance measurement systems. I held that view many years ago when working in Ottawa, and ex- 219 ment bien pire dans les provinces. Et c’est dommage. [BC] Ces jours-ci, on entend beaucoup parler de l’inclusion de l’évaluation et de son intégration à la culture organisationnelle, et ainsi de suite. Que pensez-vous de la valeur de l’évaluation, par exemple, le genre de travail qui permet d’optimiser les ressources? [JH] Je suis d’accord; l’évaluation fait partie intégrante d’une saine gestion. Gérer sans disposer de bonnes données n’est pas gérer, mais prendre des décisions à l’aveuglette, à tâtons. Les gestionnaires doivent déterminer de quelles données ils ont besoin pour prendre des décisions et ensuite mettre des procédures en oeuvre pour obtenir ces données d’une manière simple et directe. Les systèmes de surveillance continue qui compilent et présentent des données de façon systématique sur des questions clés liées à des composantes précises d’un programme sont, d’après moi, la meilleure solution. Bien que les études d’évaluation périodiques aient leur place, celle-ci est probablement assez limitée et restreinte à des ensembles particuliers d’activités exigeant une attention poussée et pour lesquelles on peut se payer le luxe de prendre tout son temps pour recueillir les renseignements voulus. Les données fournies par les études d’évaluation périodiques ne sont probablement pas rentables ou produites en temps opportun quand ces études sont réalisées à l’échelle d’une 220 THE CANADIAN JOURNAL OF PROGRAM EVALUATION periences since then have generally confirmed it. A related point is the increased attention we need to give to precisely defining the problems we want to address with our programming efforts, thoughtfully designing program interventions to address the identified problems, carefully think through and identify potential implementation issues, and then mount evaluations to collect and report back timely monitoring information on program implementation. Too often, we fail to precisely define the problems to be addressed, the programs we implement amount to very puny or misdirected interventions relative to the problems, and we fail to consider the many thorny problems associated with implementing our programming efforts. Implementation is the slip between the cup and the lip, and program evaluation can usefully serve to monitor and help correct those slips. [BC] You’ve been a practicing evaluator for a long time and that undoubtedly comes with many challenges and rewards. Perhaps you could tell us a bit about some of your biggest frustrations in working in the evaluation field. And what have been some of the most significant payoffs for you personally? [JH] The most significant payoffs have been associating with many organisation quelconque. Ce sont davantage la portée des données et leur caractère opportun, et non leur abondance, qui sont nécessaires dans les cadres organisationnels, du moins ceux qui—comme la plupart des environnements où j’ai travaillé—font face à des changements rapides. Si les données fournies par un système de surveillance continue indiquent que certains aspects d’un programme exigent un examen plus approfondi, on pourrait alors commander une évaluation périodique. Donc, la politique initiale du Conseil du Trésor en matière d’évaluation de programme, selon moi, plaçait la charrue devant les bœufs en mettant l’accent sur la réalisation d’études périodiques à l’échelle de l’organisation au lieu de la mise en place de systèmes de surveillance et de mesure du rendement. J’ai adhéré à cette opinion pendant de nombreuses années quand je travaillais à Ottawa et les expériences que j’ai vécues depuis l’ont confirmée. Un autre point connexe est que nous devons nous employer davantage à définir de manière plus précise les problèmes que nous voulons aborder en élaborant nos programmes, à concevoir ces derniers plus soigneusement afin de résoudre les problèmes décelés, à nous livrer à une réflexion plus profonde, et à déterminer les problèmes de mise en œuvre potentiels, puis à effectuer des évaluations qui fourniront, en temps opportun, des données pertinentes sur la mise en œuvre des programmes. Trop souvent, nous ne définissons pas avec suffisamment de précision les problèmes à résoudre et LA REVUE CANADIENNE D’ÉVALUATION DE PROGRAMME fine people and the many challenging work experiences. Most of the frustrations had to do with my impatience and lack of consideration, much more than with any real or imagined shortcomings of others. [BC] Many thanks and best wishes for the next 20 years when perhaps we can do this again. 221 les programmes que nous élaborons ne constituent alors que des interventions mineures et peu judicieuses par rapport aux problèmes décelés, et nous ne prenons pas le temps d’envisager les nombreux problèmes épineux associés à la mise en œuvre de nos programmes. La mise en œuvre est l’écart entre les lèvres et la tasse et l’évaluation de programme peut aider à repérer et à combler ces écarts. [BC] Vous pratiquez l’évaluation depuis longtemps et elle vous a sans doute apporté beaucoup de défis mais aussi beaucoup de satisfaction. Pouvez-vous nous parler un peu de ce qui vous a le plus frustré dans le domaine de l’évaluation? Et quelles ont été les plus grandes satisfactions pour vous personnellement? [JH] Ma plus grande satisfaction est liée à tous les gens merveilleux avec qui j’ai eu la chance de travailler et les nombreuses expériences professionnelles enrichissantes qu’il m’a été donné de vivre. La plupart de mes frustrations tenaient à mon impatience et à un manque de considération de ma part, beaucoup plus qu’à des lacunes—réelles ou imaginées—chez les autres. [BC] Je vous remercie et je vous souhaite le meilleur des succès pour les deux prochaines décennies. J’espère avoir l’occasion de vous interviewer à nouveau dans un autre 20 ans.