Le guide des outils d`évaluation CanMEDS
Transcription
Le guide des outils d`évaluation CanMEDS
Le guide des outils d’évaluation CanMEDS Introduction aux méthodes d’évaluation des compétences CanMEDS Première édition Rédacteurs Glen Bandiera, MD, MEd, FRCPC Directeur, Éducation médicale postdoctorale Urgentologue membre du personnel et chef de l’équipe de traumatologie, St. Michael’s Hospital Directeur, Programme de résidence FRCP(EM), University of Toronto Jonathan Sherbino, MD, MEd, FRCPC Département de médecine d’urgence Hamilton Health Sciences, McMaster University Professeur clinique, Le Collège royal des médecins et chirurgiens du Canada Jason R. Frank, MD, MA(Ed), FRCPC Directeur associé, Bureau de l’éducation Le Collège royal des médecins et chirurgiens du Canada Directeur de l’éducation, Département de médecine d’urgence Faculté de médecine et Faculté de l’éducation, Université d’Ottawa Faculté des études supérieures, Institut d’études pédagogiques de l’Ontario Conseil consultatif de rédaction Glen Bandiera, MD, MEd, FRCPC, University of Toronto Gary Cole, PhD, Le Collège royal des médecins et chirurgiens du Canada Deborah Danoff, MD, FRCPC, Le Collège royal des médecins et chirurgiens du Canada Jason R. Frank, MD, MA(Ed), FRCPC, Le Collège royal des médecins et chirurgiens du Canada Margaret Kennedy, MA, Le Collège royal des médecins et chirurgiens du Canada Jonathan Sherbino, MD, MEd, FRCPC, McMaster University Le guide des outils d’évaluation CanMEDS Introduction aux méthodes d’évaluation des compétences CanMEDS Première édition Le Collège royal des médecins et chirurgiens du Canada 774, promenade Echo Ottawa (Ontario) K1S 5N8 Canada Téléphone : 1-800-668-3740 ou 613-730-8177 Télécopieur : 613-730-8262 Site Web : http://rcpsc.medical.org Courriel : [email protected] Droit d’auteur © 2006 Le Collège royal des médecins et chirurgiens du Canada. Tous droits réservés. Ce document peut être reproduit en totalité à des fins éducatives, personnelles ou non commerciales publiques exclusivement. Il faut obtenir l’autorisation écrite du Collège royal pour toutes autres utilisations, y compris l’utilisation commerciale de l’illustration CanMEDS ou de son cadre. Imprimé à Ottawa 01002010207F Photo de gauche de la couverture : Wayne Cuddington, Ottawa Citizen. Photo reproduite avec la permission du Ottawa Citizen. ISBN 13 : 978-0-9739158-7-7 ISBN 10 : 0-9739158-7-0 Comment citer ce document en référence : Bandiera G, Sherbino J, Frank JR. Le guide des outils d’évaluation CanMEDS. Introduction aux méthodes d’évaluation des compétences CanMEDS. Ottawa : Le Collège royal des médecins et chirurgiens du Canada; 2006. Table des matières Collaborateurs scientifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v Au sujet de ce guide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Partie 1 : Aide-mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Tableau 1 : Outils d’évaluation contemporains . . . . . . . . . . . . . . . . . . . . . . 7 Tableau 2 : Principaux outils d’évaluation des compétences CanMEDS . . . 9 Partie 2 : Aperçu des outils d’évaluation contemporains . . . . . . . . . . . . . . . . . . . 11 2.1 Examens écrits – Réponses construites (questions à réponse courte) Curtis Lee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2 Examens écrits – Réponses construites (dissertation) Curtis Lee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.3 Examens écrits – Choix de réponses (choix multiples, jumelage, jumelage étendu, choix d’un nombre de bonnes réponses, vrai ou faux) Curtis Lee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.4 Examens oraux structurés (EOS) Curtis Lee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.5 Observation directe Gary Cole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.6 Examens cliniques objectifs structurés (ECOS) et examens objectifs structurés reliés au rendement (EOSRR) Curtis Lee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.7 Patients standardisés Curtis Lee et Jonathan Sherbino . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.8 Rétroaction de sources multiples (évaluation à 360 degrés) Jocelyn Lockyer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.9 Portefeuilles et registres Jason R. Frank, Karen Mann et Erin Keely . . . . . . . . . . . . . . . . . 33 2.10 Évaluation fondée sur une simulation Viren N. Naik et Glen Bandiera . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.11 Fiches de rencontre Jason R. Frank, Curtis Lee et Glen Bandiera . . . . . . . . . . . . . . . . 41 Introduction aux méthodes d’évaluation des compétences CanMEDS iii Partie 3 : Outils privilégiés pour évaluer les compétences . . . . . . . . . . . . . . . . . 45 3.1 Expert médical : compétences fondées sur le savoir Glen Bandiera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.2 Expert médical : compétences en techniques d’intervention George Kovacs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.3 Communicateur Sue Dojeiji et Lara Cooke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.4 Collaborateur Ivy Oandasan et Denyse Richardson . . . . . . . . . . . . . . . . . . . . . . 68 3.5 Gestionnaire Saleem Razack et Deepak Dath . . . . . . . . . . . . . . . . . . . . . . . . . . 76 3.6 Promoteur de la santé Sarita Verma et Glen Bandiera . . . . . . . . . . . . . . . . . . . . . . . . . . 82 3.7 Érudit Jonathan Sherbino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 3.8 Professionnel Ramona A. Kearney, Derek Puddester et Jason R. Frank . . . . . . . 95 Glossaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 iv Le guide des outils d’évaluation CanMEDS Collaborateurs scientifiques Glen Bandiera, MD, MEd, FRCPC Directeur, Éducation médicale postdoctorale Urgentologue membre du personnel et chef de l’équipe de traumatologie, St. Michael’s Hospital Directeur, Programme de résidence FRCP(EM), University of Toronto Gary Cole, PhD (Édu) Attaché de recherche principal et Gestionnaire Recherche et perfectionnement pédagogiques Bureau de l’éducation Le Collège royal des médecins et chirurgiens du Canada Lara Cooke, MD, MSc, FRCPC Professeure adjointe de neurologie Vice-doyenne, Perfectionnement du corps professoral Faculté de médecine, University of Calgary Deepak Dath, MD, MEd, FRCSC, FACS Directeur de programme Programme du tronc commun en chirurgie McMaster University St. Joseph’s Healthcare, Hamilton Sue Dojeiji, MD, MEd, FRCPC Professeure agrégée Directrice, Programme de la médecine physique et de la réadaptation Université d’Ottawa Jason R. Frank, MD, MA(Ed), FRCPC Directeur associé, Bureau de l’éducation Le Collège royal des médecins et chirurgiens du Canada Directeur de l’éducation, Département de médecine d’urgence Faculté de médecine et Faculté d’éducation, Université d’Ottawa Faculté des études supérieures, Institut d’études pédagogiques de l’Ontario Ramona A. Kearney, MD, MMEd, FRCPC Professeure agrégée Département d’anesthésiologie et de médecine de la douleur University of Alberta Erin Keely, MD, FRCPC Chef par intérim, Division de l’endocrinologie et du métabolisme Professeure agrégée de médecine Départements de médecine et d’obstétrique et gynécologie Université d’Ottawa Introduction aux méthodes d’évaluation des compétences CanMEDS v George Kovacs, MD, ABEM, MHPE, FRCPC Professeur agrégé Département de médecine d’urgence Faculté de médecine Dalhousie University Curtis Lee, PhD Associé à la recherche Unité de recherche et de perfectionnement pédagogiques Bureau de l’éducation Le Collège royal des médecins et chirurgiens du Canada Scientifique spécialisé en éducation, Département de médecine d’urgence Université d’Ottawa Jocelyn Lockyer, PhD Vice-doyenne, Formation médicale et perfectionnement professionnel Professeure agrégée Département des sciences de la santé communautaire University of Calgary Karen Mann, BN, MSc, PhD Professeure et directrice Division de la formation médicale Dalhousie University Viren N. Naik, MD, MEd, FRCPC Directeur médical, Centre de simulation de patients Professeur adjoint Département d’anesthésiologie University of Toronto Ivy Oandasan, MD, MHSc, CCFP, FCFP Professeure agrégée et directrice Bureau de l’éducation interprofessionnelle University of Toronto Derek Puddester, MD, FRCPC Codirecteur, Neurosciences comportementales et Équipe de liaison des consultations Codirecteur, Éducation, Département de psychiatrie Centre hospitalier pour enfants de l’est de l’Ontario Directeur, Programme du bien-être du corps professoral Professeur agrégé, Département de psychiatrie Faculté de médecine, Université d’Ottawa vi Le guide des outils d’évaluation CanMEDS Saleem Razack, MD Professeur agrégé de pédiatrie Directeur, Programme de résidence en pédiatrie Université McGill Denyse Richardson, MD, MEd, FRCPC Professeure adjointe, professeure clinique Division de physiatrie Département de médecine, University of Toronto Professeure clinique Le Collège royal des médecins et chirurgiens du Canada Jonathan Sherbino, MD, MEd, FRCPC Département de médecine d’urgence Hamilton Health Sciences, McMaster University Professeur clinique Le Collège royal des médecins et chirurgiens du Canada Sarita Verma, LLB, MD, CCFP, FCFP Vice-doyenne, Éducation médicale postdoctorale Professeure agrégée, Département de médecine familiale et communautaire Faculté de médecine University of Toronto Introduction aux méthodes d’évaluation des compétences CanMEDS vii Au sujet de ce guide Au nombre des demandes les plus fréquentes que reçoit le Bureau de l’éducation du Collège royal des médecins et chirurgiens du Canada figurent des outils d’évaluation pour aider les professeurs de médecine à évaluer les compétences médicales. Pour répondre à ces demandes, nous avons conçu ce guide de référence à l’intention des professeurs de médecine, des enseignants cliniques et de tous ceux qui s’intéressent à l’évaluation des compétences médicales en fonction du Cadre de compétences CanMEDS 2005 pour les médecins. Le guide s’inspire de diverses sources. Le diagramme de classement des outils et certaines des références sont tirés des travaux du Groupe de travail sur les outils d’évaluation CanMEDS, présidé par Peter Tugwell durant les années 1990. Grâce à une subvention du Fonds de dotation CRMCC/AMS pour la recherche en éducation médicale, le groupe de travail a compilé une liste d’outils pouvant servir à l’évaluation des compétences CanMEDS. Le Bureau de CanMEDS maintient aussi une bibliographie d’ouvrages portant sur le cadre. Nous avons fait une recension d’outils dans cette base de données à l’aide des termes en anglais « evaluation », « assessment » et « competence » et nous les avons triés en fonction des rôles CanMEDS. Les auteurs de ce chapitre du guide ont choisi dans cette liste et dans les ouvrages spécialisés en éducation des documents significatifs susceptibles d’être utiles aux professeurs de médecine. Nous avons produit ce guide à votre intention précise et nous espérons qu’il vous sera utile. Il s’agit de la première édition et nous nous attendons à ce que des mises à jour s’imposent au fur et à mesure de l’évolution de la formation médicale fondée sur les compétences. Nous vous invitons à nous donner vos commentaires et votre rétroaction à l’adresse [email protected]. Nous soulignerons les contributions importantes dans les éditions ultérieures. Enfin, la production de ce document est aussi le fruit des efforts extraordinaires de l’équipe de CanMEDS, qui a habilement géré toutes les facettes nécessaires à l’intégration de textes en provenance de nombreux collaborateurs. Nous exprimons toute notre reconnaissance à Tammy Hesson pour son travail exceptionnel dans la coordination de la production du guide. Nous tenons aussi à remercier Ginette Bourgeois et Terri Bronstein de leur précieuse assistance, Anne Marie Todkill de son excellent travail de révision et l’équipe de gordongroup de la mise en page en parfaite conformité avec les échéances. Les rédacteurs Introduction aux méthodes d’évaluation des compétences CanMEDS 1 Introduction L’initiative CanMEDS est le fruit d’un travail de collaboration visant à améliorer les compétences des médecins, la pratique professionnelle et, en définitive, les soins aux patients. Des centaines d’Associés, des membres du personnel du Collège royal, des médecins de famille, ainsi que des professeurs de médecine ont apporté leur contribution pour définir un cadre contemporain de compétences médicales en harmonie avec les besoins de la société d’aujourd’hui. CanMEDS a maintenant plus de dix ans et se présente sous sa forme révisée, le Cadre de compétences CanMEDS 20051. La mise en œuvre du cadre CanMEDS exige des outils pratiques d’évaluation de la compétence des médecins dans chacun de leurs rôles professionnels. C’est pourquoi le Collège royal des médecins et chirurgiens du Canada a élaboré ce manuel, Le guide des outils d’évaluation CanMEDS. Le manuel est conçu pour aider les directeurs de programme, les coordonnateurs de stages et les professeurs de première ligne à évaluer efficacement le rendement des apprenants dans chacun des sept rôles CanMEDS. L’élaboration du guide s’est inspirée de trois grands principes. D’abord, l’évaluation des apprenants s’effectue dans de nombreuses circonstances sur une certaine période de temps. Tous les milieux d’enseignement ne se prêtent pas à l’évaluation des sept rôles CanMEDS. Par ailleurs, il importe d’évaluer chacun d’entre eux de diverses manières qui conviennent au milieu de formation en cause. Par conséquent, le guide décrit divers outils d’évaluation appropriés à chaque rôle CanMEDS, permettant aux professeurs de choisir les outils les plus propices à leur programme en particulier. Par exemple, un directeur peut utiliser une simulation réaliste pour mesurer certaines compétences essentielles du rôle de Gestionnaire. Le même directeur de programme peut aussi inclure une question à réponse courte concernant les principes d’assurance de la qualité dans un examen écrit en cours de formation touchant, ici aussi, au rôle de Gestionnaire. Deuxièmement, étant donné que l’Expert médical est le rôle central dans le cadre CanMEDS, l’observation directe est essentielle dans l’évaluation du rendement. De multiples observateurs peuvent évaluer les apprenants de manière itérative et progressive pendant la mise en pratique des compétences médicales. L’observation directe procure donc directement un bon aperçu du rendement réel. 1 Frank JR, rédacteur. Le Cadre de compétences CanMEDS 2005. L’excellence des normes, des médecins et des soins. Ottawa : Le Collège royal des médecins et chirurgiens du Canada; 2005. Introduction aux méthodes d’évaluation des compétences CanMEDS 3 Introduction Troisièmement, nous avons opérationnalisé le concept de la « compétence » comme étant le développement progressif des habiletés. Il importe donc d’évaluer les apprenants à diverses étapes de leur programme de manière à constater les progrès réalisés le long d’un continuum de rendement et à leur donner des conseils pour qu’ils s’améliorent de plus en plus. Nous avions pour but de concevoir un guide de référence facile à consulter à l’intention des professeurs à la recherche de réponses rapides et pratiques sur la façon d’amorcer l’évaluation des rôles CanMEDS. Le guide Le guide se divise en trois parties et présente un condensé de certains outils d’évaluation, ainsi qu’une explication plus détaillée de leur mise en application, de leurs forces et de leurs limites. En guise de compléments à ces brèves descriptions, certains exemples illustrant les outils et les approches que décrit le guide seront aussi affichées dans le site Web de CanMEDS à l’adresse http://crmcc.medical.org/canmeds. Partie 1: Aide-mémoire Cette section comporte deux descriptions visuelles. Le Tableau 1 brosse un bref portrait des forces et des limites d’outils d’évaluation courants. Le Tableau 2 présente les outils d’évaluation privilégiés en fonction de chacun des rôles CanMEDS. Partie 2 : Aperçu des outils d’évaluation contemporains Cette section explique plus en détails les divers outils d’évaluation. Chaque outil fait l’objet d’un chapitre distinct qui présente un synopsis sous les rubriques suivantes : • • • • • • • Description Avantages Désavantages Propice à l’évaluation Moins propice à l’évaluation Points saillants Références Pour assurer la plus grande objectivité possible, les outils doivent être conçus pour maximiser la fiabilité (donner des résultats uniformes dans la même situation d’une fois à l’autre) et la validité (évaluer les connaissances, les habiletés et les comportements voulus et être acceptés comme légitimes par les professeurs et les apprenants). Il importe donc d’adapter l’outil aux principales compétences à évaluer dans une situation donnée et de rendre le matériel d’évaluation (p. ex., questions à réponse courte, énoncés de la fiche d’évaluation en cours de formation, éléments de la liste de vérification) aussi explicite et descriptif que possible. Il faut insister sur l’évaluation de comportements concrets et observables ou de composantes bien définies de la base de connaissances de l’apprenant. 4 Le guide des outils d’évaluation CanMEDS Introduction Nous conseillons aux lecteurs du guide de consulter les références à la fin des chapitres lorsqu’ils élaborent de nouveaux outils. Ils y trouveront des exemples de travaux antérieurs et le nom d’experts dans le domaine de l’évaluation des apprenants. Partie 3 : Outils privilégiés pour évaluer les compétences CanMEDS Cette section se fonde sur une recension approfondie des ouvrages scientifiques portant sur chaque rôle. Un chapitre est consacré à chacun des rôles CanMEDS et aux meilleures méthodes pour évaluer les apprenants en fonction du rôle en question. Les chapitres sont structurés comme suit : • • • • la définition du rôle CanMEDS et les principales compétences qui y sont associées; une description et une justification des meilleurs outils disponibles pour évaluer l’apprenant; des articles portant sur les outils d’évaluation du rôle en particulier; d’autres articles intéressants concernant l’évaluation de ce rôle. Le guide se sert de définitions typiques des outils d’évaluation et tient compte de l’état actuel de la recherche en éducation médicale. Nous avons l’intention de produire des éditions révisées de ce guide au fur et à mesure de l’évolution de la recherche sur l’évaluation. Nous espérons que ce guide vous sera utile et nous vous invitons à nous donner vos commentaires. Glen Bandiera, MD, MEd, FRCPC Jonathan Sherbino, MD, MEd, FRCPC Jason R. Frank, MD, MA(Ed), FRCPC Introduction aux méthodes d’évaluation des compétences CanMEDS 5 Partie 1 : Aide-mémoire Cette section comporte deux descriptions visuelles pour aider les professeurs de médecine à mesurer les forces et les limites d’outils d’évaluation CanMEDS courants (Tableau 1) et établit un concordance entre les outils d’évaluation appropriés et chacun des Rôles CanMEDS (Tableau 2). Ces lignes directrices décrivent les propriétés générales de ces genres d’outils d’évaluation. La qualité de chacun des outils en particulier doit aussi être prise en compte dans l’utilisation des tableaux. Tableau 1 : Outils d’évaluation contemporains Fiabilité Validité Faisabilité Coût QCM + + + $ Familiarité globale Facile à noter Objet de recherches approfondies Devinette au hasard Difficile à bien rédiger Banalisation du contenu Peut surestimer la compétence Dissertation - +/- +/- $ Évalue la solution de problèmes Difficile à noter Facile à formuler Inefficace Problèmes de fiabilité QRC + + + $ Facile à rédiger Difficile à noter +/- + +/- - Évalue le raisonnement d’ordre supérieur Permet à l’apprenant de clarifier ses réponses Prend du temps Indices donnés par l’examinateur Problèmes de subjectivité Problèmes de standardisation ECOS + + - - Réaliste Prévu à l’avance Évalue le comportement dans des situations critiques Déconstruit la dynamique patient-médecin Limites dans les simulations possibles Coûteux Prend du temps FECF - + + $ Évalue tous les Influence des domaines de la caractéristiques compétence de l’apprenant sur Flexible l’évaluation du Évalue le comportement comportement sur une Faible puissance période de temps discriminatoire entre Validité apparente les domaines Réaliste Problèmes de fiabilité Examen oral Forces Limites Introduction aux méthodes d’évaluation des compétences CanMEDS 7 Partie 1 : Aide-mémoire Fiabilité Validité Faisabilité Coût RSM +/- + - $ Évalue tous les domaines de compétence Interprofessionnel Plusieurs évaluateurs Exige beaucoup de temps Peut nuire à la dynamique patient-médecin Problèmes de fiabilité Exige une formation appropriée de l’observateur Portefeuille - +/- - $ Autoréflexion Facilite les mesures correctrices Retrace le rendement avec le temps Exige beaucoup de temps Trompeur Conformité/effort N/A +/- + $ Accroît l’expérience en matière d’habiletés techniques Fait le suivi Présume que la répétition est synonyme de compétence Prend du temps Conformité/effort Registre Forces Limites + = force caractéristique de cet outil - = faiblesse caractéristique de cet outil +/- = varie selon la conception de l’outil $ = signifie que l’outil d’évaluation n’est pas coûteux. Par ailleurs, l’estimation des coûts des outils d’évaluation n’inclut pas le salaire des professeurs. Légende : FECF = Fiche d’évaluation en cours de formation QCM = Examen avec questions à choix multiples ECOS = Examen clinique objectif structuré QRC = Examen avec questions à réponse courte RSM = Rétroaction de sources multiples (aussi désigné sous le nom d’évaluation à 360 degrés) Bandiera G, Sherbino J, Frank JR. Le guide des outils d’évaluation CanMEDS. Introduction aux méthodes d’évaluation des compétences CanMEDS. Ottawa : Le Collège royal des médecins et chirurgiens du Canada; 2006. Tableau 2 : Principaux outils d’évaluation des compétences CanMEDS Expert médical Communicateur Collaborateur Promoteur de la santé Gestionnaire Érudit Professionnel 1. Examens écrits (QCM, QRC) +++ + ++ ++ + ++ + 2. Dissertations ++ + + +++ + + + 3. Examens oraux +++ + + + - - + 4. Observation directe et FECF +++ +++ +++ +++ +++ +++ +++ 5. ECOS / PS +++ +++ +++ ++ - - + 6. Rétroaction de sources multiples ++ +++ +++ +++ +++ ++ +++ 7. Portefeuilles ++ ++ + +++ ++ +++ +++ 8. Simulations +++ + +++ - ++ - ++ Légende : +++ = convient bien à l’évaluation de plusieurs des compétences essentielles du rôle ++ = convient bien à l’évaluation de certaines des compétences essentielles du rôle + = convient à l’évaluation de compétences bien précises dans le rôle - = ne convient pas bien pour ce rôle Abréviations : FECF = Fiche d’évaluation en cours de formation QCM = Examen avec questions à choix multiples ECOS = Examen clinique objectif structuré QRC = Examen avec questions à réponse courte PS = Patient standardisé Bandiera G, Sherbino J, Frank JR. Le guide des outils d’évaluation CanMEDS. Introduction aux méthodes d’évaluation des compétences CanMEDS. Ottawa : Le Collège royal des médecins et chirurgiens du Canada; 2006. Examens écrits – Réponses construites Partie 2 : Aperçu des outils d’évaluation contemporains 2.1 Examens écrits – Réponses construites (questions à réponse courte) Curtis Lee Définition L’examen avec questions à réponse courte (QRC) comporte une brève question très ciblée, conçue pour obtenir une réponse construite fiable de l’apprenant. Les réponses consistent habituellement en quelques phrases ou mots concis. Le barème de correction est conçu pour anticiper toutes les réponses correctes possibles. Description Les QRC commencent habituellement par un scénario clinique ou une vignette. Le scénario clinique peut servir de base à quelques QRC reliées entre elles. Les barèmes de correction sont bien définis pour l’apprenant dans l’ensemble de la question et se concentrent sur la valeur et la structure de la réponse. Les QRS bien rédigées commencent souvent par un impératif comme « donnez la liste » ou « nommez », qui circonscrit les exigences de la réponse. Les bonnes QRS donnent le nombre d’éléments attendus dans la réponse et le nombre total de points possibles. De plus, l’espace alloué donne une indication de la longueur de la réponse. Avantages • • • • • • • • mesure la mémoire et l’application des connaissances plutôt que la reconnaissance fiabilité modérée à élevée les QRC ont tendance à avoir de forts indices de discrimination; ceci laisse présager un lien solide et uniforme avec les résultats finaux de l’évaluation simple à administrer peut évaluer une base de connaissances étendue et approfondie il est possible de corriger objectivement les questions bien conçues a tendance à avoir une plus grande validité que les autres formes d’examens écrits (les candidats répondent ce qu’ils pensent, plutôt que de choisir entre les options fournies) les QRC sont généralement plus faciles à créer que les questions à choix multiples Introduction aux méthodes d’évaluation des compétences CanMEDS 11 Partie 2 : Aperçu des outils d’évaluation contemporains Désavantages • • • • l’écriture des candidats est souvent difficile à lire prend du temps à élaborer et à corriger difficile de produire un barème de correction complet a souvent une validité apparente plus faible que les évaluations fondées sur le rendement Propice à l’évaluation • • • de l’étendue et de la profondeur des connaissances factuelles dans tous les domaines CanMEDS de l’application clinique du savoir et du raisonnement diagnostique des habiletés en solution de problèmes Moins propice à l’évaluation • • • • du comportement en milieux cliniques des habiletés en communication orale et écrite des aptitudes à la collaboration, comme la prise de décisions en groupe, la direction d’une équipe et la négociation du professionnalisme, comme l’intégrité, l’engagement à l’endroit d’une pratique autoréglementée et le maintien du bien-être personnel Points saillants • • • L’élaboration d’un barème de correction modèle est une composante essentielle d’un examen avec QRC. Dans la création d’une QRC, il faut tenir compte de la perspective du candidat (La question est-elle claire et appropriée?) et du correcteur (Le barème de correction modèle est-il correct et complet? Les réponses peuvent-elles être facilement et objectivement notées?) Il faut mettre à l’essai les questions auprès d’un groupe témoin avant l’administration d’un examen avec QRC. Références http://rcpsc.medical.org/residency/certification/examinerguide/SAQguidelines_f.php Popham WJ. Modern educational measurement: practical guidelines for educational leaders, 3rd ed. Needham (MA) : Pearson Education; 2000. 12 Le guide des outils d’évaluation CanMEDS Examens écrits – Réponses construites 2.2 Examens écrits – Réponses construites (dissertation) Curtis Lee Définition La dissertation comporte des questions exigeant des apprenants qu’ils formulent leurs réponses sous forme écrite ou par ordinateur en se fondant sur leurs connaissances. Elle exige une synthèse et l’explication du contenu, ainsi que des habiletés en réflexion critique, comme l’évaluation, l’analyse et le jugement. Description Les sujets de dissertation peuvent être donnés par l’évaluateur ou encore être définis par l’apprenant. Les dissertations à réponses ouvertes comportent peu de structure, tandis que les dissertations à réponses restreintes offrent un cadre permettant d’améliorer la fiabilité, notamment les attentes de l’examinateur en matière de contenu et le temps accordé pour faire le travail. On peut permettre aux apprenants d’utiliser des ressources de l’extérieur pour la recherche de leur réponse. Ils peuvent remettre la dissertation à l’occasion d’une séance d’examen officielle ou à une date ultérieure. Avantages • • • de nombreux objectifs d’apprentissage peuvent être évalués les connaissances d’ordre supérieur peuvent être mises à l’épreuve (p. ex., la mise en application de renseignements factuels) simple à élaborer et à administrer Désavantages • • • • • • difficile à corriger de manière fiable les approches des apprenants à l’endroit des questions ne sont pas uniformes ni standardisées difficile pour le correcteur d’éviter l’effet de « l’ange » et de « la bête » (le travail d’un apprenant influence les notes accordées aux autres dissertations) la correction prend beaucoup de temps le correcteur peut être influencé par la calligraphie, la grammaire, la syntaxe et l’orthographe les habiletés langagières et en rédaction sont souvent évaluées au lieu des connaissances du contenu Propice à l’évaluation • • de l’expertise médicale (connaissances et attitudes) du sens de l’organisation et des habiletés en rédaction Introduction aux méthodes d’évaluation des compétences CanMEDS 13 Partie 2 : Aperçu des outils d’évaluation contemporains • • • • • • de la capacité de faire la synthèse de l’information de la communication écrite de la base de connaissances en gestion des approches à l’endroit de la promotion de la santé de la base de connaissances en matière d’érudition (p. ex., les approches à l’évaluation critique ou à l’enseignement) la base des connaissances en professionnalisme (p. ex., l’éthique appliquée) Moins propice à l’évaluation • • • • du rendement dans la pratique réelle des comportements dans la pratique des habiletés techniques et des interventions des aptitudes à la collaboration (p. ex., le travail en équipe, la négociation en cas de conflit) Points saillants • • • • Après avoir créé une question de dissertation, l’évaluateur doit répondre à la question dans le contexte de l’élaboration de son barème de correction. Ainsi, l’évaluateur peut se rendre compte de la gamme possible d’interprétations que peut en faire un apprenant. Il peut jauger la difficulté des questions de dissertation et le temps nécessaire pour y répondre. Les évaluateurs qui font cette démarche dans la préparation de questions de dissertation apportent souvent des modifications à la question initiale pour la rendre plus précise et mieux la cibler. Dans les examens où les enjeux sont d’importance capitale, le degré de difficulté devrait être semblable pour tous les candidats. Étant donné qu’il n’est pas facile d’établir un degré uniforme de difficulté, il vaut mieux ne pas permettre aux apprenants de choisir parmi une liste de questions. Il est difficile pour les correcteurs de ne pas se laisser influencer par la qualité de la calligraphie et par la grammaire, la syntaxe et l’orthographe. Le recours au traitement de textes peut atténuer ces problèmes. Idéalement, la correction devrait se faire en aveugle, sans identification de nom, et par plus d’une personne. La possibilité de reconnaître le style de rédaction de l’apprenant ainsi que les préférences et les intérêts intellectuels des correcteurs comptent au nombre des problèmes rencontrés dans les efforts de maintenir l’anonymat de l’apprenant et d’éliminer tout parti pris. Références Popham WJ. Modern educational measurement: practical guidelines for educational leaders. 3rd ed. Needham (MA) : Pearson Education Company; 2000. Violato C, McDougal D, Marini A. Educational measurement and evaluation. Dubuque (IA) : Kendall/Hunt; 1992. 14 Le guide des outils d’évaluation CanMEDS Examens écrits – Choix de réponses 2.3 Examens écrits – Choix de réponses (choix multiples, jumelage, jumelage étendu, choix d’un nombre de bonnes réponses, vrai ou faux) Curtis Lee Définition Les outils d’évaluation avec choix de réponses comportent une question et une liste d’options à partir de laquelle l’apprenant doit choisir la bonne réponse. Dans tous les examens à choix de réponses, l’apprenant est appelé à reconnaître la réponse correcte plutôt que de s’en souvenir sans indice. Plusieurs des outils d’évaluation écrits situent la question dans un scénario clinique ou une vignette. Les choix multiples, le jumelage, le jumelage étendu, le choix d’un nombre de bonnes réponses et les questions vrai ou faux comptent parmi les outils habituels dans cette catégorie. Description Questions à choix multiples (QCM) : les QCM consistent en une question d’introduction ou tronc qui demande à l’apprenant de choisir la réponse la plus juste parmi une liste qui inclut aussi de deux à cinq autres distracteurs plausibles mais incorrects. Jumelage : deux listes sont remises aux apprenants à qui on demande de jumeler un élément d’une colonne à un élément de l’autre colonne. Un exemple courant de jumelage consiste en une liste de termes dans une colonne et de définitions dans l’autre. Questions à jumelage étendu (QJE) : les apprenants reçoivent une liste de 10 à 20 éléments et sont appelés à les jumeler à une série de réponses correspondantes. Un élément peut être jumelé à plus d’une réponse. Par exemple, on donne aux apprenants une liste d’organes et une liste de médicaments. On leur demande ensuite de jumeler les organes de la liste avec les médicaments qui ont un effet sur cet organe. Choix d’un nombre de bonnes réponses : il s’agit d’un amalgame de QCM et de jumelage étendu. Il comporte un tronc d’introduction et des instructions de choisir un nombre donné de réponses correctes dans une longue liste. Ces questions pourraient porter, par exemple, sur tous les tests diagnostiques ou les interventions de prise en charge qui seraient appropriés dans une situation clinique donnée. Vrai ou faux : les apprenants sont appelés à se prononcer à savoir si un énoncé est vrai ou faux. Introduction aux méthodes d’évaluation des compétences CanMEDS 15 Partie 2 : Aperçu des outils d’évaluation contemporains Avantages • • • • • • • • • • peut évaluer des contenus diversifiés des questions identiques pour tous les apprenants simple à administrer un grand nombre d’apprenants peuvent subir l’examen en même temps la correction est objective, simple et rapide en comparaison d’autres méthodes on peut faire une banque de questions réutilisables la répartition des questions peut tenir compte de la pondération du contenu pédagogique la facilité de lecture de la calligraphie n’est pas un problème peut être administré et recueilli électroniquement on peut analyser les éléments pour déterminer les faiblesses de l’apprenant et la qualité des éléments contenus dans l’examen Désavantages • • • • • • • l’évaluateur ne peut pas déterminer si les réponses correctes sont attribuables à la chance les examens écrits sont exigeants au chapitre de l’utilisation précise de la langue faible validité apparente : peut ne pas refléter la pratique clinique ou n’évaluer qu’un contenu banal il est difficile de créer des distracteurs incorrects mais plausibles pour les QCM les apprenants peuvent utiliser un raisonnement par déduction pour répondre aux questions, se fiant à des indices laissés involontairement l’élaboration des questions prend du temps peu propice à l’évaluation des habiletés cognitives d’ordre supérieur, comme la synthèse, l’évaluation et la réflexion critique Propice à l’évaluation • • • des connaissances et de la mise en pratique des connaissances des connaissances de base dans toutes les compétences CanMEDS du raisonnement diagnostique Moins propice à l’évaluation • • • • • 16 des habiletés en communication de la collaboration (p. ex., le travail en équipe) du comportement éthique du leadership des habiletés organisationnelles Le guide des outils d’évaluation CanMEDS Examens écrits – Choix de réponses Points saillants • • • • • • • • • Les QCM demeurent fiables et valides avec seulement trois options, probablement parce que deux distracteurs très plausibles sont utilisés plutôt qu’un grand nombre de choix non plausibles. Les coefficients de fiabilité ont tendance à être élevés : un grand nombre de questions peuvent être posées rapidement et les réponses ont une faible variance en raison des options limitées. Les QCM à grande échelle peuvent utiliser une sémantique adaptable à l’ordinateur qui réduit le nombre de questions. À mesure que l’apprenant répond correctement à une série de questions, les questions suivantes qui lui sont posées sont de plus en plus difficiles, laissant ainsi moins de questions à évaluer. Il faut garder le contenu principal dans le tronc plutôt que dans les distracteurs. Il faut éviter ce qui suit : • évaluer des connaissances banales • les termes absolus comme « toujours » et « jamais » • « toutes ces réponses » ou « aucune de ces réponses » comme choix de réponse • des termes négatifs comme « ne pas » ou « exception faite » sans emphase • Les questions de type K qui demandent aux apprenants de choisir une combinaison de séries d’énoncés sont acceptables (p. ex., [a] énoncés 1 et 3; [b] énoncés 2 et 3; [c] énoncé 2 seulement). Elles sont difficiles à formuler et mettent à l’épreuve la logique plutôt que la connaissance du contenu. Éviter les questions vrai ou faux : la probabilité de deviner la réponse correcte est élevée. Utiliser avec prudence les questions à jumelage : la formulation de la question peut porter à confusion. On croit que le jumelage étendu se rapproche le plus de la pratique clinique. Les apprenants devraient être capables de choisir la bonne réponse sans voir les distracteurs. Références Case SM, Swanson DR. Constructing written test questions for the basic and clinical sciences. Philadelphia (PA) : National Board of Medical Examiners; 1998. p. 42. Haladyna TM, Downing SM, Rodriguez MC. A review of multiple-choice item-writing guidelines for classroom assessment. Appl Meas Educ 2002;15(3): 309-34. Wood T, Cole G, Lee C. L’élaboration de questions à choix multiples pour les examens menant au certificat du Collège royal. Ottawa : Le Collège royal des médecins et chirurgiens du Canada; 2004. Accessible à : http://crmcc.medical.org/residency/certification/examinerguide/ index.php Introduction aux méthodes d’évaluation des compétences CanMEDS 17 Partie 2 : Aperçu des outils d’évaluation contemporains 2.4 Examens oraux structurés (EOS) Curtis Lee Définition Les examens oraux donnent la possibilité à un évaluateur ou à un jury d’évaluateurs de poser à un apprenant une série de questions de manière à évaluer les réponses de l’apprenant et à y réagir. Les examens oraux procurent une interaction dynamique intense entre l’évaluateur et l’apprenant. Les examens oraux structurés (EOS) évaluent un nombre établi de cas standardisés à l’aide de questions d’incitation anticipées, fondées sur une gamme de résultats attendus du candidat et une grille de notation bien établie pour accroître la fiabilité de l’évaluation. Les EOS devraient être utilisés pour les évaluations dont les enjeux sont d’importance capitale ou les évaluations orales sommatives. Ils sont habituellement notés à l’aide d’un modèle structuré, défini au préalable. Description Traditionnellement, les examens oraux comportaient des conversations entre les apprenants et les examinateurs sur divers sujets généraux ou encore la présentation et l’examen en profondeur d’un cas ou d’une thèse. Bien que cette approche non structurée puisse permettre une évaluation de l’approfondissement des connaissances et une évaluation authentique d’un sujet en particulier, il est difficile de reproduire l’évaluation (faible fiabilité) ou de généraliser la réussite au-delà du cas ou du sujet en particulier (spécificité du cas). Il existe plusieurs variantes d’examen oral, mais l’EOS comporte habituellement de passer en revue de quatre à dix cas, d’une durée de cinq à quinze minutes chacun. Par conséquent, l’examen au complet dure environ une heure. Les discussions de cas peuvent porter sur la solution de problèmes, le diagnostic, le plan thérapeutique, l’interprétation de résultats et ainsi de suite. Les EOS peuvent aussi faire appel à des jeux de rôles. Idéalement, tous les apprenants ont les mêmes scénarios, ils sont évalués à l’aide des mêmes grilles de notations établies et reçoivent les mêmes réactions aux mêmes réponses. Il faut donner une formation aux examinateurs sur les buts de l’examen et sur l’importance de s’abstenir de donner au candidat des rétroactions sous forme verbale ou gestuelle qui le guideraient. Pour préparer un bon EOS, il faut prévoir des instructions à l’apprenant, une description détaillée des scénarios de cas (pour l’apprenant et l’évaluateur), une liste de questions d’incitation et de réponses anticipées aux questions, des listes de vérification pour documenter les réponses du candidat, des grilles de notation globale bien établies et des médiums (p. ex., des radiographies, des photographies). 18 Le guide des outils d’évaluation CanMEDS Examens oraux structurés Avantages • • • • • met à l’épreuve plus que la base de connaissances et mesure aussi comment le savoir est mis en application dans une situation dans les évaluations formatives (en apprentissage), les apprenants peuvent avoir une rétroaction immédiate le ou les évaluateurs peuvent poser des questions d’approfondissement pour confirmer les connaissances ou le raisonnement de l’apprenant ou encore explorer plus en profondeur les compétences peut s’appliquer à un large éventail de compétences et de domaines de contenu pour évaluer les connaissances de base et la réflexion critique, à l’aide de scénarios hypothétiques validité apparente élevée : on peut choisir les cas parmi des situations typiques ou critiques et les présenter de manière réaliste Désavantages • • • • • • • • un nombre limité de cas peut entraîner une spécificité du contenu et une faible fiabilité difficile à standardiser difficile à mettre en œuvre uniformément par tous les évaluateurs il est difficile d’établir et de mettre en application des critères systématiques et uniformes de notation il est difficile de présenter les cas de manière identique à tous les apprenants il est difficile d’éviter de donner des indices non verbaux l’environnement de l’examen peut causer de l’anxiété chez les apprenants, d’où un mauvais rendement qui ne reflète pas la compétence réelle prend du temps; l’examen de dix apprenants pendant une heure peut exiger plus d’un évaluateur et plus d’une journée de travail; une deuxième journée d’examen peut nécessiter que l’on utilise des scénarios différents Propice à l’évaluation • • • • du rôle d’Expert médical – connaissances factuelles – habiletés en raisonnement clinique et en solution de problèmes – réflexion critique (évaluation, synthèse et analyse) du rôle de Communicateur – habiletés interpersonnelles – capacités d’organiser l’information de manière claire et logique du rôle de Gestionnaire – base de connaissances (p.ex., structure du système de santé) du rôle de Promoteur de la santé – connaissance des facteurs déterminants de la santé – connaissance des services communautaires et des soutiens sociaux Introduction aux méthodes d’évaluation des compétences CanMEDS 19 Partie 2 : Aperçu des outils d’évaluation contemporains • • du rôle d’Érudit – recours aux données probantes à l’appui des décisions du rôle de Professionnel – conduite – raisonnement éthique Moins propice à l’évaluation • • • • • de l’étendue des connaissances des habiletés en interventions de l’examen physique du rendement véritable dans des situations réelles de la collaboration, du travail en équipe et du leadership Points saillants • • • Pour assurer la fiabilité et la validité dans l’EOS, il importe d’investir beaucoup d’efforts dans l’élaboration du contenu, de la présentation des cas, des questions d’approfondissement et du barème de notation. L’improvisation de la part de l’évaluateur réduit la fiabilité et la possibilité de généraliser l’examen. Il faut essayer d’anticiper les réponses des apprenants et de standardiser les critères d’évaluation. On doit éviter les erreurs de notation comme l’effet de « l’ange », la régression vers la médiane, l’effet de contrat, la projection, le parti pris, le localisme et la généralisation excessive. (Voir les directives du Collège royal). Références Guidelines for the conduct of structured oral examinations. Ottawa : Le Collège royal des médecins et chirurgiens du Canada, 2004. Finberg L, Lloyd JS. Suggested guidelines for ideal oral examinations. In : Lloyd, JS. Oral examinations in medical specialty board certification. Chicago (IL) : American Board of Medical Specialites; 1983. Mancall EL, Bashook PG, rédacteurs. Assessing clinical reasoning: the oral examination and alternative methods. Chicago (IL) : American Board of Medical Specialties; 1995. 20 Le guide des outils d’évaluation CanMEDS Observation directe 2.5 Observation directe Gary Cole Définition Dans le modèle d’évaluation en cours de formation du Collège royal, l’observation directe désigne l’observation, l’évaluation et la documentation sur une base continue des actes posés par les apprenants dans les milieux cliniques réels durant leur formation. Le facteur essentiel qui distingue l’observation directe des autres formes d’évaluation est que l’apprenant est observé pendant qu’il pose des actes authentiques qui se produisent naturellement dans l’expérience clinique au quotidien. Description Les actes évalués peuvent et devraient être en relation avec l’un ou l’autre des rôles CanMEDS. Il peut s’agir d’interactions avec les patients, leurs proches, le personnel hospitalier, des collègues, des étudiants ou des superviseurs. Ces personnes pourraient même contribuer à l’évaluation de l’apprenant (rétroaction de sources multiples), mais l’observation directe comporte habituellement la participation d’un expert (généralement le superviseur). L’environnement est toujours authentique, mais l’arrangement peut être plus ou moins formel. Dans un arrangement strictement formel, l’apprenant pourrait être appelé à effectuer une tâche spécifique et serait évalué au moyen d’un formulaire de notation standardisé. Dans un arrangement informel, l’observation ne serait pas spécifiquement planifiée et l’évaluation ne serait pas documentée dans un formulaire standardisé. Dans un tel cas, la culmination des observations guiderait la rédaction de la fiche d’évaluation en cours de formation (FECF) au terme de l’expérience éducative. Par ailleurs, idéalement, il faut donner une rétroaction longitudinale à l’apprenant pour façonner son apprentissage. Avantages • • • • • • • permet l’évaluation du rendement en temps réel des rôles CanMEDS donne la possibilité d’évaluer des actes importants mais peu fréquents permet l’évaluation des habiletés techniques qui ne peuvent pas être mesurées durant un examen très utile comme évaluation formative (en apprentissage) parce qu’il est habituellement possible de donner une rétroaction immédiate des évaluations faites par un grand nombre d’évaluateurs qui ont des perspectives différentes sont aussi possibles les comportement extrêmes (bons ou mauvais) dans l’un ou l’autre des rôles CanMEDS sont aisément évalués, permettant d’appliquer les conséquences éducatives qui s’imposent validité apparente élevée Introduction aux méthodes d’évaluation des compétences CanMEDS 21 Partie 2 : Aperçu des outils d’évaluation contemporains Désavantages • • • • • • lorsque l’évaluation n’est pas structurée, ni standardisée, la validité et la fiabilité sont remises en question il est difficile de former les observateurs pour qu’ils soient standardisés différents observateurs peuvent observer des élément différents les observateurs n’ont pas tous les mêmes standards de rendement on a peu de contrôle sur les situations observées, d’où des comportements très variés la documentation n’est parfois pas en temps opportun ou n’est pas faite dans certains cas Propice à l’évaluation • • de presque toutes les compétences essentielles de tous les rôles CanMEDS des comportements d’ordre supérieur (par opposition aux connaissances prévues dans les rôles) Moins propice à l’évaluation • • des compétences en recherche de l’Érudit de l’apprentissage continu de l’Érudit Points saillants • • • • • • 22 L’observation directe est l’une des deux méthodes qui évaluent le comportement concret dans la réalité de la pratique clinique. L’observation directe convient particulièrement à l’évaluation des rôles de Communicateur, de Collaborateur et de Promoteur de la santé, que l’apprenant exerce dans la pratique concrète. C’est un excellent moyen d’évaluer les comportements d’ordre supérieur. Lorsque des outils précis sont utilisés, c’est aussi un moyen utile d’évaluer les habiletés techniques. L’observation directe procure les conditions propices à l’évaluation formative (par ex., rétroaction immédiate). Il est essentiel de donner de la formation aux examinateurs en ce qui concerne l’utilisation judicieuse de la plupart des outils d’évaluation se servant de l’observation directe. On peut obtenir des commentaires de sources multiples, notamment d’autres professionnels de la santé ou des patients. Bien que la plupart des commentaires se fondent sur une évaluation non standardisée, les nombreuses occasions d’observation peuvent, de manière cumulative, offrir une validité et une fiabilité raisonnables. Le guide des outils d’évaluation CanMEDS Observation directe Références Catton P, Tallett S, Rothman A. A guide to resident assessment for program directors. Annales du CRMCC 1997;30(7):403-9. Gray J. Primer on resident evaluation. Annales du CRMCC 1996;29(2):91-4. Turnbull J, Gray J, MacFadyen J. Improving in-training evaluation programs. J Gen Intern Med 1998;13(May):317-23. Introduction aux méthodes d’évaluation des compétences CanMEDS 23 Partie 2 : Aperçu des outils d’évaluation contemporains 2.6 Examens cliniques objectifs structurés (ECOS) et examens objectifs structurés reliés au rendement (EOSRR) Curtis Lee Définition L’examen clinique objectif structuré (ECOS) présente un échantillon du rendement des apprenants tandis qu’ils font le tour d’une série de stations représentant divers scénarios cliniques. À chaque station, l’apprenant peut rencontrer un patient standardisé, faire un examen oral structuré, examiner de l’information visuelle (p. ex., des radiographies, des électrocardiogrammes), faire une simulation fortement ou faiblement réaliste (p. ex., un dispositif d’entraînement partiel) ou effectuer une tâche écrite. Les apprenants sont habituellement appelés à exécuter une technique spécifique, à simuler une partie d’une rencontre avec un patient ou à répondre à des questions fondées sur le matériel présenté. L’examen objectif structuré relié au rendement (EOSRR) est semblable à l’ECOS mais n’a pas nécessairement de dimension clinique. Description Un circuit d’ECOS comporte habituellement de 8 à 15 stations se déroulant dans une série de salles, en plus d’une ou deux stations de repos. On accorde généralement à l’apprenant de 8 à 30 minutes pour effectuer la tâche prévue dans chaque salle. Il s’écoule environ 2 à 5 minutes entre chaque station, pendant lesquelles on lui donne des renseignements concernant la prochaine station. L’évaluation se fait au moyen d’une liste de vérification standardisée, de grilles de notation globale établies ou encore, on évalue les brèves réponses narratives. Avantages • • • • le fondement clinique se prête à une validité apparente élevée, le rendement étant perçu comme plus pertinent qu’une évaluation écrite peut cibler des domaines de contenu ou des habiletés spécifiques peut être standardisé permet l’observation directe du rendement Désavantages • • • • • 24 prend du temps à élaborer complexe à administrer et exige de nombreux examinateurs et des salles multiples ne peut couvrir que quelques domaines de contenu les limites de temps et le milieu de l’examen sont artificiels n’est rentable que si de nombreux apprenants subissent l’examen Le guide des outils d’évaluation CanMEDS Examens cliniques objectifs structurés et examens objectifs structurés reliés au rendement Propice à l’évaluation • • • • • des habiletés en anamnèse des habiletés à faire l’examen physique des habiletés en communication médecin–patient du raisonnement diagnostique, de la prise en charge du patient et de la planification thérapeutique de la base de connaissances dans un contexte spécifique Moins propice à l’évaluation • • • • des comportements éthiques et professionnels complexes des interactions de collaboration des habiletés en enseignement et en recherche d’un large éventail de connaissances dans divers domaines (compte tenu des contraintes de temps et du nombre limité de stations) Points saillants • • • • Les ECOS sont privilégiés pour les examens formatifs et sommatifs à large échelle. Ils offrent un contenu et des circonstances d’examen standardisés, notamment le même temps accordé par station, du contenu semblable durant tout l’examen et des rencontres similaires avec des patients standardisés. Les listes de vérification assurent l’objectivité des ECOS parce qu’elles optimisent la notation uniforme et l’équité et minimisent la subjectivité des évaluateurs. Les listes de vérification, par opposition aux notes globales, peuvent produire une meilleure évaluation. Il faut se méfier des apprenants qui adoptent une approche de « mitraillette », selon laquelle ils tentent de donner toutes les réponses possibles dans l’espoir de répondre à tous les critères de la liste de vérification. Les notes globales conviennent mieux dans l’évaluation des apprenants dont l’expertise est plus grande. Pour réduire le degré de subjectivité associé à une note globale, il faut s’assurer que les grilles de notation sont bien établies pour assurer une évaluation uniforme par tous les évaluateurs. La fiabilité a tendance à augmenter proportionnellement au nombre de scénarios et de stations. Références Cohen R, Rothman AI, Ross J, Poldre P. Security issues in standardized-patient examinations. Acad Med 1993;68(10):S73-S75. Cohen R, Rothman AI, Ross J, Poldre P. Validating an objective structured clinical examination (OSCE) as a method for selecting foreign medical graduates for a pre-internship program. Acad Med 1991;66(9)S67-S69. Introduction aux méthodes d’évaluation des compétences CanMEDS 25 Partie 2 : Aperçu des outils d’évaluation contemporains Evans J, Morales D, Robb A. How to run an OSCE: a guide for the beginner. Toronto : Educating Future Physicians for Ontario (EFPO) Project; 1995. Hanson M, Russell L, Robb A, Tabak D. Cross-cultural interviewing: a guide for teaching and evaluation. Toronto : Faculté de médecine, University of Toronto; 1996. Harden R M, Stevenson M, Downie WW, Wilson GM. Assessment of clinical competence using objective structured examination. BMJ 1975;1:447-51. Hodges B, McIlroy JH. Analytic global OSCE ratings are sensitive to level of training. Med Educ 2003;37:1012-6. Hodges B, McNaughton N, Regehr G, Tiberius RG, Hanson M. The challenge of creating new OSCE measures to capture the characteristics of expertise. Med Educ 2002;36:742-8. Hodges B, Regehr G, McNaughton N, Tiberius RG, Hanson M. OSCE checklists do not capture increasing levels of expertise. Acad Med 1999;74:1129-34. Reznick RK, Blackmore DE, Dauphinee WD, Rothman AI, Smee SM. Large-scale high-stakes testing with an OSCE : Rapport du Conseil médical du Canada. Acad Med 1996;S71:19-21. Rothman AI, Cohen R. Understanding the objective structured clinical examination: issues and options. Annales du CRMCC 1995;28(5):283-7. 26 Le guide des outils d’évaluation CanMEDS Patients standardisés 2.7 Patients standardisés Curtis Lee et Jonathan Sherbino Définition Les patients standardisés sont des acteurs en santé formés pour simuler une situation ou un problème médical ou encore de vrais patients formés pour standardiser la présentation de leur propre problème médical aux fins d’évaluation. On les retrouve dans des stations d’examen clinique objectif structuré (ECOS), dans une composante d’examen oral ou comme outil d’évaluation autonome. Même si des patients standardisés ont été intégrés dans la pratique clinique (p. ex., dans une liste de patients en clinique externe) à l’insu de l’apprenant qui fait l’objet de l’évaluation, une telle pratique pose des problèmes sur le plan de l’éthique. Comme dans le cas des simulations, les patients standardisés ne sont pas en eux-mêmes des outils d’évaluation ni l’objet d’une évaluation. Ils procurent plutôt la possibilité d’observer un rendement qui est ensuite évalué en fonction d’une liste de vérification standardisée, d’une grille de notation globale établie ou d’une brève réponse narrative. Description Durant la rencontre, le patient standardisé simule la présentation réelle d’un patient à l’aide d’un script standardisé. Cette personne a reçu une formation pour réagir à l’apprenant d’une manière normalisée pour accroître la fiabilité du processus d’évaluation. Selon les instructions dans le scénario, les directives du médecin évaluateur ou par interaction directe avec le patient standardisé, l’apprenant procède à une évaluation clinique. Il peut s’agir de faire le bilan de santé, d’effectuer une évaluation physique, de poser un diagnostic, d’élaborer un plan thérapeutique et ainsi de suite. Outre les compétences cliniques, on évalue souvent les habiletés en communication et en interventions techniques durant une rencontre avec un patient standardisé. Avantages • • • • a tendance à avoir une validité apparente élevée du fait que les scénarios se fondent sur la pratique clinique; le rendement est perçu comme étant plus pertinent qu’une évaluation écrite permet l’évaluation de domaines de contenu et d’habiletés ciblés est standardisé pour évaluer uniformément tous les apprenants comporte l’observation directe du rendement Introduction aux méthodes d’évaluation des compétences CanMEDS 27 Partie 2 : Aperçu des outils d’évaluation contemporains Désavantages • • • • il faut beaucoup de temps pour former les patients standardisés et élaborer les scénarios et les scripts coûteux si ce ne sont pas des bénévoles qui jouent le rôle ne peut porter que sur quelques domaines de contenu il faut tenir une séance d’information spécifique avec les patients pédiatriques standardisés pour éviter un traumatisme émotionnel Propice à l’évaluation • • • • • de l’anamnèse (selon le temps à la disposition et le concept du scénario) de l’examen physique de la communication médecin-patient du raisonnement diagnostique, de la prise en charge du patient et de la planification thérapeutique de la base de connaissances dans un contexte spécifique Moins propice à l’évaluation • • • • • des comportements éthiques et professionnels complexes de la véritable collaboration de l’évaluation critique et des rôles de chercheurs et d’érudits d’un vaste éventail de connaissances dans différents domaines (surtout en raison des contraintes de temps) de la pratique pédiatrique Points saillants • • • • 28 Même s’il est souvent plus facile d’avoir accès à de véritables patients, l’évaluation de l’apprenant à l’aide d’un vrai patient semble être moins fiable, compte tenu de la difficulté de standardiser la rencontre. Il est important de maintenir une fiabilité élevée, surtout dans les examens où les enjeux sont importants, comme les examens menant au certificat. Il est très important de bien former le patient standardisé si l’on veut une évaluation fiable. Les patients standardisés doivent comprendre l’importance de donner des réponses uniformes et devraient anticiper les questions et les interactions habituelles. Ils doivent en savoir autant que possible sur le problème médical qu’ils sont appelés à simuler. Des médecins ou d’autres professionnels de la santé formés à cet égard peuvent faire office de patients standardisés. Le recours à ces groupes de personnes minimise le temps de formation requis et ajoute à l’évaluation une plus grande validité de contenu. La fatigue est un facteur à considérer si les patients standardisés participent à l’évaluation d’un grand nombre de candidats. Le guide des outils d’évaluation CanMEDS Patients standardisés • • Tous les problèmes ne se prêtent pas à une simulation (p. ex., l’arthrite rhumatoïde, les troubles neurologiques, etc.). Il est important que le patient standardisé ne présente pas de signes physiques réels qui pourraient distraire l’apprenant. Références Lavallee C. The examiner’s handbook: preparing the standardized patient. Ottawa : Le Collège royal des médecins et chirurgiens du Canada; 2006. Solomon D, Szauter K, Rosebraugh C, Callaway M. Global ratings of student performance in a standardized patient examination: Is the whole more than the sum of the parts? Adv Health Sci Educ 2000:5:131-40. van der Vleuten C, Swanson D. Assessment of clinical skills with standardized patients: state of the art. Teach Learn Med 1990;2:58-76. Wallace J, Rao R, Haslam R. Simulated patients and objective structured clinical examinations: review of their use in medical education. Adv Psych Treatment 2002;8:342-50. Wallace P. Following the threads of an innovation: the history of standardized patients in medical education. Caduceus 1997;13(2):5-28. Introduction aux méthodes d’évaluation des compétences CanMEDS 29 Partie 2 : Aperçu des outils d’évaluation contemporains 2.8 Rétroaction de sources multiples (évaluation à 360 degrés) Jocelyn Lockyer Définition La rétroaction de sources multiples (RSM) est souvent désignée (à tort) sous le nom d’évaluation à 360 degrés. Ce genre d’évaluation provient des milieux organisationnels et du travail. Les superviseurs, les personnes qui se rapportent directement au sujet et les pairs remplissent des formulaires pour recueillir des renseignements, évaluer la conduite et donner de la rétroaction. La RSM se sert d’instruments spécifiques conçus pour recueillir des données au sujet de comportements en particulier ou de constructs professionnels (p. ex., professionnalisme et habiletés en communication) chez l’apprenant. Dans les milieux de l’enseignement, les observateurs peuvent être des médecins (p. ex., des collègues résidents, des médecins superviseurs et des étudiants en médecine), d’autres professionnels de la santé (p. ex., des infirmières, des pharmaciens et des psychologues), des patients et des membres de leur famille. Une autoévaluation en fait aussi souvent partie. Les questionnaires peuvent être les mêmes ou différents selon le groupe d’évaluateurs. La rétroaction est rassemblée et présentée selon le groupe de provenance. On peut utiliser la RSM pour des évaluations formatives et sommatives et identifier les apprenants en difficulté. Description La RSM comporte habituellement de la rétroaction sollicitée d’une ou plusieurs sources, et peut inclure les commentaires de l’apprenant. La rétroaction est généralement donnée en répondant à un questionnaire comptant de 10 à 40 questions conçues pour évaluer les comportements cliniques qui sont possibles d’observer et de corriger. La RSM peut servir de complément à des moyens traditionnels d’évaluation (p. ex., les examens et les observations du précepteur) en obtenant les commentaires de personnes qui n’ont normalement pas la responsabilité hiérarchique de donner de la rétroaction, mais qui peuvent avoir une perspective différente du rendement réel de l’apprenant. Enfin, la RSM favorise la réflexion et facilite l’élaboration d’un plan de perfectionnement personnel. Avantages • • • • • • 30 évalue les comportements la fiabilité repose sur le nombre d’évaluateurs qui donnent leur rétroaction peut servir à des fins formatives pour orienter l’amélioration de soi dans des domaines spécifiques ou pour identifier les apprenants à risque sert de complément à d’autres évaluations rend les valeurs et les comportements explicites adaptable à des environnements et à des besoins d’évaluation changeants Le guide des outils d’évaluation CanMEDS Rétroaction de sources multiples • • • facilite le développement de la réflexion et de l’introspection grâce à la comparaison de la rétroaction des diverses sources et sa propre évaluation les données combinées peuvent aider à cerner les forces et les faiblesses du programme pédagogique évalue certains comportements difficiles à évaluer avec des méthodes traditionnelles Désavantages • • • • • • • les éléments du sondage et les constructs à cibler doivent être méticuleusement conçus pour obtenir un outil valide qui évalue de manière adéquate le comportement exige un échantillonnage approprié d’évaluateurs pour assurer la fiabilité. Les études sur la capacité de généralisation peuvent déterminer la taille convenable de l’échantillon (p. ex., 8 à 10 pairs, 8 à 10 professionnels de la santé, 25 patients ou plus, selon le nombre d’éléments du sondage) exige un environnement stable pour la distribution du sondage, la collecte des données et la production du rapport nécessite une contribution constante et importante de la part des évaluateurs les barrières linguistiques peuvent influencer la participation des patients des stimuli sont quotidiens, des événements concrets sont aléatoires et différents pour chaque observateur; le manque de standardisation cause des problèmes dans l’interprétation des données et l’analyse de la fiabilité la rétroaction est donnée par des personnes qui n’ont pas de lien hiérarchique avec l’apprenant; la rétroaction obtenue, même si elle est anonyme, peut être imprévue et influencer les relations dans l’équipe Propice à l’évaluation • • • • de la communication interpersonnelle du professionnalisme des capacités de travailler en équipe interprofessionnelle de la capacité de défendre les intérêts des patients, de se préoccuper des facteurs déterminants de la santé Moins propice à l’évaluation • de la base de connaissances et des habiletés techniques (qu’il vaut mieux laisser aux soins d’observateurs experts) Points saillants • • • La RSM est un outil fondé sur un questionnaire conçu pour évaluer les comportements observables qu’il est possible de corriger. Il faut un nombre suffisant d’éléments à observer et d’observateurs pour assurer la fiabilité de l’information fournie à l’apprenant. Il faut une infrastructure considérable. Introduction aux méthodes d’évaluation des compétences CanMEDS 31 Partie 2 : Aperçu des outils d’évaluation contemporains Références Archer JC, Norcini J, Davies HA. Use of SPRAT for peer review of paediatricians in training. BMJ 2005;330:1251-3. Johnson D, Cujec B. Comparison of self, nurse, and physician assessment of residents rotating through an intensive care unit. Crit Care Med 1998;26(11):1811-6. Joshi R, Ling FW, Jaeger J. Assessment of a 360-degree instrument to evaluate residents’ competency in interpersonal and communication skills. Acad Med 2004;79:458-63. Violato C, Lockyer J, Fidler H. The assessment of pediatricians by a regulatory authority. Pediatrics 2006;117:796-802 Sites Web utiles www.par-program.org The College of Physicians and Surgeons of Alberta Ce site Web offre des copies du questionnaire utilisé en Alberta pour évaluer les médecins de famille, les chirurgiens, les anesthésiologistes, les internistes, les pédiatres, les psychiatres, les médecins de soins épisodiques (p. ex., les urgentologues, les médecins remplaçants, les médecins hospitaliers), ainsi que les radiologistes. Il présente aussi des renseignements généraux au sujet du programme et du rapport de rétroaction. Même s’il est conçu pour cerner des données relatives à l’amélioration de la qualité à l’intention des médecins en pratique active, les renseignements contenus dans le site Web, ainsi que les exemples, sont utiles dans l’élaboration d’outils d’évaluation fondés sur une RSM. http://www.mmc.nhs.uk/pages/foundation/foundation-learning-portfolio Foundations Program (Royaume-Uni) Le Foundations Program s’applique aux résidents de première et deuxième années au Royaume-Uni. Dans le contexte du programme de perfectionnement des résidents, on utiliser deux types de RSM. Le Mini-Pat porte sur la bonne pratique médicale (comparable aux compétences CanMEDS). L’autre outil évalue les comportements reliés au travail en équipe. 32 Le guide des outils d’évaluation CanMEDS Portefeuilles et registres 2.9 Portefeuilles et registres Jason R. Frank, Karen Mann et Erin Keely Définition Les portefeuilles offrent un moyen flexible et polyvalent de recueillir des données factuelles sur l’acquisition progressive de la compétence. Les registres sont des instruments structurés pour documenter qu’une activité d’apprentissage a eu lieu. Description Les professeurs cliniques sont probablement familiers avec les portefeuilles dans le contexte des dossiers d’enseignement dont on se sert dans les demandes de promotion universitaire. Par ailleurs, les portefeuilles ainsi que les registres ont de nombreuses définitions et utilisations dans les ouvrages médicaux et pédagogiques. L’intérêt grandissant pour la formation fondée sur les compétences et les nouveaux concepts de la compétence qui vont au-delà du rôle d’Expert médical accroît la popularité de ces outils d’évaluation. Les portefeuilles constituent un auxiliaire pédagogique extrêmement flexible, facilement adaptable à de multiples usages, milieux et types d’apprenants. Les portefeuilles et les registres servent tous deux à recueillir des preuves que l’apprentissage s’est produit. Nous définissons les registres comme étant les outils qui servent à retracer l’incidence d’activités éducatives pertinentes, comme le nombre d’interventions effectuées (p. ex., une liste des appendicectomies). Ils ont tendance à être très structurés et ne donnent pas ou que peu de possibilités de contribution ou de réflexion de la part de l’apprenant. À l’autre extrémité du spectre se retrouvent des outils non structurés qui accordent à l’apprenant l’autonomie de décider ce que représente son travail et donnent d’amples possibilités à l’apprenant de réfléchir. L’agenda personnel d’un artiste en serait un bon exemple. Au milieu de l’éventail se situe le genre de portefeuille que la plupart des programmes de formation médicale trouveraient utiles : un outil conçu expressément à cette fin, structuré, qui définit les domaines d’activités et les marqueurs des compétences, mais qui intègre les observations du superviseur sur l’acquisition de la compétence et les réflexions de l’apprenant sur l’apprentissage avec le temps. Ainsi, les portefeuilles sont véritablement « l’instrument des instruments » ou une collection d’outils d’évaluation. Ils peuvent se composer de registres, d’instruments de rétroaction de sources multiples, de projets d’amélioration continue de la qualité, d’un agenda personnel de l’apprentissage, de fiches de rencontre, de dissertations, de barèmes de correction, etc. Dans l’élaboration d’un portefeuille aux fins d’évaluation, il importe de bien préciser non seulement son but, mais aussi le rôle de l’apprenant dans l’assemblage du matériel, le degré de réflexion attendu, le médium (p. ex., sur papier ou en ligne) et la façon d’établir les attentes et les normes. Introduction aux méthodes d’évaluation des compétences CanMEDS 33 Partie 2 : Aperçu des outils d’évaluation contemporains Avantages • • • • • • • • • • • • grande authenticité flexible, permettant de nombreuses façons de démontrer l’accomplissement peut être centré sur l’apprenant, tenant compte de ses objectifs et de ses intérêts personnels peut faciliter le dialogue entre l’apprenant et le professeur, en particulier lorsque l’apprenant participe à la définition des critères de réussite et de la qualité des données factuelles implique l’apprenant dans la création, la collecte et l’évaluation des données factuelles longitudinal plutôt que transversal, permettant la démonstration de la croissance personnelle stimule l’apprentissage autodirigé donne la possibilité de réfléchir sur l’apprentissage et de se fixer de nouveaux objectifs peut inclure des évaluations en provenance de sources diverses (p. ex., les pairs et les patients) peut avoir une influence éducative favorable peut servir tout au long de la formation médicale, des études en médecine jusqu’au perfectionnement professionnel continu en passant par la résidence l’analyse des dossiers peut servir à l’évaluation et à l’agrément des programmes (p. ex., registres des interventions) Désavantages • • • • • • • utilité proportionnelle à la qualité de ses composantes : l’étendue, la validité et la fiabilité reposent sur les instruments utilisés pour recueillir les données et il peut falloir beaucoup de temps pour les créer et les évaluer exige une conception adéquate et l’élaboration de critères appropriés nécessite un examen par le professeur ainsi que ses contributions peut être difficile à standardiser peut être exigeant sur le plan des ressources, selon sa conception la conformité de l’apprenant à la tâche peut être mitigée si le portefeuille est considéré de faible utilité ou pertinence pour être utilisé efficacement, il faudrait un changement de culture dans de nombreux milieux médicaux Propice à l’évaluation • • • 34 des éléments complexes du rendement et des compétences intégratives dans tous les rôles CanMEDS de la documentation des interventions de divers aspects du rôle de Communicateur (communication écrite, orale, interpersonnelle) Le guide des outils d’évaluation CanMEDS Portefeuilles et registres • • • les portefeuilles constituent peut-être la méthode la plus rigoureuse d’évaluer les compétences dans le rôle d’Érudit, en ce qui a trait à l’acquisition continue du savoir, à la recherche et à l’enseignement démontre les exemples concrets de collaboration et de travail en équipe; propice à l’évaluation du rendement dans des situations authentiques excellent pour une évaluation formative continue Moins propice à l’évaluation • • • du rôle d’Expert médical des situations dans lesquelles tous les apprenants doivent faire preuve de la même compétence de manière standardisée des situations dans lesquelles des décisions sommatives sont prises et où il faut une grande fiabilité Points saillants • • • • • • Les portefeuilles permettent d’évaluer des compétences complexes selon des méthodes différentes, par différentes personnes et dans des circonstances différentes. Ils favorisent grandement l’apprentissage par l’intermédiaire de l’évaluation et offrent la possibilité de perfectionner les habiletés requises pour le maintien continu de la compétence. Les portefeuilles exigent une conception et une élaboration judicieuses, insistant particulièrement sur le but, les critères d’accomplissement et les données probantes à l’appui. Jusqu’à présent, ils constituent la méthode la plus efficace d’évaluation formative et de documentation des progrès. Les ouvrages scientifiques font valoir que la réussite dans l’utilisation des portefeuilles repose sur le soutien du superviseur et une étude régulière et périodique de son contenu. Même si les portefeuilles incitent l’apprenant à réfléchir, il n’est pas garanti qu’il le fera. L’utilisation des portefeuilles doit être bien acceptée dans les milieux où l’on s’en sert, tant par les apprenants que par les professeurs. Références Carraccio C, Englander R. Evaluating competence using a portfolio: a literature review and web-based application to the ACGME competencies. Teach Learn Med 2004;16(4):381-7. Chisholm CD, Croskerry P. A case study in medical error: the use of the portfolio entry. Acad Emerg Med 2004;11(4):388-92. Davies H, Khera N, Stroobant J. Portfolios, appraisal revalidation, and all that: a user’s guide for consultants. Arch Dis Child 2005;90:165-70. Introduction aux méthodes d’évaluation des compétences CanMEDS 35 Partie 2 : Aperçu des outils d’évaluation contemporains Davis MH, Friedman Ben-David M, Harden RM, Howie P, Ker J, McGhee C, et al. Portfolio assessment in medical students’ final examinations. Med Teach 2001;23:357-66 Doezema D, McLaughlin S, Sklar DP. An approach to fulfilling the systems-based practice competency requirement. Acad Emerg Med 2002;9(11):1355-9. Driessen EW, van Tartwijk J, Vermunt JD, van der Vleuten CP. Use of portfolios in early undergraduate medical training. Med Teach 2003;25:18-23. Friedman B, David M, Davis MH, Harden RM, Howie PW, Ker J, Pippard MJ. AMEE Medical Education Guide no. 24: Portfolios as a method of student assessment. Med Teach 2001;23:535-51. Fung MF, Walker M, Fung KF, Temple L, Lajoie F, Bellmare G, et al. An internetbased learning portfolio in resident education: The KOALA multicentre programme. Med Educ 2000;34(6):474-9. Grant A, Dornan TL. What is a learning portfolio? Diabet Med 2001;18(Suppl. 1):1-4. Hays RB. Reflecting on learning portfolios. Med Educ 2004;38(8):801-3. Holmboe ES, Rodak W, Mills G, McFarlane MJ, Schultz HJ. Outcomes-based evaluation of resident education: Creating systems and structured portfolios. Am J Med 2006;119(8):708-14. Jarvis RM, O’Sullivan PS, McClain T, Clardy JA. Can one portfolio measure the six ACGME general competencies? Acad Psychiatry 2004;28:190-6. Lonka K, Slotte V, Halttunen M, Kurki T, Tiitinen A, Vaara L, et al. Portfolios as a learning tool in obstetrics and gynecology undergraduate training. Med Educ 2001;35(12):1125-30. O’Sullivan P, Green C. Portfolios: Possibilities for addressing emergency medicine resident competencies. Acad Emerg Med 2002;9:1305-9. O’Sullivan PS, Reckase MD, McClain T, Savidge MA, Clardy JA. Demonstration of portfolios to assess competency of residents. Adv Health Sci Ed 2004;9:309-323 Pinsky L, Fryer-Edwards K. Diving for PERLS. Working and performance portfolios for evaluation and reflection on learning. J Gen Intern Med 2004;19:582-7. Rees CE, Sheard CE. The reliability of assessment criteria for undergraduate medical students’ communication skills portfolios: The Nottingham experience. Med Educ 2004;38:138-44. Roberts C, Newble DI, O’Rourek AJ. 2002. Portfolio-based assessments in medical education: Are they valid and reliable for summative purposes? Med Educ 2002;36(10):899-900. 36 Le guide des outils d’évaluation CanMEDS Évaluation fondée sur une simulation 2.10 Évaluation fondée sur une simulation Viren N. Naik et Glen Bandiera Définition La simulation reproduit artificiellement un environnement ou des circonstances cliniques dans le but de permettre à un apprenant d’effectuer une tâche précise d’une manière contrôlée qui ne présente aucun risque pour les patients. Une simulation peut recréer de nombreux milieux cliniques avec un certain degré de réalisme, permettant aux professeurs d’observer comment une personne ou une équipe peut fonctionner dans « le monde de la réalité ». Cette méthode est particulièrement utile pour évaluer le rendement de l’apprenant dans l’exécution d’une intervention complète ou dans des situations de crise qui se produisent rarement ou ne sont pas prises en charge de manière autonome durant une résidence limitée. Description La simulation comporte un large éventail d’outils didactiques et de recherche. Par exemple, les patients standardisés, dont on traite ailleurs dans ce guide, comptent au nombre des méthodes de simulation. Les dispositifs d’entraînement partiel sont des mannequins de plastique et de latex qui simulent les parties du corps avec une grande exactitude anatomique pour permettre aux stagiaires de mettre en pratique des interventions techniques spécifiques. Ces modèles peuvent intégrer des composantes de « réalité virtuelle ». Par exemple, une simulation du corps entier très réaliste utilise des mannequins mus par ordinateur pour recréer des patients dans une civière, une salle d’opération, une unité de soins intensifs et une salle d’urgence. Les mannequins présentent tous les indices physiques nécessaires (p. ex., les battements du cœur et les bruits de la respiration) mais, avant tout, leurs paramètres physiologiques réagissent aux interventions des participants, comme l’administration d’oxygène, de médicaments, de fluides et de compressions thoraciques. Plutôt qu’un outil d’évaluation en lui-même et de lui-même, la simulation est une approche se prêtant à l’utilisation d’autres outils plus traditionnels. La mesure du rendement à l’aide d’une simulation offre une grande validité et une fiabilité élevée en se servant de critères spécifiques dans des conditions contrôlées. L’observation directe est couramment utilisée comme mode d’évaluation dans une simulation et elle peut se faire à l’aide de listes de vérification, de notes globales ou de barèmes multiples pour différents comportements. Parmi d’autres options possibles, on peut demander aux apprenants de faire un bref rapport à inclure dans leur portfolio sur leur expérience et leurs recommandations pour celles à venir. La simulation se prête à la fois aux évaluations formatives et sommatives. Les dispositifs d’entraînement partiel conviennent parfaitement à l’évaluation des habiletés en interventions. Une liste de vérification divise une intervention donnée en divers éléments importants que l’on peut noter selon qu’ils ont été effectués Introduction aux méthodes d’évaluation des compétences CanMEDS 37 Partie 2 : Aperçu des outils d’évaluation contemporains correctement ou incorrectement. Les domaines généraux communs à toutes les interventions techniques peuvent être évalués en fonction de barèmes à notes globales, comme les échelles de Likert à variable ordinale. La prise en charge d’une situation dynamique d’urgence simulée exige à la fois une expertise médicale et des habiletés comportementales pour prendre des décisions et diriger efficacement une équipe. On trouve dans les ouvrages spécialisés plusieurs barèmes de notation globale s’appliquant à la gestion des situations de crise, ayant un contenu et une validité des constructs bien définis. Avantages • • • • • • • mesure le rendement dans une intervention complète du début à la fin mesure le rendement en situations d’urgence mesure le rendement individuel ou de l’équipe offre un environnement de mise à l’épreuve standardisé et contrôlé validité apparente potentiellement élevée permet les évaluations formatives et sommatives permet aux apprenants de mettre en pratique des interventions à risque élevé dans un environnement sécuritaire et de faire l’expérience de scénarios se produisant rarement Désavantages • • • • plus le réalisme est grand, plus la méthode est coûteuse exigeant sur le plan des ressources (espace, matériel, personnel) exige beaucoup de temps du corps professoral problèmes techniques Propice à l’évaluation • • • • • 38 du rôle d’Expert médical – interventions complètes – scénarios de prise en charge des situations du rôle de Communicateur – interaction avec le patient et la famille avant et après les scénarios du rôle de Collaborateur – travail en équipe – compétences interprofessionnelles – règlement de conflits du rôle de Gestionnaire – gestion des ressources en situation de crise – comportements en matière de leadership du rôle de Professionnel – maîtrise de soi – prise de décisions éthiques – autoévaluation – interactions empreintes de respect avec l’équipe Le guide des outils d’évaluation CanMEDS Évaluation fondée sur une simulation Moins propice à l’évaluation • • du rôle de Promoteur de la santé du rôle d’Érudit Points saillants • • • • • Il faut veiller à ce que les apprenants soient familiers avec l’environnement et les limites de la simulation avant de procéder à des évaluations formatives et sommatives. Il est essentiel de donner au corps professoral de la formation sur les procédures d’évaluation fondée sur une simulation avant de recourir à cette forme d’évaluation. Il est essentiel d’avoir des personnes expérimentées pour faire fonctionner les simulateurs afin d’assurer la standardisation. Cette forme d’évaluation est souvent stressante pour les apprenants; il importe de faire un débreffage. On trouve dans les ouvrages spécialisés des méthodes et des concepts de barèmes validés pour orienter les évaluations et les séances de débreffage. Références Ali J, Gana TJ, Howard M. Trauma mannequin assessment of management skills of surgical residents after advanced trauma life support training. J Surg Res 2000;93:197-200. Bond WF, Spillane L. The use of simulation for emergency medicine resident assessment. Acad Emerg Med 2002;9(11):1295-9. Fletcher G, Flin R, McGeorge P, Glavin R, Maran N, et al. Anaesthetists’ Non-Technical Skills (ANTS): Evaluation of a behavioural marker system. Brit J Anaesth 2003;90(5):580-8. Gaba DM, Howard SK, Flanagan B, Smith BE, Fish KJ, Botney R. Assessment of clinical performance during simulated crises using both technical and behavioural ratings. Anesthesia 1998;89(1):8-18. Martin JA, Regehr G, Reznick R, MacRae H, Murnaghan J, Hutchison C, et al. Objective structured assessment of technical skill (OSATS) for surgical residents. Brit J Surg 1997;84(2):273-8. Regehr G, MacRae H, Reznick RK, Szalay D. Comparing the psychometric properties of checklists and global rating scales for assessing performance on an OSCE-format examination. Acad Med 1998;73(9):993-7. Reznick R, Regehr G, MacRae H, Martin J, McCulloch W. Testing technical skill via an innovative “bench station” examination. Am J Surg 1997;173(3):226-30. Introduction aux méthodes d’évaluation des compétences CanMEDS 39 Partie 2 : Aperçu des outils d’évaluation contemporains Savoldelli GL, Naik VN, Joo HS, Houston PL, Graham M, Yee B, et al. Evaluation of patient simulator performance as an adjunct to the oral examination for senior anesthesia residents. Anesthesiology 2006;104(3):475-81. Weller JM, Bloch M, Young S, Maze M, Oyesola S, Wyner J, et al. Evaluation of high fidelity patient simulator in assessment of performance of anaesthetists. Brit J Anaesth 2003:90(1):43-7. 40 Le guide des outils d’évaluation CanMEDS Fiches de rencontre 2.11 Fiches de rencontre Jason R. Frank, Curtis Lee et Glen Bandiera Définition Les fiches de rencontre comptent parmi les outils d’évaluation en cours de formation. Elles se caractérisent par des observations directes documentées après de brèves rencontres entre le superviseur et l’apprenant dans un milieu clinique. On les désigne aussi sous les noms suivants : • • • • • • • • fiche d’évaluation quotidienne fiche de rencontre quotidienne fiche des interventions quotidiennes fiche de quart quotidienne fiche d’évaluation quotidienne de l’enseignement fiche de rencontre sur l’enseignement fiche sur les interactions formulaires de rétroaction Description Les fiches de rencontre et leurs variantes constituent une méthode d’évaluation directe qui aide à l’évaluateur à consigner les observations de la compétence clinique lors de brèves rencontres avec l’apprenant. Elles sont particulièrement utiles lorsqu’un apprenant travaille avec de nombreux évaluateurs durant un stage clinique. Par conséquent, les fiches de rencontre sont de plus en plus populaires en médecine d’urgence, en soins intensifs, en anesthésiologie et dans certaines disciplines chirurgicales. Habituellement, les fiches sont remplies et discutées en collaboration à la fin d’une période donnée de travail clinique, comme un quart au service d’urgence, à l’unité de soins intensifs, en clinique externe, en salle d’opération et ainsi de suite. La mise en œuvre d’un régime impliquant les apprenants et les professeurs de manière standardisée, immédiatement après les fonctions cliniques observées, permet une rétroaction formative documentée, en temps opportun, fréquente et fondée sur les exemples de la journée. Les fiches de rencontre améliorent donc la validité et la fiabilité de l’évaluation en cours de formation et donne des possibilités de passer en revue les attentes durant le stage et de discuter des accomplissements, des forces et des points à améliorer. Si on utilise les objectifs de stage fondés sur CanMEDS dans l’élaboration des éléments inclus dans les fiches de rencontre, ces dernières se révèlent utiles dans l’évaluation fondée sur les compétences. Les évaluations peuvent être sous forme qualitative (commentaires), quantitative (échelle de Likert) ou sous les deux formes. Les grilles de notation devraient être établies en termes descriptifs qui tiennent compte des comportements spécifiques à l’environnement clinique. De plus, pour Introduction aux méthodes d’évaluation des compétences CanMEDS 41 Partie 2 : Aperçu des outils d’évaluation contemporains accroître la fiabilité et la validité de l’évaluation qui en découle, il importe de donner de la formation aux observateurs sur les comportements qui peuvent être pris en compte dans chaque barème de la fiche de rencontre. Les fiches de rencontre conçues en fonction de ces principes peuvent étayer les évaluations sommatives en fin de formation. Elles peuvent aussi servir à documenter les forces et les faiblesses et ainsi éclairer les décisions en matière de promotion. En outre, elles peuvent être mises dans une base de données pour faire un suivi du rendement avec le temps. Enfin, les fiches de rencontre peuvent aussi faciliter une évaluation plus fréquente de l’enseignement. Selon cette méthode, les apprenants remplissent une fiche de rencontre conçue pour évaluer la qualité de l’enseignement pendant une brève période (p.ex., une journée en salle d’opération ou un quart au service d’urgence). Avantages • • • • • • • procure une occasion régulière de renforcer les attentes prévues dans un stage crée un forum propice à une rétroaction fréquente, opportune, concrète et formative facilite la contribution de nombreux évaluateurs dans de multiples circonstances durant un stage documente directement le rendement observé permet de faire le suivi du rendement progressif peut contribuer à la rédaction des fiches d’évaluation en cours de formation sommatives (FECF) lorsque les cas cliniques y sont consignés, les fiches offrent une méthode de faire le suivi de l’expérience clinique de chaque apprenant dans l’ensemble du stage Désavantages • • • • • • 42 pour qu’elles soient efficaces, les fiches de rencontre exigent que les évaluateurs et les apprenants trouvent souvent le temps de discuter d’évaluation si l’on exige une fiche à la fin de chaque rencontre, il peut se produire une « lassitude de l’évaluation » et la « banalisation » de la fiche il faut former les professeurs évaluateurs sur l’utilisation efficace des fiches et la façon de donner une rétroaction utile les fiches sont habituellement remises à la fin du quart de service, alors que les apprenants et les évaluateurs peuvent être fatigués les cotes de rendement peuvent être constamment élevées ou absentes, selon les cas vus durant le quart de service et, par conséquent, ne pas refléter les véritables habiletés une seule période d’observation ne donne pas la possibilité d’évaluer le rendement de tous les domaines inscrits sur la fiche de rencontre Le guide des outils d’évaluation CanMEDS Fiches de rencontre • les professeurs ont tendance à biaiser leurs observations vers le côté positif du spectre; même avec des barèmes de notation bien conçus, les effets de « l’ange » et de « la bête » ainsi qu’une tendance vers la neutralité peuvent biaiser l’évaluation Propice à l’évaluation Presque toutes les compétences essentielles CanMEDS peuvent être évaluées, selon la structure de la fiche de rencontre, le milieu et la discipline, notamment l’évaluation des rôles de : • • • • • • • Expert médical : prise de décisions cliniques, bilans de santé, examens physiques, thérapies et intégration des autres rôles Communicateur : habiletés avec les patients et leur famille; consignations au dossier Collaborateur : interactions avec l’équipe et gestion de conflits Gestionnaire : utilisation des ressources, efficience, leadership et gestion de la pratique médicale Promoteur de la santé : défense des intérêts du patient à titre individuel et capacité de reconnaître les problèmes systémiques Érudit : habiletés en enseignement, évaluation critique, capacité de mettre en application les données probantes, stratégies pédagogiques pour combler les lacunes dans le savoir Professionnel : comportements reliés au professionnalisme Moins propice à l’évaluation • • • de l’étendue complète du savoir, des habiletés et des attitudes du rôle d’Érudit en ce qui concerne les habiletés en recherche du rôle de Professionnel, en ce qui a trait à la capacité de travailler dans le contexte d’un cadre professionnel et des principes de la pratique durable Points saillants • • • • • • Les fiches de rencontre sont un mode d’évaluation directe qui peuvent être conçues en fonction de l’un ou l’autre des rôles CanMEDS ou de l’ensemble de ces rôles. Elles facilitent une rétroaction opportune, fréquente et concrète. Elles offrent un procédé pour l’évaluation d’un même apprenant par de nombreux évaluateurs. Elles peuvent rehausser la validité et la fiabilité des évaluations en cours de formation. Elles peuvent contribuer à la rédaction des rapports d’évaluation sommative. Elles peuvent faire le suivi de la diversité des cas vus par les apprenants. Introduction aux méthodes d’évaluation des compétences CanMEDS 43 Partie 2 : Aperçu des outils d’évaluation contemporains Références Al-Jarallah K, Moussa MA, Shebab D, Adella N. Use of interaction cards to evaluate clinical performance. Med Teach 2005; 27(4):269-74. Bennet AJ, Goldenhar LM, Standford K. Utilization of a formative evaluation card in a psychiatry clerkship. Acad Psychiatry 2006;30(4):319-24. Brennan BG, Norman GR. Use of encounter cards for evaluation of residents in obstetrics. Acad Med 1997;72(10 Suppl. 1):S433-4. Colletti M. Difficulty with negative feedback: face-to-face evaluation of junior medical student clinical performance results in grade inflation. J Surg Res 2000;90(1):82-7. Greenberg LW. Medical students’ perceptions of feedback in a busy ambulatory setting: a descriptive study using a clinical encounter card. South Med J 2004;97(12):1174-8. Kernan WN, Holmboe E, O’Connor PG. Assessing the teaching behaviours of ambulatory care preceptors. Acad Med 2004;79(11):1088-94. Kim S, Kogan JR, Bellini LM, Shea JA. A randomized-controlled study of encounter cards to improve oral case presentation skills of medical students. J Gen Intern Med 2005;20(8):743-7. Paukert JL, Richards ML, Olney C. An encounter card system for increasing feedback to students. Am J Surg 2002;283(3):300-4. 44 Le guide des outils d’évaluation CanMEDS Expert médical Partie 3 : Outils privilégiés pour évaluer les compétences 3.1 Expert médical : compétences fondées sur le savoir Glen Bandiera Définition En tant qu’experts médicaux, les médecins jouent tous les rôles CanMEDS et utilisent leur savoir médical, leurs compétences spécialisées cliniques et leurs attitudes professionnelles pour dispenser des soins axés sur les patients. Le rôle d’Expert médical est le rôle pivot du médecin dans le cadre CanMEDS. Compétences essentielles Les médecins peuvent… 1. fonctionner efficacement comme conseillers en jouant tous les rôles du cadre CanMEDS pour dispenser des soins médicaux optimaux, respectueux de l’éthique et axés sur les patients; 2. acquérir et maintenir des connaissances cliniques, des compétences spécialisées et des attitudes appropriées à leur champ d’exercice; 3. procéder à une évaluation complète et appropriée d’un patient; 4. pratiquer efficacement des interventions de prévention et de traitement; 5. utiliser avec compétence et de façon appropriée des techniques d’intervention tant diagnostiques que thérapeutiques; 6. consulter au besoin d’autres professionnels de la santé en reconnaissant les limites de leur expertise. Aperçu Le rôle d’Expert médical est le rôle pivot dans les compétences globales du médecin et, de ce fait, il est le mieux connu de ceux qui évaluent les apprenants en médecine. Ce rôle se manifeste autant dans le savoir des apprenants que dans leurs actes. Les attitudes, quoiqu’elles influencent éventuellement le rendement, sont plus difficiles à évaluer, mais elles transparaissent habituellement dans le comportement de l’apprenant. La compétence dans ce rôle signifie l’acquisition d’un corpus de connaissances factuelles jugées pertinentes, récentes et suffisamment complètes, ainsi que la résolution de problèmes en mettant ces connaissances en pratique. Enfin, le rôle d’Expert médical nécessite l’habileté à intégrer son rendement avec les six autres rôles CanMEDS pour maximiser l’efficacité de la pratique clinique au profit de chaque patient et de la collectivité desservie. Introduction aux méthodes d’évaluation des compétences CanMEDS 45 Partie 3 : Outils privilégiés pour évaluer les compétences Le présent chapitre ne porte pas sur l’évaluation des compétences en techniques d’intervention dans le rôle d’Expert médical. Ce sujet fait l’objet du prochain chapitre. Outils privilégiés 1. Observation directe et fiches d’évaluation en cours de formation La majorité des compétences essentielles de l’Expert médical se prêtent à une évaluation par observation directe. L’observation des soins cliniques permet aux apprenant de démontrer comment ils mettent en pratique leur savoir et leur réflexion d’ordre supérieur. Le questionnement durant les rencontres avec le patient ou les séances de formation, comme les tournées d’enseignement, permet d’observer directement les connaissances factuelles. Il est possible alors d’évaluer les indications, les complications et la démarche suivie concernant les interventions. Enfin, le meilleur moment d’évaluer la capacité de l’apprenant d’intégrer tous les rôles CanMEDS dans les soins cliniques se situe pendant la prestation au quotidien des soins cliniques aux patients. Idéalement, une FECF est rédigée en se fondant sur les observations réitérées avec le temps, observations se concluant chaque fois par une rétroaction à l’apprenant dans le but de favoriser l’acquisition de la compétence. La conception des FECF et la capacité des observateurs de faire preuve d’objectivité dans leurs évaluations des dimensions multiples du rendement ont fait l’objet de bon nombre d’écrits. Les FECF bien conçues ciblent spécifiquement les comportements voulus, comportent des descripteurs clairs pour chaque degré de rendement et favorise le recours à toute l’échelle d’évaluation. Par ailleurs, la plupart des systèmes fondés sur les FECF connaissent encore des problèmes en raison des problèmes de mémoire, de l’effet de l’ange et de la tendance à la neutralisation. La formation des évaluateurs atténuera mais n’éliminera pas ces problèmes. 2. Examens écrits Les examens écrits sont depuis longtemps la formule utilisée principalement pour évaluer la base des connaissances d’un apprenant. Ils peuvent mettre à l’épreuve des connaissances factuelles et, lorsqu’ils sont bien conçus, la solution de problèmes d’ordre supérieur et le raisonnement diagnostique. Les questions à choix multiples (QCM) et les questions à réponse courte (QRC) sont préférables aux dissertations et à d’autres formes de réponses narratives en raison de leur plus grande fiabilité et de leurs paramètres de notation plus objectifs. Même s’ils sont difficiles à rédiger, les examens avec QCM et QRC peuvent se révéler très fiables et, par conséquent, sont utilisés dans de nombreux examens menant à la certification. Les examens écrits plaisent aux apprenants parce qu’ils mesurent la base de connaissances en évolution et les aident à se préparer à une composante de leurs examens de certification. Les examens écrits ne permettent pas l’évaluation du rendement clinique concret; ils mesurent plutôt le savoir général sur lequel repose le rendement. 46 Le guide des outils d’évaluation CanMEDS Expert médical 3. Examens oraux Les examens oraux prennent beaucoup de temps et exigent des ressources considérables. Ils sont par contre l’une des meilleures méthodes d’évaluation des habiletés de l’apprenant à mettre en pratique ses connaissances dans un scénario clinique. Si les examens écrits sont efficaces pour évaluer le pur savoir factuel, les examens oraux conviennent à l’évaluation de l’intégration des faits, de la formulation du diagnostic et de l’établissement des priorités des diagnostics différentiels, de l’élaboration des plans de prise en charge et de la prise de décisions difficiles. Les examens oraux permettent aux apprenants d’avoir une interaction avec l’évaluateur et de lui démontrer leurs habiletés à évaluer rigoureusement les problèmes du patient et à les prendre en charge. Pour assurer une fiabilité maximale, le matériel d’examen doit être standardisé et les administrateurs de l’examen oral doivent avoir reçu une formation concernant la communication de l’information et l’évaluation des réponses. En l’absence de telles démarches, les examens oraux peuvent être d’une fiabilité marginale en raison de la variabilité dans l’approche des évaluateurs et d’un ciblage insuffisant des sujets voulus. De plus, les lacunes dans la communication de l’information et le questionnement par l’examinateur peuvent nuire au rendement de l’apprenant. 4. Examens cliniques objectifs structurés (ECOS) Les ECOS constituent des outils d’évaluation efficaces pour divers domaines cliniques. Par contre, puisqu’ils exigent beaucoup de ressources et de temps, ils ne devraient servir que pour des scénarios qui ne se prêtent pas bien à l’utilisation d’autres outils d’évaluation. Les ECOS se révèlent utiles pour mettre à l’épreuve l’application du savoir dans des circonstances cliniques spécifiques à risque élevé, difficiles à observer dans la pratique ou rares. Les ECOS sont conçus dans le but de mettre en évidence des « échantillons » multiples des habiletés de l’apprenant; par contre, ils sont difficiles à généraliser, en ce sens qu’un rendement dans un scénario clinique donné ne reflète pas nécessairement le rendement dans tous les domaines connexes. Les stations d’ECOS doivent s’accompagner de barèmes de notation globale, de listes de vérification ou d’une rétroaction standardisée du patient pour produire les données servant à l’évaluation. 5. Simulation La simulation comporte un éventail d’outils d’évaluation, allant des patients standardisés jusqu’aux dispositifs d’entraînement partiel, en passant par les mannequins d’un grand réalisme, mus par ordinateur. Tous ces outils peuvent être adaptés pour évaluer le savoir, les techniques d’intervention, le raisonnement clinique et ainsi de suite. La simulation peut être utilisée seule ou dans le contexte d’une station d’ECOS. Utilisée seule, la simulation est utile dans la mise à l’épreuve, avec possiblement un degré élevé de réalisme, la mise en pratique du savoir dans des circonstances cliniques spécifiques. Les apprenants sont appelés à effectuer une activité clinique conçue pour évaluer un domaine précis du savoir. Introduction aux méthodes d’évaluation des compétences CanMEDS 47 Partie 3 : Outils privilégiés pour évaluer les compétences En raison des ressources considérables qu’elle nécessite, il vaut mieux réserver le recours à une simulation aux tâches à facettes multiples exigeant des décisions difficiles et un raisonnement clinique. Elle peut aussi servir à évaluer les principes fondamentaux du leadership, du travail en équipe et de la collaboration. Ouvrages pertinents 1. Jouriles N, Burdick W, Hobgood C. Clinical assessment in emergency medicine. Acad Emerg Med 2002;9:1289–94. Genres d’outils Divers Conception de l’étude Étude descriptive Population étudiée Résidents en médecine d’urgence Commentaires Un sous-comité de directeurs de programme américains a réalisé cette étude critique dans le but de décrire les méthodes les plus appropriées pour évaluer les compétences cliniques. Ils font valoir que l’observation directe et les patients simulés sont les méthodes les plus propices et offrent des suggestions sur la façon de les inclure dans un programme de résidence. 2. Coderre SP, Harasym P, Mandin H, Fick G. The impact of two multiple-choice question formats on the problem-solving strategies used by novices and experts. BMC Med Educ 2004;4:23. Genre d’outil Examen écrit : questions à choix multiples Conception de l’étude Cohorte expérimentale individuelle Population étudiée Apprenants et experts en gastroentérologie Commentaires Les auteurs ont écouté des médecins à divers stades de formation et de pratique tandis qu’ils passaient verbalement un examen avec QCM dans le but de déterminer comment ils aborderaient différents types de questions à choix multiples. Cette étude fait mieux comprendre comment une question à choix multiples peut mettre à l’épreuve la réflexion d’ordre supérieur et la façon de bien concevoir de telles questions. 48 Le guide des outils d’évaluation CanMEDS Expert médical 3. Holmboe ES. Faculty and the observation of trainees’ clinical skills: problems and opportunities. Acad Med 2004;79(1):16-22. Genre d’outil Observation directe Conception de l’étude Étude critique Population étudiée Étudiants et résidents en médecine Commentaires Cet excellent article critique passe en revue les inconvénients de l’observation directe et certains des partis pris qui lui sont inhérents et discute des difficultés que pose l’amélioration de cette méthode. Des solutions sont proposées pour contribuer à accroître la mesure dans laquelle l’évaluation du comportement véritable est reflétée dans les rapports écrits. 4. Gray JD. Global rating scales in residency education. Acad Med 1996;71(1 Suppl):S55-63. Genres d’outils Observation directe, FECF Conception de l’étude Article concernant une étude critique Population étudiée Résidents en médecine Commentaires Il s’agit d’une excellente critique de la conception et de l’utilisation des barèmes de correction pour évaluer le rendement des résidents. Elle décrit les principes de la conception de barèmes et les façons d’intégrer des barèmes de correction dans le but de maximiser l’exactitude des évaluations qui en découlent. 5. Wass V, Van der Vluten C, Shatzer J, Jones R. Assessment of clinical competence. Lancet 2001;357:945-9. Genres d’outils Examens écrits, observation directe, patients standardisés, ECOS Conception de l’étude Étude critique Introduction aux méthodes d’évaluation des compétences CanMEDS 49 Partie 3 : Outils privilégiés pour évaluer les compétences Population étudiée Résidents en médecine Commentaires Cet article critique préconise une évaluation à l’aide de méthodes multiples et explique le rôle idéal de diverses méthodes d’évaluation dans l’ensemble du programme d’évaluation du résident. Autres articles intéressants Bandiera G, Morrison LJ, and Regehr G. Predictive validity of the global assessment form used in a final-year undergraduate rotation in emergency medicine. Acad Emerg Med 2002;9(9):889-95. Day RP et al. Evaluation of resident performance in an outpatient internal medicine clinic using standardized patients. J Gen Intern Med 1993;8(4):193-8. Estes NC, Conlee L S., DeBord-Smith A, Smith E, Whittaker, Jr LD, Rossi TR. The value of using naijve observers to assess resident ACGME competencies. Curr Surg 2004;61(6):629-35. Norman GR et al. Measuring physicians’ performances by using simulated patients. J Med Edu 1985;60(12):925-34. Prislin MD et al. Use of an objective structured clinical examination in evaluating student performance. Fam Med 1998;30(5):338-44. Rethans JJ et al. Competence and performance: two different concepts in the assessment of quality of medical care. Fam Pract 1990;7(3):168-74. Sargeant J, Mann K, Ferrier S. Exploring family physicians’ reactions to multisource feedback: perceptions of credibility and usefulness. Med Edu 2005;39(5):497-504. Shapiro MJ, Kobayashi L, Morchi R. High-fidelity medical simulation and its role in evaluation advanced cardiac life support (ACLS) skills. Acad Emerg Med 2003;10(5):488. Stillman PL, Swanson DB. Ensuring the clinical competence of medical school graduates through standardized patients. Arch Intern Med 1987;147(6):1049-52. Turnbull J et al. Clinical work sampling: A new approach to the problem of in-training evaluation. J Gen Intern Med 2000;15(8): 556-61. Vu NV et al. Standardized (simulated) patients’ accuracy in recording clinical performance checklist items. Med Educ 1992;26(2):99-104. Rethans JJ, Norcini JJ, Baron-Maldonado M, Balckmore D, et al. The relationships between competence and performance: implications for assessing practice performance. Med Educ 2002;36:901-9. 50 Le guide des outils d’évaluation CanMEDS Expert médical 3.2 Expert médical : compétences en techniques d’intervention George Kovacs Définition En tant qu’experts médicaux, les médecins jouent tous les rôles CanMEDS et utilisent leur savoir médical, leurs compétences spécialisées cliniques et leurs attitudes professionnelles pour dispenser des soins axés sur les patients. Le rôle d’Expert médical est le rôle pivot du médecin dans le cadre CanMEDS. Compétences essentielles Les médecins peuvent… 1. fonctionner efficacement comme conseillers en jouant tous les rôles du cadre CanMEDS pour dispenser des soins médicaux optimaux, respectueux de l’éthique et axés sur les patients; 2. acquérir et maintenir des connaissances cliniques, des compétences spécialisées et des attitudes appropriées à leur champ d’exercice; 3. procéder à une évaluation complète et appropriée d’un patient; 4. pratiquer efficacement des interventions de prévention et de traitement; 5. utiliser avec compétence et de façon appropriée des techniques d’intervention tant diagnostiques que thérapeutiques; 6. consulter au besoin d’autres professionnels de la santé en reconnaissant les limites de leur expertise. Aperçu Les compétences en techniques d’intervention mettent en cause les activités intellectuelles et motrices requises pour exécuter une tâche manuelle. La maîtrise des techniques d’intervention nécessite à la fois un rendement technique sûr et des connaissances appropriées pour prendre des décisions dans les étapes avant, pendant et après l’exécution de l’intervention. L’évaluation formative d’une intervention doit comporter plus qu’une simple détermination à savoir l’apprenant peut ou non faire l’intervention en toute sûreté. L’évaluation d’une intervention au moment où elle se termine (p. ex., évaluer la suture d’une lacération), quoiqu’elle soit utile, laisse de côté d’autres éléments importants concernant les questions techniques. Par exemple, il a été démontré que l’efficacité d’une tâche est reliée directement à l’habileté psychomotrice et peut prendre la forme du nombre de mouvements des mains et du temps qu’il a fallu pour l’intervention. Le clinicien expérimenté fait beaucoup moins de mouvements de motricité fine et prend moins de temps qu’un novice pour exécuter une intervention technique. Introduction aux méthodes d’évaluation des compétences CanMEDS 51 Partie 3 : Outils privilégiés pour évaluer les compétences Idéalement, les outils d’évaluation des habiletés en technique d’intervention doivent se fonder sur des critères de résultats fixés au préalable, objectifs et ils doivent être fiables, valides et pratiques. Outils privilégiés 1. Simulation Les possibilités limitées d’expérience clinique et de préoccupations sur le plan de l’éthique ont entraîné l’élaboration de la simulation pour apprendre et évaluer les techniques d’intervention. La validation de ces technologies plus récentes et souvent coûteuses se fait plutôt lentement, mais la simulation est de plus en plus rapidement acceptée comme moyen d’évaluer les techniques d’intervention. L’utilité de la simulation repose sur le fait que les apprenants peuvent pratiquer les interventions dans un milieu standardisé qui ne pose aucun risque aux patients. Les évaluations en séries permettent de documenter la progression de l’apprenant, d’un rendement sûr à la maîtrise complète, notamment la base de connaissances appropriées et la capacité de reconnaître quand les limites de ses propres habiletés techniques exigent une consultation auprès d’un collègue. Qu’il s’agisse d’une simulation concernant des habiletés bien précise avec un dispositif d’entraînement partiel ou des interventions complètes à l’aide d’un mannequin réaliste, mû par ordinateur, l’évaluation dans un tel contexte exige le recours à des listes de vérification standardisées ou des barèmes d’évaluation globale. 2. Observation directe et fiches d’évaluation en cours de formation (FECF) On peut évaluer l’exécution des interventions dans le contexte des activités cliniques à l’aide de la FECF. Les évaluations peuvent être quantitatives (Combien d’interventions l’apprenant a-t-il effectuées?) ou qualitatives (Dans quelle mesure l’intervention a-t-elle été bien faite?). Par ailleurs, cette forme d’évaluation pour des habiletés en techniques d’intervention peut être limitée par l’effet de l’ange, la tendance à la neutralisation et les problèmes de mémoire. Par exemple, l’évaluation d’interventions spécifiques nécessiterait un élément distinct dans la FECF pour chaque intervention susceptible de survenir durant le stage. La création d’une telle liste est une tâche laborieuse pour l’évaluateur. D’autre part, le regroupement de toutes les interventions en un ou deux énoncés globaux omet la possibilité que les apprenants peuvent être habiles dans certaines interventions et moins dans d’autres. Pour régler ce problème, on peut inclure les principes généraux des interventions (obtention du consentement éclairé, la conformité aux techniques de stérilisation, etc.) comme étant des éléments spécifiques et utiliser une section distincte pour dresser les liste des interventions bien exécutées et de celles à améliorer. Il est possible d’ajouter des outils d’évaluation par observation spécifiques à l’environnement clinique pour rédiger la FECF. Par exemple, des barèmes de notation globale ont été élaborés, validés et éprouvés comme étant des outils fiables d’évaluation du rendement en salle d’opération. 52 Le guide des outils d’évaluation CanMEDS Expert médical 3. Registres Les registres permettent de consigner des données importantes, nécessaires et quantitatives sur les habiletés en techniques d’intervention. Sans ces données, il est difficile de savoir si les apprenants ont fait l’expérience d’une quantité et d’une diversité suffisante d’interventions « essentielles ». Même si la quantité à elle seule ne devrait jamais dicter la compétence, elle est clairement reliée aux résultats des interventions. Il n’a jamais été établi ce que devrait être une méthodologie acceptée pour définir les exigences minimales en ce qui a trait au nombre d’interventions nécessaire. Récemment, la méthode statistique de la somme cumulative (CUMSUM) a été élaborée comme technique pour régler ce problème. La CUMSUM peut établir une corrélation entre le nombre d’interventions techniques et la maîtrise du rendement. Utilisée de concert avec les registres, la CUMSUM peut détecter rapidement les changements de rendement dans l’exécution des interventions techniques associés avec les résultats indésirables. Les comptes rendus d’interventions, plus précisément, les comptes rendus opératoires donnent des descriptions détaillées qui exigent une « visualisation » d’une intervention donnée, du début à la fin. Les ouvrages sur la validité et la fiabilité du recours aux comptes rendus opératoires pour évaluer les habiletés en techniques d’intervention sont plutôt rares. 4. Examens cliniques objectifs structurés (ECOS) Les ECOS comportent souvent l’évaluation d’une tâche technique. Par exemple, on a utilisé et validé l’évaluation structurée objective des habiletés techniques (OSAT) dans la formation postdoctorale en chirurgie. C’est essentiellement un ECOS des habiletés techniques comportant des tâches modèles « sur la table d’opération ». De plus, le MISTELS (système inanimé de McGill pour la formation et l’évaluation des habiletés en laparoscopie) a été largement utilisé pour évaluer les habiletés en techniques de laparoscopie. Ces deux outils ont fait l’objet d’articles scientifiques qui étayent leur fiabilité, leur construct et leur validité de prédiction. Ouvrages pertinents 1. Ahlberg G, Hultcrantz R, Jaramillo E, Lindblom A, Arvidsson D. Virtual reality colonoscopy simulation: a compulsory practice for the future colonoscopist? Endoscopy 2005;37(12):1198-204. Genres d’outils Simulation, formulaire d’évaluation globale (satisfaction, temps, résultats) Conception de l’étude Étude interventionnelle randomisée Population étudiée Résidents et personnel médical en endoscopie Introduction aux méthodes d’évaluation des compétences CanMEDS 53 Partie 3 : Outils privilégiés pour évaluer les compétences Commentaires Les simulateurs virtuels ont évolué rapidement en tant que techniques d’enseignement de l’endoscopie. Cette étude donne un exemple d’un tel outil et démontre la validité de prédiction et le transfert des habiletés pour l’exécution d’une colonoscopie. 2. Van Rij AM, McDonald JR, Pettigrew RA, Putterill MJ, Reddy CK, Wright JJ. CUSUM as an aid to early assessment of the surgical trainee. Br J Surg 1995;82(11):1500-3. Genres d’outils Observation directe : formulaires de CUSUM Conception de l’étude Étude prospective par observation Population étudiée Résidents en chirurgie Commentaires Cette étude a démontré que des instruments standardisés et validés peuvent servir dans l’observation directe dans le but de détecter rapidement les résidents en difficulté. 3. Datta V, Bann S, Beard J, Mandalia M, Darzi A. Comparison of bench test evaluations of surgical skill with live operating performance assessments. J Am Coll Surg 2004;199:603–6. Genres d’outils Simulation avec observation directe et formulaire d’évaluation validée Conception de l’étude Comparaison prospective par observation des techniques d’évaluation Population étudiée Personnel médical et résidents en chirurgie Commentaires Cette étude compare l’observation simulée avec l’observation dans « la réalité » et démontre à la fois l’efficacité de l’utilisation d’un barème validé et la validité des évaluations fondées sur une simulation. 54 Le guide des outils d’évaluation CanMEDS Expert médical 4. Fried GM, Feldman LS, Vassiliou MC, Fraser SA, Stanbridge D, Ghitulescu G, Andrew CG. Proving the value of simulation in laparoscopic surgery. Ann Surg 2004;240(3):518-25. Genres d’outils Simulation avec formulaire validé d’observation directe Conception de l’étude Étude prospective par observation Population étudiée Résidents et personnel médical en chirurgie Commentaires MISTELS a été validé en tant qu’outil d’enseignement ainsi que d’évaluation des habiletés en laparoscopie. 5. Hayden SR, Panacek EA. Procedural competency in emergency medicine: the current range of resident experience. Acad Emerg Med 1999;6(7):728-35. Genres d’outils Registres et portefeuilles Conception de l’étude Observation d’une cohorte Population étudiée Résidents en médecine d’urgence Commentaires Cette étude démontre qu’il y a des variations dans les programmes associées à la quantité d’expériences dans l’exécution d’interventions. Il reste encore à définir ce que serait une expérience « suffisante », mais c’est un facteur dont il faudrait tenir compte. 6. Olsen JC, Gurr DE, Hughes M. Video analysis of emergency medicine residents performing rapid-sequence intubations. J Emerg Med 2000;8(4):469–72. Genres d’outils Observation directe, enregistrement vidéo Conception de l’étude Étude prospective par observation Population étudiée Résidents en médecine d’urgence Introduction aux méthodes d’évaluation des compétences CanMEDS 55 Partie 3 : Outils privilégiés pour évaluer les compétences Commentaires Cette étude examine une façon novatrice de donner de la rétroaction sur le rendement clinique concret, dans des circonstances relativement rares où les enjeux sont élevés. 7. Reznick R, Regehr G, MacRae H, Martin J, McCulloch W. Testing technical skill via an innovative “bench station” examination. Am J Surg 1997;173(3):226-30. Genres d’outils ECOS avec listes de vérification et notes globales Conception de l’étude Étude interventionnelle prospective Population étudiée Résidents en chirurgie Commentaires Cette étude s’ajoute aux ouvrages scientifiques qui valident la simulation en laboratoire comme moyen d’évaluer les habiletés chirurgicales. Autres ouvrages intéressants Ahlberg G, Hultcrantz R, Jaramillo E, Lindblom A, Arvidsson D. Virtual reality colonoscopy simulation: a compulsory practice for the future colonoscopist? Endoscopy 2005;37(12):1198-204. Bann S, Davis IM, Moorthy K, Munz Y, Hernandez J, Khan M, Datta V, Darzi A. The reliability of multiple objective measures of surgery and the role of human performance. Am J Surg 2005;189(6):747-52. Birkmeyer JD, Stukel TA, Siewers AE, Goodney PP, Wennberg DE, Lucas FL. Surgeon volume and operative mortality in the United States. N Engl J Med 2003;349(22):2117-27. Boyd KB, Olivier J, Salameh JR. Surgical residents’ perception of simulation training. Am Surg 2006;72(6):521-4. Bullock G, Kovacs G, Macdonald K, Story BA. Evaluating procedural skills competence: inter-rater reliability of expert and non-expert observers. Acad Med 1999;74(1):76-8. Chou B, Handa VL. Simulators and virtual reality in surgical education. Obstet Gynecol Clin North Am 2006;33(2):283-96, viii-ix. Datta V, Bann S, Mandalia M, Darzi A. The surgical efficiency score: a feasible, reliable, and valid method of skills assessment. Am J Surg 2006;192(3):372-8. 56 Le guide des outils d’évaluation CanMEDS Expert médical Feldman LS, Hagarty SE, Ghitulescu G, Stanbridge D, Fried GM. Relationship between objective assessment of technical skills and subjective in-training evaluations in surgical residents. J Am Coll Surg 2004;198(1):105-10. Kobayashi L, Shapiro MJ, Sucov A, Woolard R, Boss RM 3rd, Dunbar J, Sciamacco R, Karpik K, Jay G. Portable advanced medical simulation for new emergency department testing and orientation. Acad Emerg Med 2006;13(6):691-5. Kovacs G, Bullock G, Ackroyd-Stolarz S, Cain E, Petrie D. A randomized controlled trial on the effect of educational interventions in promoting airway management skill maintenance. Ann Emerg Med 2000;36(4):301-9. Kovacs G. Procedural skills in medicine: linking theory to practice. J Emerg Med 1997;15(3):387-91. MacDonald J, Williams RG, Rogers DA. Self-assessment in simulation-based surgical skills training. Am J Surg 2003;185(4):319-22. Miller GE. The assessment of clinical skills/competence/performance. Acad Med 1990;65(9 Suppl):S63-7 Moorthy K, Munz Y, Adams S, Pandey V, Darzi A; Imperial College – St. Mary’s Hospital Simulation Group. Self-assessment of performance among surgical trainees during simulated procedures in a simulated operating theater. Am J Surg 2006;192(1):114-8. Mulcaster JT, Mills J, Hung OR, MacQuarrie K, Law JA, Pytka S, Imrie D, Field C. Laryngoscopic intubation: learning and performance. Anesthesiology 2003;98(1):23-7. Murray DJ, Boulet JR, Kras JF, McAllister JD, Cox TE. A simulation-based acute skills performance assessment for anesthesia training. Anesth Analg 2005;101(4):1127-34. Munz Y, Moorthy K, Bann S, Shah J, Ivanova S, Darzi SA. Ceiling effect in technical skills of surgical residents. Am J Surg 2004;188(3):294-300. Nestel D, Kneebone R, Black S. Simulated patients and the development of procedural and operative skills. Med Teach 2006; 28(4):390-1. Regehr G, MacRae H, Reznick RK, Szalay D. Comparing the psychometric properties of checklists and global rating scales for assessing performance on an OSCE-format examination. Acad Med 1998;73(9):993-7. Reznick RK, Regehr G, Yee G, Rothman A, Blackmore D, Dauphinee D. Processrating forms versus task-specific checklists in an OSCE for medical licensure. Medical Council of Canada. Acad Med 1998;73(10 Suppl):S97-9. Introduction aux méthodes d’évaluation des compétences CanMEDS 57 Partie 3 : Outils privilégiés pour évaluer les compétences 3.3 Communicateur Sue Dojeiji et Lara Cooke Définition Comme communicateurs, les médecins facilitent efficacement la relation médecin-patient et les échanges dynamiques qui se produisent avant, pendant et après le contact médical. Compétences essentielles Les médecins peuvent… 1. développer des relations thérapeutiques basées sur la confiance et respectueuses de l’éthique avec les patients et les membres de leur famille; 2. obtenir et résumer avec précision les renseignements pertinents et les points de vue des patients et des membres de leur famille, de confrères et d’autres professionnels; 3. fournir avec exactitude des renseignements pertinents et des explications aux patients et aux membres de leur famille, à des confrères et à d’autres professionnels; 4. établir une compréhension commune d’enjeux, de problèmes et de plans avec les patients et les membres de leur famille, des confrères et d’autres professionnels afin mettre en oeuvre un plan de soin partagé; 5. fournir des renseignements verbaux et écrits efficaces au sujet d’un contact médical. Aperçu La communication efficace est une composante essentielle de la compétence médicale. Comme l’ont souligné Kurtz et ses collègues (2005), les médecins qui ont de bonnes habiletés en communication verbale, non verbale et écrite favorisent les relations thérapeutiques entre médecin et patient et consolident les rapports avec les familles et les autres professionnels de la santé. La communication efficace améliore les résultats chez le patient, sa conformité aux directives, sa satisfaction et sa sécurité. Il est donc essentiel pour tous les médecins de maîtriser les compétences du rôle de Communicateur. Elles doivent être enseignées, renforcées et évaluées pendant tout le continuum de la formation médicale. Même si l’art de la communication peut être appris, il peut aussi se détériorer avec le temps s’il n’est pas exercé de manière répétée et évalué sur une base continue. L’évaluation du rôle de Communicateur pose des défis uniques. On a tendance à croire que les habiletés de communication relèvent plus de la subjectivité que de l’objectivité ou qu’elles sont le fruit d’un « don naturel » plutôt que des habiletés 58 Le guide des outils d’évaluation CanMEDS Communicateur observables et mesurables. Par ailleurs, les ouvrages scientifiques démontrent clairement que l’art de la communication peut s’enseigner, s’apprendre et se mesurer de manière fiable et structurée. Il est permis de penser que le moyen le plus valide d’évaluer une compétence, c’est d’observer directement le stagiaire fonctionner dans son environnement de travail habituel et d’évaluer un ensemble prédéterminé de comportements pertinents et identifiables. La réalité de la résidence fait en sorte que ce ne soit pas toujours possible. Par conséquent, différents outils d’évaluation peuvent être nécessaires selon le milieu. Outils privilégiés 1. Observation directe et fiches d’évaluation en cours de formation (FECF) L’observation directe des habiletés en communication du stagiaire demeure la méthode la plus valide pour évaluer cet art. Pour ce faire, la meilleure façon est d’utiliser un outil d’évaluation fiable et valide, fondé sur les compétences qui permet à tout superviseur clinique d’évaluer objectivement l’art de la communication du stagiaire pendant sa formation. Des listes de vérifications détaillées peuvent être utilisées pour mesurer les habiletés en communication dans une situation de pratique donnée. Au nombre de telles listes de vérification figurent le guide d’observation Calgary Cambridge, la liste de vérification Kalamazoo et le cadre SEGUE. Les FECF conviennent aussi à l’évaluation longitudinale des habiletés en communication dans la pratique concrète. On peut créer les FECF en fonction des besoins particuliers de chaque programme de formation pour qu’elles tiennent compte des habiletés essentielles en communication exigées dans la spécialité en cause. 2. Examens cliniques objectifs structurés (ECOS) et patients standardisés On se sert communément des ECOS et des patients standardisés pour évaluer les habiletés en communication et ces outils permettent une évaluation dans des conditions relativement contrôlées. Les ECOS donnent la possibilité de pratiquer et d’évaluer des tâches de communication difficiles, rares ou de nature délicate, ce qui n’est pas toujours possible dans la réalité. Les apprenants peuvent être observés en train de faire un bilan de santé ou de conseiller des patients standardisés dans des stations d’ECOS. Les observateurs ou les patients standardisés eux-mêmes, s’ils ont reçu la formation voulue, peuvent donner la rétroaction. 3. Rétroaction de sources multiples On se sert de plus en plus de la rétroaction de sources multiples pour évaluer les habiletés en communication. De nombreuses personnes chargées de donner leurs cotes d’évaluation, notamment des patients, d’autres professionnels de la santé et des pairs, peuvent fournir des données utiles pouvant servir à orienter un apprentissage plus approfondi. Introduction aux méthodes d’évaluation des compétences CanMEDS 59 Partie 3 : Outils privilégiés pour évaluer les compétences 4. Portefeuilles et registres Ces outils peuvent aider à faire le suivi des activités comportant l’apprentissage de l’art de la communication sur une base continue, y compris la communication écrite (p. ex., les lettres de consultation et des résumés d’autorisation du congé). Avant tout, les portefeuilles favorisent la réflexion sur la pratique et peuvent servir d’outils efficaces dans l’amélioration autodirigée de cette compétence. Ouvrages pertinents 1. Boon H, Stewart M. Patient-physician communication assessment instruments: 1986 to 1996 in review. Patient Educ Couns 1998;35(3):161-76. Genres d’outils Divers outils Conception de l’étude Synthèse critique Population étudiée Variée (étudiants en médecine, résidents, médecins en pratique active) Commentaires Il s’agit d’une excellente synthèse critique, mais la stratégie de recherche se termine en 1996. 2. Duffy FD, Gordon GH, Whelan G, Cole-Kelly K, Frankel R, Buffone N, et al. Assessing competence in communication and interpersonal skills: the Kalamazoo II report. Acad Med 2004;79(6):495-507. Genres d’outils Divers outils Conception de l’étude Déclaration consensuelle Population étudiée Variée (étudiants en médecine, résidents) Commentaires Cette excellente déclaration consensuelle procure un aperçu complet des outils d’évaluation de l’art de la communication et des barèmes de mesure. 60 Le guide des outils d’évaluation CanMEDS Communicateur 3. Hobgood CD, Riviello RJ, Jouriles N, Hamilton G. Assessment of communication and interpersonal skills competencies. Acad Emerg Med 2002;9(11):1257-69. Genres d’outils Observation directe et patients standardisés Conception de l’étude Déclaration consensuelle Population étudiée Résidents en médecine d’urgence Commentaires Cet article dresse une liste consensuelle des comportements souhaités en communication. Il donne aussi une liste annotée d’outils d’évaluation par ordre de préférence et des barèmes de mesure connexes. 4. Ram P, Grol R, Rethans JJ, Schouten B, van der Vleuten C, Kester A. Assessment of general practitioners by video observation of communicative and medical performance in daily practice: issues of validity, reliability and feasibility. Med Educ 1999;33(6):447-54. Genre d’outil Observation directe Conception de l’étude Transversale Population étudiée Omnipraticiens Commentaires Cette étude établit les propriétés psychométriques de l’observation directe enregistrée sur vidéo par un médecin évaluateur. Les participants à l’étude ont signalé que la caméra vidéo n’avait pas nui à leur pratique. 5. Keely E, Myers K, Dojeiji S. Can written communication skills be tested in an objective structured clinical examination format? Acad Med 2002;77(1):82-6. Genre d’outil Examen clinique objectif structuré Conception de l’étude Transversale Introduction aux méthodes d’évaluation des compétences CanMEDS 61 Partie 3 : Outils privilégiés pour évaluer les compétences Population étudiée Résidents en médecine interne Commentaires Cette étude a démontré qu’un barème de notation validé et des notes d’évaluation globale étaient efficaces dans l’évaluation des habiletés en communication écrite (lettres de consultation). Autres ouvrages intéressants Baldwin PJ, Paisley AM, Brown SP. Consultant surgeons’ opinion of the skills required of basic surgical trainees. Brit J Surg 1999;86(8):1078-82. Booth K, Maguire P, Hillier VF. Measurement of communication skills in cancer care: myth or reality? J Adv Nurs 1999;30(5):1073-9. Boulet JR et al. Assessing the comparability of standardized patient and physician evaluations of clinical skills. Adv Health Sci Educ Theory Pract 2002;7(2):85-97. Buller MK, Buller DB. Physicians’ communication style and patient satisfaction. J Health Soc Behav 1987;28:375-88. Butterfield PS, Mazzaferri EL. A new rating form for used by nurses in assessing residents’ humanistic behavior. J Gen Intern Med 1991;6(2):155-61. Campion P, Foulkes R, Tate P. Patient centredness in the MRCGP video examination: analysis of large cohort. BMJ 2002;325:691-2. Carnay SL, Mitchell KR. Satisfaction with medical students’ clinical skills. J Med Educ 1986;61(5):374-9. Carney SL, Mitchell KR. Satisfaction of patients with medical student’s clinical skills. J Med Educ 1986:61(5):374-9. Cassata DM, Conroe RM, Clements PW. A program for enhancing medical interviewing using videotape feedback in the family practice residency. J Fam Pract 1977;4(4):673-7. Chalabian J, Dunnington G. Standardized patients: a new method to assess the clinical skills of physicians. Best Pract Benchmarking Healthc 1997;2(4):174-7. Chur-Hansen A. The self-evaluation of medical communication skills. HERDSA 2001;20(1):71-79. Colliver JA et al. Effects of examinee gender, standardized patient gender, and their interaction on standardized patients’ ratings of examinees’ interpersonal and communication skills. Acad Med 1993;68(2):153-7. Colliver JA et al. Relationship between clinical competence and interpersonal and communication skills in standardized-patient assessment. Acad Med 1999;74(3):271-4. 62 Le guide des outils d’évaluation CanMEDS Communicateur Cowan DH, Laidlaw JC. A strategy to improve communication between health care professionals and people living with cancer. I. Improvement of teaching and assessment of doctor–patient communication in Canadian medical schools. J Cancer Educ 1993;8(2):109-17. Cowan DH et al. Consensus statement from the workshop on the teaching and assessment of communication skills in Canadian medical schools. CMAJ 1992;147(8):1149-52. Dale J et al. Primary care consultation skills training: implementing a new training program for senior house officers in an accident and emergency department. Med Educ 1997;31(4):243-9. Daniel AE, Burn RJ, Horarik S. Patients’ complaints about medical practice. Med J Aust 1999;170(12):598-602. de Haes JC et al. Assessment of medical students’ communicative behaviour and attitudes: estimating the reliability of the use of the Amsterdam attitudes and communication scale through generalizability coefficients. Patient Educ Couns 2001;45(1):35-42. Des Marchais JE, Jean P, Castonguay LG. Training psychiatrists and family doctors in evaluating interpersonal skills. Med Educ 1990;24(4):376-81. Dibben MR, Morris SE, Lean ME. Situational trust and co-operative partnerships between physicians and their patients: a theoretical explanation transferable from business practice. QJM 2000;93(1):55-61. Duberman TL. Assessing the critical behavioral competencies of outstanding managed care primary care physicians. Manag Care Interface 1999;12(3):76-80. Duffy FD, Gordon GH, Whelan G, Cole-Kelly K, Frankel R, Buffone N, et al. Assessing competence in communication and interpersonal skills: the Kalamazoo II report. Acad Med 2004;79(6):495-507. Eggly S et al. An assessment of residents’ competence in the delivery of bad news to patients. Acad Med 1997;72(5):397-9. Elwyn G et al. Measuring the involvement of patients in shared decision-making: a systematic review of instruments. Patient Educ Couns 2001;43(1):5-22. Fallowfield L et al. Efficacy of a cancer research UK communication skills training model for oncologists: a randomized controlled trial. Lancet 2002;359(9307): 650-6. Feletti GI, Carney SL. Evaluating patients’ satisfaction with medical students’ interviewing skills. Med Educ 1984;18(1):15-20. Introduction aux méthodes d’évaluation des compétences CanMEDS 63 Partie 3 : Outils privilégiés pour évaluer les compétences Finlay IG, Stott NC, Kinnersley P. The assessment of communication skills in palliative medicine: a comparison of the scores of examiners and simulated patients. Med Educ 1995;29(6):424-9. Gallagher TJ, Hartung PJ, Gregory SW. Assessment of a measure of relational communication for doctor–patient interactions. Patient Educ Couns 2001;45(3):211-8. Girgis A, Sanson-Fisher RW, McCarthy WH. Communicating with patients: surgeons perceptions of their skills and need for training. Aust N Z J Surg 1997;67(11):775-80. Girgis A, Sanson-Fisher RW, Walsh RA. Preventive and other interactional skills of general practitioners, surgeons, and physicians: perceived competence and endorsement of postgraduate training. Prev Med 2001;32(1):73-81. Haddad S et al. Patient perception of quality following a visit to a doctor in a primary care unit. Fam Pract 2000;17(1):21-29. Hargie O et al. A survey of communication skills training in UK schools of medicine: present practices and prospective proposals. Med Educ 1998;32(1):25-34. Henbest RJ, Stewart MA. Patient-centredness in the consultation. 1: A method for measurement. Fam Pract 1989:6(4):249-53. Hobgood CD Riviello RJ, Jouriles N, Hamilton G. Assessment of communication and interpersonal skills competencies. Acad Emerg Med 2002;9(11):1257-69. Hobma SO et al. Setting a standard for performance assessment of doctor-patient communication in general practice. Med Educ 38 2004;(12):1244-52. Humphris GM, Kaney S. The Liverpool brief assessment system for communication skills in the making of doctors. Adv Health Sci Educ Theory Pract 2001;6(1):69-80. Jarski RW et al. A comparison of four empathy instruments in simulated patient–medical student interactions. J Med Educ 1985;60(7):545-51. Johnson D, Cujec B. Comparison of self, nurse, and physician assessment of residents rotating through an intensive care unit. Crit Care Med 1998;26(11):1811-6. Jouriles NJ, Emerman CL, Cydulka RK. Direct observation for assessing emergency medicine core competencies: interpersonal skills. Acad Emerg Med 2002;9(11):1338-41. Keely E, Myers K, Dojeiji S. Can written communication skills be tested in an objective structured clinical examination format? Acad Med 2002;77(1):82-6. Keely E, Dojeiji S, Myers K. Writing effective consultation letters: 12 tips for teachers. Med Teach 2002;24(6):585-9. Keen AJ, Klein S, Alexander DA. Assessing the communication skills of doctors in training: reliability and sources of error. Adv Health Sci Educ Theory Pract 2003;8(1):5-16. 64 Le guide des outils d’évaluation CanMEDS Communicateur Kisch AI, Reeder LG. Client evaluation of physician performance. J Health Soc Behav 1969;10:51-8. Kosower E, Inkelis S, Seidel J. Telephone TALK: a teaching/assessment tool for medical training. J Biocommun 1996;23(1):22-6. Kosower E et al. Evaluating telephone TALK. J Biocommun 1996;23(1):27-31. Kurtz SM. Doctor–patient communication: principles and practices. Can J Neurol Sci 2002;29(Suppl 2):S23-9. Kurtz S, Silverman J, Draper J. Teaching and learning communication skills in Medicine. 2nd ed. Oxford (UK) : Radcliffe Publishing; 2005. Lang F et al. Faculty development in communication skills instruction: insights from a longitudinal program with “real-time feedback.” Acad Med 2000;75(12):1222-8. Makoul G. Essential elements of communication in medical encounters: the Kalamazoo consensus statement. Acad Med 2001;76(4):390-3. Makoul G, Schofield T. Communication teaching and assessment in medical education: an international consensus statement. Netherlands Institute of Primary Health Care. Patient Educ Couns 1999;37(2):191-5. Makoul G, Altman M. Early assessment of medical students’ clinical skills. Acad Med 2002;77(11):1156. Makoul G. The interplay between education and research about patient–provider communication. Patient Educ Couns 2003;50(1):79-84. Marcotte DB, Held JP. A conceptual model for attitude assessment in all areas of medical education. Med Educ 1978;53(4):310-4. Martin D et al. Using videotaped benchmarks to improve the self-assessment ability of family practice residents. Acad Med 1998;73(11):1201-6. Merrill JM et al. Measuring “humanism” in medical residents. South Med J 1986;79(2):141-4. Meuleman JR, Harward MP. Assessing medical interview performance. Effect of interns’ gender and month of training. Arch Intern Med 1992;152(8):1677-80. Miller SJ, Hope T, Talbot DC. The development of a structured rating schedule (the BAS) to assess skills in breaking bad news. Br J Cancer 1999;80(5-6):792-800. Moulton D. “Patient navigators” newsiest members of NS health care team. CMAJ 2002;167(3):295. Mullan PB, Stross JK. Sensitivity to patients’ psychosocial concerns: relationships among ratings by primary care and traditional internal medicine house officers and patient self-assessments. Soc Sci Med 1990;31(12):1337-45. Introduction aux méthodes d’évaluation des compétences CanMEDS 65 Partie 3 : Outils privilégiés pour évaluer les compétences Nunez AE. Transforming cultural competence into cross-cultural efficacy in women’s health education. Acad Med 2000;75(11):1071-80. O’Keefe M. Should parents assess the interpersonal skills of doctors who treat their children? A literature review. J Paed Child Health 2001;37(6):531-8. O’Keefe M et al. Medical student interviewing: a randomized trial of patientcentredness and clinical competence. Fam Pract 2003;20(2):213-9. Oandasan I et al. Developing competency-assessment tools to measure the family physician’s ability to respond to the needs of the community. Acad Med 2001;76(10):S80-S1. Page GG et al. Physician-assessment and physician-enhancement programs in Canada. CMAJ 1995;153(12):1723-8. Pell I et al. Development and preliminary evaluation of a clinical guidance program for the decision about prophylactic oophorectomy in women undergoing a hysterectomy. Qual Saf Health Care 2002;11(1):32-9. Quest TE et al. The use of standardized patients within a procedural competency model to teach death disclosure. Acad Emerg Med 2002;9(11):1326-33. Ram P, Grol R, Rethans JJ, Schouten B, van der Vleuten C, Kester A. Assessment of general practitioners by video observation of communicative and medical performance in daily practice: issues of validity, reliability and feasibility. Med Educ 1999;33(6):447-54. Ramsey PG et al. Use of peer ratings to evaluate physician performance. JAMA 1993;269(13):1655-60. Redelmeier DA et al. Problems for clinical judgment: 2. Obtaining a reliable past medical history. CMAJ 2001;164(6):809-13. Reisner E et al. A model for the assessment of students’ physician–patient interaction skills on the surgical clerkship. Am J Surg 1991;162(3):271-3. Roter D et al. The effects of a continuing medical education program in interpersonal communication skills on doctor practice and patient satisfaction in Trinidad and Tobago. Med Educ 1998;32(2):181-9. Roter DL et al. An evaluation of residency training in interviewing skills and the psychosocial domain of medical practice. J Gen Intern Med 1990;5:347-54. Roth CS, Watson KV, Harris IB. A communication assessment and skill-building exercise (CASE) for first-year residents. Acad Med 2002;77(7):746-7. Russell ML, Insull W, Jr , Probstfield JL. Examination of medical professions for counseling on medication adherence. Am J Med 1985;78(2):277-82. Sanson-Fisher RW et al. Training medical practitioners in information transfer skills: the new challenge. Med Educ 1991;25(4):322-33. 66 Le guide des outils d’évaluation CanMEDS Communicateur Scott J et al. The impact of training in problem-based interviewing on the detection and management of psychological problems presenting in primary care. Br J Gen Pract 1999;49(443):441-5. Segall A, Burnett M. Patient evaluation of physician role performance. Soc Sci Med 1980;14A:269-78. Sleight P. Teaching communication skills: part of medical education? J Hum Hypertens 1995;9(1):67-9. Snell L et al. A review of the evaluation of clinical teaching: new perspectives and challenges. Med Educ 2000;34(10):862-70. Soh KB. Job analysis, appraisal and performance assessments of a surgeon: a multifaceted approach. Singapore Med J 1998;39(4):180-5. Stein REK et al. Severity of Illness: concepts and measurements. Lancet 1987;1506-9. Stewart M et al. Evidence on patient-doctor communication. Cancer Prev Control 1999;3(1):25-30. Stilwell NA, Reisine S. Using patient-instructors to teach and evaluate interviewing skills. J Dent Educ 1992;56(2):118-22. Stott NC et al. Innovation in clinical method: diabetes care and negotiating skills. Fam Pract 1995;12(4):413-8. Tate P et al. Assessing physicians’ interpersonal skills via videotaped encounters: a new approach for the Royal College of General Practitioners Membership Examination. J Health Commun 1999;4(2):143-52. Taylor KL, Chudley AE. Meeting the needs of future physicians: a core curriculum initiative for postgraduate medical education at a Canadian university. Med Educ 2001;35(10):973-82. Thomson AN. Consumer assessment of interview skills in a family practice certification examination. Fam Med 1993;25(1):41-4. Usherwood T. Subjective and behavioural evaluation of the teaching of patient interview skills. Med Educ 1993;27(1):41-7. Weaver MJ et al. A questionnaire for patients’ evaluations of their physicians’ humanistic behaviors. J Gen Intern Med 1993;8(3):135-9. Woolliscroft JO et al. Evaluating the medical history: observation versus write-up review. J Med Educ 1984;59(1):19-23. Woolliscroft JO et al. Resident-patient interactions: the humanistic qualities of internal medicine residents assessed by patients, attending physicians, program supervisors, and nurses. Acad Med 1994;69(3):216-24. Introduction aux méthodes d’évaluation des compétences CanMEDS 67 Partie 3 : Outils privilégiés pour évaluer les compétences 3.4 Collaborateur Ivy Oandasan et Denyse Richardson Définition Comme collaborateurs, les médecins travaillent efficacement dans une équipe de soins de santé afin de prodiguer des soins optimaux aux patients. Compétences essentielles Les médecins peuvent… 1. participer efficacement et comme il se doit à l’activité d’une équipe interprofessionnelle de soins de santé; 2. collaborer efficacement avec d’autres professionnels de la santé afin d’éviter des conflits interprofessionnels, de les négocier et de les résoudre. Aperçu Il a été proposé, comme stratégie fondamentale pour améliorer le système de santé canadien, d’adopter une approche de collaboration à l’endroit de la pratique, dans le contexte d’équipes multidisciplinaires de professionnels de la santé qui offrent des services de santé complets et coordonnés (Kirby1, Romanow2, Conseil canadien de la santé3). L’Accord de 2003 des premiers ministres sur le renouvellement des soins de santé identifiait l’importance de changer la façon de former les professionnels de la santé. Le rôle CanMEDS du Collaborateur répond à cette demande. Les médecins qui sont des collaborateurs compétents auront acquis les connaissances, les habiletés, les attitudes et les comportements voulus pour travailler efficacement avec d’autres professionnels de la santé pour ainsi améliorer la prestation de soins axés sur le patient. On rapporte que les professionnels de la santé qui participent à des activités d’apprentissage interprofessionnel comprennent mieux les rôles, les responsabilités, les forces et les limites des autres professions. Ils acquièrent des attitudes de respect mutuel et une volonté de collaborer avec les autres membres de l’équipe de soins de santé. Les données factuelles ont démontré qu’un travail en équipe efficace dans les services de santé peut améliorer les résultats des soins cliniques, augmente la satisfaction du dispensateur, accroît la sécurité des patients ainsi que l’efficience organisationnelle. 1 2 3 Kirby MLJ. La santé des Canadiens : le rôle du gouvernement fédéral. Rapport final. Ottawa : Comité sénatorial permanent des affaires sociales, des sciences et de la technologie, 2002. Romanow R. Guidés par nos valeurs : L’avenir des soins de santé au Canada; Saskatoon : Commission sur l’avenir des soins de santé au Canada; 2002. Conseil canadien de la santé. La modernisation de la gestion des ressources humaines au Canada : l’identification des secteurs pour des changements accélérés. Ottawa: Le Conseil; 2005. 68 Le guide des outils d’évaluation CanMEDS Collaborateur Souvent considérées un art plutôt qu’une science, les compétences en collaboration ont été formulées et traduites en activités d’apprentissage. Les outils d’évaluation évoluent pour capter comment les médecins recherchent des possibilités de collaboration, au besoin, comment ils déterminent ceux avec qui ils devraient collaborer et comment ils manifestent leur compétence en communication et leur esprit d’équipe sur le plan interprofessionnel. Les outils dont la liste apparaît plus loin tiennent compte des façons de mesurer les connaissances, les habiletés et les attitudes qui ont été mises à l’épreuve dans les ouvrages spécialisés en éducation interprofessionnelle. Jusqu’à présent, les méthodes utilisées pour mesurer les compétences sont en nombre limité et l’efficacité de plusieurs outils reste à déterminer, puisque des évaluations rigoureuses n’ont pas encore été entreprises. Outils privilégiés 1. Examens écrits (questions à réponse courte, dissertation) Au nombre des genres d’outils ayant fait l’objet d’une étude, les questionnaires d’autoévaluation sont les plus fréquemment utilisés. Ce genre d’examen écrit, administré avant et après une intervention éducative, a été utilisé pour mesurer des domaines comme les suivants : 1. les changements dans les attitudes ou les perceptions à l’endroit d’une autre profession ou la collaboration interprofessionnelle; 2. les changements dans les connaissances ou les habiletés reliées à la collaboration. Un certain nombre de questionnaires validés ont été élaborés. Par ailleurs, il n’est pas certain s’ils fournissent des preuves de changements comportementaux durables au fil du temps. 2. Fiches d’évaluation en cours de formation (FECF) L’observation directe par des médecins précepteurs se servant de la FECF est habituellement utilisée pour évaluer les habiletés au chapitre du travail en équipe. Même s’il s’agit d’un élément essentiel de l’évaluation dans un milieu clinique, le « travail en équipe » n’a jamais été divisé en composantes spécifiques (p. ex., connaissance des rôles des autres professionnels de la santé, compétences en communication efficace). Des barèmes soigneusement conçus qui donnent le détail des comportements et des habiletés que comprend le travail en équipe amélioreraient les propriétés psychométriques de l’observation directe. 3. Examens cliniques objectifs structurés (ECOS) On peut mettre en œuvre des scénarios qui mettent à l’épreuve les habiletés des apprenants à interagir et à collaborer efficacement avec d’autres professionnels de la santé pour régler des conflits ou des problèmes relatifs aux soins des patients. À l’aide d’acteurs jouant leur rôle dans un scénario standardisé, une équipe d’apprenants, incluant des médecins et d’autres professionnels de la santé, peut Introduction aux méthodes d’évaluation des compétences CanMEDS 69 Partie 3 : Outils privilégiés pour évaluer les compétences être mise à l’épreuve pour mesurer les habiletés à collaborer dans un ECOS fondé sur l’équipe axée sur le patient. Ce genre d’évaluation a été utilisé dans certains milieux pour mesurer l’acquisition des connaissances et des habiletés associées aux compétences du Collaborateur. Une liste de vérification standardisée ou un barème de notation globale peut servir à évaluer les habiletés en communication, la prise de décisions cliniques en équipe et la compréhension des rôles. 4. Simulation Des simulateurs avec mannequins réalistes ont été utilisés pour permettre des évaluations objectives structurées, en particulier dans des milieux de soins actifs comme en médecine d’urgence et de soins intensifs. Même si elle est coûteuse, la simulation offre la possibilité d’évaluer le travail en collaboration interprofessionnelle dans des situations rares ou urgentes. 5. Rétroaction de sources multiples La rétroaction de sources multiples représente une option attrayante pour l’évaluation des activités reliées à la collaboration, puisqu’elle comporte les évaluations de nombreux membres de l’équipe. Par contre, comme c’est le cas dans toutes les évaluations de sources nombreuses, les perspectives et les contextes de divers contributeurs doivent attentivement être pris en compte dans la détermination de l’évaluation globale. Ouvrages pertinents Les ouvrages disponibles portant sur l’évaluation du rôle de Collaborateur ne sont pas nombreux. Plusieurs des articles existants concernent l’évaluation d’un programme ou d’une intervention éducative plutôt que l’évaluation d’une compétence individuelle. Une autre faiblesse inhérente dans les ouvrages disponibles se situe dans le manque d’objectivité de l’évaluation, puisqu’elle est faite selon la perspective d’une autoévaluation. Par contre, les ouvrages jusqu’à présent comportent certaines contributions susceptibles d’éclairer l’élaboration plus approfondie d’outils d’évaluation du rôle de Collaborateur. 1. Parsell G, Bligh J. The development of a questionnaire to assess the readiness of health care students for interprofessional learning (RIPLS). Med Educ 1999;33(2):95-100. Genre d’outil Examen écrit avec questions à réponse courte Conception de l’étude Étude descriptive – élaboration d’un outil Population étudiée Étudiants en médecine (2e année) et 8 professionels de la santé 70 Le guide des outils d’évaluation CanMEDS Collaborateur Commentaires Il s’agit de la description du processus d’élaboration d’un outil (questionnaire). Elle s’avère très utile dans l’élaboration d’autres outils. Le recours à cet outil pour évaluer l’état de préparation à un apprentissage partagé devrait pouvoir être adapté à de multiples contextes (pas nécessairement des équipes de grande taille). Cet outil permet de mesurer les effets d’interventions éducatives formelles, mais il peut aussi servir individuellement auprès d’apprenants ou praticiens pour évaluer les attitudes et orienter le dialogue et la rétroaction. 2. Cooper H, Spencer-Dawe E, McLean E. Beginning the process of teamwork: design, implementation and evaluation of an inter-professional education intervention for first year undergraduate students. J Interprof Care 2005;19(5):492-508. Genres d’outils Examens écrits avec QRC dans le contexte d’une évaluation de programme Conception de l’étude Conception d’étude selon des méthodes multiples pour évaluer un modèle d’apprentissage Population étudiée Étudiants de premier cycle – étudiants de 1ère année en médecine, physiothérapie, ergothérapie et soins infirmiers dans un contexte d’apprentissage interprofessionnel Commentaires Cet article décrit une intervention dans un programme d’apprentissage interprofessionnel en ce qui a trait à sa mise en œuvre et à son évaluation. Le processus est décrit à l’aide de l’approche par étapes de Campbell (2000) pour évaluer des interventions complexes. La description est bien faite, mais il est reconnu qu’il faut une structure et une organisation logistique pour un tel programme (p. ex., des apprenants dans de multiples disciplines interagissant ensemble activement de manière synchronisée). À défaut de la possibilité de créer un tel contexte d’apprentissage, il est difficile de reproduire ce genre de programme. Au nombre des outils d’évaluation utilisés figurait le RIPLS (barème de mesure de l’état de préparation à l’apprentissage interprofessionnel de Parcell et Bligh). Introduction aux méthodes d’évaluation des compétences CanMEDS 71 Partie 3 : Outils privilégiés pour évaluer les compétences 3. Singh R, Naughton B, Taylor JS, Koenigsberg MR, Anderson DR, McCausland LL, Wahler RG, et al. A comprehensive collaborative patient safety residency curriculum to address the ACGME core competencies. Med Educ 2005;39(12):1195-204. Genre d’outil ECOS comportant plusieurs stations concernant spécifiquement la sécurité des patients Conception de l’étude Étude descriptive à angle unique d’une cohorte Population étudiée Résidents en médecine familiale Commentaires Il s’agit de la description d’une intervention pédagogique dans le domaine de la sécurité des patients comportant de nombreuses méthodes d’évaluation. Les auteurs indiquent que les résultats de l’intervention d’évaluation avec l’ECOS feront l’objet d’un rapport ultérieur. Il est intéressant de constater que l’ECOS n’est pas une station unique, mais plutôt plusieurs stations portant sur les compétences (à l’aide de patients standardisés, de l’analyse d’une vidéo simulée, de l’examen des dossiers et d’examens écrits). Par ailleurs, même sans les résultats précis de l’évaluation, divers aspects discutés et présentés sont utiles dans l’élaboration de modalités d’observation directe pour l’évaluation des compétences du Collaborateur. Le Tableau 2 est un plan directeur d’évaluation fondée sur les compétences qui met en évidence la nature continue de l’évaluation, en plus des multiples méthodes utilisées (y compris les portfolios). Les auteurs décrivent aussi la composante du programme pédagogique portant sur l’assurance de la qualité et insistent sur l’importance de la participation des professeurs et du personnel actif. Ils reconnaissent le manque d’interaction interprofessionnelle entre les participants, tout en signalant que le comité de planification était interprofessionnel et que la coordination sur le plan pratique avait jusqu’à présent nui à une telle interaction. 4. Cullen L, Fraser D, Symonds I. Strategies for interprofessional education: the Interprofessional Team Objective Structured Clinical Examination for midwifery and medical students. Nurse Educ Today 2003;23(6):427-33. Genre d’outil Observation directe : ECOSIP (ECOS avec une équipe interprofessionnelle) Conception de l’étude Rapport descriptif sur la conception d’un programme pédagogique 72 Le guide des outils d’évaluation CanMEDS Collaborateur Population étudiée Étudiants de premier cycle : médecins et sages-femmes Commentaires C’est la description d’une mise en œuvre, située dans le domaine de la recherche en action. Même si ces chercheurs ont utilisé un ECOS en équipe comme méthode d’évaluation, ce qui est possible dans certains contextes, ils reconnaissent que l’exercice exige beaucoup de ressources. De plus, dans le cas en cause, l’ECOSIP sert de modèle d’apprentissage ou de stratégie d’enseignement plutôt que d’être utilisé comme véritable outil d’évaluation. Malheureusement, le rendement durant l’ECOSIP (même s’il est défini en fonction d’une liste de vérification) n’est pas noté. L’exercice est utilisé simplement comme moyen de stimuler la rétroaction formative de l’animateur. Les évaluations de l’apprentissage interprofessionnel sont des perceptions signalées par les intéressés eux-mêmes. Cette évaluation, et même le concept de l’ECOS en équipe, sont probablement plus utiles s’il existe un contexte interprofessionnel d’apprentissage ou de pratique en équipe. 5. Ritchie PD, Cameron PA. An evaluation of trauma team leader performance by video recording. Aust NZ J Surg 1999;69(3):183-6. Genres d’outils Observation directe avec évaluation enregistrée sur vidéo Conception de l’étude Cohorte transversale Population étudiée Urgentologues et résidents en médecine d’urgence et en chirurgie (Australie) Commentaires Cette publication met en évidence le fait qu’il est possible d’utiliser une vidéo pour une analyse ultérieure (évaluation et rétroaction) dans des milieux moins traditionnels (à l’urgence en comparaison de l’environnement d’un programme de résidence en médecine familiale, où l’utilisation est assez fréquente). Les auteurs font remarquer des éléments portant spécifiquement sur l’enregistrement vidéo, comme la confidentialité du patient, le consentement du patient et du participant, les questions d’ordre médico-légal, ainsi que la logistique nécessaire pour l’enregistrement. Ils discutent aussi de l’hésitation initiale des participants qui n’a pas nui, en définitive, à la mise en œuvre. De fait, ils signalent que l’outil a été généralement bien accueilli en bout de ligne. Introduction aux méthodes d’évaluation des compétences CanMEDS 73 Partie 3 : Outils privilégiés pour évaluer les compétences 6. Fichtner CG, Hardy D, Patel M, Stout CE, Simpatico TA, Dove H, Cook LP, Grossman LS, Giffort DW. A self-assessment program for multidisciplinary mental health teams. Psychiatr Serv 2001;52(10):1352-7. Genre d’outil Rétroaction de sources multiples Conception de l’étude Cohorte, transversale Population étudiée Professions de la santé spécialisées en santé mentale, sept disciplines Commentaires Quoique cette publication porte spécifiquement sur les soins de santé mentale, le facteur le plus contraignant se situe probablement dans le contexte d’une prestation des soins en équipe. L’outil SLATE, par ailleurs, a un potentiel plus généralisé pour évaluer les compétences en collaboration dans le contexte d’équipes. Cet outil part du principe que le médecin est le chef de l’équipe, tout en reconnaissant la nécessité d’exercer un leadership de collaboration. Seize (16) des 42 éléments du barème visent le leadership de l’équipe et les comportements associés à la facilitation de la collaboration. Dans cette étude, l’outil n’était pas utilisé spécifiquement pour l’évaluation du programme, mais bien pour stimuler la réflexion au sein de l’équipe. Les auteurs reconnaissent que les propriétés psychométriques (notamment la fiabilité et la validité) de la structure interne du barème n’ont pas encore été établies. Autres ouvrages intéressants Anderson E, Manek N, Davidson A. Evaluation of a model for maximizing interprofessional education in an acute hospital. J Interprof Care 2006:20(2):182-94. Bateman B, Wilson FC, Bingham D. Team effectiveness – development of an audit questionnaire. J Manage Dev 2002:21(3/4),215-6. Carpenter J, Barnes D, Dickinson C, Wooff D. Outcomes of interprofessional education for community mental health services in England: the longitudinal evaluation of a postgraduate programme. J Interprof Care 2006:20(2):145-61. DeVita MA, Schaefer J, Lutz J, Wang H, Dongilli T. Improving medical emergency team (MET) performance using a novel curriculum and a computerized human patient simulator. Qual Saf Health Care 2005:14(5):326-31. Fallsberg MB, Wijma K. Student attitudes towards the goals of an interprofessional training ward. Med Teach 1999:21(6):576-81. 74 Le guide des outils d’évaluation CanMEDS Collaborateur Farrell M, Ryan S, Langrick B. Breaking bad news within a paediatric setting: an evaluation report of a collaborative education workshop to support health professionals J Adv Nurs 2001:36(6):765-75. Fichtner CG, Stout CE, Dove H, Lardon CS. Psychiatric leadership and the clinical team: simulated in vivo treatment planning performance as teamwork proxy and learning laboratory. Adm Policy Ment Health 2000:27(5):313-37. Fineberg IC. Preparing professionals for family conferences in palliative care: evaluation results of an interdisciplinary approach. J Palliat Med 2005:8(4):857-66. Fineberg IC, Wenger NS, Forrow L. Interdisciplinary education: evaluation of a palliative care training intervention for pre-professionals. Acad Med 2004;79(8):769-76. Harward DH, Tresolini CP, Davis WA. Can participation in a health affairs interdisciplinary case conference improve medical students’ knowledge and attitudes? Acad Med 2006:81(3):257-61. Hyer K, Fairchild S, Abraham I, Mezey M, Fulmer T. Measuring attitudes related to interdisciplinary training: revising the Heinemann, Schmitt & Farell attitudes toward health care teams scale. JIC 2000:14(3): 249-58 Johnson D and Cujec B Comparison of self, nurse, andphysician assessment of residents rotating through an intensive careunit.[see comment]. Crit Care Med 1998:26(11):1811-6. Luecht RM, Madsen MK, Taugher MP, Petterson BJ. Assessing professional perceptions: design and validation of an interdisciplinary education perception scale. J Allied Health,1990:19,181-91 Potter TB and Palmer RG. 360-degree assessment in a multidisciplinary team setting. Rheumatology 2003:42 (11):1404-7. Reeves S, Freeth D The London training ward: an innovative interprofessional learning initiative. J Interprof Care, 2002:16(1)41-52. Schreiber MA, Holcomb JB, Conaway CW, Campbell KD, Wall M, Mattox KL. Military trauma training performed in a civilian trauma center. J Surg Res 2002:104(1),8-14 Small SD, Wuerz RC, Simon R, Shapiro N, Conn A, Setnik G. Demonstration of high-fidelity simulation team training for emergency medicine. Acad Emerg Med 1999;6(4):312-23. Ummenhofer W et al. Team Performance in the emergency room: assessment of inter-disciplinary attitudes. Resuscitation 2001;49(1):39-46. Introduction aux méthodes d’évaluation des compétences CanMEDS 75 Partie 3 : Outils privilégiés pour évaluer les compétences 3.5 Gestionnaire Saleem Razack et Deepak Dath Définition Comme gestionnaires, les médecins participent à part entière à la vie d’organisations prodiguant des soins de santé où ils gèrent de pratiques durables, prennent des décisions sur l’affectation des ressources et contribuent à l’efficacité du système de soins de santé. Compétences essentielles Les médecins peuvent… 1. participer à des activités qui contribuent à l’efficacité de leurs organisations et systèmes de soins de santé; 2. gérer efficacement leur pratique et leur carrière; 3. répartir judicieusement des ressources en soins de santé limitées; 4. assumer des rôles en administration et de chef de file au besoin. Aperçu Dans les soins de santé contemporains, les médecins occupent souvent des postes de chefs de file polyvalents sur les plans cliniques, administratifs, éducatifs et de la recherche. En tant que professionnels, ils sont appelés à contribuer au bien-être de leurs collectivités. Les médecins doivent aussi savoir faire un juste équilibre entre ces activités multiples et leurs engagements personnels et familiaux. Pour réussir à jongler simultanément avec toutes ces responsabilités, les médecins doivent acquérir et maintenir de bonnes habiletés en gestion. Ils doivent gérer leurs pratiques et faire évoluer leur carrière, faire preuve de leadership, attribuer des ressources et participer à la dynamique organisationnelle du système de santé. Les ouvrages concernant le rôle du médecin en tant que Gestionnaire ne font que commencer à faire leur apparition. Les articles mentionnés plus loin constituent des exemples qui aideront le lecteur à savoir où commencer. La plupart des apprenants commencent leur formation médicale sans avoir suivi de formation préalable en gestion. Par conséquent, au moment de commencer leur carrière, les habiletés en gestion qu’ils auront acquises l’auront été pendant leur formation en médecine. Les programmes postdoctoraux ont le mandat d’assurer que les apprenants sont bien préparés à exercer les responsabilités de gestion spécifiques qui seront exigées de leurs diplômés. Il est nécessaire que les programmes procèdent à une évaluation régulière du rôle de Gestionnaire pour comprendre ce qu’apprennent les résidents, la mesure dans laquelle ils ont appris et comment ces programmes peuvent améliorer l’enseignement de la fonction de gestion. Les méthodes utilisées pour enseigner les habiletés en gestion influenceront le mode d’évaluation. Même si 76 Le guide des outils d’évaluation CanMEDS Gestionnaire divers types d’évaluation se prêtent bien à l’évaluation des résidents en tant que gestionnaires, aucun ne se démarque comme étant la norme ou une méthode complète d’évaluation. Toutes les méthodes exigent beaucoup de travail et certaines ont des inconvénients importants. Il est expliqué plus loin comment certaines peuvent s’appliquer à l’évaluation du rôle de Gestionnaire. Outils privilégiés 1. Rétroaction de sources multiples et évaluation par les pairs Certaines entreprises du monde des affaires ont adopté l’évaluation à « 360 degrés » pour évaluer les habiletés en gestion et donner de la rétroaction à cet égard. Adoptée par les professeurs de médecine et rebaptisée « rétroaction de sources multiples », elle se prête bien à l’évaluation de toutes les compétences essentielles du rôle du Gestionnaire. Des évaluateurs d’échelons supérieurs ou inférieurs à celui de l’apprenant peuvent évaluer comment il se comporte dans la hiérarchie et s’il fonctionne de manière appropriée, en établissant les priorités, en déléguant des tâches, en faisant preuve des qualités de chef de file, en planifiant pour l’avenir, en assurant le meilleur emploi possible du temps et des ressources, et ainsi de suite. D’autres professionnels de la santé, des patients et d’autres personnes peuvent évaluer les interactions avec l’apprenant, sa communication et son leadership pour compléter l’évaluation. Des médecins d’autres services de consultation peuvent évaluer comment l’apprenant utilise et attribue les ressources dans le système. La conception de l’outil de rétroaction de sources multiples doit prévoir des questions précises sur chacune des compétences essentielles du rôle du Gestionnaire. Cette méthode d’évaluation peut être informatisée pour améliorer son efficacité et accroître sa faisabilité. 2. Simulation On peut se servir de la simulation pour évaluer les habiletés de l’apprenant qui doit composer avec des situations complexes et critiques. Les scénarios de simulation peuvent être simples ou complexes et impliquer un seul apprenant ou une équipe entière. Les situations complexes qui mettent en jeu de nombreux apprenants et des mannequins réalistes mus par ordinateur exigent que l’apprenant exerce ses qualités de chef de file, délègue des tâches, sache communiquer, donner de la rétroaction, planifier, prendre des décisions difficiles, et ainsi de suite. Toutes ces habiletés font partie des compétences du rôle de Gestionnaire. Cet outil est particulièrement utile pour évaluer les compétences en gestion en ce qui a trait aux soins aux patients. 3. Portefeuille Les ouvrages spécialisés en gestion insistent sur une approche de réflexion à l’endroit de l’apprentissage et de l’évaluation. À l’appui de cette approche, les portefeuilles d’évaluation peuvent comporter des éléments comme des travaux de comités, des innovations en matière d’organisation de la pratique, des projets de vérification et d’assurance de la qualité, ainsi que les réflexions qu’ont suscitées Introduction aux méthodes d’évaluation des compétences CanMEDS 77 Partie 3 : Outils privilégiés pour évaluer les compétences ces expériences. L’avantage des portefeuilles se situe dans le fait qu’ils assistent dans l’évaluation de l’application des principes de gestion à des situations réelles, ainsi que de la réflexion qui favorise l’apprentissage longitudinal. On peut aussi évaluer la gestion de la pratique et de la carrière en incluant un curriculum vitae et des études narratives des discussions avec les mentors universitaires. 4. Observation directe Les apprenants peuvent faire preuve de leurs habiletés en gestion dans de nombreux scénarios cliniques. Ils doivent être capables de faire un juste équilibre entre les demandes en concurrence, qu’elles soient d’ordre professionnel ou personnel. La gestion du temps peut être démontrée par une assiduité opportune aux activités obligatoires, la prise en charge efficace du patient, de rares changements ou quarts oubliés à l’horaire et un repos suffisant pour un fonctionnement optimal. Les superviseurs peuvent observer la mobilisation efficace des ressources de la santé et la délégation appropriée aux autres membres de l’équipe durant les cliniques, les activités dans les services de patients hospitalisés et durant les quarts à l’urgence. Les résidents en chirurgie peuvent être évalués en fonction de leurs habiletés à bien gérer les réservations des salles et le mouvement des patients au bloc opératoire lors de journées chargées. Ouvrages pertinents 1. Rodgers KG, Manifold C. 360-degree feedback: possibilities for assessment of the ACGME core competencies for emergency medicine residents. Acad Emerg Med 2002;9(11):1300-4. Genre d’outil Rétroaction de sources multiples Conception de l’étude Description d’un nouvel instrument Population étudiée Aucun participant Commentaires Cet article suscite une réflexion pour aider à combler l’écart entre une approche conçue pour les entreprises et son application dans la formation médicale. En examinant les renseignements de fond, un directeur de programme se fera une bonne idée des complexités que comporte la mise en œuvre de cet outil dans un programme de résidence. L’article ne porte pas spécifiquement sur les compétences en gestion et, de fait, indique que cet outil n’est peut-être pas le meilleur pour mesurer les compétences essentielles du rôle de Gestionnaire dans le Cadre CanMEDS 2005. On y trouve de nombreuses autres sources d’information et les conclusions sont bien réfléchies. 78 Le guide des outils d’évaluation CanMEDS Gestionnaire 2. Higgins RS, Bridges J, Burke JM, O’Donnell MA, Cohen NM, Wilkes SB. Implementing the ACGME general competencies in a cardiothoracic surgery residency program using 360-degree feedback. Ann Thorac Surg 2004;77(1):12-7. Genre d’outil Rétroaction de sources multiples Conception de l’étude Prospective, description de programme Population étudiée Résidents seniors en chirurgie cardiothoracique Commentaires Cet article est utile à de nombreux égards. Il démontre que les évaluations à 360 degrés sont possibles dans des programmes de résidence. Il explique comment un programme a mis ce processus en place, décrit clairement l’élaboration de l’instrument et discute de certains de ses inconvénients. Des composantes de l’instrument portent sur la gestion, même s’il était avant tout conçu pour évaluer l’éventail complet des compétences de l’ACGME. Les auteurs expliquent comment ils ont mis en application l’instrument, comment ils ont utilisé les résultats et ils décrivent les avantages qu’ils attendent de l’exercice pour les résidents. Il est évident qu’il s’agit d’une description et non pas d’une recette et ses avantages ne sont pas éprouvés. Par contre, à ce point-ci de l’évaluation des compétences, l’article offre des conseils utiles aux programmes de résidence intéressés à mettre en œuvre ces genres d’évaluation. 3. O’Sullivan PS, Reckase MD, McClain T, Savidge MA, Clardy JA et al. Demonstration of portfolios to assess competency of residents. Adv Health Scie Ed 2005;9(4):309-23. Genre d’outil Portefeuille Conception de l’étude Étude transversale Population étudiée Résidents de la 1ère à la 4e années Commentaires L’évaluation à l’aide d’un portefeuille compte au nombre des outils qu’il est difficile d’utiliser de manière appropriée dans un programme de résidence. Les auteurs démontrent qu’une planification diligente peut permettre une mise en œuvre réussie de l’évaluation à l’aide de portefeuilles. Ces travaux de planification sont expliqués en détails dans l’article et les auteurs décrivent Introduction aux méthodes d’évaluation des compétences CanMEDS 79 Partie 3 : Outils privilégiés pour évaluer les compétences les problèmes et les pièges qu’il a fallu surmonter. Les définitions et les directives qu’ils utilisent pour déterminer ce que les résidents devraient inclure dans le portefeuille ne sont pas indiquées dans l’étude. Les directives aux évaluateurs sont aussi absentes. L’étude a fait valoir que les propriétés psychométriques de l’utilisation du portefeuille aux fins d’évaluation étaient bonnes sur le plan de la prise de décisions. Cette étude ne portait pas spécifiquement sur les questions reliées à la gestion, mais la description de la mise en œuvre de cette évaluation porte à croire que les éléments de la gestion pourraient être définis et inclus à la discrétion du directeur de programme. 4. Collins J, Amsel S, Alderson PO. Teaching noninterpretive skills to radiology residents: a collaborative effort between the American College of Radiology and the Association of Program Directors in Radiology. Acad Radiol 2001;8:903–7. Genre d’outil Examen écrit Conception de l’étude Intervention prospective, conception avant-après Population étudiée Résidents en radiologie Commentaires Quoique cette étude s’intéresse davantage à une intervention éducative, elle inclut néanmoins une conception d’examen écrit avant-après pour évaluer l’apprentissage. Elle décrit aussi certains facteurs non cliniques importants pour la formation des résidents, comme les aspects financiers de la gestion de la pratique et les processus d’agrément. Autres ouvrages intéressants Arnold L. Assessing professional behaviors: Yesterday, today, and tomorrow. Acad Med 2002;77:502-15 Byrne AJ, Sellen AJ, Jones JG. Errors on anesthetic record charts as measure of performance during simulated critical incidents. Br J Anesth 1998;80:58-62. Challis M. AMEE medical education guide no. 11 (revised): Portfolio-based learning and assessment in medical education. Med Teach 1999;21:370-86. Hall W, Violato C, Lewkonia R et al. Assessment of physician performance in Alberta: The physician achievement review. CMAJ 1999;161:52-7. Norcini JJ. The mini clinical evaluation exercise (mini-CEX). Clin Teach 2005;2:25-9. 80 Le guide des outils d’évaluation CanMEDS Gestionnaire Norcini JJ, Blank LL, Duffy D, Fortna GS. The Mini-CEX: a method for assessing clinical skills. Ann Intern Med 2003;138:476-81. Murray WB, Foster PA. Crisis resource management among strangers: principles of organizing a multidiciplinary group for crisis resource management. J Clinical Anesth 2000;12:633-8. Norman G. Evaluation methods: a resource handbook. Hamilton : Program for Educational Development, McMaster University; 1995. p. 71-7. Potter TB, Palmer RG. 360-degree assessment in a multidisciplinary team setting. Rheumatology 2003;42(11):1404-7. Sites Web utiles www.ccl.org Center for Creative Leadership, Greensboro (NC) Introduction aux méthodes d’évaluation des compétences CanMEDS 81 Partie 3 : Outils privilégiés pour évaluer les compétences 3.6 Promoteur de la santé Sarita Verma et Glen Bandiera Définition Comme promoteurs de la santé, les médecins utilisent leur expertise et leur influence de façon responsable pour promouvoir la santé et le mieux-être des patients, collectivités et populations. Compétences essentielles Les médecins peuvent… 1. répondre aux besoins et aux problèmes de santé de patients en particulier dans le contexte du soin des patients; 2. répondre aux besoins sanitaires des collectivités qu’ils servent; 3. définir les déterminants de la santé des populations qu’ils servent; 4. promouvoir la santé de patients en particulier, de collectivités et de populations. Aperçu Des soins efficaces et complets aux patients exigent la reconnaissance et une appréciation des déterminants de la santé. Le rôle de Promoteur de la santé permet un éventail de réponses aux questions relatives aux déterminants de la santé – sur le plan individuel, dans la collectivité et au niveau sociétal. Les médecins, en tant que promoteurs de la santé, doivent être responsables de l’utilisation de leur pouvoir et de leur influence et de la mobilisation des ressources nécessaires. Ce rôle exige une participation active au sein du système de santé et il représente le fondement voulu pour faire un juste équilibre entre des rôles en concurrence. En 2005, le rôle du Promoteur de la santé a été révisé pour insister davantage sur l’influence du médecin et la connaissance du système de santé aux fins de la prestation des soins aux patients. Dans la formation clinique, les facettes variées de la promotion de la santé se dégagent dans différents stages et diverses circonstances. L’enseignement et l’évaluation de la promotion de la santé doivent concorder avec les pratiques professionnelles standard dans ces domaines. Les patients ont besoin des médecins pour les aider à naviguer dans le système de santé et à accéder aux ressources de la santé en temps opportun. La revendication d’investigations, les conseils sur des changements appropriés au plan thérapeutique, la mobilisation des ressources communautaires et les discussions entourant la modification des facteurs de risque comptent au nombre des exemples des actes voulus. Les collectivités et les sociétés ont besoin de l’expertise spéciale des médecins pour identifier et se pencher, en collaboration, sur les grandes questions en matière de santé et les déterminants 82 Le guide des outils d’évaluation CanMEDS Promoteur de la santé de la santé. Au nombre des activités spécifiques à une spécialité peuvent comprendre des activités de prévention, l’élaboration de politiques ou de directives et l’exercice de pressions pour que se produisent des changements sur le plan de la collectivité. Outils privilégiés 1. Dissertations Il peut être difficile pour les superviseurs d’identifier des activités de promotion de la santé; elles se produisent souvent entre l’apprenant et le patient ou entre l’apprenant et d’autres professionnels de la santé et peuvent aussi survenir en dehors du stage clinique. Les dissertations permettent aux apprenants de décrire leurs propres expériences, d’accroître leur sensibilisation au rôle de Promoteur de la santé et de faire une réflexion autodirigée. Les apprenants sont appelés à répondre à une question et à traiter des sujets de manière claire et logique, après une recherche dans le domaine ou un réflexion sur sa propre expérience. En demandant aux apprenants de décrire comment ils ont agi en tant que promoteurs de la santé dans leur propre pratique et observé la promotion de la santé en action par d’autres médecins, il est possible de se faire une meilleure idée de leur compréhension du rôle. Les dissertations peuvent être notées comme un examen ou incorporées dans un portefeuille. 2. Questions à réponse courte (QRCs) Il est facile de mettre à l’épreuve les connaissances reliées au rôle de Promoteur de la santé sous cette forme. Les QRC ont l’avantage distinct de pouvoir évaluer la mémoire sans indice (plutôt que la reconnaissance) de l’information. Les questions reliées aux facteurs de risque des maladies, aux options de prévention des blessures et des maladies et aux avantages et inconvénients de lois proposées ou adoptées conviennent très bien au format des QRC. On peut inclure des QRC dans les examens de stage ou en cours de formation ou elles peuvent servir de base à un examen portant spécifiquement sur le Promoteur de la santé après un atelier ou un projet. 3. Observation directe et fiches d’évaluation en cours de formation (FECF) On peut inclure dans la FECF des éléments concernant l’appréciation des déterminants de la santé et la défense des intérêts des patients. On peut demander aux évaluateurs combien de fois les apprenants identifient et tentent de régler les facteurs de risque et avec quelle efficacité ils défendent les intérêts de leurs patients au sein du système. Il n’est cependant pas approprié d’utiliser la FECF concernant des initiatives de promotion de la santé dont on ne s’attend pas qu’elles se produisent durant les activités normales dans un stage donné. Par exemple, même si l’on s’attend des apprenants qu’ils comprennent le processus d’adoption d’une loi et comment s’impliquer dans la communauté et les débats sociétaux, cette sphère d’activité n’est peut être pas possible dans une clinique externe. Introduction aux méthodes d’évaluation des compétences CanMEDS 83 Partie 3 : Outils privilégiés pour évaluer les compétences La capacité d’un apprenant de faire des efforts additionnels dans les soins cliniques, comme de chercher à ce que les médicaments de première intention qu’un patient ne peut pas se payer soient couverts, de rallier d’autres professionnels de la santé dans l’amélioration des services aux patients ou de préconiser les soins à domicile, le placement ou la prolongation d’un séjour à l’hôpital, sont tous des exemples de mesure du rendement dans le rôle de Promoteur de la santé. 4. Examens cliniques objectifs structurés (ECOS) et patients standardisés Les examens à l’aide de simulations permettent l’évaluation d’un ensemble précis d’habiletés en dehors d’autres exigences en concurrence. Ils donnent la possibilité de donner une rétroaction dirigée. On peut présenter un problème relatif à la promotion de la santé durant les stations d’ECOS. On peut évaluer sous cette forme les habiletés nécessaires pour faire ressortir des facteurs de risque pertinents, discuter la modification des risques, éduquer les patients et obtenir l’accès aux ressources cliniques. Les patients standardisés peuvent se révéler très efficaces pour inciter les apprenants à identifier des questions nécessitant la représentation des patients. Ils peuvent servir à mettre en évidence l’esprit d’initiative et les habiletés en solution de problèmes de l’apprenant pour assister des patients ayant des problèmes multifactoriels, aigus et chroniques. L’évaluation peut se faire de manière globale ou au moyen d’une liste de vérification de comportements précis. Les patients standardisés peuvent participer ou non à l’évaluation. 5. Rétroaction de sources multiples et évaluations par les pairs Même s’il y a peu d’écrits sur le recours à la rétroaction de sources multiples pour évaluer le rôle de Promoteur de la santé, cette méthode comporte théoriquement plusieurs avantages. De nombreuses sources d’information peuvent former la base d’une telle évaluation : des patients, des familles, des infirmières, des consultants, des pairs, d’autres professionnels de la santé peuvent être appelés à donner leurs commentaires sur les activités précises de promotion de la santé entreprises par l’apprenant. On pourrait inclure dans ces évaluations les comportements entourant la planification du congé de l’hôpital, les tournées multidisciplinaires, les rencontres avec la famille, les demandes de consultation, les discussions sur les soins cliniques et les présentations sur la promotion de la santé et la prévention de la maladie. 6. Portefeuilles Les portefeuilles donnent une chronologie des activités de promotion de la santé effectuées par l’apprenant au cours de quelques années. Les portefeuilles peuvent comporter des lettres, des articles de journaux sur la représentation des patients ou des preuves d’implication au sein de groupes d’intérêts spéciaux, dans des activités politiques ou au gouvernement. Idéalement, chaque composante du portefeuille pourrait contenir un élément d’autoréflexion. Les dissertations à propos de rencontres cliniques conviendraient aussi. On pourrait recueillir des preuves d’activités de représentation pertinentes à la spécialité et les évaluer durant toute la période de formation, à l’aide d’une approche qualitative, 84 Le guide des outils d’évaluation CanMEDS Promoteur de la santé quantitative ou combinée pour mesurer la fréquence, la portée, la qualité et l’efficacité de l’implication à cet égard. Le portfolio ferait partie d’une évaluation globale au moment de l’admissibilité au certificat. Ouvrages pertinents 1. Bandiera GW. Emergency medicine health advocacy. Can J Emerg Med 2003;5(5): 336-42 Genres d’outils Examen écrit (dissertation) et portefeuilles (variantes) Conception de l’étude Rapport descriptif à angle unique Population étudiée Résidents en médecine d’urgence Commentaires Cet article décrit un programme en trois volets pour stimuler l’intérêt pour la promotion de la santé et le degré d’activité dans ce domaine. Les résidents ont discuté de nombreux exemples de représentation pertinents à leur spécialité, ont fait la critique d’exemples fournis comme matière à étudier et, enfin, ont rédigé une brève dissertation et une critique sur leur propre expérience pratique en matière de promotion de la santé. Cette dernière était ensuite présentée aux pairs et discutée. L’article ne décrit pas l’évaluation des dissertations, mais il serait facilement possible d’établir des processus formels pour ce faire ou d’inclure les dissertations dans un portefeuille sur la résidence globale. 2. Borgiel AEM, Williams JL, Davis DA, Dunn EV, Hobbs N, Hutchinson B, et al. Evaluating the effectiveness of 2 educational interventions in family practice. CMAJ 1999;161(8): 965-70. Genres d’outils Évaluation fondée sur la pratique, étude des dossiers, sondage auprès des patients Conception de l’étude Étude contrôlée randomisée Population étudiée Médecins en pratique familiale Commentaires Même si cette étude a été conçue pour déterminer les effets de deux interventions éducatives différentes sur les pratiques en santé préventive de médecins de famille, elle faisait appel à certains outils novateurs et bien décrits Introduction aux méthodes d’évaluation des compétences CanMEDS 85 Partie 3 : Outils privilégiés pour évaluer les compétences pour faire l’évaluation. Les chercheurs ont demandé aux patients de répondre à un sondage. Des études complètes des dossiers médicaux ont été effectuées avant et après les interventions éducatives. Il n’y a avait pas de différence en fonction du type d’intervention, mais les chercheurs ont quand même démontré que les outils étaient en mesure de donner un aperçu des pratiques des médecins participants à l’étude. 3. Brill JR, Ohly S, Stearns MA. Training community-responsive physicians. Acad Med 2002;77(7):747. Genres d’outils Portefeuilles et formulaires d’évaluation globale Conception de l’étude Conception de curriculum descriptive Population étudiée Résidents en pratique familiale Commentaires Il s’agit d’une étude novatrice qui présente l’utilisation d’un curriculum formel sur la promotion de la santé conçu pour stimuler l’intérêt pour la pratique rurale et la santé publique. Les résidents étaient appelés à produire des résumés écrits à inclure dans un portefeuille et à entreprendre des évaluations périodiques de leurs activités à l’aide d’une série prédéfinie de huit domaines spécifiques de contenu. 4. Leone RJ, Hammond JS. Surgical residents’ knowledge of injury prevention principles. Am J Surg 2000;180(3):223-6. Genre d’outil Examen écrit Conception de l’étude Étude transversale Population étudiée Résidents en chirurgie générale dans trois centres Commentaires C’est l’une des rares études qui insiste sur les méthodes d’évaluation plutôt que sur les méthodes d’enseignement. Elle décrit un examen écrit à réponses courtes pour évaluer les connaissances des résidents en prévention des blessures, en tendances dans les blessures et en violence intentionnelle. Le rendement des résidents a été généralement médiocre, mais ils ont manifesté l’intérêt d’en apprendre davantage sur le sujet. 86 Le guide des outils d’évaluation CanMEDS Promoteur de la santé 5. Verma S, Flynn L, Seguin R. Faculty’s and residents’ perceptions of teaching and evaluating the role of health advocate: a study at one Canadian university. Acad Med 2005;80(1):103-8. Genre d’outil Évaluation fondée sur la pratique (variante) Conception de l’étude Étude qualitative auprès d’un groupe témoin Population étudiée Résidents en médecine canadiens au niveau postdoctoral Commentaires Les professeurs et les résidents ont participé aux discussions de groupes témoins distincts pour déterminer leur degré de compréhension du rôle de Promoteur de la santé et de son évaluation. Même s’il ne s’agit pas en soi d’un article sur l’évaluation, cette étude donne une bonne idée des défis posés aux professeurs et aux résidents face à la nécessité d’enseigner la promotion de la santé et d’évaluer les résidents dans ce rôle. Les concepteurs de programmes pédagogiques pourraient transformer cette conception sous forme de groupe témoin en une étude autodirigée ou en technique d’évaluation fondée sur les portfolios en demandant aux résidents de consigner leurs expériences et d’en faire rapport à un groupe ou durant une rencontre bilatérale avec leur directeur de programme ou leur conseiller universitaire. Il est intéressant de constater que les auteurs ont fait valoir que, même si les professeurs concevaient le rôle de Promoteur de la santé comme inhérent à leur vie professionnelle et une réalité qui devrait être évidente aux apprenants, les résidents n’étaient pas au courant du rôle de Promoteur de la santé exercé par leurs professeurs. Autres ouvrages intéressants Aitken ME, Rowlands LA, Wheeler JG. Advocating for children’s health at the state level. Arch Pediatr Adolesc Med 2001;155(8)877-80. Brill JR, Ohly S, Stearns MA. Training community-responsive physicians. Acad Med 2002;77(7):747. Borgiel AEM, Williams JL, Davis DA, Dunn EV, Hobbs N, Hutchinson B, et al. Evaluating the effectiveness of 2 educational interventions in family practice. CMAJ 1999;161(8):965-70. Clark PA. What residents are not learning: observations in an NICU. Acad Med 76 2001;(5):419-24. Introduction aux méthodes d’évaluation des compétences CanMEDS 87 Partie 3 : Outils privilégiés pour évaluer les compétences Frank JR, Langer B. Collaboration, communication, management, and advocacy: teaching surgeons new skills through CanMEDS project. World J Surg 2003;27:972-8. Kilduff A, McKeown K, Crowther A (1998) Health needs assessment in primary care: the evolution of practical public health approach. Public Health 112(3):175-81. Leone RJ, Hammond JS. Surgical residents’ knowledge of injury prevention principles. Am J Surg 2000;180(3):223-6. Notzer N, Abramovitz R. Clinical learning experiences of Israeli medical students in health promotion and prevention of cancer and cardiovascular diseases. Isr Med Assoc J 2002;4(2):149-52. Oandasan I, Barker KK. Educating for advocacy: exploring the source and substance of community-responsive physicians. Acad Med 2003;78(10 Suppl):S16-S19. Taylor KL, Chudley AE. Meeting the needs of future physicians: a core curriculum initiative for postgraduate medical education at a Canadian university. Med Educ 2001;35(10):973-82. Verma S, Flynn L, Seguin R. Faculty’s and residents’ perceptions of teaching and evaluating the role of health advocate: a study at one Canadian university. Acad Med 2005;80(1):103-8. Wilson A, McDonald P. Comparison of patient questionnaire, medical record, and audio tape in assessment of health promotion in general practice consultations. BMJ 1994;309:1483-5. 88 Le guide des outils d’évaluation CanMEDS Érudit 3.7 Érudit Jonathan Sherbino Définition Comme érudits, les médecins démontrent un engagement de toute une vie envers l’apprentissage fondé sur la réflexion, ainsi que la création, la diffusion, l’application et l’utilisation de connaissances médicales. Compétences essentielles Les médecins peuvent… 1. maintenir et améliorer les activités professionnelles par l’acquisition continue du savoir; 2. évaluer de façon critique de l’information et ses sources, et l’appliquer judicieusement aux décisions à prendre dans le contexte de la pratique; 3. faciliter l’acquisition du savoir pour les patients, les membres de leur famille, les étudiants, les résidents, d’autres professionnels de la santé, le public et d’autres intervenants, le cas échéant; 4. contribuer à la création, à la diffusion, à l’application et à l’utilisation de connaissances et de pratiques médicales nouvelles. Aperçu Le rôle d’Érudit CanMEDS renferme diverses compétences, notamment l’acquisition continue du savoir, l’évaluation critique (p. ex., la pratique fondée sur des données probantes), l’enseignement et la recherche. Ces éléments sous-tendent une pratique clinique compétente (acquisition continue du savoir et évaluation critique) et contribuent à l’avancement de la profession (enseignement et recherche). Malgré l’importance du rôle d’Érudit, très peu de recherches ont porté sur l’enseignement et l’évaluation des compétences qui le composent. L’élaboration et l’évaluation des programmes pédagogiques concernant le perfectionnement professionnel continu font l’objet d’un grand nombre d’ouvrages et, pourtant, l’évaluation des comportements associés à l’acquisition continue du savoir n’a pas été étudiée en profondeur. Les ouvrages portant sur les outils d’évaluation des compétences dans le rôle de chercheur se font rares, même si l’évaluation des habiletés en recherche est intrinsèque à toute étude et qu’elles sont prises en compte dans l’examen des demandes de subvention et les études d’articles par les pairs. Enfin, il y a quelques excellentes synthèses critiques mettant en évidence les composantes d’un enseignement fructueux en médecine. Toutefois, la recherche concernant les outils d’évaluation connexes, spécifiques à la formation médicale, est presque absente. Des évaluations très perfectionnées de l’enseignement sont décrites dans les ouvrages sur les études supérieures, mais les enseignants et les Introduction aux méthodes d’évaluation des compétences CanMEDS 89 Partie 3 : Outils privilégiés pour évaluer les compétences professeurs cliniques ont besoin que ces outils soient adaptés à l’environnement de la formation médicale. Contrairement à la rareté des ouvrages sur les outils d’évaluation des compétences en acquisition continue du savoir et en recherche, les articles sur les outils d’évaluation des capacités de réflexion critique abondent. Compte tenu de ces difficultés, certains outils semblent mieux convenir à l’évaluation du rôle d’Érudit. Comme c’est le cas avec tous les rôles CanMEDS, aucun outil à lui seul ne suffit pour mesurer toutes les compétences essentielles de l’Érudit. Par conséquent, il faudrait utiliser plusieurs outils et de nombreux évaluateurs pour assurer la validité et la fiabilité de l’évaluation des apprenants. Voici les quatre outils qui nous ont semblé les plus appropriés pour évaluer le rôle de l’Érudit. Outils privilégiés 1. Portefeuilles Les portefeuilles conviennent bien à l’évaluation du rôle d’Érudit. Ils constituent, par définition, un outil longitudinal, qui s’adapte bien à l’évaluation de la compétence d’un apprenant sur une base continue. Les projets d’autoapprentissage avec leurs composantes de réflexion inhérentes peuvent aisément être utilisés pour évaluer les progrès d’un apprenant. De brèves synthèses des ateliers, des cours ou des activités d’enseignement clinique (réalisés par l’apprenant) avec les notes accordées à l’enseignement, représenteraient d’excellentes composantes à ajouter au portefeuille. Enfin, un exemple représentatif d’un projet de recherche (p. ex., une critique des ouvrages, une demande de subvention, un article comportant une critique par des pairs) mériterait d’être ajouté au portefeuille pour permettre l’évaluation de la compétence en recherche. 2. Questions à réponse courte (QRC) Les QRC représentent un moyen efficace et efficient d’évaluer plusieurs des compétences inhérentes au rôle d’Érudit. Les apprenants seraient appelés à faire une évaluation critique d’une étude spécifique à la spécialité et à répondre à des questions qui y ont trait. D’autres questions pourraient porter sur la pertinence de la méthodologie de recherche et de la conception de l’étude pour une question de recherche donnée, demandant une liste de critères de qualité dans la conception de l’étude ou de simples calculs des résultats statistiques de base. 3. Observation directe et fiches d’évaluation en cours de formation (FECF) L’observation des habiletés en évaluation critique d’un apprenant (p. ex., la présentation d’un article à un club de lecture) ou en enseignement peut se faire aisément. Les comportements réels, en temps réel, sont évalués. Les superviseurs de la recherche pourraient évaluer d’une manière semblable les apprenants par une observation directe. Par ailleurs, si seulement un petit nombre de superviseurs de la recherche participent à l’évaluation, la fiabilité de l’observation directe est limitée. L’observation directe ne constitue pas un choix convenable pour évaluer les habiletés en acquisition continue du savoir. Les comportements connexes 90 Le guide des outils d’évaluation CanMEDS Érudit observables et la nature longitudinale de cette compétence ne concordent pas avec les possibilités de cet outil d’évaluation. Le recours à des barèmes d’évaluation globale ou de notation à l’aide de listes de vérification devrait être fonction des comportements spécifiques évalués. 4. Rétroaction de sources multiples et évaluation par les pairs La rétroaction de sources multiples peut avoir une certaine utilité dans l’évaluation du rôle d’Érudit. Plus particulièrement, cet outil est capable d’évaluer la compétence en enseignement. Le problème avec cet outil, c’est de concevoir un questionnaire qui capte de manière appropriée les comportements en enseignement. Les pairs, les autres professionnels de la santé et les patients pourraient facilement ne pas étiqueter facilement comme étant de « l’enseignement » la promotion de l’apprentissage qui se produit systématiquement durant les rencontres cliniques. La distinction entre ces « moments d’enseignement » (p. ex., l’explication de la pathophysiologie d’une maladie à un patient, la discussion des bienfaits thérapeutiques d’un médicament par rapport à ceux d’un autre avec une collègue infirmière) et les cours ou séminaires traditionnels est essentielle pour obtenir des évaluations valides de la part de sources multiples. Il est fréquent d’inclure l’évaluation par les pairs dans les activités traditionnelles d’enseignement (p. ex., les tournées) et d’enseignement clinique (p. ex., au chevet des patients) entre apprenants seniors et juniors. L’inclusion d’une véritable évaluation par les pairs (mettant en jeu des apprenants à des stades identiques de leur formation) pour l’enseignement des comportements entourant un cas clinique pose des difficultés singulières. Les discussions de cas peuvent ne pas avoir été identifiées comme des moments d’enseignement et l’évaluation peut manquer de validité. Ouvrages pertinents 1. Stern DT, Linzer M, O’Sullivan PS, Weld L. Evaluating medical residents’ literature-appraisal skills. Acad Med 1995; 70(2):152-4. Genres d’outils Rapport par l’intéressé, observation directe Conception de l’étude Étude interventionnelle prospective, cohorte unique Population étudiée Résidents en médecine Commentaires En dépit de ses lacunes méthodologiques et de ses constatations équivoques, cette étude donne un bon exemple d’outil sous forme d’examen écrit, utilisé pour évaluer les habiletés en évaluation critique. Une composante d’autoréflexion en fait aussi partie, démontrant comment ces données peuvent être incorporées dans un portefeuille. Introduction aux méthodes d’évaluation des compétences CanMEDS 91 Partie 3 : Outils privilégiés pour évaluer les compétences 2. Fliegel JE, Frohna JG, Mangrulkar RS. A computer-based OSCE station to measure competence in evidence-based medicine skills in medical students. Acad Med 2002;77(11):1157-8. Genre d’outil Simulation de cas/examen clinique objectif structuré (ECOS), examen écrit Conception de l’étude Intervention prospective, cohorte unique Population étudiée Étudiants en médecine Commentaires Cette étude se sert d’un examen écrit pour évaluer les compétences en évaluation critique et mesure les propriétés psychométriques de l’outil particulier dans cet environnement d’évaluation. Il convient de signaler que cet article démonter comment cet outil d’évaluation peut être intégré dans un ECOS. 3. Snell L, Tallet S, Haist S, Hays R, Norcini J, Prince K, et al. A review of the evaluation of clinical teaching: new perspectives and challenges. Med Educ 2000; 34(10):862-70. Genre d’outil Rétroaction de sources multiples (RSM) Conception de l’étude Article de synthèse Population étudiée Professeurs de médecine Commentaires Cette étude narrative procure un solide fondement théorique pour l’évaluation des compétences en enseignement. Par exemple, l’étude fait ressortir indirectement l’utilité de la RSM comme outil d’évaluation des habiletés en enseignement. 92 Le guide des outils d’évaluation CanMEDS Érudit 4. Katz NT, McCarty-Gillespie L, Magrane DM. Direct observation as a tool for needs assessment of resident teaching skills in the ambulatory setting. Am J Obstet Gynecol 2004;189(3):684-7. Genre d’outil Observation directe (liste de vérification) Conception de l’étude Interventionelle, cohorte unique Population étudiée Résidents en médecine Commentaires Cette étude analyse un outil d’évaluation de l’enseignement par observation directe se fondant sur un barème de notation à l’aide d’une liste de vérification. Les constatations de l’étude font valoir que les comportements en enseignement ne se sont pas améliorés avec le degré de formation. Les auteurs ont conclu que cette absence d’amélioration était attribuable à des lacunes dans le programme pédagogique. Par contre, les conclusions peuvent aussi être attribuables au manque de sensibilité du barème de notation de la liste de vérification, facteur à considérer dans la conception d’autres outils d’évaluation de l’enseignement par observation directe. 5. Jackson JL, O’Malley PG, Salerno SM. The Teacher and Learner Interactive Assessment System (TeLIAS): a new tool to assess teaching behaviours in the ambulatory setting. Teach Learn Med 2002;14(4):249-56. Genre d’outil Observation directe (enregistrement audio) Conception de l’étude Par observation, qualitative Population étudiée Étudiants en médecine Commentaires L’outil d’évaluation décrit dans cette étude, qui porte sur l’enseignement clinique (au chevet du patient) n’est pas immédiatement applicable dans l’évaluation de l’apprenant. Par ailleurs, les conclusions de l’étude peuvent éclairer l’élaboration d’un outil d’observation directe spécifique à une spécialité. Introduction aux méthodes d’évaluation des compétences CanMEDS 93 Partie 3 : Outils privilégiés pour évaluer les compétences Autres ouvrages intéressants Braxtton JM, Del Favero M. Evaluating scholarship performance: traditional and emergent assessment templates. N Dir Teach Learn 2002; (114):19-31. Carusetta E. Evaluating teaching through teaching awards. N Dir Teach Learn 2001; (88):31-40. Cramer JS, Mahoney MC. Introducing evidence based medicine to the journal club, using a structured pre and post test: a cohort study. BMC Med Educ 2001; 1(6) [Epub Nov 6]. Hojat M, Nasca TJ, Erdmann JB, Fribsy AJ, Veloski JJ, Connella JS. An operational measure of physician lifelong learning: its development, components and preliminary psychometric data. Med Teach 2003; 25(4)433-7. Ramos KD, Schafer S, Tracz SM. Validation of the Fresno test of competence in evidence based medicine. BMJ 2003; 326:319-21. Shelvin M et al. The validity of student evaluation of teaching in higher education: love me, love my lectures? Assess Eval Higher Educ 2000; 25(4):397-405. Wiese J, Varosy P, Tierney L. Improving oral presentation skills with a clinical reasoning curriculum: a prospective controlled study. Am J Med 2002; 112(3):212-8. 94 Le guide des outils d’évaluation CanMEDS Professionnel 3.8 Professionnel Ramona A. Kearney, Derek Puddester et Jason R. Frank Définition Comme professionnels, les médecins sont voués à la santé et au mieux-être de la personne et de la société, à la pratique respectueuse de l’éthique, à l’autoréglementation de la profession et aux critères rigoureux de comportements personnels. Compétences essentielles Les médecins peuvent… 1. démontrer un engagement envers leurs patients, la profession et la société par la pratique respectueuse de l’éthique; 2. démontrer un engagement envers leurs patients, la profession et la société en participant à l’autoréglementation de la profession; 3. démontrer un engagement envers la santé des médecins et leur pratique durable. Aperçu En tant que membres d’une profession indépendante jouissant des privilèges de l’autonomie clinique et de l’autoréglementation, on s’attend des médecins contemporains qu’ils placent le mieux-être de leurs patients et de l’ensemble de la société au-dessus de leurs propres intérêts. Pour que dure cette relation de fiduciaire avec la société et pour que la société continue de considérer les médecins comme des professionnels valorisés, compétents et autonomes, il est impératif de manifester incessamment un engagement à l’endroit d’une pratique étique et du maintien de normes de réglementation. Le professionnalisme désigne à la fois les comportements des particuliers et les valeurs fondamentales qu’a épousés la profession. Les compétences du rôle de Professionnel ont été apprises principalement par l’entremise du curriculum informel et tacite des facultés de médecine. On croit souvent que le professionnalisme se développe chez les médecins simplement en complétant le programme de formation au terme duquel une personne est réputée être « devenue » un professionnel. Cette perception omet de reconnaître que l’environnement de formation peut être hostile et susciter le cynisme et un jugement moral dégradé. La société passe depuis un certain temps le professionnalisme à la loupe et a identifié des menaces à ses principes. Les professeurs ont reconnu la nécessité d’un curriculum explicite d’enseignement des compétences dans ce domaine et de mettre en place les paradigmes d’évaluation afférents. Introduction aux méthodes d’évaluation des compétences CanMEDS 95 Partie 3 : Outils privilégiés pour évaluer les compétences Le rôle CanMEDS de Professionnel est structuré de manière unique autour de trois compétences principales. La première porte sur les comportements d’une pratique éthique, soit le domaine auquel les professeurs pensent en premier lieu lorsqu’il est question de « professionnalisme ». Il existe beaucoup d’ouvrages spécialisés portant sur les approches à l’évaluation de cette dimension. Les évaluations peuvent se produire dans le milieu clinique où les observations par les nombreux collègues et pairs permettent de dégager le portrait complet du professionnalisme de la personne. Puisque la réflexion est essentielle à l’apprentissage et que le professionnalisme est un processus évolutif, les évaluations qui examinent les réflexions des stagiaires peuvent représenter une source précieuse d’information sur leur professionnalisme en émergence. La deuxième compétence essentielle concerne les habiletés des médecins à exercer efficacement la médecine en respectant les limites d’une profession autoréglementée. Il existe peu d’ouvrages qui abordent les approches à l’évaluation de cette dimension. Par ailleurs, ces comportements se prêtent bien à une évaluation au moyen de portfolios et les connaissances sous-jacentes peuvent être mesurées à l’aide d’examens écrits. Enfin, la troisième compétence essentielle du rôle CanMEDS de Professionnel englobe les habiletés nécessaires à une pratique efficace et durable. Les membres de la profession se préoccupent de la santé et du mieux-être des médecins depuis plus d’un siècle. Au cours des dernières décennies, la profession a reconnu ouvertement la nécessité de donner une formation formelle sur la santé et le mieux-être personnels, la résilience, la durabilité et le perfectionnement personnel et professionnel. Ici aussi, les portfolios conviennent bien pour faire le suivi de la progression dans ce domaine et les examens écrits peuvent servir à mesurer la base des connaissances pertinentes qui s’y rattache. Outils privilégiés Les outils les plus propices à l’évaluation du professionnalisme examinent le comportement en milieu de travail et évaluent le développement du professionnalisme chez l’individu par la réflexion. Les outils privilégiés pour l’évaluation du comportement sont les suivants : 1. Observation directe et fiches d’évaluation en cours de formation (FECF) L’observation directe de la pratique concrète procure la plus grande fidélité dans l’évaluation des aspects du professionnalisme. L’évaluation du comportement peut se produire tout au long de la formation de l’apprenant et donne une idée de l’évolution du professionnalisme, plus particulièrement si un petit groupe d’évaluateurs participe à l’évaluation de nombreuses situations en cours de formation. Les formulaires peuvent être conçus pour inclure des listes de comportements explicites et des barèmes représentant leur fréquence (« jamais » à « toujours ») et leur qualité (« médiocre » à « excellent ») ou encore la mesure dans laquelle les exigences ont été satisfaites. Au nombre des éléments précis 96 Le guide des outils d’évaluation CanMEDS Professionnel peuvent figurer la façon de transiger avec les questions d’éthique (comme l’autonomie et la confidentialité du patient), la conscience de soi, la responsabilité et l’acquittement du devoir de diligence. 2. Rétroaction de sources multiples La rétroaction de sources multiples permet la contribution de divers collègues et pairs pour produire de nombreux portraits de comportements dans différentes circonstances. L’étendue du comportement peut être mesurée selon cette méthode, tandis que la profondeur en est souvent analysée au moyen des fiches d’évaluation en cours de formation (FECF). La validité repose sur le grand nombre d’évaluations et la sélection réfléchie des contributeurs ajoute à la validité apparente. Les patients et les familles peuvent attester des discussions franches et du respect de leur autonomie, les infirmières peuvent donner leurs commentaires sur la délégation d’actes médicaux et le respect dans les relations interprofessionnelles et les superviseurs directs peuvent évaluer la réceptivité à la rétroaction et l’autoévaluation. Les pairs se révèlent une source appropriée de rétroaction sur le mieux-être de l’apprenant et ses comportements liés à la pratique durable. 3. Portefeuilles Les portefeuilles donnent un aperçu de l’essence du professionnel en développement en faisant le suivi de sa progression par la réflexion. Ils servent à donner de la rétroaction à l’apprenant pour qu’il ou elle établisse ses propres objectifs de perfectionnement et évalue ses progrès. Les portefeuilles sont aussi utiles pour identifier des lacunes et facilitent donc la rémédiation. On peut y inclure, par exemple, de courtes dissertations sur le règlement de problèmes d’éthique, les expériences personnelles en matière d’acquittement du devoir de diligence, des lettres attestant de l’implication au sein d’entités de réglementation ou d’élaboration de politiques, ou des objectifs de perfectionnement personnel établis par l’intéressé et les évaluations de suivi de la réussite dans leur atteinte. Ouvrages pertinents 1. Arnold L. Assessing professional behaviour: yesterday, today, and tomorrow. Acad Med 2002; 77(6):502-15. Genres d’outils Divers Conception de l’étude Synthèse critique Population étudiée Diversifiée (étudiants et résidents en médecine, étudiants de premier et deuxième cycles dans d’autres disciplines) Introduction aux méthodes d’évaluation des compétences CanMEDS 97 Partie 3 : Outils privilégiés pour évaluer les compétences Commentaires C’est une excellente étude sur l’évaluation du professionnalisme. L’auteur décrit des outils de mesure tirés d’études sur l’évaluation du comportement professionnel comme partie intégrante du rendement clinique, du comportement professionnel comme dimension distincte et des éléments spécifiques de l’humanisme et de l’autoréflexion. Elle présente de nombreux outils d’évaluation et une explication des propriétés psychométriques de chacun d’entre eux. 2. Larkin GL, Binder L, Houry D, Adams J. Defining and evaluating professionalism: a core competency for graduate emergency medicine education. Acad Emerg Med 2002; 9(11):1249-56. Genres d’outils Divers Conception de l’étude Déclaration consensuelle Population étudiée Résidents en médecine d’urgence Commentaires Cet article dresse une liste consensuelle des comportements professionnels. Il présente aussi les outils d’évaluation du professionnalisme en fonction d’une hiérarchie allant de la connaissance au comportement : « sait », « sait comment », « montre comment ». 3. Lynch DC, Surdyk PM, Eiser AR. Assessing professionalism: a review of the literature. Med Teach 2004; 26(4):366-73. Genres d’outils Divers Conception de l’étude Synthèse critique Population étudiée Diversifiée (prédoctorale et postdoctorale) Commentaires Cette étude exhaustive insiste plus particulièrement sur l’éthique médicale. Elle présente aussi des recommandations générales sur l’évaluation du professionnalisme et des recommandations précises pour évaluer les résidents et les médecins en pratique active. 98 Le guide des outils d’évaluation CanMEDS Expert médical 4. Ginsburg S, Regehr G, Hatala R, McNaughton N, Frohna A, Hodges B, et al. Context, conflict, and resolution: a new conceptual framework for evaluating professionalism. Acad Med 2000; 75(10):S6-S11. Genres d’outils Divers Conception de l’étude Synthèse critique Population étudiée Diversifiée (prédoctorale et postdoctorale) Commentaires Cet article passe en revue les ouvrages sur les genres d’instruments d’évaluation utilisés pour mesurer le professionnalisme dans la formation médicale. Il dégage les lacunes conceptuelles fondamentales qui existent dans ces ouvrages. Il fait valoir que les trois plus importantes composantes omises sont l’examen des contextes dans lesquels se produisent les comportements non professionnels, les conflits qui entraînent de telles fautes, et les raisons pour lesquelles les étudiants ont fait ce choix. L’article propose ensuite des stratégies pour résoudre ces problèmes. Autres ouvrages intéressants Le Centre de l’AMC pour la santé et le mieux-être des médecins, un centre virtuel dans le site Web www.amc.ca, a identifié un grand nombre de sources d’information, de documents et d’études auxquels on peut aisément avoir accès à partir du site. Les références suivantes peuvent être particulièrement utiles pour la formation postdoctorale : Manuels Goldman LS, Myers M, Dickstein LJ, rédacteurs. The handbook of physician health: the essential guide to understanding the health care needs of physicians. Chicago (IL) : American Medical Association; 2000. Peterkin A. Staying human during residency training. 3rd ed. Toronto : University of Toronto, 2004. Stern DT. Measuring medical professionalism; 2006. New York : Oxford University Press; 2006. Revues, brochures, déclarations de politique Puddester D, rédacteur. Creating a healthy culture in medicine : Rapport de la Conférence internationale de l’AMA/AMC de 2004 sur la santé des médecins. Ottawa : Association médicale canadienne, 2005. Accessible à www.amc.ca. Introduction aux méthodes d’évaluation des compétences CanMEDS 99 Partie 3 : Outils privilégiés pour évaluer les compétences Association médicale canadienne. La santé et le mieux-être des médecins [déclaration de politique]. Accessible à http://www.cma.ca/index.cfm/ci_id/3211/la_id/2.htm. Western Journal of Medicine 2001;174(1). Special issue on physicians, well-being. Myers MF. Treatment of the mentally ill physician. Ottawa : Canadian Psychiatric Association; 2001. Articles Keim S et al, Measuring wellness among resident physicians. Med Teach 2006; 28(4):370-4. Kaufmann M. Recognition and management of the behaviourally disruptive doctor. Ont Med Rev 2001; 53-5 April. Kaufmann M. Physician Suicide: risk factors and prevention. Ont Med Rev 2000; Sept 20-22. 100 Le guide des outils d’évaluation CanMEDS Glossaire Acronyme Terme Description Choix de réponses Genre d’examen écrit qui comporte une question et une liste d’options à partir de laquelle l’apprenant doit choisir la bonne réponse. Dans tous les examens à choix de réponses, l’apprenant est appelé à reconnaître la réponse correcte plutôt que de s’en souvenir sans indice. Plusieurs des outils d’évaluation écrits situent la question dans un scénario clinique ou une vignette. Les choix multiples, le jumelage, le jumelage étendu, le choix d’un nombre de bonnes réponses et les questions vrai ou faux comptent parmi les outils habituels dans cette catégorie. Choix d’un nombre de bonnes réponses Genre d’examen écrit comportant un amalgame de QCM et de jumelage étendu. Il comporte un tronc d’introduction et des instructions de choisir un nombre donné de réponses correctes dans une longue liste. Ces questions pourraient porter sur tous les tests diagnostiques ou les interventions de prise en charge qui seraient appropriés dans une situation clinique donnée. Utilisées dans les ouvrages spécialisés en éducation pour désigner les habiletés, les connaissances et les attitudes essentielles pour qu’une personne atteigne une plus grande compétence. Compétences Dissertation Genre d’examen écrit qui comporte des questions exigeant des apprenants qu’ils formulent leurs réponses sous forme écrite ou par ordinateur en se fondant sur leurs connaissances. La dissertation exige une synthèse et l’explication du contenu et nécessite souvent des habiletés en réflexion critique, comme l’évaluation, l’analyse et le jugement. Introduction aux méthodes d’évaluation des compétences CanMEDS 101 Acronyme Terme Description Effet de la bête Influence négative sur la notation de tous les sous-éléments en se fondant sur la note globale perçue – parti pris défavorable. Par exemple, un apprenant perçu comme étant médiocre recevra des notes médiocres sur tous les sous-éléments, quelles que soient les habiletés de l’apprenant dans cet élément en particulier. Contraire de l’effet de l’ange. Effet de l’ange Influence positive sur la notation de tous les sous-éléments en se fondant sur la note globale perçue – parti pris favorable. Par exemple, un apprenant perçu comme étant exceptionnel recevra des notes exceptionnelles sur tous les sous-éléments, quelles que soient les habiletés de l’apprenant dans cet élément en particulier. Contraire de l’effet de la bête. 360º Évaluation à 360 degrés alias Rétroaction de sources multiples Les personnes qui se rapportent directement à l’intéressé, les pairs et les superviseurs remplissent un questionnaire pour recueillir des renseignements, évaluer la conduite et donner de la rétroaction. EOSHTI Évaluation objective structurée des habiletés en techniques d’intervention Examen clinique objectif structuré Semblable à un ECOS (voir la définition d’ECOS), mais insiste sur les habiletés psychomotrices. ECOS 102 Forme d’évaluation qui donne un échantillon du rendement des apprenants tandis qu’ils font le tour d’une série de stations représentant divers scénarios cliniques. À chaque station, l’apprenant peut rencontrer un patient standardisé, faire un examen oral structuré, examiner de l’information visuelle (p. ex., des radiographies, des électrocardiogrammes), faire une simulation fortement ou faiblement réaliste (p. ex., un dispositif d’entraînement partiel) ou effectuer une tâche écrite. Les apprenants sont habituellement appelés à exécuter une technique spécifique, à simuler une partie d’une rencontre avec un patient ou à répondre à des questions fondées sur le matériel présenté. Le guide des outils d’évaluation CanMEDS Acronyme EOSRR EOS FECF FEFF Terme Examen objectif structuré relié au rendement Description Semblable à un ECOS (voir la définition d’ECOS), mais n’a pas nécessairement de dimension clinique. Examen oral Méthode d’évaluation selon laquelle un évaluateur ou un jury d’évaluateurs pose à un apprenant une série de questions de manière à évaluer les réponses de l’apprenant et à y réagir. Les examens oraux procurent une interaction dynamique intense entre l’évaluateur et l’apprenant. Examen oral structuré Méthode servant à évaluer un nombre établi de cas standardisés à l’aide de questions d’incitation anticipées, fondées sur une gamme de résultats attendus du candidat et un barème de notation bien critérié pour accroître la fiabilité de l’évaluation. Fiche de rencontre sur l’enseignement Genre d’observation directe en cours de formation qui se caractérise par des observations documentées après de brèves rencontres entre le superviseur et l’apprenant dans le milieu clinique. Fiche des interventions quotidiennes Genre d’observation directe en cours de formation qui se caractérise par des observations documentées après de brèves rencontres entre le superviseur et l’apprenant dans le milieu clinique, dans ce cas, en salle d’opération. Fiche d’évaluation en cours de formation Fiche d’évaluation en fin de formation Fiche d’évaluation quotidienne de l’enseignement Instrument d’évaluation pour documenter l’observation directe. Rapport sommatif sur l’évaluation en cours de formation. Genre d’outil d’évaluation du professeur qui se caractérise par des observations documentées après de brèves rencontres entre le superviseur et l’apprenant dans le milieu clinique. Introduction aux méthodes d’évaluation des compétences CanMEDS 103 Acronyme 104 Terme Fiches de rencontre quotidienne ou Fiche d’évaluation quotidienne Description Genre d’outil d’évaluation en cours de formation qui se caractérise par des observations documentées après de brèves rencontres entre le superviseur et l’apprenant dans le milieu clinique. Jumelage Genre d’examen écrit dans lequel deux listes sont remises aux apprenants à qui on demande de jumeler un élément d’une colonne à un élément de l’autre colonne. Un exemple courant de jumelage consiste en une liste de termes dans une colonne et de définitions dans l’autre. Jumelage étendu Genre d’examen écrit dans lequel les apprenants reçoivent une liste de dix à vingt éléments et sont appelés à les jumeler à une série de réponses correspondantes. Un élément peut être jumelé à plus d’une réponse. Par exemple, on donne aux apprenants une liste d’organes et une liste de médicaments. On leur demande ensuite de jumeler les organes de la liste avec les médicaments qui ont un effet sur cet organe. Observation directe Dans le modèle d’évaluation en cours de formation du Collège royal, l’observation directe désigne l’observation, l’évaluation et la documentation sur une base continue des actes posés par les apprenants dans des milieux cliniques réels durant leur formation. Le facteur essentiel qui distingue l’observation directe des autres formes d’évaluation est que l’apprenant est observé pendant qu’il pose des actes authentiques qui se produisent naturellement dans l’expérience clinique au quotidien. À l’instar de la simulation, l’observation directe exige le recours à un outil d’évaluation afférent pour structurer et consigner le jugement de l’observateur. Patients simulés Acteurs en santé formés pour simuler une situation ou un problème d’ordre médical. Le guide des outils d’évaluation CanMEDS Acronyme Terme Patients standardisés Description Patients réels ou acteurs formés pour simuler une situation ou un problème d’ordre médical. Portefeuilles Méthode flexible et polyvalente de recueillir des preuves de l’atteinte progressive de la compétence. Problème de mémoire Manque d’objectivité découlant d’erreurs dans la souvenance des événements, à cause de problèmes de mémoire et de la considération des choses en rétrospective, changeant peut-être la façon de voir la situation. QCM Question à choix multiples Genre d’examen écrit consistant en une question d’introduction ou tronc qui demande à l’apprenant de choisir la réponse la plus juste parmi une liste qui inclut aussi de deux à cinq autres distracteurs plausibles mais incorrects. QJE Question à jumelage étendu Genre d’examen écrit dans lequel les apprenants reçoivent une liste de dix à vingt éléments et sont appelés à les jumeler à une série de réponses correspondantes. Un élément peut être jumelé à plus d’une réponse. QRC Question à réponse courte Genre d’examen écrit qui comporte une brève question très ciblée, conçue pour obtenir une réponse construite fiable de l’apprenant. Les réponses consistent habituellement en quelques phrases ou mots concis. Le barème de correction est conçu pour anticiper toutes les réponses correctes possibles. Réalisme Degré de fidélité ou d’authenticité de l’évaluation. Par exemple, la mise à l’épreuve des habiletés en sutures sur un cochon est plus réaliste que celle des habiletés en intubation chirurgicale. Introduction aux méthodes d’évaluation des compétences CanMEDS 105 Acronyme Terme Registre Description Instrument structuré pour documenter qu’une activité d’apprentissage a eu lieu. Réponses construites Genre d’examen écrit qui demande aux apprenants de formuler leurs réponses plutôt que de choisir les réponses correctes dans une liste d’options fournies. RSM Rétroaction de sources Méthode qui se sert d’instruments multiples alias spécifiques conçus pour recueillir des Rétroaction à 360° données au sujet de comportements en particulier ou de constructs professionnels (p. ex., professionnalisme et habiletés en communication) chez l’apprenant. Une autoévaluation en fait aussi souvent partie. Les questionnaires peuvent être les mêmes ou différents selon le groupe d’évaluateurs. La rétroaction est rassemblée et présentée selon le groupe de provenance. On peut utiliser la RSM pour des évaluations formatives et sommatives et identifier les apprenants en difficulté. Simulation Reproduction artificielle d’un environnement ou de circonstances cliniques dans le but de permettre à un apprenant d’effectuer une tâche précise d’une manière contrôlée qui ne présente aucun risque pour les patients. CUSUM Somme cumulative Technique statistique qui permet la mesure des progrès vers la maîtrise des habiletés en techniques d’intervention en intégrant des composantes comme les événements indésirables et la fréquence de la répétition. Vrai ou faux Examen dans lequel les apprenants sont appelés à se prononcer à savoir si un énoncé est vrai ou faux. 106 Le guide des outils d’évaluation CanMEDS