Approche globale et harmonisée de la validation
Transcription
Approche globale et harmonisée de la validation
LABORATOIRE PRATIQUE Max FEINBERG* Approche globale et harmonisée de la validation RÉSUMÉ Le but de cette communication est de montrer comment deux exigences fondamentales de la norme ISO 17025, à savoir la validation des méthodes et l’estimation de l’incertitude, peuvent se rejoindre pour élaborer une procédure servant à vérifier si une méthode est bien adaptée à ses objectifs. Cette approche nouvelle, appelée profil d’exactitude, a été appliquée à une méthode HPLC-fluorimétrie de détermination de la vitamine B3 dans le lait. Les concentrations sont exprimées en mg/L et la réponse instrumentale en hauteur de pic. Le plan d’expérience d’étalonnage consistait à préparer en triple des solutions étalons à 3 niveaux de concentration et à les répéter sur 3 jours. Le plan d’expérience de validation avait la même structure mais a été réalisé par ajouts dosés dans 2 laits différents. MOTS-CLÉS Validation de méthode, profil d’exactitude, incertitude de mesure, intervalle de tolérance Global and harmonized strategy for validation SUMMARY Méthode é The goal of this communication is to describe how two fundamental requirements of ISO 17025 standard, i.e. validate methods and estimate the uncertainty of measurements, can give a way to check whether an analytical method is correctly “fit its purpose”. Both these requirements are not independent and it will be shown how they can be combined A recent approach based on the “accuracy profile” of a method was applied to the determination of vitamin B3 in milk by LC-fluorimetry and illustrates how it can be applied for validating a method. Concentrations are expressed as mg/L and instrumental response is peak height. Experimental design namely consisted in preparing triplicate standard solutions at 3 concentration levels; this was repeated during 3 days. The validation experimental design was similar but consisted of spiked samples of two different milks. KEYWORDS Method validation, accuracy profile, uncertainty of measurements, tolerance interval I - Introduction La mise en place des systèmes d’assurance qualité dans les laboratoires est d’abord passée par une étape qu’on peut qualifier de « documentaire » dans la mesure où il fallait surtout référencer les méthodes et assurer la traçabilité des résultats. Aujourd’hui, l’effort se porte plutôt vers la qualité métrologique des mesures ce qui se traduit par des exigences de validation des méthodes et d’estimation de l’incertitude accrues. De nombreux documents ont été publiés sous la forme de normes, de guides, de guidances ou même de textes réglementaires pour essayer de définir des procédures de validation et de calcul de l’incertitude. Par exemple, le contrôle des limites légales soulève la question de la prise de décision à partir d’analyses chimiques en contexte d’incertitude. Un texte officiel relativement récent, à savoir la Décision de la Commission (2002/657/EC) du 12 août 2002 « portant modalités d’application de la directive 96/23/CE du Conseil en ce qui concerne les performances des méthodes d’analyse et l’interprétation des résultats » propose certaines voies et propositions pour essayer de résoudre ces questions (1). Un grand intérêt de ce texte est de considérer la qualité des mesures, d’une part comme une obligation de moyens en rejetant des méthodes jugées impropres aux objectifs du contrôle des limites légales, d’autre part comme une obligation de résultats en fixant des critères de performance minimaux à atteindre avant d’admettre qu’une technique est effectivement utilisable. Dans le même temps, la norme ISO 17025 qui définit les exigences pour l’accréditation des laboratoires donne une place très importante à la *Met@risk. - Institut National de la Recherche Agronomique (INRA) – 16, rue Claude Bernard - 75231 Paris cedex 05 Tél. : 01 44 08 16 52 – Fax : 01 44 08 72 76 – E-Mail : [email protected] 16 SPECTRA ANALYSE n° 249 • Avril - mai 2006 Laboratoire pratique Approche globale et harmonisée de la validation validation des méthodes et l’expression de l’incertitude de mesure (2). Dans ce texte : « La validation est la confirmation par examen et l’apport de preuves effectives du fait que les prescriptions particulières en vue d’une utilisation prévue déterminée sont remplies » et, en ce qui concerne l’estimation de l’incertitude de mesure, « Les laboratoires d’essais doivent aussi posséder et appliquer des procédures pour estimer l’incertitude de mesure ». Si on essaie de combiner ces diverses exigences – l’approche critères, l’estimation de l’incertitude de mesure et la définition de la validation – il semble assez naturel de proposer une approche globale qui permette de valider une méthode, en s’appuyant sur ses critères de performance propres à son contexte d’application et d’en déduire une procédure pour estimer l’incertitude de mesure. Le but de cette publication est de montrer comment des exigences permettent de proposer une stratégie générale pour démontrer qu’une méthode est effectivement adaptée (ou non) à son objectif. II - Incertitude de mesure et validation de la méthode Pour faciliter la présentation, nous allons illustrer sous une forme graphique quelques quiproquos classiques à propos du concept d’incertitude. Pour cela, les mesures analytiques sont représentées à la Figure 1 sous la forme de tirs sur cible. La partie gauche montre comment le résultat final Y, qui figure dans le rapport d’analyse, est assimilé au centre de gravité du nuage de points formé par les 5 répétitions. La valeur vraie T de l’échantillon est représentée par le point noir. La valeur vraie est plus ou moins bien connue : si l’échantillon est un matériau de référence ou si on a fait un ajout dosé, on la connaît bien. Cependant, elle est toujours entachée d’une incertitude due, par exemple, au faible taux de pureté de l’étalon ayant servi à l’ajout. À l’évidence ce mode de représentation est faux ; les mesures ne sont sûrement pas collectées en 2 dimensions ; la valeur vraie est une approximation. Mais il va nous servir à illustrer comment organiser une procédure de validation cohérente. Si on projette ces « points d’impact » sur une droite passant par le centre de gravité et la valeur vraie, on peut supposer qu’ils se distribuent normalement. Alors, le résultat final Y peut être estimé par la moyenne arithmétique de toutes les mesures. Une lecture rapide de la définition de l’incertitude de mesure, à savoir « le paramètre associé au résultat qui caractérise la dispersion des valeurs numériques et qui peut être, raisonnablement, attribuée au mesurande », peut pousser à utiliser un intervalle de dispersion (par exemple, 95% des mesures se situent entre x + 1,96 s) ou l’intervalle de confiance de la moyenne comme estimation de l’incertitude. Aucune de ces statistiques ne peut être utilisée car aucune ne prend en compte les sources d’erreur et, en particulier, le biais qui est illustré par la dis- Valeur rapportée Y y= Valeur vraie T + Y T ∑y s= sy = i n ∑(y i − y)2 n −1 s n + Mesurande y 95% des répétitions Intervalle de confiance à 95% [y ± 1,.96s ] [y ± t 1−α / 2 , n −1 × sy ] Figure 1 Illustration graphique de deux façons erronées d’estimer l’incertitude de mesure. Y est le résultat reporté, estimé par la moyenne arithmétique et T la valeur dite vraie. s et s-y représentent respectivement l’écart-type des répétitions et l’écart-type de la moyenne. tance entre le résultat et la valeur vraie. En fait, il faut compléter la définition de l’incertitude fournie ci-dessus en ajoutant que ce paramètre caractérise la dispersion, une fois prises en compte toutes les causes d’erreur. La méthodologie décrite dans le guide Eurachem consiste, pour chaque méthode, à organiser toutes les sources d’erreur sous la forme d’un diagramme 5M (Matière, Main d’œuvre, Matériel, Milieu, Méthode) (3). On peut proposer un diagramme universel en s’appuyant sur les souschapitres de la partie 5 de la norme ISO 17025. La Figure 2 illustre les 7 principales sources d’incertitude qu’on peut identifier. Une approche faisant appel à des plans d’expérience assez complexe a été proposée pour réaliser à meilleur coût cette étude (4) mais l’effort expérimental reste important et le coût élevé. Une démarche expérimentale assez simple consiste à réaliser des répétitions sur un même échantillon 5.2. Personnel 5.3. Installations et conditions ambiantes Main-d’œuvre Milieu 5.4. Méthodes d'essai et d'étalonnage Méthode Résultat + Incertitude 5.6. Traçabilité du mesurage 5.8. Manutention et transport des objets d'essai et d'étalonnage Moyen 5.5. Équipement 5.7. Échantillonnage Matière d’après C. Ranson Figure 2 Diagramme 5 M (Matière, Main d’œuvre, Matériel, Milieu, Méthode) applicable à , toutes les mesures analytiques et utilisable pour répertorier les sources d’incertitude sur la base sur les chapitres de la partie 5 de la norme ISO 17025. SPECTRA ANALYSE n° 249 • Avril - mai 2006 17 LABORATOIRE PRATIQUE mais réparties sur plusieurs jours : c’est-à-dire en condition de fidélité intermédiaire selon la terminologie de la norme ISO 5725 (5). En changeant de jour, on a fait varier l’opérateur, le système de mesure, l’étalonnage, les réactifs… La Figure 3 illustre cette approche ; Bi représente l’erreur systématique ou biais de la méthode qui varie chaque jour. On va alors calculer la moyenne générale de toutes les mesures (qui diffère de la valeur vraie d’un biais moyen) puis l’écart-type de fidélité intermédiaire sFI comme l’indique Eq.1. sFIFI = s B2 + s r2 Eq.1 Où sB2 représente la variance du biais dû à l’effet « jour » et sr2 la variance de répétabilité. Si on revient à la définition de l’incertitude de mesure, il apparaît alors que sFI représente la majeure partie de l’incertitude-type, sinon sa totalité ; manquent les sources d’incertitude dues à l’échantillonnage et à la pureté des étalons. Jour 1 y1 + B1 y2 + B1 yij B2 B3 + y3 Jour 1 III - Principe de la méthode du profil d’exactitude B2 Jour 2 Jour 3 B3 Jour 2 Jour 3 Figure 3 Illustration schématique d’un plan d’expérience, réalisé sur 3 jours, permettant une estimation simultanée de plusieurs sources d’incertitude, comme les réactifs, l’étalonnage et réglage de l’instrument de mesure, la conservation de l’échantillon ou l’expertise des opérateurs… On dispose maintenant d’une approche expérimentale simple pour estimer l’incertitude : il est intéressant de voir comment considérer la validation par rapport à l’incertitude. On met ainsi en évidence le principal écueil des procédures de validation classiquement publiées à ce jour par des organismes de normalisation ou dans des journaux scientifiques et dont une revue très exhaustive est disponible dans la publication correspondant à la référence (6). Il provient de ce que les méthodes qui possèdent une petite incertitude sont plus difficiles à valider que celles qui ont une incertitude élevée : on est déjà dans la situation paradoxale et frustrante pour l’analyste où une méthode ayant une meilleure qualité métrologique est jugée comme non valide. Ceci peut facilement être expliqué car la grande majorité des procédures de validation consiste à tester ce qu’on appelle l’hypothèse nulle en véri18 SPECTRA ANALYSE n° 249 • Avril - mai 2006 fiant si le critère de validation choisi (par exemple, la reproductibilité ou le biais moyen) n’est pas statistiquement différent d’une valeur de référence choisie. Par construction du test statistique, plus l’écart-type de la méthode à valider est élevé et plus il est facile de montrer que le critère calculé ne diffère « statistiquement » pas de la valeur de référence. Sur la Figure 4, les deux méthodes fournissent exactement le même résultat Y mais n’ont pas la même incertitude, symbolisée par un cercle pointillé. La figure illustre comment la seule prise en compte de l’incertitude mène à conclure que la méthode A n’est pas valide car elle fournit un résultat statistiquement différent de la valeur cible ; alors que B serait valide puisque la valeur cible est à l’intérieur du cercle d’incertitude : une telle conclusion est choquante pour les analystes qui déploient des efforts pour réduire en permanence l’incertitude de leurs méthodes. C’est cette mauvaise stratégie d’interprétation qu’on retrouve dans la grande majorité des procédures de validation publiées et qui est à l’origine des déconvenues de bien des analystes qui essaient d’améliorer les techniques d’analyse. Si on revient à la définition fournie par la norme ISO 17025 il apparaît qu’il est impératif de confronter la méthode à son objectif pour décider de sa validité : la validation ne peut pas être une simple caractérisation de la méthode à l’aide d’une liste plus ou moins longue de caractéristiques statistiques. Ainsi, dire qu’un coefficient de variation de la répétabilité est de 5% ne signifie pas qu’une méthode est valide. Un objectif évident pour une méthode est qu’elle soit susceptible de fournir un résultat aussi exact que possible pour chaque échantillon inconnu à venir. Traduire cet objectif en termes statistiques, signifie que l’analyste veut connaître la probabilité selon laquelle la différence entre la valeur rapportée Y et la valeur de référence T reste inférieure à une limite d’acceptation (ou un pourcentage) fixée à l’avance et, si possible mais non nécessairement, que cette différence soit petite. Cet objectif peut alors être représenté par l’Eq.2, dans laquelle λ représente la limite d’acceptation et β la probabilité considérée acceptable (par exemple 95%) que l’erreur sur les futures mesures réalisées, une fois la méthode validée, se situent en dessous de la limite d’acceptation fixée. Pr( Y − T < λ) ≥ β Eq.2 Le choix de la valeur de λ dépend largement du contexte d’application mais peut être, par exemple, la valeur d’un critère de performance exigée par la réglementation : par exemple, la valeur vraie de l’échantillon doit être connue à ± 10%. Laboratoire pratique Approche globale et harmonisée de la validation Méthode A (valide) Petite incertitude + Méthode B (non valide) Valeur vraie Grande incertitude + Limite d’acceptation Valeur vraie Limite d’acceptation Figure 4 Illustration de la relation entre incertitude et validation. La limite d’acceptation représente ce qui est défini comme « l’emploi prévu » de la méthode. Les deux méthodes A et B fournissent la même valeur rapportée mais n’ont pas la même incertitude. Si elle est trop élevée la probabilité d’avoir des mesures en-dehors de la limite d’acceptation devient trop grande et on doit rejeter la méthode. La Figure 4 montre comment l’ajout du « cercle » d’acceptation permet de conclure que la méthode A est valide alors que B ne l’est pas. La limite d’acceptation permet de montrer qu’on a plus de chances de produire des résultats non-conformes et trop éloignés de la valeur T avec la méthode B et que la méthode A réduit cette probabilité. Une solution possible pour calculer l’intervalle autour de Y correspondant à la probabilité β est basée sur le concept d’intervalle de tolérance β (7). Le principe de la méthode du profil d’exactitude consiste à utiliser des critères de validation (justesse, répétabilité,..) mesurés en condition de fidélité intermédiaire pour obtenir les limites des intervalles de tolérance β. Cependant, pour couvrir l’ensemble du domaine de validation de la méthode, il est indispensable de faire ces calculs à plusieurs niveaux de concentration. Pour faciliter l’illustration graphique tous les résultats sont exprimés en %. Plus de détails sur cette démarche nouvelle sont disponibles dans la publication correspondant à la référence (6). C’est pourquoi, nous ne présenterons ici qu’une application de la méthode à la validation d’une méthode de détermination de la vitamine B3 dans les laits, applicable au contrôle de la supplémentation ou de la qualité nutritionnelle. IV - Détermination de la vitamine B3 dans le lait 1. Méthode et contexte d’application La détermination de la vitamine B3 (aussi appelée vitamine PP ou niacine) dans les aliments requiert la mesure de deux formes chimiques : l’acide nicotinique et le nicotinamide. La concentration totale est alors exprimée en faisant la somme des 2 valeurs obtenues. L’étude présentée ici porte sur le lait dont les teneurs varient entre 0,6 et 1,0 mg/L selon l’origine du produit. Du fait des traitements thermiques ou des autorisations de supplémentation accordées, les produits du marché se situent plutôt entre 0,4 et 2,0 mg/L. Afin de couvrir un domaine d’application raisonnable, la validation a été étendue entre 0,2 et 4,0 mg/L. La méthode officielle de dosage repose sur une technique microbiologique délicate et d’incertitude élevée. Le but de cette validation est de vérifier si une méthode HPLC (8) est acceptable comme méthode alternative. Les limites d’acceptabilité ont été fixées à ± 25% et se situent bien en deçà des performances de la méthode de référence qui sont aux alentours de ± 40 %. La méthode HPLC consiste en une extraction de l’acide nicotinique et du nicotinamide par une hydrolyse en milieu HCl 0,1 M à 100 °C pendant 1 h, suivie d’une élution sur colonne Lichrospher 60 RP Select B (5 μm, diamètre 4 mm, longueur 250 mm) par un tampon phosphate 0,07 mol/L contenant du peroxyde d’hydrogène 0,075 mol/L et du sulfate de cuivre 5.10-6 mol/L. Une dérivation photochimique post-colonne est réalisée à l’aide d’une lampe UV, éliminant la raie d’absorption à 254 nm, et permet d’obtenir des dérivés détectables par spectrofluorimétrie à 380 nm après excitation à 322 nm. La quantification des deux espèces chimiques est obtenue par étalonnage externe en utilisant des molécules d’une pureté supérieure à 95%. En fonction des objectifs fixés (domaine de concentration et limite d’acceptation) la validation du dosage du nicotinamide n’a présenté aucun problème. Nous ne présenterons ici que les résultats se rapportant à la validation du dosage de l’acide nicotinique pour lequel on observe un effet de matrice tout à fait significatif. 2. Plans d’expérience Deux plans d’expériences sont nécessaires, l’un dit d’étalonnage (PE) sert à calculer la fonction de réponse de la méthode, l’autre dit de validation (PV) sert à calculer les caractéristiques de validation. La même structure de plan a été choisie pour l’étalonnage et la validation : 27 essais réalisés à 3 niveaux de concentration, sur 3 jours avec 3 répétitions (3×3×3). Ce choix est motivé, d’une part, par un nombre total d’essais économiquement acceptable, d’autre part, par le mode opératoire de la méthode qui préconise 3 niveaux de concentration au minimum pour l’étalonnage. Étant donné qu’il n’existe pas de matériau de référence adapté à ce type de détermination, il a été décidé de faire des ajouts dosés sur 2 échantillons de lait du commerce. Le même plan d’expérience de 27 essais a été utilisé pour ces séries d’ajouts mais et il aurait été tout à fait possible d’utiliser un plan différent. Cependant, les essais de validation doivent être effectués les mêmes jours que ceux d’étalonnage afin d’utiliser les fonctions d’étalonnage correspondantes. SPECTRA ANALYSE n° 249 • Avril - mai 2006 19 LABORATOIRE PRATIQUE 300 Étalon 1 Étalon 2 Étalon 3 Lait A1 Lait A2 Lait A3 Lait B1 Lait B2 Lait B3 Hauteur (UA) 250 200 les données de validation 2 pour la matrice Lait B. Des droites de régression ont été ajustées aux données d’étalonnage pour illustrer la variabilité de la sensibilité de la méthode d’un jour à l’autre, d’où l’importance de conduire la validation sur plusieurs jours et de collecter donnés d’étalonnage et de validation les mêmes jours. Par ailleurs, on peut déjà voir un effet de matrice puisque environ la moitié seulement de l’acide nicotinique ajouté est retrouvée ; les mêmes mesures pour le nicotinamide ne montraient aucun effet de matrice. Étalonnage Validation 1 Validation 2 150 100 50 3. Profil d’exactitude à partir des données brutes 0 0.0 , 0.5 , 1.0 , 1.5 , 2.0 , 2.5 , 3.0 , 3.5 , 4.0 , Ces données sont utilisées pour construire un profil d’exactitude en 4 étapes : Étape 1. Étalonnage. Pour chaque jour (ou série), calculer la fonction de réponse à partir des données du PE, en utilisant un même modèle théorique. Dans ce cas, le meilleur modèle est une droite de la forme Y = a0 +a1X où Y est la réponse instrumentale et X la concentration. On obtient ainsi 3 modèles. Étape 2. Prédictions inverses. Calculer les concentrations prédites inverses à partir des données du PV pour le lait A. Appliquer la formule Eq.3 en respectant le jour où les données de validation ont été collectées. 4.5 , Concentration (mg/L) Figure 5 Données d’étalonnage et validation reportées sur le même graphique. Les données de validation correspondent à des ajouts dosés d’acide nicotinique effectués avant préparation de l’échantillon Tableau I Critères de validation calculés à partir des concentrations prédites inverses, avant et après correction. La Figure 5 illustre, l’ensemble des données expérimentales, regroupées en 3 jeux de 27 données i) les solutions d’étalonnage obtenues par mise en solution de l’acide nicotinique pur dans de l’eau distillée ; ii) les données de validation 1 qui correspondent aux ajouts dosés dans la matrice Lait A et iii) Critères X = Unité Moyenne théorique (niveau d’ajout) Y − a0 a1 Niveau 1 Niveau 2 Eq.3 Niveau 3 mg/L 0,2 2,0 4,0 Moyenne retrouvée mg/L 0,1018 1,0792 2,0732 Biais absolu moyen mg/L -0,0982 -0,9208 -1,9268 Écart-type répétabilité mg/L 0,0082 0,0665 0,0905 Écart-type fidélité intermédiaire mg/L 0,0082 0,0665 0,1044 Limite inférieure de l’intervalle de tolérance mg/L 0,0814 0,9134 1,7974 Limite supérieure de l’intervalle de tolérance mg/L 0,1222 1,2451 2,3491 Biais relatif moyen % -49,09% -46,04% -48,17% Limite inférieure de l’intervalle de tolérance relative % -59,28% -54,33% -55,07% Limite supérieure de l’intervalle de tolérance relative % -38,89% -37,75% -41,27% Incertitude élargie relative % 16,07% 12,33% 10,07% Recouvrement % 50,9% 54,0% 51,8% Moyenne retrouvée mg/L 0,20732 2,05237 4,13835 Biais relatif moyen % 3,66% 2,62% 3,46% Limite inférieure de l’intervalle de tolérance relative % -16,45% -5,76% -3,99% Limite supérieure de l’intervalle de tolérance relative % 23,77% 10,99% 10,91% Incertitude élargie relative % 15,57% 6,22% 5,78% Avant correction Après correction 20 SPECTRA ANALYSE n° 249 • Avril - mai 2006 Laboratoire pratique Approche globale et harmonisée de la validation A) a) 30.% 20.% Limites d’acceptation ±25% 10.% Biais (%) 0.% -10.% 0.0 , 1.0 , 2.0 , 3.0 , 4.0 , -20.% Figure 6 -30.% Limites de tolérance β Illustration du profil d’exactitude pour la détermination de la vitamine B3 dans le lait par HPLC. Les caractéristiques de la méthode sont calculées pour 3 niveaux d’ajout (0,2, 2,0 et 4,0). Les lignes en points-pointillés indiquent les limites d’acceptation, les lignes en pointillés les limites de tolérance β, et les barres d’erreur l’incertitude élargie à 95%. A) Profil des données brutes. B) Profil des données corrigées. -40.% -50.% -60.% Concentration -70.% B) b) Limite de quantification 30.% 20.% Profil d’exactitude Biais (%) 10.% 0.% 0 0.5 , 1 1.5 , 2 2.5 , 3 3.5 , 4 -10.% Incertitude élargie -20.% -30.% Limites d’acceptabilité ±25% Étape 3. Intervalles de tolérance. À partir des concentrations prédites inverses (obtenues à l’étape 3) calculer, pour chaque niveau d’ajouts, les écarts-types de fidélité intermédiaire selon la méthode de la norme ISO 5725. Calculer les intervalles de tolérance β à 95%. Dans l’exemple, le nombre de données disponibles pour calculer un écart-type de fidélité intermédiaire est 9 réparties en 3 répétitions pour 3 jours. Étape 4. Justesse. À partir des concentrations prédites inverses et pour chaque niveau d’ajout, calculer la concentration moyenne retrouvée et le biais en lui soustrayant la concentration théorique de l’ajout. Puis, ces divers critères de validation sont regroupés au Tableau I mais, afin d’avoir une représentation graphique plus facile à interpréter, ils sont Concentration tous exprimés en valeurs relatives rapportées à la concentration théorique de chaque ajout. On obtient ainsi la Figure 6A dans laquelle l’axe horizontal représente les concentrations allant de 0,2 à 4,0 mg/L et l’axe vertical le biais relatif. Des lignes continues relient les concentrations moyennes retrouvées et traduisent le manque de justesse (biais) de la méthode. Les lignes en pointillés délimitent l’intervalle de tolérance et les lignes en points-pointillés la limite d’acceptation à ± 25%. Sur ce graphique, on voit très facilement que l’intervalle de tolérance n’est pas compris entre les limites d’acceptation : la méthode n’est donc pas valide et ne convient pas à l’objectif fixé. On peut facilement trouver une explication à ce résultat en considérant le taux de recouvrement qui est aussi fourni par le Tableau I. Il se situe aux alentours de 50% et traduit un effet de SPECTRA ANALYSE n° 249 • Avril - mai 2006 21 LABORATOIRE PRATIQUE matrice significatif qui a pour conséquence de réduire de près de la moitié le signal observé lors des mesures sur les solutions de validation. 4. Profil d’exactitude à partir des données corrigées Figure 7 Calcul du facteur de correction à partir des concentrations retrouvées [Retrouvée] en fonction des concentrations ajoutées [Ajoutée]. Cet effet n’existant pas pour le nicotinamide, aucune explication satisfaisante ne permet de proposer un protocole d’extraction qui réduirait ce biais systématique. On peut utiliser une méthode très classiquement appliquée pour les mesures physiques qui consiste à corriger les données à l’aide d’un facteur de correction. De nombreuses publications et guidances traitent de la prise en compte du taux de recouvrement dans l’expression du résultat et l’IUPAC (International Union for Pure and Applied Chemistry) a publié un guide à ce propos (9). Pour calculer le facteur de correction, on reporte sur un graphique les deux variables concentration retrouvée, notée [Retrouvée], et concentration théorique ajoutée, notée [Ajoutée]. La Figure 7 illustre le très bon ajustement linéaire de ces deux variables. Les concentrations retrouvées sont strictement proportionnelles aux concentrations théoriques ajoutées et la droite qui les relie est égale à [Retrouvée] = 0,518[Ajoutée] + 0,018. La pente de cette droite représente le taux moyen de recouvrement et le facteur de correction proposé est égal à l’inverse de cette pente, à savoir 1/0,518 = 1,930. Comme ce facteur devra être appliqué systématiquement en routine, on a décidé de prendre la valeur approchée de 2,0 pour corriger les réponses obtenues sur les données de validation 2 relatives au lait B. Tous les calculs sont refaits comme précédemment décrit et les résultats utiles à la production du profil d’exactitude sont reportés dans le bas du Tableau I. La Figure 6B illustre le nouveau profil et il devient évident que la méthode est valide puisque l’ensemble de l’intervalle de tolérance entre 0,2 et 4,0 mg/L est inclus dans les limites d’acceptation. Si on observe la forme de l’intervalle de tolérance avant et après correction, on remarque qu’il a tendance à s’élargir. Ce comportement est explicable par l’application du facteur de correction dont l’incertitude est venue s’ajouter à celles des mesures initiales. Cette remarque est en accord avec la théorie de la propagation des erreurs qui est à la base du calcul de l’incertitude : l’application d’un facteur de correction dégrade la qualité des mesures, même si la méthode reste valide. Il est évident qu’un facteur trop élevé pourrait invalider la méthode ce qui représente une limite importante à cette technique de correction. L’IUPAC définît la limite de quantification (LQ) comme la plus petite (et par extension la plus grande) concentration ou masse qui peut être quantifiée avec un niveau de garantie connue. À partir du profil d’exactitude, il est possible de proposer une méthode expérimentale de calcul des LQ. En effet, une approche simple qui consiste à repérer la concentration la plus basse (ou la plus haute) à partir de laquelle la méthode n’est plus 4.5 , , , [Retrouvée] = 0.518[Ajoutée] + 0.018 , , Facteur de correction = 1/0.518 ≈ 2.0 Concentration retrouvée , 3.5 , 2.5 , 1.5 0.5 , , -0.5 , -0.5 0.5 , 1.5 , 2.5 , Concentration ajoutée 22 SPECTRA ANALYSE n° 249 • Avril - mai 2006 3.5 , 4.5 , Laboratoire pratique Approche globale et harmonisée de la validation valide. Dans l’exemple traité, en deçà de 0,2 mg/L on ne peut pas dire si la méthode est valide ; la LQ est donc de 0,2 mg/L. Cependant, dans d’autres applications, il arrive que les limites de l’intervalle de tolérance coupent les limites d’acceptation : la concentration correspondante peut alors être définie comme une LQ. Au cours du processus de validation, on a pris comme décision de corriger les données en les multipliant pas un facteur égal à 2,0. Cette opération doit maintenant faire partie de la méthode et être intégrée au mode opératoire standardisé qui servira en routine. De même on a pu calculer l’incertitude élargie à 95% en fonction de la concentration. V - Conclusions La démarche de validation présentée ici a été développée par une commission SFSTP (6) et connaît déjà un grand nombre d’applications qui permettent de tirer quelques enseignements. 1. D’une façon très globale, cette nouvelle démarche suit très exactement la définition de la validation de la norme ISO 17025. En effet, il faut 1) définir les objectifs à atteindre en termes de limites d’acceptation, 2) collecter les preuves effectives grâce à un plan d’expériences et finalement 3) les examiner statistiquement et graphiquement pour confirmer ou infirmer la validité. 2. Le mode de calcul du profil, niveau par niveau, permet de couvrir une très large gamme dynamique de concentrations. On peut alors valider des méthodes dont les variances ne sont pas homogènes en fonction du niveau de concentration alors que c’est impossible avec les protocoles classiques. 3. Il n’y a pas de limitation de modèles d’étalonnage : même un modèle non linéaire, comme une courbe logistique, est applicable. L’hypothèse de linéarité de la fonction d’étalonnage est totalement abandonnée. 4. La démarche est globale et règle enfin les conflits entre la justesse et la fidélité. Les approches classiques de validation les traitant séparément, on débouche parfois sur des conclusions ambiguës si seulement l’un des deux critères est satisfaisant. La méthode du profil d’exactitude permet de représenter simultanément, sur un même graphique, ces deux critères (ou des combinaisons de ces critères). 5. Dans l’exemple présenté, on a vu qu’il était possible de calculer un facteur de correction. La question de savoir s’il faut ou non corriger les mesures suscite de nombreux débats, surtout dans le domaine de l’analyse environnementale. La réponse apportée par le profil d’exactitude est sans ambiguïté : le taux de recouvrement peut et doit être pris en compte. En dépit des nombreuses réponses pratiques qu’apporte le profil d’exactitude, certaines questions restent en suspens. Par exemple, s’applique- t-il aux comptages microbiologiques très répandus en biologie ? Par ailleurs, une exigence classique pour les laboratoires accrédités est de valider une méthode alternative par rapport à une méthode dite de « référence ». Dans ce cas, les calculs devront-ils prendre en compte le fait que la valeur théorique est connue avec une incertitude ? Il est donc nécessaire de réaliser un certain nombre d’applications complémentaires pour mieux affirmer l’« universalité » du profil d’exactitude. Pour conclure, il faut aussi rappeler que la validation doit toujours intervenir après le développement de la méthode. Essayer de conduire les essais avec une méthode encore mal connue, risque d’entraîner de sérieuses déconvenues ; comme de conclure à son inefficacité alors que c’est une bonne méthode. Dans cette publication, la façon de présenter l’exemple semble en contradiction avec cette affirmation forte car on a l’impression qu’on « découvre » un effet de matrice. Si ce choix a été fait, c’est pour gagner en pédagogie car l’effet de matrice avait déjà été mis en évidence lors du développement. C’est d’ailleurs la raison pour laquelle deux séries d’ajouts ont été réalisées sur deux laits différents ; on a ainsi calculé le coefficient de correction sur le lait A avant de le « valider » avec l’autre échantillon. Sinon ce surplus de mesures représenterait un travail superflu et inutile en l’absence d’effet de matrice. BIBLIOGRAPHIE (1) Commission Decision 2002/657/EC, Official Journal of the European Communities 17.8.2002, L 221/8. (2) NF EN ISO 17025 (2005) Prescriptions générales concernant la compétence des laboratoires d’étalonnage et d’essais, ISO, Genève. (3)Version française www.lne.fr/publications/eurachem_guide_incertitude_fr.pdf (4) S. KUTTATHARMAKUL, DL MASSART, J. SMEYERSVERBEKE J, Comparison of alternative measurement methods: determination of the minimal number of measurements required for the evaluation of the bias by means of internal hypothesis testing, Chemometrics and Intelligent Laboratory Systems, 2000, 52, 61-73. (5) NF ISO 5725:1996. Exactitude (justesse et fidélité) des résultats et méthodes de mesure. Partie 3 : Mesures intermédiaires de fidélité pour une méthode de mesure, Association Frnaçaise de Normalisation, Paris La Défense. (6) P. HUBERT , JJ NGUYENHUU, B. BOULANGER, E. CHAPUZET, P. CHIAP, N. COHEN N, PA COMPAGNON, W. DEWÉ, M. FEINBERG, M. LALLIER, M. LAURENTIE, N. MERCIER, G. MUZARD, C. NIVET, L. VALAT, Validation des procédures analytiques quantitatives. Harmonisation des démarches, STP Pharma Pratiques, 2003, 13, 101-138. (7) RW MEE, β -Expectation and β -Content Tolerance Limits for Balanced One-Way ANOVA RandomModel’s, Technometrics, 26, 251–254. (8) S. LAHELY, M. BERGANTZLE, C. HASSELMANN., Fluorimetric determination of niacin in foods by high-performance liquid chromatography with post-column derivatization, Food Chem., 1999, 65, 129-133. (9) M. THOMPSON, SLR ELLISON, & R. WOOD, Harmonized guidelines for single-. laboratory validation of methods of analysis, Pure Appl. Chem., 2002, 74, 835-855. SPECTRA ANALYSE n° 249 • Avril - mai 2006 23