Approche globale et harmonisée de la validation

Transcription

Approche globale et harmonisée de la validation
LABORATOIRE PRATIQUE
Max FEINBERG*
Approche globale et harmonisée
de la validation
RÉSUMÉ
Le but de cette communication est de montrer comment deux exigences fondamentales de la norme
ISO 17025, à savoir la validation des méthodes et l’estimation de l’incertitude, peuvent se rejoindre pour
élaborer une procédure servant à vérifier si une méthode est bien adaptée à ses objectifs. Cette approche
nouvelle, appelée profil d’exactitude, a été appliquée à une méthode HPLC-fluorimétrie de détermination
de la vitamine B3 dans le lait.
Les concentrations sont exprimées en mg/L et la réponse instrumentale en hauteur de pic.
Le plan d’expérience d’étalonnage consistait à préparer en triple des solutions étalons à 3 niveaux
de concentration et à les répéter sur 3 jours. Le plan d’expérience de validation avait la même structure
mais a été réalisé par ajouts dosés dans 2 laits différents.
MOTS-CLÉS
Validation de méthode, profil d’exactitude, incertitude de mesure, intervalle de tolérance
Global and harmonized strategy for validation
SUMMARY
Méthode
é
The goal of this communication is to describe how two fundamental requirements of ISO 17025 standard, i.e.
validate methods and estimate the uncertainty of measurements, can give a way to check whether an analytical
method is correctly “fit its purpose”. Both these requirements are not independent and it will be shown how they
can be combined
A recent approach based on the “accuracy profile” of a method was applied to the determination of vitamin
B3 in milk by LC-fluorimetry and illustrates how it can be applied for validating a method. Concentrations
are expressed as mg/L and instrumental response is peak height. Experimental design namely consisted in
preparing triplicate standard solutions at 3 concentration levels; this was repeated during 3 days. The validation
experimental design was similar but consisted of spiked samples of two different milks.
KEYWORDS
Method validation, accuracy profile, uncertainty of measurements, tolerance interval
I - Introduction
La mise en place des systèmes d’assurance qualité
dans les laboratoires est d’abord passée par une
étape qu’on peut qualifier de « documentaire »
dans la mesure où il fallait surtout référencer les
méthodes et assurer la traçabilité des résultats.
Aujourd’hui, l’effort se porte plutôt vers la qualité
métrologique des mesures ce qui se traduit par des
exigences de validation des méthodes et d’estimation de l’incertitude accrues. De nombreux documents ont été publiés sous la forme de normes,
de guides, de guidances ou même de textes réglementaires pour essayer de définir des procédures
de validation et de calcul de l’incertitude.
Par exemple, le contrôle des limites légales soulève
la question de la prise de décision à partir d’analyses chimiques en contexte d’incertitude. Un texte
officiel relativement récent, à savoir la Décision de
la Commission (2002/657/EC) du 12 août 2002
« portant modalités d’application de la directive
96/23/CE du Conseil en ce qui concerne les performances des méthodes d’analyse et l’interprétation
des résultats » propose certaines voies et propositions pour essayer de résoudre ces questions (1).
Un grand intérêt de ce texte est de considérer la
qualité des mesures, d’une part comme une obligation de moyens en rejetant des méthodes jugées
impropres aux objectifs du contrôle des limites
légales, d’autre part comme une obligation de résultats en fixant des critères de performance minimaux à atteindre avant d’admettre qu’une technique est effectivement utilisable.
Dans le même temps, la norme ISO 17025 qui
définit les exigences pour l’accréditation des
laboratoires donne une place très importante à la
*Met@risk. - Institut National de la Recherche Agronomique (INRA) – 16, rue Claude Bernard - 75231 Paris cedex 05
Tél. : 01 44 08 16 52 – Fax : 01 44 08 72 76 – E-Mail : [email protected]
16
SPECTRA ANALYSE n° 249 • Avril - mai 2006
Laboratoire pratique
Approche globale et harmonisée de la validation
validation des méthodes et l’expression de l’incertitude de mesure (2). Dans ce texte : « La validation est la confirmation par examen et l’apport de
preuves effectives du fait que les prescriptions particulières en vue d’une utilisation prévue déterminée
sont remplies » et, en ce qui concerne l’estimation
de l’incertitude de mesure, « Les laboratoires d’essais doivent aussi posséder et appliquer des procédures pour estimer l’incertitude de mesure ».
Si on essaie de combiner ces diverses exigences –
l’approche critères, l’estimation de l’incertitude de
mesure et la définition de la validation – il semble
assez naturel de proposer une approche globale qui
permette de valider une méthode, en s’appuyant
sur ses critères de performance propres à son contexte d’application et d’en déduire une procédure
pour estimer l’incertitude de mesure.
Le but de cette publication est de montrer comment des exigences permettent de proposer une
stratégie générale pour démontrer qu’une méthode
est effectivement adaptée (ou non) à son objectif.
II - Incertitude de mesure
et validation de la méthode
Pour faciliter la présentation, nous allons illustrer
sous une forme graphique quelques quiproquos
classiques à propos du concept d’incertitude. Pour
cela, les mesures analytiques sont représentées à
la Figure 1 sous la forme de tirs sur cible. La partie
gauche montre comment le résultat final Y, qui figure dans le rapport d’analyse, est assimilé au centre de gravité du nuage de points formé par les 5
répétitions. La valeur vraie T de l’échantillon est
représentée par le point noir. La valeur vraie est
plus ou moins bien connue : si l’échantillon est un
matériau de référence ou si on a fait un ajout dosé,
on la connaît bien. Cependant, elle est toujours entachée d’une incertitude due, par exemple, au faible taux de pureté de l’étalon ayant servi à l’ajout.
À l’évidence ce mode de représentation est faux ;
les mesures ne sont sûrement pas collectées en 2
dimensions ; la valeur vraie est une approximation.
Mais il va nous servir à illustrer comment organiser une procédure de validation cohérente. Si on
projette ces « points d’impact » sur une droite passant par le centre de gravité et la valeur vraie, on
peut supposer qu’ils se distribuent normalement.
Alors, le résultat final Y peut être estimé par la
moyenne arithmétique de toutes les mesures.
Une lecture rapide de la définition de l’incertitude
de mesure, à savoir « le paramètre associé au résultat qui caractérise la dispersion des valeurs numériques et qui peut être, raisonnablement, attribuée au
mesurande », peut pousser à utiliser un intervalle
de dispersion (par exemple, 95% des mesures se situent entre x + 1,96 s) ou l’intervalle de confiance
de la moyenne comme estimation de l’incertitude.
Aucune de ces statistiques ne peut être utilisée car
aucune ne prend en compte les sources d’erreur
et, en particulier, le biais qui est illustré par la dis-
Valeur rapportée Y
y=
Valeur vraie T
+
Y
T
∑y
s=
sy =
i
n
∑(y
i
− y)2
n −1
s
n
+
Mesurande
y
95% des répétitions
Intervalle de confiance à 95%
[y ± 1,.96s ]
[y ± t
1−α / 2 , n −1
× sy
]
Figure 1
Illustration graphique de deux façons erronées d’estimer l’incertitude de mesure. Y est
le résultat reporté, estimé par la moyenne arithmétique et T la valeur dite vraie. s et s-y
représentent respectivement l’écart-type des répétitions et l’écart-type de la moyenne.
tance entre le résultat et la valeur vraie. En fait, il
faut compléter la définition de l’incertitude fournie
ci-dessus en ajoutant que ce paramètre caractérise
la dispersion, une fois prises en compte toutes les
causes d’erreur. La méthodologie décrite dans le
guide Eurachem consiste, pour chaque méthode, à
organiser toutes les sources d’erreur sous la forme
d’un diagramme 5M (Matière, Main d’œuvre, Matériel, Milieu, Méthode) (3). On peut proposer un
diagramme universel en s’appuyant sur les souschapitres de la partie 5 de la norme ISO 17025. La
Figure 2 illustre les 7 principales sources d’incertitude qu’on peut identifier. Une approche faisant
appel à des plans d’expérience assez complexe a été
proposée pour réaliser à meilleur coût cette étude
(4) mais l’effort expérimental reste important et le
coût élevé.
Une démarche expérimentale assez simple consiste
à réaliser des répétitions sur un même échantillon
5.2. Personnel
5.3. Installations
et conditions
ambiantes
Main-d’œuvre
Milieu
5.4. Méthodes
d'essai et
d'étalonnage
Méthode
Résultat +
Incertitude
5.6. Traçabilité
du mesurage
5.8. Manutention et
transport des objets
d'essai et d'étalonnage
Moyen
5.5.
Équipement
5.7.
Échantillonnage
Matière
d’après C. Ranson
Figure 2
Diagramme 5 M (Matière, Main d’œuvre, Matériel,
Milieu, Méthode) applicable à
,
toutes les mesures analytiques et utilisable pour répertorier les sources d’incertitude sur
la base sur les chapitres de la partie 5 de la norme ISO 17025.
SPECTRA ANALYSE n° 249 • Avril - mai 2006
17
LABORATOIRE PRATIQUE
mais réparties sur plusieurs jours : c’est-à-dire en
condition de fidélité intermédiaire selon la terminologie de la norme ISO 5725 (5). En changeant de
jour, on a fait varier l’opérateur, le système de mesure, l’étalonnage, les réactifs… La Figure 3 illustre
cette approche ; Bi représente l’erreur systématique ou biais de la méthode qui varie chaque jour.
On va alors calculer la moyenne générale de toutes
les mesures (qui diffère de la valeur vraie d’un biais
moyen) puis l’écart-type de fidélité intermédiaire
sFI comme l’indique Eq.1.
sFIFI = s B2 + s r2
Eq.1
Où sB2 représente la variance du biais dû à l’effet
« jour » et sr2 la variance de répétabilité. Si on revient à la définition de l’incertitude de mesure, il
apparaît alors que sFI représente la majeure partie
de l’incertitude-type, sinon sa totalité ; manquent
les sources d’incertitude dues à l’échantillonnage
et à la pureté des étalons.
Jour 1
y1
+
B1
y2
+
B1
yij
B2
B3
+
y3
Jour 1
III - Principe de la méthode
du profil d’exactitude
B2
Jour 2
Jour 3
B3
Jour 2
Jour 3
Figure 3
Illustration schématique d’un plan d’expérience, réalisé sur 3 jours, permettant
une estimation simultanée de plusieurs sources d’incertitude, comme les réactifs,
l’étalonnage et réglage de l’instrument de mesure, la conservation de l’échantillon ou
l’expertise des opérateurs…
On dispose maintenant d’une approche expérimentale simple pour estimer l’incertitude : il est
intéressant de voir comment considérer la validation par rapport à l’incertitude. On met ainsi en
évidence le principal écueil des procédures de validation classiquement publiées à ce jour par des organismes de normalisation ou dans des journaux
scientifiques et dont une revue très exhaustive est
disponible dans la publication correspondant à la
référence (6). Il provient de ce que les méthodes
qui possèdent une petite incertitude sont plus difficiles à valider que celles qui ont une incertitude
élevée : on est déjà dans la situation paradoxale et
frustrante pour l’analyste où une méthode ayant
une meilleure qualité métrologique est jugée comme non valide.
Ceci peut facilement être expliqué car la grande
majorité des procédures de validation consiste à
tester ce qu’on appelle l’hypothèse nulle en véri18
SPECTRA ANALYSE n° 249 • Avril - mai 2006
fiant si le critère de validation choisi (par exemple, la reproductibilité ou le biais moyen) n’est pas
statistiquement différent d’une valeur de référence
choisie. Par construction du test statistique, plus
l’écart-type de la méthode à valider est élevé et
plus il est facile de montrer que le critère calculé
ne diffère « statistiquement » pas de la valeur de
référence. Sur la Figure 4, les deux méthodes fournissent exactement le même résultat Y mais n’ont
pas la même incertitude, symbolisée par un cercle pointillé. La figure illustre comment la seule
prise en compte de l’incertitude mène à conclure
que la méthode A n’est pas valide car elle fournit
un résultat statistiquement différent de la valeur
cible ; alors que B serait valide puisque la valeur
cible est à l’intérieur du cercle d’incertitude : une
telle conclusion est choquante pour les analystes
qui déploient des efforts pour réduire en permanence l’incertitude de leurs méthodes. C’est cette
mauvaise stratégie d’interprétation qu’on retrouve
dans la grande majorité des procédures de validation publiées et qui est à l’origine des déconvenues
de bien des analystes qui essaient d’améliorer les
techniques d’analyse.
Si on revient à la définition fournie par la norme
ISO 17025 il apparaît qu’il est impératif de confronter la méthode à son objectif pour décider
de sa validité : la validation ne peut pas être une
simple caractérisation de la méthode à l’aide d’une
liste plus ou moins longue de caractéristiques statistiques. Ainsi, dire qu’un coefficient de variation
de la répétabilité est de 5% ne signifie pas qu’une
méthode est valide.
Un objectif évident pour une méthode est qu’elle
soit susceptible de fournir un résultat aussi exact
que possible pour chaque échantillon inconnu à
venir. Traduire cet objectif en termes statistiques,
signifie que l’analyste veut connaître la probabilité
selon laquelle la différence entre la valeur rapportée Y et la valeur de référence T reste inférieure à
une limite d’acceptation (ou un pourcentage) fixée
à l’avance et, si possible mais non nécessairement,
que cette différence soit petite. Cet objectif peut
alors être représenté par l’Eq.2, dans laquelle λ représente la limite d’acceptation et β la probabilité
considérée acceptable (par exemple 95%) que l’erreur sur les futures mesures réalisées, une fois la
méthode validée, se situent en dessous de la limite
d’acceptation fixée.
Pr( Y − T < λ) ≥ β Eq.2
Le choix de la valeur de λ dépend largement du
contexte d’application mais peut être, par exemple,
la valeur d’un critère de performance exigée par
la réglementation : par exemple, la valeur vraie de
l’échantillon doit être connue à ± 10%.
Laboratoire pratique
Approche globale et harmonisée de la validation
Méthode A
(valide)
Petite
incertitude
+
Méthode B
(non valide)
Valeur vraie
Grande
incertitude
+
Limite
d’acceptation
Valeur vraie
Limite
d’acceptation
Figure 4
Illustration de la relation entre incertitude et validation. La limite d’acceptation
représente ce qui est défini comme « l’emploi prévu » de la méthode. Les deux
méthodes A et B fournissent la même valeur rapportée mais n’ont pas la même
incertitude. Si elle est trop élevée la probabilité d’avoir des mesures en-dehors de la
limite d’acceptation devient trop grande et on doit rejeter la méthode.
La Figure 4 montre comment l’ajout du « cercle »
d’acceptation permet de conclure que la méthode A est valide alors que B ne l’est pas. La limite
d’acceptation permet de montrer qu’on a plus de
chances de produire des résultats non-conformes
et trop éloignés de la valeur T avec la méthode B et
que la méthode A réduit cette probabilité.
Une solution possible pour calculer l’intervalle
autour de Y correspondant à la probabilité β est
basée sur le concept d’intervalle de tolérance β (7).
Le principe de la méthode du profil d’exactitude
consiste à utiliser des critères de validation (justesse, répétabilité,..) mesurés en condition de fidélité
intermédiaire pour obtenir les limites des intervalles de tolérance β. Cependant, pour couvrir l’ensemble du domaine de validation de la méthode,
il est indispensable de faire ces calculs à plusieurs
niveaux de concentration. Pour faciliter l’illustration graphique tous les résultats sont exprimés en
%. Plus de détails sur cette démarche nouvelle sont
disponibles dans la publication correspondant à la
référence (6). C’est pourquoi, nous ne présenterons
ici qu’une application de la méthode à la validation
d’une méthode de détermination de la vitamine B3
dans les laits, applicable au contrôle de la supplémentation ou de la qualité nutritionnelle.
IV - Détermination de la vitamine
B3 dans le lait
1. Méthode et contexte d’application
La détermination de la vitamine B3 (aussi appelée
vitamine PP ou niacine) dans les aliments requiert
la mesure de deux formes chimiques : l’acide nicotinique et le nicotinamide. La concentration totale
est alors exprimée en faisant la somme des 2 valeurs obtenues. L’étude présentée ici porte sur le
lait dont les teneurs varient entre 0,6 et 1,0 mg/L
selon l’origine du produit. Du fait des traitements
thermiques ou des autorisations de supplémentation accordées, les produits du marché se situent
plutôt entre 0,4 et 2,0 mg/L. Afin de couvrir un
domaine d’application raisonnable, la validation a
été étendue entre 0,2 et 4,0 mg/L.
La méthode officielle de dosage repose sur une
technique microbiologique délicate et d’incertitude élevée. Le but de cette validation est de vérifier
si une méthode HPLC (8) est acceptable comme
méthode alternative. Les limites d’acceptabilité
ont été fixées à ± 25% et se situent bien en deçà
des performances de la méthode de référence qui
sont aux alentours de ± 40 %.
La méthode HPLC consiste en une extraction de
l’acide nicotinique et du nicotinamide par une
hydrolyse en milieu HCl 0,1 M à 100 °C pendant
1 h, suivie d’une élution sur colonne Lichrospher
60 RP Select B (5 μm, diamètre 4 mm, longueur
250 mm) par un tampon phosphate 0,07 mol/L
contenant du peroxyde d’hydrogène 0,075 mol/L
et du sulfate de cuivre 5.10-6 mol/L. Une dérivation
photochimique post-colonne est réalisée à l’aide
d’une lampe UV, éliminant la raie d’absorption
à 254 nm, et permet d’obtenir des dérivés détectables par spectrofluorimétrie à 380 nm après
excitation à 322 nm. La quantification des deux
espèces chimiques est obtenue par étalonnage
externe en utilisant des molécules d’une pureté
supérieure à 95%.
En fonction des objectifs fixés (domaine de concentration et limite d’acceptation) la validation du
dosage du nicotinamide n’a présenté aucun problème. Nous ne présenterons ici que les résultats
se rapportant à la validation du dosage de l’acide
nicotinique pour lequel on observe un effet de matrice tout à fait significatif.
2. Plans d’expérience
Deux plans d’expériences sont nécessaires, l’un
dit d’étalonnage (PE) sert à calculer la fonction de réponse de la méthode, l’autre dit de
validation (PV) sert à calculer les caractéristiques de validation. La même structure de plan
a été choisie pour l’étalonnage et la validation :
27 essais réalisés à 3 niveaux de concentration,
sur 3 jours avec 3 répétitions (3×3×3). Ce choix
est motivé, d’une part, par un nombre total
d’essais économiquement acceptable, d’autre
part, par le mode opératoire de la méthode qui
préconise 3 niveaux de concentration au minimum pour l’étalonnage.
Étant donné qu’il n’existe pas de matériau de référence adapté à ce type de détermination, il a
été décidé de faire des ajouts dosés sur 2 échantillons de lait du commerce. Le même plan d’expérience de 27 essais a été utilisé pour ces séries
d’ajouts mais et il aurait été tout à fait possible
d’utiliser un plan différent. Cependant, les essais
de validation doivent être effectués les mêmes
jours que ceux d’étalonnage afin d’utiliser les
fonctions d’étalonnage correspondantes.
SPECTRA ANALYSE n° 249 • Avril - mai 2006
19
LABORATOIRE PRATIQUE
300
Étalon 1
Étalon 2
Étalon 3
Lait A1
Lait A2
Lait A3
Lait B1
Lait B2
Lait B3
Hauteur (UA)
250
200
les données de validation 2 pour la matrice Lait B.
Des droites de régression ont été ajustées aux données d’étalonnage pour illustrer la variabilité de la
sensibilité de la méthode d’un jour à l’autre, d’où
l’importance de conduire la validation sur plusieurs
jours et de collecter donnés d’étalonnage et de validation les mêmes jours. Par ailleurs, on peut déjà
voir un effet de matrice puisque environ la moitié
seulement de l’acide nicotinique ajouté est retrouvée ; les mêmes mesures pour le nicotinamide ne
montraient aucun effet de matrice.
Étalonnage
Validation 1
Validation 2
150
100
50
3. Profil d’exactitude à partir des données brutes
0
0.0
,
0.5
,
1.0
,
1.5
,
2.0
,
2.5
,
3.0
,
3.5
,
4.0
,
Ces données sont utilisées pour construire un profil d’exactitude en 4 étapes :
Étape 1. Étalonnage. Pour chaque jour (ou série),
calculer la fonction de réponse à partir des données du PE, en utilisant un même modèle théorique. Dans ce cas, le meilleur modèle est une droite
de la forme Y = a0 +a1X où Y est la réponse instrumentale et X la concentration. On obtient ainsi
3 modèles.
Étape 2. Prédictions inverses. Calculer les concentrations prédites inverses à partir des données
du PV pour le lait A. Appliquer la formule Eq.3 en
respectant le jour où les données de validation ont
été collectées.
4.5
,
Concentration (mg/L)
Figure 5
Données d’étalonnage et validation reportées sur le même graphique. Les données
de validation correspondent à des ajouts dosés d’acide nicotinique effectués avant
préparation de l’échantillon
Tableau I
Critères de validation
calculés à partir
des concentrations
prédites inverses,
avant et après
correction.
La Figure 5 illustre, l’ensemble des données expérimentales, regroupées en 3 jeux de 27 données i)
les solutions d’étalonnage obtenues par mise en solution de l’acide nicotinique pur dans de l’eau distillée ; ii) les données de validation 1 qui correspondent aux ajouts dosés dans la matrice Lait A et iii)
Critères
X =
Unité
Moyenne théorique (niveau d’ajout)
Y − a0
a1
Niveau 1 Niveau 2
Eq.3
Niveau 3
mg/L
0,2
2,0
4,0
Moyenne retrouvée
mg/L
0,1018
1,0792
2,0732
Biais absolu moyen
mg/L
-0,0982
-0,9208
-1,9268
Écart-type répétabilité
mg/L
0,0082
0,0665
0,0905
Écart-type fidélité intermédiaire
mg/L
0,0082
0,0665
0,1044
Limite inférieure de l’intervalle de tolérance
mg/L
0,0814
0,9134
1,7974
Limite supérieure de l’intervalle de tolérance
mg/L
0,1222
1,2451
2,3491
Biais relatif moyen
%
-49,09%
-46,04%
-48,17%
Limite inférieure de l’intervalle de tolérance relative
%
-59,28%
-54,33%
-55,07%
Limite supérieure de l’intervalle de tolérance relative
%
-38,89%
-37,75%
-41,27%
Incertitude élargie relative
%
16,07%
12,33%
10,07%
Recouvrement
%
50,9%
54,0%
51,8%
Moyenne retrouvée
mg/L
0,20732
2,05237
4,13835
Biais relatif moyen
%
3,66%
2,62%
3,46%
Limite inférieure de l’intervalle de tolérance relative
%
-16,45%
-5,76%
-3,99%
Limite supérieure de l’intervalle de tolérance relative
%
23,77%
10,99%
10,91%
Incertitude élargie relative
%
15,57%
6,22%
5,78%
Avant correction
Après correction
20
SPECTRA ANALYSE n° 249 • Avril - mai 2006
Laboratoire pratique
Approche globale et harmonisée de la validation
A)
a)
30.%
20.%
Limites d’acceptation ±25%
10.%
Biais (%)
0.%
-10.%
0.0
,
1.0
,
2.0
,
3.0
,
4.0
,
-20.%
Figure 6
-30.%
Limites de tolérance β
Illustration du profil
d’exactitude pour la
détermination de
la vitamine B3 dans
le lait par HPLC. Les
caractéristiques de
la méthode sont
calculées pour 3
niveaux d’ajout (0,2,
2,0 et 4,0). Les lignes
en points-pointillés
indiquent les limites
d’acceptation, les
lignes en pointillés les
limites de tolérance β,
et les barres d’erreur
l’incertitude élargie
à 95%. A) Profil des
données brutes.
B) Profil des données
corrigées.
-40.%
-50.%
-60.%
Concentration
-70.%
B)
b)
Limite de
quantification
30.%
20.%
Profil
d’exactitude
Biais (%)
10.%
0.%
0
0.5
,
1
1.5
,
2
2.5
,
3
3.5
,
4
-10.%
Incertitude
élargie
-20.%
-30.%
Limites
d’acceptabilité ±25%
Étape 3. Intervalles de tolérance. À partir des
concentrations prédites inverses (obtenues à
l’étape 3) calculer, pour chaque niveau d’ajouts,
les écarts-types de fidélité intermédiaire selon la
méthode de la norme ISO 5725. Calculer les intervalles de tolérance β à 95%. Dans l’exemple, le
nombre de données disponibles pour calculer un
écart-type de fidélité intermédiaire est 9 réparties
en 3 répétitions pour 3 jours.
Étape 4. Justesse. À partir des concentrations
prédites inverses et pour chaque niveau d’ajout,
calculer la concentration moyenne retrouvée et le
biais en lui soustrayant la concentration théorique
de l’ajout.
Puis, ces divers critères de validation sont regroupés au Tableau I mais, afin d’avoir une représentation graphique plus facile à interpréter, ils sont
Concentration
tous exprimés en valeurs relatives rapportées à la
concentration théorique de chaque ajout. On obtient ainsi la
Figure 6A dans laquelle l’axe horizontal représente les
concentrations allant de 0,2 à 4,0 mg/L et l’axe vertical
le biais relatif. Des lignes continues relient les concentrations moyennes retrouvées et traduisent le manque
de justesse (biais) de la méthode. Les lignes en pointillés délimitent l’intervalle de tolérance et les lignes en
points-pointillés la limite d’acceptation à ± 25%.
Sur ce graphique, on voit très facilement que l’intervalle de tolérance n’est pas compris entre les limites
d’acceptation : la méthode n’est donc pas valide et ne
convient pas à l’objectif fixé. On peut facilement trouver une explication à ce résultat en considérant le taux
de recouvrement qui est aussi fourni par le Tableau I.
Il se situe aux alentours de 50% et traduit un effet de
SPECTRA ANALYSE n° 249 • Avril - mai 2006
21
LABORATOIRE PRATIQUE
matrice significatif qui a pour conséquence de réduire
de près de la moitié le signal observé lors des mesures
sur les solutions de validation.
4. Profil d’exactitude à partir
des données corrigées
Figure 7
Calcul du facteur de
correction à partir
des concentrations
retrouvées
[Retrouvée] en
fonction des
concentrations
ajoutées [Ajoutée].
Cet effet n’existant pas pour le nicotinamide, aucune explication satisfaisante ne permet de proposer un protocole d’extraction qui réduirait ce biais
systématique. On peut utiliser une méthode très
classiquement appliquée pour les mesures physiques qui consiste à corriger les données à l’aide
d’un facteur de correction. De nombreuses publications et guidances traitent de la prise en compte
du taux de recouvrement dans l’expression du
résultat et l’IUPAC (International Union for Pure
and Applied Chemistry) a publié un guide à ce
propos (9). Pour calculer le facteur de correction,
on reporte sur un graphique les deux variables
concentration retrouvée, notée [Retrouvée], et
concentration théorique ajoutée, notée [Ajoutée].
La Figure 7 illustre le très bon ajustement linéaire de
ces deux variables. Les concentrations retrouvées
sont strictement proportionnelles aux concentrations théoriques ajoutées et la droite qui les relie est
égale à [Retrouvée] = 0,518[Ajoutée] + 0,018.
La pente de cette droite représente le taux moyen
de recouvrement et le facteur de correction proposé est égal à l’inverse de cette pente, à savoir
1/0,518 = 1,930. Comme ce facteur devra être appliqué systématiquement en routine, on a décidé
de prendre la valeur approchée de 2,0 pour corriger les réponses obtenues sur les données de validation 2 relatives au lait B.
Tous les calculs sont refaits comme précédemment
décrit et les résultats utiles à la production du profil
d’exactitude sont reportés dans le bas du Tableau I.
La Figure 6B illustre le nouveau profil et il devient
évident que la méthode est valide puisque l’ensemble de l’intervalle de tolérance entre 0,2 et 4,0 mg/L
est inclus dans les limites d’acceptation.
Si on observe la forme de l’intervalle de tolérance
avant et après correction, on remarque qu’il a tendance à s’élargir. Ce comportement est explicable
par l’application du facteur de correction dont
l’incertitude est venue s’ajouter à celles des mesures initiales. Cette remarque est en accord avec la
théorie de la propagation des erreurs qui est à la
base du calcul de l’incertitude : l’application d’un
facteur de correction dégrade la qualité des mesures, même si la méthode reste valide. Il est évident
qu’un facteur trop élevé pourrait invalider la méthode ce qui représente une limite importante à
cette technique de correction.
L’IUPAC définît la limite de quantification (LQ)
comme la plus petite (et par extension la plus
grande) concentration ou masse qui peut être
quantifiée avec un niveau de garantie connue. À
partir du profil d’exactitude, il est possible de proposer une méthode expérimentale de calcul des
LQ. En effet, une approche simple qui consiste à
repérer la concentration la plus basse (ou la plus
haute) à partir de laquelle la méthode n’est plus
4.5
,
,
,
[Retrouvée] = 0.518[Ajoutée]
+ 0.018
,
,
Facteur de correction = 1/0.518
≈ 2.0
Concentration retrouvée
,
3.5
,
2.5
,
1.5
0.5
,
,
-0.5
,
-0.5
0.5
,
1.5
,
2.5
,
Concentration ajoutée
22
SPECTRA ANALYSE n° 249 • Avril - mai 2006
3.5
,
4.5
,
Laboratoire pratique
Approche globale et harmonisée de la validation
valide. Dans l’exemple traité, en deçà de 0,2 mg/L
on ne peut pas dire si la méthode est valide ; la LQ
est donc de 0,2 mg/L. Cependant, dans d’autres
applications, il arrive que les limites de l’intervalle
de tolérance coupent les limites d’acceptation : la
concentration correspondante peut alors être définie comme une LQ.
Au cours du processus de validation, on a pris
comme décision de corriger les données en les
multipliant pas un facteur égal à 2,0. Cette opération doit maintenant faire partie de la méthode
et être intégrée au mode opératoire standardisé
qui servira en routine. De même on a pu calculer
l’incertitude élargie à 95% en fonction de la concentration.
V - Conclusions
La démarche de validation présentée ici a été développée par une commission SFSTP (6) et connaît
déjà un grand nombre d’applications qui permettent de tirer quelques enseignements.
1. D’une façon très globale, cette nouvelle démarche suit très exactement la définition de la validation de la norme ISO 17025. En effet, il faut 1)
définir les objectifs à atteindre en termes de limites d’acceptation, 2) collecter les preuves effectives
grâce à un plan d’expériences et finalement 3) les
examiner statistiquement et graphiquement pour
confirmer ou infirmer la validité.
2. Le mode de calcul du profil, niveau par niveau,
permet de couvrir une très large gamme dynamique de concentrations. On peut alors valider des
méthodes dont les variances ne sont pas homogènes en fonction du niveau de concentration alors
que c’est impossible avec les protocoles classiques.
3. Il n’y a pas de limitation de modèles d’étalonnage : même un modèle non linéaire, comme une
courbe logistique, est applicable. L’hypothèse de
linéarité de la fonction d’étalonnage est totalement
abandonnée.
4. La démarche est globale et règle enfin les conflits entre la justesse et la fidélité. Les approches
classiques de validation les traitant séparément, on
débouche parfois sur des conclusions ambiguës si
seulement l’un des deux critères est satisfaisant. La
méthode du profil d’exactitude permet de représenter simultanément, sur un même graphique,
ces deux critères (ou des combinaisons de ces critères).
5. Dans l’exemple présenté, on a vu qu’il était possible de calculer un facteur de correction. La question de savoir s’il faut ou non corriger les mesures
suscite de nombreux débats, surtout dans le domaine de l’analyse environnementale. La réponse
apportée par le profil d’exactitude est sans ambiguïté : le taux de recouvrement peut et doit être
pris en compte.
En dépit des nombreuses réponses pratiques
qu’apporte le profil d’exactitude, certaines questions restent en suspens. Par exemple, s’applique-
t-il aux comptages microbiologiques très répandus
en biologie ? Par ailleurs, une exigence classique
pour les laboratoires accrédités est de valider une
méthode alternative par rapport à une méthode
dite de « référence ». Dans ce cas, les calculs devront-ils prendre en compte le fait que la valeur
théorique est connue avec une incertitude ? Il est
donc nécessaire de réaliser un certain nombre
d’applications complémentaires pour mieux affirmer l’« universalité » du profil d’exactitude.
Pour conclure, il faut aussi rappeler que la validation doit toujours intervenir après le développement de la méthode. Essayer de conduire les essais avec une méthode encore mal connue, risque
d’entraîner de sérieuses déconvenues ; comme de
conclure à son inefficacité alors que c’est une bonne méthode. Dans cette publication, la façon de
présenter l’exemple semble en contradiction avec
cette affirmation forte car on a l’impression qu’on
« découvre » un effet de matrice. Si ce choix a été
fait, c’est pour gagner en pédagogie car l’effet de
matrice avait déjà été mis en évidence lors du développement. C’est d’ailleurs la raison pour laquelle deux séries d’ajouts ont été réalisées sur deux
laits différents ; on a ainsi calculé le coefficient de
correction sur le lait A avant de le « valider » avec
l’autre échantillon. Sinon ce surplus de mesures
représenterait un travail superflu et inutile en l’absence d’effet de matrice.
BIBLIOGRAPHIE
(1) Commission Decision 2002/657/EC, Official Journal of the European Communities
17.8.2002, L 221/8.
(2) NF EN ISO 17025 (2005) Prescriptions générales concernant la compétence des laboratoires d’étalonnage et d’essais, ISO, Genève.
(3)Version française www.lne.fr/publications/eurachem_guide_incertitude_fr.pdf
(4) S. KUTTATHARMAKUL, DL MASSART, J. SMEYERSVERBEKE J, Comparison of alternative measurement methods: determination of the minimal number of measurements
required for the evaluation of the bias by means of internal hypothesis testing, Chemometrics and Intelligent Laboratory Systems, 2000, 52, 61-73.
(5) NF ISO 5725:1996. Exactitude (justesse et fidélité) des résultats et méthodes de mesure. Partie 3 : Mesures intermédiaires de fidélité pour une méthode de mesure, Association Frnaçaise de Normalisation, Paris La Défense.
(6) P. HUBERT , JJ NGUYENHUU, B. BOULANGER, E. CHAPUZET, P. CHIAP, N. COHEN
N, PA COMPAGNON, W. DEWÉ, M. FEINBERG, M. LALLIER, M. LAURENTIE, N. MERCIER,
G. MUZARD, C. NIVET, L. VALAT, Validation des procédures analytiques quantitatives.
Harmonisation des démarches, STP Pharma Pratiques, 2003, 13, 101-138.
(7) RW MEE, β -Expectation and β -Content Tolerance Limits for Balanced One-Way
ANOVA RandomModel’s, Technometrics, 26, 251–254.
(8) S. LAHELY, M. BERGANTZLE, C. HASSELMANN., Fluorimetric determination of niacin
in foods by high-performance liquid chromatography with post-column derivatization,
Food Chem., 1999, 65, 129-133.
(9) M. THOMPSON, SLR ELLISON, & R. WOOD, Harmonized guidelines for single-. laboratory validation of methods of analysis, Pure Appl. Chem., 2002, 74, 835-855.
SPECTRA ANALYSE n° 249 • Avril - mai 2006
23