Revue Œnologie n°205.qxd - Union des oenologues de France

Transcription

Revue Œnologie n°205.qxd - Union des oenologues de France
Validation de méthode d’analyse :
vers un nouveau concept.
BOUVIER J.-C.
INRA, laboratoire de biotechnologie de l’environnement, 11100 Narbonne
[email protected].
Ainsi on peut se demander si l’objectif de la validation de
méthode d’analyse est de démontrer la linéarité de sa réponse
en fonction de la concentration, et que le biais moyen et la fidélité
sont inférieurs à x % alors que la finalité est de quantifier le plus
exactement possible chacune des quantités inconnues. Avec
l’informatique, il est facile d’utiliser des étalonnages non linéaires
et le fait de tester l’hypothèse nulle pour le biais, statistiquement
non différent de zéro, est une prime au laboratoire ayant la plus
grande variance qui permettra d’englober le zéro. Ce que tout
analyste souhaite, c’est que la différence entre la valeur mesurée
(xi) et la valeur vraie inconnue (µi) soit la plus petite possible ou
du moins inférieure à une limite acceptable qui peut être variable
selon la finalité de la méthode (ex : 95-105 %). Apparaissent
ainsi les notions de limite d’acceptation (ou de tolérance) et
de responsabilité de l’analyste pour la décision d’accepter les
performances de la méthode d’analyse en fonction de l’usage pour
lequel elle est prévue. Par ailleurs, toute méthode d’analyse se
caractérise par un vrai biais et une vraie variance qui sont tout
aussi inconnus que la valeur vraie. En fait, les expériences
réalisées lors de la validation permettent d’obtenir des estimations
du biais et de la variance de la méthode qui seront d’autant
plus fiables que le plan d’expérience et le nombre
d’essais seront appropriés.
quelle est la probabilité en fonction des observations, que la
différence entre xi et µi soit comprise dans l’intervalle ou encore,
plus simplement, quels risques et donc quel coût, l’analyste est-il
prêt à assumer ? Dans ces conditions, la linéarité, l’exactitude et
la fidélité ne sont plus que des statistiques permettant de donner
des garanties. En fait, ce dont l’analyste a besoin, c’est d’un bon
outil de décision offrant la garantie que la plupart des futures
mesures seront dans les limites autorisées d’où l’intérêt de
l’intervalle de confiance qui rejoint ainsi la notion d’incertitude
de mesure. De ce fait, lors de la validation initiale d’une méthode
d’analyse, on définira son domaine d’application (matrices,
spécificité, amplitude de la mesure, limites de détection et de
quantification si nécessaire), puis on estimera les incertitudes
systématiques (étalonnage dont le modèle mathématique doit
être une fonction monotone, sensibilité, justesse, robustesse)
pour finir avec les incertitudes aléatoires de la fidélité afin de
calculer l’incertitude totale de la mesure.
La validation d’une méthode d’analyse est donc de la responsabilité du laboratoire qui doit définir son protocole expérimental
en fonction de l’objectif et des besoins de ses clients. En effet,
la norme ISO 17025 n’impose aucun protocole expérimental
au laboratoire pour valider une nouvelle méthode d’analyse
(§ 5.4.5) mais insiste beaucoup sur les preuves objectives de
l’exactitude des résultats en précisant au § 5.4.5.3. note 3 que
“La validation est toujours un équilibre entre les coûts, les risques
et les possibilités techniques”. En particulier il est proposé
d’employer une ou plusieurs techniques pour déterminer la
performance d’une méthode (§ 5.4.5.2. note 2) et en particulier
l’évaluation des facteurs influençant le résultat, l’évaluation de
l’incertitude des résultats sur des bases scientifiques et d’une
expérience pratique, la comparaison entre laboratoires.
Finalement, c’est au laboratoire de démontrer la qualité de ses
résultats en terme de risque et d’incertitude de mesure. Ce
nouveau concept d’intervalle de confiance (tolérance) pour
valider une méthode d’analyse me semble mieux correspondre
à l’esprit de l’ISO 17025 qui donne plus de libertés de décision
au laboratoire en contre partie de plus de responsabilités.
Sur la base de ces derniers paramètres, les limites d’acceptation
des performances de la méthode permettent de définir un espace
des méthodes d’analyse pour un domaine d’activité donné
(ex : alcool ± 0.08 % vol). C’est donc dans cet espace qu’il faut
chercher la bonne méthode analytique. En d’autres termes,
Revue Française d’Œnologie - mars/avril 2004 - N° 205
A N A LY S E
Avec l’arrivée de nouveaux matériels dans les laboratoires
(IRTF en œnologie par exemple), le problème de la validation de
nouvelles méthodes d’analyses devient primordial pour garantir la
qualité des résultats. Or, valider une nouvelle méthode d’analyse
non-normalisée est un travail lourd et coûteux faisant appel à de
multiples compétences (chimie analytique, statistiques, analyse
des données). Aussi, avant d’entreprendre de tels travaux, le
laboratoire doit définir ses objectifs de validation en fonction des
contraintes de ses clients et mettre en œuvre un protocole
expérimental qui permette de les atteindre sans trop alourdir la
tâche du laboratoire. Or, aujourd’hui, la quasi-totalité des
protocoles de validation de méthode d’analyse propose d’une
part, de caractériser la méthode d’analyse en terme de répétabilité,
reproductibilité, linéarité, sensibilité, seuils de quantification et
détection et d’autre part, de comparer les résultats de la nouvelle
méthode par rapport aux résultats d’une méthode de référence
ou d’échantillons de référence. A l’examen des documents sur
la validation des méthodes analytiques se dégagent à la fois des
similitudes (obligation d’exactitude, utilisation d’intervalles de
confiance) et des distorsions (obligation de linéarité, signification
de la linéarité, interprétation de l’exactitude) ainsi qu’apparaissent
plusieurs questions telles que celles, fondamentales, concernant
les objectifs d’une méthode et de sa validation ou, spécifiques,
impliquant la place et l’inférence des statistiques. Avant
d’aller plus avant, il faut revenir à l’essence même d’une
méthode analytique.
19