Revue Œnologie n°205.qxd - Union des oenologues de France
Transcription
Revue Œnologie n°205.qxd - Union des oenologues de France
Validation de méthode d’analyse : vers un nouveau concept. BOUVIER J.-C. INRA, laboratoire de biotechnologie de l’environnement, 11100 Narbonne [email protected]. Ainsi on peut se demander si l’objectif de la validation de méthode d’analyse est de démontrer la linéarité de sa réponse en fonction de la concentration, et que le biais moyen et la fidélité sont inférieurs à x % alors que la finalité est de quantifier le plus exactement possible chacune des quantités inconnues. Avec l’informatique, il est facile d’utiliser des étalonnages non linéaires et le fait de tester l’hypothèse nulle pour le biais, statistiquement non différent de zéro, est une prime au laboratoire ayant la plus grande variance qui permettra d’englober le zéro. Ce que tout analyste souhaite, c’est que la différence entre la valeur mesurée (xi) et la valeur vraie inconnue (µi) soit la plus petite possible ou du moins inférieure à une limite acceptable qui peut être variable selon la finalité de la méthode (ex : 95-105 %). Apparaissent ainsi les notions de limite d’acceptation (ou de tolérance) et de responsabilité de l’analyste pour la décision d’accepter les performances de la méthode d’analyse en fonction de l’usage pour lequel elle est prévue. Par ailleurs, toute méthode d’analyse se caractérise par un vrai biais et une vraie variance qui sont tout aussi inconnus que la valeur vraie. En fait, les expériences réalisées lors de la validation permettent d’obtenir des estimations du biais et de la variance de la méthode qui seront d’autant plus fiables que le plan d’expérience et le nombre d’essais seront appropriés. quelle est la probabilité en fonction des observations, que la différence entre xi et µi soit comprise dans l’intervalle ou encore, plus simplement, quels risques et donc quel coût, l’analyste est-il prêt à assumer ? Dans ces conditions, la linéarité, l’exactitude et la fidélité ne sont plus que des statistiques permettant de donner des garanties. En fait, ce dont l’analyste a besoin, c’est d’un bon outil de décision offrant la garantie que la plupart des futures mesures seront dans les limites autorisées d’où l’intérêt de l’intervalle de confiance qui rejoint ainsi la notion d’incertitude de mesure. De ce fait, lors de la validation initiale d’une méthode d’analyse, on définira son domaine d’application (matrices, spécificité, amplitude de la mesure, limites de détection et de quantification si nécessaire), puis on estimera les incertitudes systématiques (étalonnage dont le modèle mathématique doit être une fonction monotone, sensibilité, justesse, robustesse) pour finir avec les incertitudes aléatoires de la fidélité afin de calculer l’incertitude totale de la mesure. La validation d’une méthode d’analyse est donc de la responsabilité du laboratoire qui doit définir son protocole expérimental en fonction de l’objectif et des besoins de ses clients. En effet, la norme ISO 17025 n’impose aucun protocole expérimental au laboratoire pour valider une nouvelle méthode d’analyse (§ 5.4.5) mais insiste beaucoup sur les preuves objectives de l’exactitude des résultats en précisant au § 5.4.5.3. note 3 que “La validation est toujours un équilibre entre les coûts, les risques et les possibilités techniques”. En particulier il est proposé d’employer une ou plusieurs techniques pour déterminer la performance d’une méthode (§ 5.4.5.2. note 2) et en particulier l’évaluation des facteurs influençant le résultat, l’évaluation de l’incertitude des résultats sur des bases scientifiques et d’une expérience pratique, la comparaison entre laboratoires. Finalement, c’est au laboratoire de démontrer la qualité de ses résultats en terme de risque et d’incertitude de mesure. Ce nouveau concept d’intervalle de confiance (tolérance) pour valider une méthode d’analyse me semble mieux correspondre à l’esprit de l’ISO 17025 qui donne plus de libertés de décision au laboratoire en contre partie de plus de responsabilités. Sur la base de ces derniers paramètres, les limites d’acceptation des performances de la méthode permettent de définir un espace des méthodes d’analyse pour un domaine d’activité donné (ex : alcool ± 0.08 % vol). C’est donc dans cet espace qu’il faut chercher la bonne méthode analytique. En d’autres termes, Revue Française d’Œnologie - mars/avril 2004 - N° 205 A N A LY S E Avec l’arrivée de nouveaux matériels dans les laboratoires (IRTF en œnologie par exemple), le problème de la validation de nouvelles méthodes d’analyses devient primordial pour garantir la qualité des résultats. Or, valider une nouvelle méthode d’analyse non-normalisée est un travail lourd et coûteux faisant appel à de multiples compétences (chimie analytique, statistiques, analyse des données). Aussi, avant d’entreprendre de tels travaux, le laboratoire doit définir ses objectifs de validation en fonction des contraintes de ses clients et mettre en œuvre un protocole expérimental qui permette de les atteindre sans trop alourdir la tâche du laboratoire. Or, aujourd’hui, la quasi-totalité des protocoles de validation de méthode d’analyse propose d’une part, de caractériser la méthode d’analyse en terme de répétabilité, reproductibilité, linéarité, sensibilité, seuils de quantification et détection et d’autre part, de comparer les résultats de la nouvelle méthode par rapport aux résultats d’une méthode de référence ou d’échantillons de référence. A l’examen des documents sur la validation des méthodes analytiques se dégagent à la fois des similitudes (obligation d’exactitude, utilisation d’intervalles de confiance) et des distorsions (obligation de linéarité, signification de la linéarité, interprétation de l’exactitude) ainsi qu’apparaissent plusieurs questions telles que celles, fondamentales, concernant les objectifs d’une méthode et de sa validation ou, spécifiques, impliquant la place et l’inférence des statistiques. Avant d’aller plus avant, il faut revenir à l’essence même d’une méthode analytique. 19