Deux Approches Alternatives pour la Catégorisation de Signaux
Transcription
Deux Approches Alternatives pour la Catégorisation de Signaux
SETIT 2005 3rd International Conference: Sciences of Electronic, Technologies of Information and Telecommunications March 27-31, 2005 – TUNISIA Structures à Multiples Réseaux Neuronaux : Deux Approches Alternatives pour la Catégorisation de Signaux Biomédicaux Véronique Amarger, Saliou Diouf, Mariusz Rybnik, Abdennasser Chebira et Kurosh Madani Laboratoire d’Intelligence en Instrumentation et Systèmes (I2S/JE2353) –Institut Universitaire de Technologie de Sénart- Université Paris 12, Avenue Pierre Point, 77127 Lieusaint, France [email protected] [email protected] [email protected] Résumé: Dans cet article, nous traitons le problème difficile de catégorisation de signaux biomédicaux. Nous nous intéressons au système auditif par l’étude des signaux électriques issus d’un examen d’exploration fonctionnelle des voies auditives : les Potentiels Evoqués Auditifs. Du fait de la nature difficile du problème traité (diagnostic biomédical), nous avons fait évoluer les algorithmes de traitement de type neuromimétique à structure simple vers une structure à multiples réseaux de neurones à architecture statique, puis vers une structure neuronale arborescente à architecture dynamique. Nous présentons, étudions et comparons ces deux approches de catégorisation en fonction des différents paramètres d’optimisation de chacune d’entre elles en utilisant une base de données expérimentales constituée de patients classés en deux catégories : malade (atteint d’une pathologie auditive) ou sain (normo-entendant). Nous comparons les intérêts de chacune et nous montrons, par ailleurs, la pertinence de leur utilisation comparée au recours à un seul réseau de neurones. Mots clés: Catégorisation, Réseaux de Neurones Artificiels, Signaux Biomédicaux, Structure Statique, Structure Dynamique. 1 Introduction Le domaine de l'aide au diagnostic médical est un domaine particulièrement attractif et très prometteur. En effet, même si de nombreuses études dont (Don & al., 1997, Vuckovic & al., 2002) en font aujourd’hui l’objet, les difficultés liées à ce sujet reste vastes. On peut citer l’utilisation par les experts (médecins) de certains critères de diagnostic intuitif et/ou non modélisable, ou alors, également la nécessité d’atteindre une capacité performante de catégorisation des données. Dans ce domaine, les experts (médecins) utilisent plusieurs informations, sous des formes diverses ; données qualitatives ou quantitatives, signaux, images, pour émettre leur diagnostic. Nous nous interessons, dans cet article, au domaine biomédical du système auditif par l’étude de la catégorisation de signaux électriques issus d’un examen d’exploration fonctionnelle des voies auditives : les Potentiels Evoqués Auditifs. Cette étude constitue une toute première étape vers un outil d’aide au diagnostic pour les médecins ORL. La difficulté principale de cette catégorisation réside dans la ressemblance de signaux correspondant à des pathologies différentes, mais aussi dans la disparité des signaux au sein d’une même catégorie. Les résultats de l’examen médical peuvent, par exemple, être différents pour deux mesures effectuées sur un même patient. Au cours de ces dernières décennies, les techniques neuronales se sont montrées particulièrement attrayantes pour la résolution d’une large variété de problèmes dans les domaines de l’aide à la décision, de la catégorisation ou de la modélisation (Bazoon & al., 1994, Goonatilake & al., 1995, Jordan & al., 1995, Widrow & al.,1990). Du fait de la nature difficile du problème traité (diagnostic biomédical), nous avons fait évoluer les algorithmes de traitement de type neuromimétique à structure simple vers une structure statique à multiples réseaux de neurones, puis vers une structure dynamique arborescente à multiples réseaux de neurones. Dans SETIT2005 cet article, nous présentons, étudions et comparons ces deux approches de catégorisation. Afin de simplifier la nomenclature dans la suite de l’article, la structure statique à multiples réseaux de neurones sera désignée par "SMN" (Structure Multi-Neuronale). De même la structure dynamique arborescente à multiples réseaux de neurones sera désignée par "SNA" (Structure Neuronale Arborescente). La structure SMN est ici une association linéaire de deux réseaux de neurones dédiés, qui permettrait l’amélioration des résultats, comparés aux mêmes réseaux de neurones utilisés seuls. La mise en œuvre pratique d’une telle structure et son optimisation relèvent du pragmatisme et de l’expérience du concepteur. A travers une approche empirique, nous tentons d’extraire des critères de choix des valeurs de certains paramètres pour la mise en œuvre de cette structure multi-neuronale dédiée à la catégorisation de signaux issus de tests biomédicaux. Nous étudions deux des paramètres caractéristiques de la structure multi-neuronale : la taille de la base d’apprentissage (étendue des connaissances initiales du système), d’une part, et le nombre de neurones dans la couche cachée des réseaux constituant la structure multineuronale proposée L’idée directrice de la structure SNA est de diviser un problème complexe en un ensemble de sous problèmes relativement simples. Nous nous sommes inspirés pour cela du paradigme de Jules César « diviser pour régner » (Madani & al., 2003) .Nous souhaitons améliorer les performances des techniques de classification neuronales classiques en résolvant plusieurs problèmes simples au lieu de résoudre un seul problème difficile. La topologie de la structure neuronale induite est de forme arborescente. Les nœuds ainsi que les feuilles de cet arbre neuronale sont constitués de réseaux de neurones artificiels. Cette topologie présente plusieurs degrés de liberté : nombre de nœuds, profondeur de l’arbre, nombre de branches par nœuds, type de réseau de neurones artificiels utilisé au niveau des feuilles et des nœuds. L’amélioration des performances de la SNA se fait à travers l’optimisation de l’ensemble de ses degrés de liberté. La présente communication est organisée en six sections. La section suivante a pour but de présenter le cadre général du problème de diagnostic biomédical traité et les signaux biomédicaux associés. Les sections 3 et 4 présentent respectivement la Structure Multi-Neuronale (SMN), et la Structure Neuronale Arborescente (SNA) mises en œuvre. Dans la section 5, nous expliquons le protocole expérimental utilisé pour la validation des deux approches proposées. Dans la section 6, nous donnerons résultats obtenus pour chaque approche. Nous comparerons les intérêts de chacune et nous montrerons, par ailleurs, la pertinence de leur utilisation comparée au recours à un seul réseau de neurones. Finalement, nous conclurons et donnerons les perspectives à ce travail. 2 Présentation des signaux biomédicaux Le problème traité relève du domaine biomédical et concerne l’aide au diagnostic de certaines pathologies auditives, telles que les tumeurs du nerf auditif (neurinome), des atteintes vasculaires ou tumorales du tronc cérébral ou encore dégénératives telles que la sclérose en plaque, par exemple (Motsch, 1987). Dans le cadre de notre étude, nous utilisons les signaux électriques prélevés sur les patients lors d’un test clinique auditif : les Potentiels Evoqués Auditifs (PEAs). Cet examen d’exploration fonctionnelle otoneurologique permet l’étude de la conduction nerveuse le long des voies auditives. Le processus de génération d’un Potentiel Evoqué Auditif (PEA) consiste à stimuler avec un écouteur attaqué par un clic électrique. Sous l’effet de cette stimulation, les fibres nerveuses sont excitées et génèrent un potentiel d’action. La somme de ces potentiels d’action, synchrones de la stimulation, est recueillie à distance au moyen d’électrodes et constitue le signal électrique PEA. La Figure 1 est un schéma de principe qui résume la génération des PEAs. Un synoptique de la chaîne d’acquisition des PEAs est présenté Figure 2. Figure 1 . Principe de génération des PEAs. Figure 2 . Synoptique de la chaîne clinique de prélèvement des PEAs. Les PEAs sont internationalement utilisés par les médecins ORL depuis le début des années 80. Ces derniers s’appuient sur une surface de 50 acquisitions appelées surface de “ Dynamique Temporelle du Tronc Cérébral” (DTC), associée à d’autres examens cliniques et auditifs pour établir leurs diagnostics. La figure 3, extraite de (Motsch, 1987), représente deux cas typiques de surfaces DTC: le premier est celui correspondant à un patient sain (3A), entendant normalement, et l'autre à un patient ayant une pathologie auditive (3B). La DTC permet également le calcul du Potentiel Evoqué Moyenné (PEM), moyenne de ces 50 acquisitions PEA. Les figures 3A et 3B montrent les PEMs au devant des 50 signaux PEAs respectifs. SETIT2005 Figure 3 . (A) Exemple de Surfaces DTC de patient sain, (B) Exemple de Surfaces DTC de patient Malade. Les 2 cas typiques de la Figure 3 sont, en fait, rarement obtenus. En effet, l’interprétation des PEAs reste une tâche difficile, en raison de la variabilité de leur morphologie en fonction des conditions techniques, du type de déficit auditif et de la pathologie. En effet, en général, pour un patient qui a une audition normale, le résultat du test produit une surface DTC régulière. Les résultats du test sur des patients présentant une pathologie de type endochochléaire, par exemple, sont très proches de ceux correspondant aux patients normaux, ce qui rend la tâche du diagnostic très difficile. Dans ce cas, l'expert médical utilise alors des paramètres supplémentaires, tel que le seuil auditif, pour établir son diagnostic. En plus, pour des sessions de test différentes et pour le même patient, les résultats peuvent varier parce qu'ils dépendent de la relaxation de la personne, du contexte, des conditions du test, du rapport signal à bruit, etc. Cette difficulté de diagnostic nous a conduit à étudier la possibilité d’intégrer l’expertise humaine au sein d’un système d’aide au diagnostic. Pour cela nous utilisons des bases de données validées par des experts pour concevoir le système d’aide au diagnostic médical basée sur des techniques neuromimétiques. Dans un premier temps et pour l’étude présentée, nous nous intéressons à la détection de patient malade, ce qui revient à définir deux catégories de patients : patient malade (M) et patient normo-entendant (N). Nous baserons cette étude sur la catégorisation du seul signal PEM. La difficulté majeure dans la distinction des deux catégories (patient malade et patient normoentendant) réside dans la ressemblance des signaux PEMs correspondant aux deux catégories et dans la disparité des signaux au sein d’une même catégorie. La Figure 4 illustre la diversité de ce type de signaux et la difficulté de discernement de pathologies à partir de résultats d’examens biomédicaux. Compte tenu de ces difficultés, nous avons fait évoluer les techniques à architecture neuronale simple vers deux approches utilisant plusieurs réseaux de neurones combinés : une structure Multi Neuronale (SMN) et une structure Neuronale Arborescente (SNA) que nous décrivons dans les deux sections suivantes. Figure 4 . Exemples de signaux PEM (du haut vers le bas): exemples de la dissemblance entre les PEM de deux malades et deux sains et la ressemblance entre PEM d’un malade et d’un sain. 3. Structure Multi-Neuronale Une structure multi-neuronale peut être vue comme une structure neuronale incluant plusieurs réseaux qui peuvent être similaires (architecture homogène) ou différents (architecture hétérogène). Dans cet article, nous proposons d’utiliser une struture multi-neuronal (SMN) hétérogène, composé d’un réseau de neurones de type Radial Basis Function (RBF) et d’un réseau de neurones de type Learning Vector Quantization (LVQ), placés en série (Dujardin SETIT2005 & al., 1999). La Figure 5 présente l’architecture de cette SMN. Dans cette configuration, le réseau RBF fournit « un taux d’appartenance » à la catégorie et le réseau LVQ constitue l’élément de décision. Pour cette structure, la phase d’apprentissage s’effectue en deux étapes. Le réseau RBF est d’abord entraîné, puis le réseau LVQ accomplit son entraînement en utilisant une base d’apprentissage constituée des vecteurs résultats de l’apprentissage du réseau RBF. Le nombre de neurones de la couche de sortie du réseaux RBF est identique à celui de la couche d’entrée du réseaux LVQ (2 neurones, car deux catégories à départager). RBF LVQ Input Output 80 neurones x neurones 2 neurones 2 neurones y neurones 2 neurones Figure 5 . Architecture du Multi-Réseau de Neurones RBFLVQ Si certains paramètres caractérisant cette SMN sont bien définis par le problème à traiter comme le nombre de neurones dans les couches d’entrée et de sortie des réseaux, par exemple, d’autres restent souvent choisis arbitrairement. Concernant le réseau RBF (Broomhead & al., 1992, Mustawi & al., 1992) le nombre de neurones de la couche cachée est déterminé par l’apprentissage. Ces neurones sont utilisés pour mémoriser un exemple et une activation. Chacun a une activité locale dans l’espace d’entrée. Ainsi les fonctions noyaux ne donnent de réponses utiles que dans le cas d’un domaine restreint dénommé champ récepteur, ou encore zone d’influence. Ce champ est généralement circulaire et circonscrit autour d’un point appelé noyau ou centre. L’étendue de la zone d’influence constitue un paramètre définissant le fonctionnement du réseau RBF. Le choix de la valeur de ce paramètre a fait l’objet d’un certain nombre d’études récentes, concernant pour la plupart d’entre elles le domaine du traitement et de l’analyse d’images (De Tremiolles, 1998, Madani & al., 2003-2). Cependant, dans la majorité des cas de l’utilisation de ce type de réseaux, ce paramètre est choisi arbitrairement. Le neurone compare son entrée avec le vecteur codé dans ses poids et répond par une activation d’autant plus forte que l’entrée est semblable au vecteur. Le nombre et le type de vecteurs d’apprentissage caractérisant les différentes catégories sont donc des paramètres importants quant à la construction du réseau RBF pendant sa phase d’apprentissage et donc à son bon fonctionnement pendant la phase de généralisation. Concernant le réseau LVQ (Kohonen., 1990, Kohonen & al., 1992), l’objectif est de déterminer la valeur optimale de vecteurs représentatifs de données à traiter, appelés vecteurs prototypes, qui sont codés dans les poids d’entrée du réseau. L’apprentissage permet de retrouver les valeurs caractéristiques des vecteurs prototypes. L’algorithme d’apprentissage est basé sur la technique de compétition entre les neurones, appelé « tout au vainqueur » (winner takes all). Donc, comme pour le réseau RBF, le nombre de vecteurs d’apprentissage et leurs caractéristiques sont des paramètres d’optimisation de ce réseau. Le choix du nombre de neurones de la couche cachée est plus délicat et souvent choisi par un compromis optimisant l’apprentissage et la capacité du réseau à généraliser. Ce paramètre est un des paramètres d’optimisation d’un réseau LVQ. Ce bref rappel nous a permis de déterminer plusieurs paramètres d’optimisation des réseaux constituant la SMN dont la taille de la zone d’influence pour le réseau RBF, le pas d’apprentissage et le nombre de neurones dans la couche cachée du réseau LVQ et le contenu de la base d’apprentissage pour les deux réseaux RBF et LVQ. Dans le cadre du problème défini, nous nous focalisons sur deux de ces paramètres, pour l’optimisation de la structure SMN : le nombre de vecteurs appris par la SMN que nous appellerons taille de la base d’apprentissage (TBA) et le nombre de neurones dans la couche cachée (Nncc) du réseau LVQ. 4. Structure Neuronale Arborescente Le concept que nous proposons pour la résolution d’une classe de problèmes de classification est basé sur la construction dynamique, et sans intervention extérieure d’un opérateur, d’une structure neuronale arborescente (SNA). L’apprentissage d’une tâche complexe est simplifié en procédant à la décomposition de celle-ci en un ensemble de tâches de complexités réduites. La réduction de la complexité est obtenue par une décomposition récursive basée sur une estimation de la complexité à partir des données représentatives (base d’apprentissage) du problème. L’apprentissage de chaque sous-ensemble est ensuite confié à un réseau neuronal artificiel dédié de structure plus simple par rapport à celui qui aurait été nécessaire à l’apprentissage de la tâche initiale (complexe). Concrètement, le découpage est confié à un réseau de neurones à apprentissage non supervisé. Géré par un agent (algorithme) d’estimation de complexité. Celui-ci décompose l’espace initial du problème en plusieurs sous-espaces de tailles plus faibles. Le rôle de l’estimateur de la complexité est de statuer sur la nécessité (ou non) d’un découpage. Si l’estimation de la complexité se prononce pour un découpage, alors, basé sur une évaluation d’une distance (ressemblance) entre des données dans l’espace RN du problème, le réseau neuronal à apprentissage non supervisé procède au découpage. L’apprentissage, de l’ensemble des sous-espaces ainsi obtenus est ensuite confié à un ensemble de modèles neuronaux conventionnels. Ces réseaux de SETIT2005 neurones dédiés construisent par la suite, une série de modèles décrivant les relations qui lient les paramètres d’entrées et de sorties dans chaque sous-espace (sous problème). On peut ainsi constater qu’un problème complexe est décomposé de manière récursive (figure 6) en plusieurs sous problèmes simples : une décomposition de l’espace initial du problème en K sous-espaces. UTI 200), nous décomposons cette sous base, à son tour, en M sous bases de données. • Ce traitement s’arrête, une fois que toutes les relations entre éléments d’espace d’entrée et de sortie sont apprises. BD Normalisation UD Estimation de la complexité UTI UD UTI Problème Complexe ? oui Décomposition de la BD Non UD UTI Figure 6 . Exemple d’une structure SNA La figure 7 donne l’organigramme général du déroulement du processus de la construction de l’arborescence. Les nœuds de cet arbre, désignés par Unités de Décomposition (UD), sont constitués de réseaux de neurones à apprentissage non supervisé du type « Kohonen » (Kohonen, 1988). Durant la phase d’apprentissage, les UDs, apprennent la structure de l’espace d’entrée. Durant la phase de relaxation, les UDs aiguillent le vecteur d’entrée vers l’Unité de Traitement de l’Information (UTI), adaptée au traitement de ces derniers. Les modèles neuronaux utilisés au niveau des feuilles (les UTIs) sont des réseaux à apprentissage supervisé, tel que le perceptron multicouches ou le réseau à base radiale (Arbib 2003, Widrow & al., 1990), etc. La construction de la structure neuronale arborescente se fait conformément aux étapes suivantes (figure 7) : • Normalisation de la base de donnée d’apprentissage. La moyenne est ramenée à 0 et l’écart type à 1 dans chacune des dimensions de l’espace d’entrée. • Estimation la complexité d’un problème (sous problème). Un indicateur numérique, Cplx, code cette complexité. Si cette valeur est supérieure à un seuil prédéterminé (de façon empirique), une UD décompose la base de données en K sous bases, en mode non supervisé, en fonction de la répartition des points de la base de données d’apprentissage dans l’espace concerné. • Apprentissage supervisé de chaque sous-espace issu du découpage. Une UTI procède à l’apprentissage supervisé de la relation entre l’espace d’entrée et l’espace de sortie pour chaque sous base de données i (i∈1,k). Si l’apprentissage ne réussit pas (erreur quadratique non atteinte au bout d’un nombre d’itérations très faible de l’ordre de Construire un Modèle Neuronal Modèle obtenu? Non Oui Fin Figure 7 . Algorithme de construction de l’arbre neuronal Un module d’analyse de complexité évalue la complexité à deux niveaux. Une première analyse est effectuée avant un découpage résultant à une décision statuant sur la nécessité (ou non) d’un découpage. Puis, une seconde analyse intervient après un découpage au niveau de chaque sous-espace obtenu si l’apprentissage supervisé de ce dernier ne satisfait pas le critère relatif à la qualité d’apprentissage. Le critère mesurant la qualité d’apprentissage est basé sur une évaluation de l’erreur quadratique d’apprentissage du réseau neuronal supervisé (UTI). La figure 8 illustre le processus d’apprentissage dans son ensemble. Plusieurs paramètres permettent d’optimiser la structure de l’arbre neuronal ainsi généré. Le premier paramètre est le seuil utilisé pour qualifier un problème de complexe ou non. Un autre paramètre important est celui décidant du choix de la structure des réseaux de neurones utilisés au niveau des feuilles de l’arbre (UTI). En effet, l’efficacité de cet arbre repose en grande partie sur l’efficacité des traitements aux niveaux des feuilles. Du fait que nous avons simplifié le problème, définir et faire apprendre à un réseau de neurones les relations entre les entrées et les sorties d’un sous espace devient simple. Dans le cas d’un découpage dichotomique, la structure arborescente résultante peut être équivalente à un arbre de décision binaire : dans ce cas les UDs peuvent être, par exemple, des cartes de Kohonen (Kohonen, 1988) avec une grille 2x1. 5. Protocole Expérimental Pour la validation de ces deux approches, nous avons utilisé une base de données constituée des PEMs pour 213 patients : dont 120 malades (M), et 93 normo-entendants (N). SETIT2005 τ1 τ2 τκ Temps d’apprentissage Analyse de complexité 2 1 UD UTI UTI UD UTI UTI Analyse de complexité d’apprentissage (TBA). Le nombre de neurones dans la couche cachée (Nncc), déterminé par la procédure d’apprentissage augmente avec la taille de la base d’apprentissage et reste pratiquement égal au nombre de vecteurs de celle-ci. Seuls deux ou trois vecteurs semblent redondants. UTI Apprentissage supervisé Taux RBF Apprentissage supervisé TBA= 34 Nncc = 32 70,9% TBA = 70 Nncc = 67 63,8% TBA = 100 Nncc = 98 72,8% UD Μ UTI UTI UTI UTI UTI UTI Tableau 1 . Résultats de catégorisation pour le réseau RBF seul Nombre de UTI générés Figure 8 . Schéma bloc du processus de la décomposition et la génération de solutions adaptatives. Nous nous sommes intéressés aux taux de catégorisation correcte des PEMs pendant la phase d’apprentissage et pendant la phase de généralisation pour la SMN et pour les deux réseaux, le constituant, seuls. La phase de généralisation correspond à la présentation des 213 vecteurs de la base de données, vecteurs appris et non appris par le réseau ou la SMN. Pour chacune des structures réseaux, la SMN, le LVQ seul et le RBF seul, nous avons fait varier la taille de la base d’apprentissage : 34 vecteurs, 70 vecteurs et 100 vecteurs, avec un nombre égal de vecteurs appartenant aux deux catégories. Simultanément, nous avons étudié le comportement de la SMN et du réseau LVQ seul, en fonction du nombre de neurones dans la couche cachée du réseau LVQ, variant de 10 à 50 par pas de 10. Le nombre de neurones dans la couche cachée du réseau RBF est déterminé par son apprentissage. Le nombre de neurones de la couche d’entrée du réseau RBF pour la SMN et réseau RBF seul, ainsi que pour le réseau LVQ seul, correspond au nombre de composantes du vecteur PEM. Le nombre de neurones de la couche de sortie du réseau LVQ et du réseau RBF seuls est 2 neurones, soit 80 (Figure 5). Avec la structure SNA, les UDs correspondent à des réseaux de neurones compétitifs ayant deux neurones dans la couche cachée, ce qui conduit à un arbre de décomposition binaire. Les UTIs correspondent à des perceptrons multicouches ayant une seule couche cachée à deux neurones avec des sigmoïdes comme fonction d’activation. Figure 9 . Taux de catégorisation pour le LVQ seul et la SMN (MRN) en apprentissage 6. Résultats et Analyse Dans le cadre de ce protocole expérimental, nous comparons les résultats obtenus par chacune des deux structures SMN et SNA, à ceux obtenus par les réseaux RBF et LVQ utilisés seuls. Nous discutons également de la pertinence de l’utilisation de l’une et/ou l’autre de ces structures neuronales évoluées. 6.1 Résultats SMN Le tableau 1 présente les résultats de catégorisation correcte par le réseau RBF seul en phase de généralisation pour les différentes tailles de base Figure 10 . Taux de catégorisation pour le LVQ seul et la SMN (MRN) en généralisation. Les Figures 9 et 10 présentent les résultats de catégorisation correcte pour le LVQ seul et la SMN, en fonction de la taille de la base d’apprentissage et du nombre de neurones dans la couche cachée du réseau LVQ, pour la phase d’apprentissage et celle de la généralisation, respectivement. La structure multineuronale proposée conduit pratiquement toujours à un taux de catégorisation en apprentissage plus élevé comparé au LVQ seul. Par ailleurs, il est important de SETIT2005 généralisation, nous avons utilisé toute la base de test précédemment définis comprenant les 213 signaux. Techni que utilisée Malades (121 vecteurs) Normales (92 vecteurs) Global (213 vecteurs) RBF LVQ SNA 64,2% 54,2% 84,6% 83,9% 82,8% 77% 72,8% 66,7% 81,2% Tableau 2 . taux de classification de RBF, LVQ et SNA respectivement 85,0% 70,0 80,0% 60,0 75,0% 50,0 70,0% 40,0 65,0% 30,0 60,0% 20,0 55,0% 10,0 50,0% 0,0 0,37 6. 2 Résultats SNA Avec la structure SNA, les UDs correspondent à des réseaux de neurones compétitifs ayant deux neurones dans la couche cachée, ce qui conduit à un arbre de décomposition binaire. Les UTIs correspondent à des perceptrons multicouches ayant une seule couche cachée à deux neurones avec des sigmoïdes comme fonction d'activation. Les vecteurs d’entrée et de sortie sont identiques à ceux utilisés pour les techniques classiques. La base d'apprentissage se compose de 106 signaux, avec 53 d'entre eux correspondant aux patients de type malade et 53 aux patients de type normal. Pour la 0,19 0,17 0,15 Seuil de décomposition 0,13 Nombre de feuilles La figure 11 représente les valeurs minimales, moyennes et maximales du taux de généralisation et le nombre de modèles au niveau des feuilles pour différentes architectures SNA. On peut remarquer en examinant la figure que quand le seuil de décomposition baisse, le nombre de feuilles augmente (ligne du bas, axe de droite). Cela conduit à l'amélioration du taux de classification. La décomposition facilite ainsi la tâche de modélisation et permet de réaliser la meilleure performance en terme de taux de classification. Un des meilleurs résultats a été obtenu pour la valeur de seuil égale à 0.13, ce qui correspond à la décomposition du problème initiale en 37 sous problèmes. La base d'apprentissage a été apprise avec le taux de classification de 97,2 %. En généralisation, nous obtenons un taux de classification moyen de 81,2 %. Les résultats obtenus par la structure SNA sont meilleurs que ceux obtenus par les réseaux de neurones classiques (Tableau 2). Ce qui correspond à une amélioration du taux de classification d'environ 15 %. On peut aussi remarquer que contrairement aux résultats obtenus avec les réseaux neuronaux conventionnels (RBF et LVQ), les taux de classification pour les deux classes (malade et normal) sont mieux répartis par la structure SNA. Taux de classification noter qu’il existe une corrélation entre le nombre de neurones dans la couche cachée (LVQ) et la taille de la base d’apprentissage évitant des phénomènes de sousapprentissage ou de sur-apprentissage. Pour Nncc<25, à la généralisation, la SMN et le LVQ donnent quasiment le même taux de réussite de catégorisation globale. Au delà de 25 neurones dans la couche cachée du LVQ, la SMN donne un bien meilleur taux de réussite de catégorisation globale (figure 10). On remarque, pour le RBF et la SMN, que le maximum du taux de réussite à l’apprentissage ne correspond pas au maximum du taux de réussite à la généralisation. (figures 9 et 10). Ce qui conduit à la nécessité de compromis entre les capacités de généralisation et celles d’apprentissage. A la généralisation la surface associée au taux de catégorisation de la SMN, passe par un maximum correspondant à un taux Trcgmax de l’ordre de 72%. Ce taux est obtenu pour un nombre de neurones entre 30 et 40 neurones dans la couche cachée. Cependant la zone de la stabilité de ce taux de catégorisation dépend de la taille de la base d’apprentissage. La stabilité est obtenue pour une base d’apprentissage contenant un nombre de vecteurs prototypes entre 50 et 70. Le taux de catégorisation correcte maximum obtenu, en généralisation pour le réseau RBF et la SMN est du même ordre, environ 72%. Par contre, ce taux est obtenu pour un nombre de prototypes appris plus faible pour la SMN. La SMN a donc une plus grande capacité d’apprentissage que le réseau RBF seul. Deux des paramètres caractérisant le fonctionnement de cette SMN ont été étudiés : le nombre de prototypes appris et le nombre de neurones dans la couche cachée du réseau LVQ. Au regard des résultats, le choix des valeurs de ces paramètres doit tenir compte de leur corrélation, garantissant un entraînement suffisant du système et du compromis entre capacité de généralisation et capacité d’apprentissage. Cette SMN permet d’acquérir un meilleur taux de généralisation correcte que le réseau LVQ seul. Comparé au réseau RBF seul, la SMN permet d’obtenir un taux de catégorisation correcte maximum du même ordre de grandeur, mais avec un nombre de prototypes appris plus faible (50 comparé à 100). Maximal % Moyenne % Minimal % Nombre de models Figure 11 . Les taux des généralisations et le nombre de modèles en fonction du seuil de décomposition. 6. 3 Comparaison Les expérimentations que nous avons menées montrent que les structures neuronales linéaire ou arborescente conduisent à de meilleures performances. L’avantage principale amenée par la structure SMN est l’obtention d’un taux de généralisation supérieur à celui obtenu avec une structure simple LVQ et équivalent à celui obtenu avec une structure simple SETIT2005 RBF, en utilisant une quantité d’informations plus faible (taille de la base d’apprentissage plus faible). La structure arborescente, quant à elle, permet d’améliorer le taux de généralisation d’un facteur de l’ordre de 15%. Le nombre de degrés de liberté de la structure linéaire est plus faible que celui de la structure arborescente. L’optimisation des paramètres de la structure linéaire est plus simple à résoudre que celle de la structure arborescente. Comme constat général, nous pouvons conclure que, confrontés à un problème de catégorisation à quantité d’informations disponibles réduite, l’utilisation d’une structure multi-neuronale linéaire permet d’améliorer les performances à moindre coût (optimisation de la structure plus aisée) . Si le but recherché est l’amélioration du taux de généralisation, les structures neuronales arborescentes sont les plus performantes. En contrepartie, le problème d’optimisation des paramètres de cette structure est plus complexe et nécessite une expérience plus importante de la part du concepteur. Conclusion Cet article a été focalisé sur la catégorisation de signaux électriques issus d’un examen auditif : les Potentiels Evoqués Auditifs. Cette étude constitue une toute première étape dans l’élaboration d’un système d’aide au diagnostic biomédical pour les médecins ORL. Du fait de la nature difficile du problème traité, nous avons fait évoluer les algorithmes de traitement de type neuromimétique à structure simple vers une structure statique à multiples réseaux de neurones (SMN), puis vers une structure dynamique arborescente à multiples réseaux de neurones (SNA). Ces deux approches sont construites à partir d’un même support, l’utilisation de plusieurs réseaux de neurones, mais organisées en topologies différentes. La struture SMN est composé d’un réseau de neurones de type Radial Basis Function (RBF) et d’un réseau de neurones de type Learning Vector Quantization (LVQ), placés en série. Dans cette configuration, le réseau RBF fournit « un taux d’appartenance » à la catégorie et le réseau LVQ constitue l’élément de décision. L’idée directrice de la structure SNA, quant à elle, est de diviser un problème complexe en un ensemble de sous problèmes relativement simples. La topologie de la structure neuronale induite est de forme arborescente. Les nœuds ainsi que les feuilles de cet arbre neuronal sont constitués de réseaux de neurones artificiels. Nous avons présenté, étudié et comparé ces deux approches de catégorisation en fonction des différents paramètres d’optimisation de chacune d’entre elles. Pour la validation de cette étude, nous avons utilisé une base de données expérimentales constituée de 213 patients classés en deux catégories : malade (atteint d’une pathologie auditive) ou sain (normo-entendant). Nous avons mis en œuvre les deux structures SMN et SNA, ainsi que les deux structures neuronales à réseau de neurones uniques, LVQ et RBF. Les structures SMN et SNA conduisent à de meilleurs taux de généralisation que le LVQ seul. Comparé au réseau RBF seul, la SMN permet d’obtenir un taux de catégorisation correcte maximum du même ordre de grandeur 72%, mais avec un nombre de prototypes appris plus faible. La structure SNA permet d’améliorer ce taux global de catégorisation correcte d'environ 15 %, soit un taux de 81,2%, mais le nombre de paramètres à optimiser est plus important. Un problème de catégorisation à quantité d’informations disponibles réduite, pourra donc être traité par une structure SMN linéaire, permettant l’amélioration des performances à moindre coût (optimisation de la structure plus simple). Si le but recherché est l’amélioration du taux de généralisation, les structures neuronales arborescentes sont les plus performantes. En contrepartie, le problème d’optimisation des paramètres de cette structure est plus complexe, avec un nombre de degrés de liberté plus important. D’autres études doivent complétées celle présentée dans cette article, notamment l’étude de l’influence des autres paramètres d’optimisation des structures, choisis de manière empirique, ici. De plus, au regard du travail des experts (médecins ORL), d’autres informations émanant d’autres tests auditifs pourront être pris en compte pour une amélioration du taux de catégorisation. Références ARBIB M.A. (2003). Handbook of Brain Theory a and Neural Networks, 2ed., M.I.T. Press. BAZOON M., A. STACEY D., CUI C. (1994). “A Hierarchical Artificial Neural Network System for the Classification of Cervical Cells “, IEEE International Conference on Neural Networks, Orlando. BROOMHEAD D. S., LOWER D. (1992). "Multivariable Functional Interpolation and Adaptative Network", Complex systems, Vol 2, pp321-335. DON M., MASUDA A., NELSON R., BRACKMANN D. (1997). “Sucessful detection of small acoustic tunour using the stacked derived-banded auditory brainstem response auditory”, The American Journal of Otology, 18:608621. DE TREMIOLLES G., (5 Février 1998). " Contribution à l'étude théorique des modèles neuromimétiques et à la validation expérimentale de ces modèles à travers des problèmes de taille et de complexité réelles : mise en œuvre d'applications industrielles", Thèse de Doctorat, Université PARIS XII - Val de Marne,. DUJARDIN A.S., AMARGER V. MADANI K. (7 Mai 1999). “Multi-Neuronal Networks Approaches for biomedical Applications : Classification of Brainstem Auditory Evoked Potentials”, IJCNN’99. GOONATILAKE S., KHEBBAL S. (1995) Issues, Classification and Future Directions, Intelligent Hybrid Systems. John Wiley & Sons, ISBN 0 471 94242 1, p. 1-20. SETIT2005 JORDAN M. I. AND XU L. (1995). Convergence Results for the EM Approach to Mixture of Experts Architectures , Neural Networks, Vol. 8, N° 9, Pergamon, Elsevier, p. 1409-1431. KOHONEN T. (1988). Self-Organization and Associative Memory, Second Edition, Springer-Verlag, New York. KOHONEN T. (1990).”Learning Vector quantization “, IJCNN San Diego, pp. 223-226. KOHONEN T., KANGAS J., LAAKSONEN J., TORKKOLA K. (1992). LVQ_PAK, Learning Vector quantization, User manual, Helsinki University of Technology. MADANI K., CHEBIRA A., RYBNIK M. (2003). Data Driven Multiple Neural Network Models Generator Based on a Tree-like Scheduler. Lecture Notes in Computer Science. Ed Jose Mira, Jose R. Alvarez, Springer Verlag Berlin Heidelberg, ISBN 3-540-40210-1, p. 382-389. MADANI K., DE TREMIOLLES G., TANHOFF P., (2003-2). “Image processing using RBF like neural networks : A ZISC-036 based fully parallel implementation solving real world and real complexity industrial problems”, Journal of Applied Intelligence N°18, Kluwer Academic Publishers, pp. 195-231. MUSTAWI M. T. & al. (1992). “On the training of Radial Basis Function Classifiers”. Neural Networks, Vol. 5, pp.595-603. VUCKOVIC A., RADIVOJEVIC V., CHEN A.C.N., POPOVIC D., (Juin 2002). "Automatic recognition of alertness and drowsiness from EEG by an artificial neural network", Medical Engineering & Physics, Volume 24, Issue 5, pp. 349-360. WIDROW B., LEHR M.A. (1990). 30 years of adaptative Neural Networks: Perceptron, Madaline, and Backpropagation , Proceeding of the IEEE, Vol.78, p. 1415-1441.