ASSIA : La Méthode KANGOUROU
Transcription
ASSIA : La Méthode KANGOUROU
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L' ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D'ORAN -MOHAMMED BOUDIAFUSTO-MB Faculté des Sciences Département d'Informatique Sujet : LA METHODE KANGOUROU Présenté Par : BENYETTOU Assia OPTION : R.F.I.A Module : Responsable du module : Optimisation Avancée Mr BENYETTOU MOHAMED La méthode KANGOUROU Sommaire Introduction ………………………………………………………………2 1.Definition……………………………………………………….……....2 1.1.Propriétés des métaheuristiques…………………………………….2 1.2.Classification………………………………………………………..3 1.2.1-Les méthodes exactes………………………………….……...3 1.2.2-Les méthodes approchés……………………………………...3 2.Descente stochastique…………………………………………………..4 2.1.Schéma général de la descente stochastique………………………..6 2.2.Algorithmes basés sur la descente stochastique……………………6 2.3.Méthode de descente aléatoire répétée……………………………..6 3.Evolution de descente stochastique (le recuit simulé)………………….7 4.Du recuit simulé à l’algorithme de Kangourou………………………...8 5.La méthode Kangourou………………………………………………...9 5.1.Notion de voisinage………………………………………...………9 5.2.Principe…………………………………………………………….10 5.3.L’algorithme du Kangourou……………………………………….11 5.3.1-Procédure de descente……………………………………….12 5.3.2-Procédure de saut……………………………………………12 5.4.Explication…………………………………………………...……14 5.5.Les paramètres de l’algorithme……………………………………14 5.6.Avantages………………………………………………………….15 6.Exemple de la méthode………………………………………………..15 Conclusion……………………………………………………………….17 Bibliographie…………………………………………………………….18 Liste des figures Figure1 :Les différentes catégories de méthode………………………….4 Figure2 :Espace de recherche et voisinage………………………….……9 Figure3 :La descente pour trouver un minimum local…………………..10 Figure4 :La recherche d'un minimum local……………………..………11 Figure5 : Utilisation des stratégies de sélection de paramètres………....13 Figure6 :Les composants d'une porte Peugeot 106………………..……15 1 La méthode KANGOUROU Introduction L'optimisation combinatoire est une voie d'études importante en recherche opérationnelle, en mathématiques discrètes et en informatique. Typiquement, les problèmes d'optimisation combinatoire sont faciles à définir mais difficiles à résoudre. En effet, la plupart de ces problèmes appartiennent à la classe des problèmes NP-difficiles et ne possèdent donc pas à ce jour de solution algorithmique efficace. Pour la résolution des problèmes d’optimisation combinatoire de nombreuses méthodes ont été développées en Recherche Opérationnelle (RO) et en Intelligence Artificielle (IA) afin de résoudre ces problèmes. Ces méthodes peuvent être classées en deux grandes catégories : - Les méthodes exactes (complètes) capables de trouver la solution optimale si elle existe, - Les méthodes approchées (incomplètes) qui perdent la complétude afin de gagner en efficacité. Certaines méthodes ont permis de trouver des résultats optimaux pour des problèmes de taille raisonnable, mais comme le temps de calcul nécessaire pour trouver une solution risque de croître de façon exponentielle avec la taille du problème, les méthodes exactes rencontrent des difficultés dans le cas de problèmes de taille importante, mais les méthodes approchées ont prouvé leur efficacité dans ce domaine et de trouver des solutions pour des problèmes de grande taille. Depuis une trentaine d’années une nouvelle génération de méthodes puissantes est apparue et qui s’appelle « Métaheuristiques ». 1. Définition Les métaheuristiques sont une nouvelle génération de méthodes approchées puissantes et générales, qui sont constituées d’un ensemble de concepts fondamentaux et qui permettent d'aider à la conception des méthodes heuristiques pour un problème d'optimisation, ainsi les métaheuristiques sont adaptables et applicables à une large classe de problèmes. Grâce à ces métaheuristiques, on peut proposer aujourd'hui des solutions approchées pour des problèmes d'optimisation classiques de plus grande taille et pour de très nombreuses applications qu'il était impossible de traiter auparavant, comme on constate, depuis ces dernières années, que l'intérêt porté aux métaheuristiques augmente continuellement en recherche opérationnelle et en intelligence artificielle. [NET] 1.1. Propriétés des métaheuristiques On peut résumer les différentes propriétés des métaheuristiques dans les points suivants: - Les métaheuristiques sont des stratégies qui permettent de guider la recherche à une solution optimale. - Le but visé par les métaheuristiques est d’explorer l’espace de recherche efficacement afin de déterminer des solutions (presque) optimales. - Les techniques qui constituent des algorithmes de type métaheuristique vont de la simple procédure de recherche locale à des processus d’apprentissage complexes. - Les métaheuristiques sont en général non déterministes et ne donnent aucune garantie d’optimalité. - Les métaheuristiques peuvent contenir des mécanismes qui permettent d’éviter d’être bloqué dans des régions de l’espace de recherche. - Les concepts de base des métaheuristiques peuvent être décrits de manière abstraite. 2 La méthode KANGOUROU - Les métaheuristiques peuvent faire appel à des heuristiques qui tiennent compte de la spécificité du problème traité, mais ces heuristiques sont contrôlées par une stratégie de niveau supérieur. - Les métaheuristiques peuvent faire usage de l’expérience accumulée durant la recherche de l’optimum, pour mieux guider la suite du processus de recherche. 1.2.Classification On peut classifier les métaheuristiques selon plusieurs façons l’une de ces façons est de distinguer celles qui travaillent avec une population de solutions de celles qui ne manipulent qu’une seule solution à la fois. Les méthodes qui tentent itérativement d’améliorer une solution sont appelées méthodes de recherche locale ou méthodes de trajectoire par exemple on a : la descente, la méthode Tabou, le Recuit Simulé, Colonies de Fourmies, la recherche à Voisinages Variables, et autres. Ces méthodes construisent une trajectoire dans l’espace des solutions en tentant de se diriger vers des solutions optimales. Les méthodes qui travaillent avec une population de solutions explorent l’espace de recherche et tentent à trouver des solutions approchées et parmi ces méthodes on a les algorithmes génétiques, les algorithmes mémétiques, la recherche dispersée, etc.Etant donnée l'importance de ces problèmes, de nombreuses méthodes de résolution ont été développées. Ces méthodes peuvent être classées sommairement en deux grandes catégories : 1.2.1- Les méthodes exactes (optimales) : Parmi les méthodes exactes, on trouve la plupart des méthodes traditionnelles (développées depuis une trentaine d'années) telles les techniques de séparation et évaluation progressive (SEP) ou les algorithmes avec retour arrière. Les méthodes exactes ont permis de trouver des solutions optimales pour des problèmes de taille raisonnable. Les méthodes exactes rencontrent généralement des difficultés face aux applications de taille importante. 1.2.2 -Les méthodes approchées (heuristiques) : Elles sont généralement utilisées quand les méthodes optimales ne permettent pas de résoudre le problème en un temps acceptable. Elles constituent une alternative très intéressante pour traiter les problèmes d'optimisation de grande taille si l'optimalité n'est pas primordiale. On peut citer les méthodes gloutonnes et l'amélioration itérative. 3 La méthode KANGOUROU Les Méthodes de Résolution Méthodes Exactes ou Optimales Méthodes Approchées ou Heuristiques Heuristiques classiques Méthodes basées sur La Théorie des Graphes Méta-Heuristiques Heuristique de Benhamamouche Méthode Kangourou MK Recuit Simulé RS Méthodes par recherche arborescente ou Procédures par Heuristiques de Chen et Chern Algorithmes à Seuil Séparation et Évaluation (PSE) Recherche Tabou RT (Branch and Bound) Heuristique d’Efe Méthodes Par Linéarisation Heuristique Simple (HRS) ou de Regroupement Méthode de de Descente Stochastique Méthode de Seuil Tabou Algorithmes Génétiques AG Réseaux de Neurones RN Systèmes de Fourmis SF Figure 1 : Les différentes catégories de méthodes [BELKADI 2006] 4 La méthode KANGOUROU 2. Descente stochastique La recherche locale, appelée aussi la descente stochastique, amélioration itérative ou Hill Climbing, représente une classe de méthodes heuristiques très anciennes (1956). Traditionnellement, la recherche locale constitue une arme redoutable pour attaquer des problèmes réputés très difficiles tels que le voyageur de commerce et la satisfaction des clauses, Contrairement à l'approche de construction, la recherche locale manipule des configurations complètes durant la recherche. Une méthode de recherche locale est un processus itératif fondé sur deux éléments essentiels un voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration quelconque s de V, 2. Choisir un voisin s’ de s tel que H (s’) < H(s) et remplacer s par s’ et à répéter 2) jusqu'à ce que pour tout voisin s’ de s, H (s’)> H(s). Cette procédure fait intervenir à chaque itération le choix d’un voisin qui améliore strictement la configuration courante. Plusieurs possibilités peuvent être envisagées pour effectuer ce choix. Il est possible d'énumérer les voisins jusqu'à ce qu'on en découvre un qui améliore strictement (première amélioration). On peut également rechercher le meilleur voisin (meilleure amélioration). Cette dernière solution peut sembler plus coûteuse, mais le voisin découvert sera en général de meilleure qualité. 3. De plus, l'utilisation d'une structure de données appropriée peut souvent permettre de trouver directement ce meilleur voisin. Comme l'espace des solutions est fini, cette procédure de descente s'arrête toujours, et la dernière configuration trouvée ne possède pas de voisin strictement meilleur qu'elle-même. Autrement dit, la recherche locale retourne toujours un optimum local. L'avantage principal de cette méthode réside dans sa grande simplicité et sa rapidité. Mais les solutions produites sont souvent de qualité médiocre et de coût très supérieur au coût optimal. Pour remédier à ce problème, la solution la plus simple est la méthode de relance aléatoire qui consiste à générer une nouvelle configuration de départ de façon aléatoire et à recommencer une descente. On remarque cependant que cette solution ne tire aucun profit des optima locaux déjà découverts. Une autre solution consiste à accepter des voisins de même performance que la configuration courante. Cette approche permet à la recherche de se déplacer sur les plateaux, mais n'est pas suffisante pour ressortir de tous les optima locaux. La recherche locale est à la base des métaheuristiques comme la méthode Tabou et des méthodes hybrides. Notons enfin qu’on trouve également l’idée de recherche locale dans le célèbre algorithme du simplexe pour la programmation linéaire. 5 La méthode KANGOUROU 2.1. Schéma général de la descente stochastique : H : la fonction objective Best : la meilleure solution rencontrée V : le voisinage Engendrer une configuration initiale Y Best := Y ; % best est la meilleur solution rencontrés Tant que Best n’est pas un optimum local, répéter Choisir y dans V(Best) tel que H(Y) < H(Best) Best := Y Fin Retourner Best 2.2. Algorithmes basés sur la descente aléatoire : La plupart des métaheuristiques à base de solution unique sont des améliorations de la méthode de descente aléatoire. Les plus simples sont des variantes de la descente aléatoire répétée, qui consiste à faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans l’espace de recherche, et la méthode du Kangourou, qui sera présentée plus loin. 2.3. Méthode de Descente Aléatoire répétée : Dans une descente aléatoire répétée, un seul point est tiré de façon aléatoire, puis utilisé pour démarrer une optimisation locale. Un élément notable de cette procédure est que le point initial ainsi obtenu peut être très éloigné de l’optimum global. Une amélioration possible consiste à tirer aléatoirement plusieurs points, et à choisir le meilleur pour démarrer l’optimisation locale, en évitant ainsi d’intensifier la recherche dans les régions peu prometteuses. La méthode décrite dans l’algorithme qui suit utilise une population de points initiaux, qu’elle met à jour avec de nouveaux points tirés de manière aléatoire après chaque optimisation locale. Le meilleur point de cette population est utilisé pour démarrer une descente aléatoire, après qu.il ait été éliminé de la population. 6 La méthode KANGOUROU L’algorithme de la Descente aléatoire répétée à base de population de points initiaux est comme suit : L’algorithme ci-dessus peut être vu comme une répétition de deux étapes : Une étape d’exploration, qui consiste à construire des points par échantillonnage aléatoire dans l’espace de recherche, et une étape d’exploitation, dans laquelle on démarre une descente à partir du meilleur point obtenu au cours des explorations précédentes. Dans l’étape exploratoire, nous utiliserons la stratégie d’initialisation (SI), ce qui permettra de sélectionner un sous-ensemble de paramètres intéressants. On utilisera ensuite la stratégie (SM) avec la mutation de descente, pour intensifier la recherche dans l’espace des paramètres sélectionnés lors de l’exploration. 3. Evolution de descente stochastique : le recuit simulé [GOURGAND ET AL, 2003] La méthode du recuit simulé s'inspire du processus du recuit physique. Ce processus utilisé en métallurgie pour améliorer la qualité d'un solide cherche un état d'énergie minimale qui correspond à une structure stable du solide. En partant d'une haute température à laquelle le solide est devenu liquide, la phase de refroidissement conduit la matière liquide à retrouver sa forme solide par une diminution progressive de la température. Chaque température est maintenue jusqu'à ce que la matière trouve un équilibre thermodynamique. Quand la température tend vers zéro, seules les transitions d'un état à un état d'énergie plus faible sont possibles. Les origines du recuit simulé remontent aux expériences réalisées par Metropolis et al. Dans les années 50 pour simuler l'évolution d'un tel processus de recuit physique. Metropolis et al utilisent une méthode stochastique pour générer une suite d'états successifs du système en partant d'un état initial donné. Tout nouvel état est obtenu en faisant subir un déplacement (une perturbation) aléatoire à un atome quelconque. 7 La méthode KANGOUROU 4. Du recuit simulé à l’algorithme de kangourou [GOURGAND ET AL, 2003] La première idée consiste à utiliser un "recuit à température constante", c'est à dire que l'on fixe la température T de sorte que l'on accepte un certain nombre de transitions défavorables, mais pas trop. On sait, dans ces conditions, quelle est la probabilité stationnaire, sous les hypothèses d'accessibilité, homogénéité et symétrie Le choix de T conditionne évidement la qualité de concentration de la probabilité stationnaire au voisinage des états optimaux. Parmi ceux-ci, l'algorithme le plus simple est celui de la descente stochastique, dont, bien sûr, la convergence n'est pas assurée, contrairement au cas T>0, les états ne communiquant pas nécessairement. Par exemple, on peut effectuer des descentes stochastiques successives, c'est-à-dire qu'à l'issue d'une descente stochastique, lorsque l'état optimal actuel est resté de même coût durant un temps trop long, on repart d'un état initial aléatoire, pour une autre descente stochastique Analysons le comportement des algorithmes du recuit. Dans beaucoup de situations, il s'avère que la descente stochastique, si elle ne garantit pas l'obtention de l'optimum, conduit à un état d'énergie proche du minimum, et en un temps plus court que le recuit simulé à température non nulle. Lorsque le cardinal des états possibles est très grand devant le nombre de tirages aléatoires que l'on a le temps de faire, c'est donc la descente stochastique qui semble être la meilleure méthode. D'ailleurs, quand on examine une trajectoire d'un algorithme classique du recuit, on constate généralement deux phases : dans une première, la chute de la fonction à minimiser est rapide, et le "record" est battu à intervalles proches, puis, dans une deuxième, la descente est lente et des intervalles de plus en plus longs séparent deux instants où s'améliore le record. Or, dans un recuit classique, c'est justement dans la première phase que l'on va accepter le plus de transitions défavorables, alors que c'est plutôt dans la seconde que ce serait nécessaire, pour sortir d'un minimum local. La démonstration du théorème de Hajek repose sur la divergence d'une série, or il n'est pas question de laisser l'algorithme de Metropolis se dérouler indéfiniment, et l'argument permettant d'assurer que la chaîne de Markov construite finira bien par stationner en un optimum, après avoir franchi les barrières séparant éventuellement la vallée où se trouve l'état actuel de la vallée contenant un optimum, reposant sur l'infini, ne tient plus. 8 La méthode KANGOUROU 5. La méthode Kangourou: Kangourou La méthode Kangourou est une technique d’approximation fondée sur la descente stochastique qui consiste à faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans l’espace de recherche. Elle a été proposée par Gérard Fleury1 en 1993. Inspiré par la méthode du recuit simulé, mais avec une stratégie très différente de recherche [SEBRENCU ET AL, 2007]. La descente stochastique chastique n’est en fait qu’un cas particulier de l’algorithme du kangourou (cas où le nombre de sauts est nul) [BELKADI 2006]. 5.1. Notion de voisinage : DEFINITION: Soit X l'ensemble des configurations admissibles d'un problème, on appelle voisinage toute application N : X → 2X. On appelle mécanisme d'exploration du voisinage toute procédure qui précise comment la recherche passe d'une configuration s ∈ X à une configuration configuratio s’ ∈ N(s). Une configuration s est un optimum (minimum) local par rapport au voisinage N si f(s) ≤ f(s’) pour toute configuration s’ ∈ N(s). [HAO ET AL., 1999] Figure 2 : Espace de recherche et voisinage 1 Gérard FLEURY : Maître de conférences à l'Université Blaise Pascal, Gérard Fleury est directeur de l'IREM (Institut de recherche sur l'Enseignement des Mathématiques). Membre du laboratoire de Mathématiques, ses recherches portent sur les probabilités numériques et leur utilisation en ingénierie. 9 La méthode KANGOUROU 5.2. Principe [DUTA,2006] La méthode est un algorithme itératif qui minimise une fonction objectif f(u). f(u) L’algorithme explore l'espace des solutions dans le voisinage N(u) en choisissant à chaque fois la meilleure solution voisine u* de la solution courante u. La recherche de la meilleure illeure solution voisine est un problème qui peut être aussi difficile que le problème initial. Figure 3 : La descente pour trouver un minimum local Soit u0 une solution admissible du problème d'optimisation. Par des déplacements successifs l'algorithme de Kangourou cherche une solution qui minimise la fonction f dans un voisinage de la solution courante. Si la solution ui est meilleure que la solution précédente, ente, elle est mémorisée et une nouvelle solution est cherchée dans le même voisinage. Si la solution ui n'est pas meilleure que la solution précédente, l'algorithme trouve un autre voisinage par un saut. Après un nombre d'itérations un minimum local u* est trouvé. 10 La méthode KANGOUROU Ce minimum est plus ou moins proche du minimum global (figure 3). Dans le cas idéal le minimum local u* est le même avec le minimum global ug. Figure 4 : La recherche d'un minimum local dans le voisinage de la solution courante 5.3. L’algorithme du Kangourou : [TALBI, 2004] Notations : x : état courant. encontré à l'itération courante. x* : meilleur état rencontré C : compteur d'itérations entre deux de améliorations de la solution. A : le nombre maximal d'itérations sans l'amélioration de la solution courante. courante f : la fonction objectif. 11 La méthode KANGOUROU 5.3.1-Procédure de descente : Répéter ns fois : 1 : Appliquer la mutation η2 à la solution courante : x1 ← η2(x) ; 2: Si f (x1)= f (x) alors aller en 5 ; 3: Si f (x1) < f (x*) alors Mettre à jour la meilleure solution rencontrée : x*← x1 ; 4: Réinitialiser le compteur de stationnement C ← 0 ; 5: Mettre à jour la solution courante : x ← x1 ; 6: Incrémenter le compteur de stationnement : C ← C+1 5.3.2- Procédure de saut : 1: Appliquer la mutation η1 à la solution courante : x1← η1(x) ; 2: Si f (x1) > f(x) alors aller en 5 ; 3: Si f (x1) <f(x) alors C← 0 ; 4: x ← x1 ; 5: C ← C+1 ; Les mutations η1 et η2 ont été choisies comme suit : η1: mutation uniforme locale. η1 (xi)= xi +(2 γ −1)p, où p est obtenu à partir d’une distribution uniforme sur [0,1] et p est un nombre réel (0 < p<1), souvent appelé taille maximum du pas. Cette mutation peut s’interpréter comme un déplacement vers un point choisi dans un N-cube centré en x et de côté 2p . η2: mutation uniforme globale. η2(xi)= γ, où γ est obtenu à partir d’une distribution uniforme sur [0,1]. La mutation η2 s’interprète comme un déplacement aléatoire dans le N-cube [0,1]N. La mutation η2 vérifie bien la propriété d’accessibilité, puisqu’à partir d’un point quelconque de l’espace de recherche [0,1]N, il est possible d’atteindre tout autre point de cet espace. Les deux mutations η1 et η2 sont utilisées avec des objectifs différents. 12 La méthode KANGOUROU η1 permet de faire un déplacement local (c’est-à-dire, (c’est dire, vers un point très proche de la solution courante), alors que η2 est utilisée pour effectuer un saut vers un autre bassin d’attraction, pour sortir d’un optimum local. La figure 5 présente les stratégies de sélection de paramètres utilisées avec l’algorithme du Kangourou. Pour intensifier la recherche dans l’espace des paramètres sélectionnés, tout en donnant la possibilité ilité aux autres d’être sélectionnés eux aussi, une stratégie de type (SM) est utilisée avec la mutation de descente η1. Avec une telle stratégie, seuls les paramètres ayant permis d’améliorer la fonction objectif à une itération donnée peuvent être ajoutés ajoutés à l’ensemble des paramètres sélectionnés. A la fin de chaque descente, et avant d’effectuer un saut, une stratégie d’élimination aléatoire en arrière (SE) est appliquée à la solution courante, afin d’éliminer les paramètres inutiles. Ensuite, les sauts auts sont effectués en utilisant une stratégie d’initialisation restreinte (SIR) avec la mutation de saut η2,, ce qui permet d’éviter l’augmentation du nombre de paramètres durant les sauts. La stratégie (SC) est utilisée à chaque comparaison entre solutions. Figure 5 : Utilisation des stratégies de sélection de paramètres au sein de l’algorithme du Kangourou. 13 La méthode KANGOUROU L’algorithme Kangourou est défini comme suit : 1 : Initialiser la solution courante : x ← x0 ; 2 : Initialiser la meilleure solution rencontrée : x*←x0 ; // *une meilleure solution x* est recherché afin de minimiser la fonction objectif f *// 3 : Initialiser le compteur de stationnement : C← 1 ; 4 : Si C < A alors // *descente stochastique *// exécuter la procédure de descente : x ← descente (x, C) ; Sinon exécuter la procédure de saut : x ← saut (x) ; 5 : Si x est meilleure que x* alors x* ← x ; 6 : Si le critère d’arrêt est atteint alors aller en 4 ; Sinon fin de l’algorithme. 5.4. Explication [TALBI, 2004] Après une descente aléatoire avec une mutation η1 , si la valeur de la fonction objectif n’a pas changé depuis A itérations, plusieurs sauts aléatoires consécutifs sont effectués en utilisant une mutation η2. La mutation η2 n’est pas nécessairement la même que η1 , mais doit respecter la propriété d’accessibilité, c’est-à-dire que pour tout couple de points (x, y) de l’espace des paramètres, il doit être possible d’atteindre y à partir de x, en utilisant une suite finie de mutations de type η2 . Cette propriété est suffisante pour garantir la convergence asymptotique de l’algorithme. Les deux mutations η1 et η2 sont utilisées avec des objectifs différents. η1 permet de faire un déplacement local (c’est-à-dire, vers un point très proche de la solution courante), alors que η2 est utilisée pour effectuer un saut vers un autre bassin d’attraction, pour sortir d’un optimum local. La première et la deuxième mutation ne sont pas nécessairement les mêmes, mais doivent respecter la propriété d’accessibilité de l’algorithme. 5.5. Les paramètres : Les paramètres de l’algorithme du kangourou sont : • le compteur de stationnement, • le nombre d’itérations, • la procédure de descente, • la procédure de saut • le critère d’arrêt. 14 La méthode KANGOUROU 5.6.Avantages : Elle présente l’avantage de ne pas perdre l’information relative aux optima locaux rencontrés. Les résultats obtenus par la méthode du kangourou sont de bonnes qualités avec un temps de calcul modéré. Le fait d’effectuer des sauts permet à l’algorithme du kangourou de sortir d’une vallée c’est à dire d’un minimum local en sautant les barrières de potentiel. potent [TALBI 2004] 6. Exemple de la méthode Kangourou [DUTA,2006] [ Le désassemblage d'une porte du modèle Peugeot 106] Dans sa thèse, [DUTA ,2006] a appliqué l'algorithme du kangourou sur désassemblage d'une porte du modèle Peugeot 106. Les composants et les temps de désassemblage sont donnés. 1 Paneau garni 2 Vide-poche 3 Accoudoir 4 Garniture d'absorbeur 5 Absorbeur 6 Enjoliveur de poignée Commande manuelle de vitre 70 Vis torx 71 Clip de fixation 72 Agrafe 73 Ecrou plastique 74 Vis torx 75 Agrafe Figure 6 : Les composants d'une porte Peugeot 106 15 La méthode KANGOUROU Le tableau représentant Les opérations principales de désassemblage de la porte est comme suit : Nous avons ignoré les opérations annexes comme la prise ou le positionnement d'un outil. -Hypothèses : · Il s'agit d'un seul type de produit (Peugeot 106) · La période de planification est H = une semaine · Le nombre de produits de même type à désassembler est constant S=40 · La fonction à optimiser est une fonction d'équilibrage F. · Les temps de désassemblage pour les autres composants sont connus. · Le temps de cycle est connu et égale à 3600 s pour le désassemblage de la voiture entière. · Il y deux postes mixtes où le désassemblage de la porte est réalisé L'exécution de l'algorithme du [Duta, 2006] donne la valeur minimale de la fonction F de 260 s, ce qui est un bon résultat. 16 La méthode KANGOUROU Conclusion La méthode Kangourou offre une solution par une descente stochastique et une transition dans le voisinage de l'état actuel pour trouver une meilleure solution de la solution courante. La méthode donne un optimum local dans un temps acceptable, basé sur le recuit simulé, il permet l’étude de problèmes à forte combinatoire.[GOURGAND et al., 2003] Contrairement à la recherche tabou et aux algorithmes évolutionnistes, la méta-heuristique « méthode Kangourou » n’a besoin que d’une seule évaluation du critère de performance à chaque itération, ce qui est intéressant du point de vue du temps de calcul. L’intérêt de cette méthode est qu’elle est facile à mettre en œuvre, elle peut être couplée sans difficulté avec un modèle pour l’évaluation des performances et on dispose a tout instant d’une solution réalisable. L’algorithme du kangourou a beaucoup d’avantages car il permet la recherche globale ainsi que le réglage de paramètres du recuit simulé. Il présente plusieurs inconvénients comme le nombre de stationnements et de sauts nécessaire pour la recherche global. 17 La méthode KANGOUROU Références Bibliographiques [SEBRENCU ET AL, 2007] Adrian SERBENCU, Viorel MINZU, Adriana SERBENCU ; « An ant colony system based metaheuristic for solving single machine scheduling problem » ; the annals of “dunarea de jos” university of galati fascicle III, 2007 P19-24 [BELKADI , 2006] BELKADI K. « Les méta-heuristiques » Cours, Usto ; 2006 [DUTA ,2006 ] Luminita DUTA ; « Contribution A L'etude De La Conduite Des Systemes De Desassemblage » ; thèse de doctorat en Automatique et Informatique; Université Franche-Comte Du Besancon ; soutenue le 22 septembre 2006 [GOURGAND ET AL, 2003] M. Gourgand, N. Grangeon et S.Norre ; « Problemes D’ordonnancement Dans Les Systèmes De Production De Type Flow-Shop Hybride En Contexte Déterministe » ; J3eA, Journal sur l’enseignement des sciences et technologies de l’information et des systèmes ; EDP Sciences, 2003 [HAO ET AL, 1999 ] Jin-Kao HAO, Philippe GALINIER, Michel HABIB ; « Méthaheuristiques pour l’optimisation combinatoire et l’affectation sous contraintes »; Revue d’Intelligence Artificielle ; 1999 [TALBI, 2004] El-Djillali TALBI ; « Sélection et réglage de paramètres pour l’optimisation de logiciels d’ordonnancement industriel » ; Institut National Polytechnique de Toulouse Ecole Doctorale Systèmes ; Spécialité : Informatique Industrielle Soutenu le 12 novembre 2004 [NET] http://fr.wikipedia.org/wiki/Recherche_kangourou 18