ASSIA : La Méthode KANGOUROU

Transcription

ASSIA : La Méthode KANGOUROU
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE
MINISTERE DE L' ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D'ORAN
-MOHAMMED BOUDIAFUSTO-MB
Faculté des Sciences
Département d'Informatique
Sujet :
LA METHODE KANGOUROU
Présenté Par :
BENYETTOU
Assia
OPTION :
R.F.I.A
Module :
Responsable du module :
Optimisation Avancée
Mr BENYETTOU MOHAMED
La méthode KANGOUROU
Sommaire
Introduction ………………………………………………………………2
1.Definition……………………………………………………….……....2
1.1.Propriétés des métaheuristiques…………………………………….2
1.2.Classification………………………………………………………..3
1.2.1-Les méthodes exactes………………………………….……...3
1.2.2-Les méthodes approchés……………………………………...3
2.Descente stochastique…………………………………………………..4
2.1.Schéma général de la descente stochastique………………………..6
2.2.Algorithmes basés sur la descente stochastique……………………6
2.3.Méthode de descente aléatoire répétée……………………………..6
3.Evolution de descente stochastique (le recuit simulé)………………….7
4.Du recuit simulé à l’algorithme de Kangourou………………………...8
5.La méthode Kangourou………………………………………………...9
5.1.Notion de voisinage………………………………………...………9
5.2.Principe…………………………………………………………….10
5.3.L’algorithme du Kangourou……………………………………….11
5.3.1-Procédure de descente……………………………………….12
5.3.2-Procédure de saut……………………………………………12
5.4.Explication…………………………………………………...……14
5.5.Les paramètres de l’algorithme……………………………………14
5.6.Avantages………………………………………………………….15
6.Exemple de la méthode………………………………………………..15
Conclusion……………………………………………………………….17
Bibliographie…………………………………………………………….18
Liste des figures
Figure1 :Les différentes catégories de méthode………………………….4
Figure2 :Espace de recherche et voisinage………………………….……9
Figure3 :La descente pour trouver un minimum local…………………..10
Figure4 :La recherche d'un minimum local……………………..………11
Figure5 : Utilisation des stratégies de sélection de paramètres………....13
Figure6 :Les composants d'une porte Peugeot 106………………..……15
1
La méthode KANGOUROU
Introduction
L'optimisation combinatoire est une voie d'études importante en recherche opérationnelle, en
mathématiques discrètes et en informatique. Typiquement, les problèmes d'optimisation
combinatoire sont faciles à définir mais difficiles à résoudre. En effet, la plupart de ces problèmes
appartiennent à la classe des problèmes NP-difficiles et ne possèdent donc pas à ce jour de solution
algorithmique efficace.
Pour la résolution des problèmes d’optimisation combinatoire de nombreuses méthodes ont été
développées en Recherche Opérationnelle (RO) et en Intelligence Artificielle (IA) afin de résoudre
ces problèmes. Ces méthodes peuvent être classées en deux grandes catégories :
- Les méthodes exactes (complètes) capables de trouver la solution optimale si elle existe,
- Les méthodes approchées (incomplètes) qui perdent la complétude afin de gagner en efficacité.
Certaines méthodes ont permis de trouver des résultats optimaux pour des problèmes de taille
raisonnable, mais comme le temps de calcul nécessaire pour trouver une solution risque de croître
de façon exponentielle avec la taille du problème, les méthodes exactes rencontrent des difficultés
dans le cas de problèmes de taille importante, mais les méthodes approchées ont prouvé leur
efficacité dans ce domaine et de trouver des solutions pour des problèmes de grande taille.
Depuis une trentaine d’années une nouvelle génération de méthodes puissantes est apparue et qui
s’appelle « Métaheuristiques ».
1. Définition
Les métaheuristiques sont une nouvelle génération de méthodes approchées puissantes et
générales, qui sont constituées d’un ensemble de concepts fondamentaux et qui permettent d'aider à
la conception des méthodes heuristiques pour un problème d'optimisation, ainsi les
métaheuristiques sont adaptables et applicables à une large classe de problèmes.
Grâce à ces métaheuristiques, on peut proposer aujourd'hui des solutions approchées pour des
problèmes d'optimisation classiques de plus grande taille et pour de très nombreuses applications
qu'il était impossible de traiter auparavant, comme on constate, depuis ces dernières années, que
l'intérêt porté aux métaheuristiques augmente continuellement en recherche opérationnelle et en
intelligence artificielle. [NET]
1.1. Propriétés des métaheuristiques
On peut résumer les différentes propriétés des métaheuristiques dans les points suivants:
- Les métaheuristiques sont des stratégies qui permettent de guider la recherche à une solution
optimale.
- Le but visé par les métaheuristiques est d’explorer l’espace de recherche efficacement afin de
déterminer des solutions (presque) optimales.
- Les techniques qui constituent des algorithmes de type métaheuristique vont de la simple
procédure de recherche locale à des processus d’apprentissage complexes.
- Les métaheuristiques sont en général non déterministes et ne donnent aucune garantie
d’optimalité.
- Les métaheuristiques peuvent contenir des mécanismes qui permettent d’éviter d’être bloqué dans
des régions de l’espace de recherche.
- Les concepts de base des métaheuristiques peuvent être décrits de manière abstraite.
2
La méthode KANGOUROU
- Les métaheuristiques peuvent faire appel à des heuristiques qui tiennent compte de la spécificité
du problème traité, mais ces heuristiques sont contrôlées par une stratégie de niveau supérieur.
- Les métaheuristiques peuvent faire usage de l’expérience accumulée durant la recherche de
l’optimum, pour mieux guider la suite du processus de recherche.
1.2.Classification
On peut classifier les métaheuristiques selon plusieurs façons l’une de ces façons est de
distinguer celles qui travaillent avec une population de solutions de celles qui ne manipulent
qu’une seule solution à la fois.
Les méthodes qui tentent itérativement d’améliorer une solution sont appelées méthodes de
recherche locale ou méthodes de trajectoire par exemple on a : la descente, la méthode
Tabou, le Recuit Simulé, Colonies de Fourmies, la recherche à Voisinages Variables, et autres. Ces
méthodes construisent une trajectoire dans l’espace des solutions en tentant de se diriger vers des
solutions optimales. Les méthodes qui travaillent avec une population de solutions explorent
l’espace de recherche et tentent à trouver des solutions approchées et parmi ces méthodes on a les
algorithmes génétiques, les algorithmes mémétiques, la recherche dispersée, etc.Etant donnée
l'importance de ces problèmes, de nombreuses méthodes de résolution ont été développées.
Ces méthodes peuvent être classées sommairement en deux grandes catégories :
1.2.1- Les méthodes exactes (optimales) :
Parmi les méthodes exactes, on trouve la plupart des méthodes traditionnelles (développées depuis
une trentaine d'années) telles les techniques de séparation et évaluation progressive (SEP) ou les
algorithmes avec retour arrière. Les méthodes exactes ont permis de trouver des solutions optimales
pour des problèmes de taille raisonnable. Les méthodes exactes rencontrent généralement des
difficultés face aux applications de taille importante.
1.2.2 -Les méthodes approchées (heuristiques) :
Elles sont généralement utilisées quand les méthodes optimales ne permettent pas de résoudre le
problème en un temps acceptable. Elles constituent une alternative très intéressante pour traiter les
problèmes d'optimisation de grande taille si l'optimalité n'est pas primordiale. On peut citer les
méthodes gloutonnes et l'amélioration itérative.
3
La méthode KANGOUROU
Les Méthodes de Résolution
Méthodes
Exactes ou Optimales
Méthodes
Approchées ou Heuristiques
Heuristiques classiques
Méthodes basées
sur
La Théorie des Graphes
Méta-Heuristiques
Heuristique
de
Benhamamouche
Méthode Kangourou
MK
Recuit Simulé
RS
Méthodes par
recherche arborescente
ou Procédures par
Heuristiques
de
Chen et Chern
Algorithmes à Seuil
Séparation
et Évaluation (PSE)
Recherche Tabou
RT
(Branch and Bound)
Heuristique
d’Efe
Méthodes
Par
Linéarisation
Heuristique Simple
(HRS) ou de
Regroupement
Méthode de
de Descente
Stochastique
Méthode de Seuil
Tabou
Algorithmes
Génétiques
AG
Réseaux
de Neurones
RN
Systèmes
de Fourmis
SF
Figure 1 : Les différentes catégories de méthodes [BELKADI 2006]
4
La méthode KANGOUROU
2. Descente stochastique
La recherche locale, appelée aussi la descente stochastique, amélioration itérative ou Hill
Climbing, représente une classe de méthodes heuristiques très anciennes (1956).
Traditionnellement, la recherche locale constitue une arme redoutable pour attaquer des problèmes
réputés très difficiles tels que le voyageur de commerce et la satisfaction des clauses, Contrairement à
l'approche de construction, la recherche locale manipule des configurations complètes durant la
recherche.
Une méthode de recherche locale est un processus itératif fondé sur deux éléments essentiels un
voisinage V et une procédure exploitant le voisinage.
Plus précisément, elle consiste à :
1. Débuter avec une configuration quelconque s de V,
2. Choisir un voisin s’ de s tel que H (s’) < H(s) et remplacer s par s’ et à répéter 2) jusqu'à ce que
pour tout voisin s’ de s, H (s’)> H(s).
Cette procédure fait intervenir à chaque itération le choix d’un voisin qui améliore strictement la
configuration courante. Plusieurs possibilités peuvent être envisagées pour effectuer ce choix. Il est
possible d'énumérer les voisins jusqu'à ce qu'on en découvre un qui améliore strictement (première
amélioration). On peut également rechercher le meilleur voisin (meilleure amélioration). Cette dernière
solution peut sembler plus coûteuse, mais le voisin découvert sera en général de meilleure qualité.
3. De plus, l'utilisation d'une structure de données appropriée peut souvent permettre de trouver
directement ce meilleur voisin.
Comme l'espace des solutions est fini, cette procédure de descente s'arrête toujours, et la dernière
configuration trouvée ne possède pas de voisin strictement meilleur qu'elle-même. Autrement dit, la
recherche locale retourne toujours un optimum local.
L'avantage principal de cette méthode réside dans sa grande simplicité et sa rapidité. Mais les solutions
produites sont souvent de qualité médiocre et de coût très supérieur au coût optimal.
Pour remédier à ce problème, la solution la plus simple est la méthode de relance aléatoire qui consiste
à générer une nouvelle configuration de départ de façon aléatoire et à recommencer une descente. On
remarque cependant que cette solution ne tire aucun profit des optima locaux déjà découverts. Une autre
solution consiste à accepter des voisins de même performance que la configuration courante. Cette
approche permet à la recherche de se déplacer sur les plateaux, mais n'est pas suffisante pour ressortir
de tous les optima locaux.
La recherche locale est à la base des métaheuristiques comme la méthode Tabou et des méthodes
hybrides. Notons enfin qu’on trouve également l’idée de recherche locale dans le célèbre algorithme du
simplexe pour la programmation linéaire.
5
La méthode KANGOUROU
2.1. Schéma général de la descente stochastique :
H : la fonction objective
Best : la meilleure solution rencontrée
V : le voisinage
Engendrer une configuration initiale Y
Best := Y ; % best est la meilleur solution rencontrés
Tant que Best n’est pas un optimum local, répéter
Choisir y dans V(Best) tel que H(Y) < H(Best)
Best := Y
Fin
Retourner Best
2.2. Algorithmes basés sur la descente aléatoire :
La plupart des métaheuristiques à base de solution unique sont des améliorations de la méthode de
descente aléatoire. Les plus simples sont des variantes de la descente aléatoire répétée, qui consiste à
faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans l’espace de
recherche, et la méthode du Kangourou, qui sera présentée plus loin.
2.3. Méthode de Descente Aléatoire répétée :
Dans une descente aléatoire répétée, un seul point est tiré de façon aléatoire, puis utilisé pour
démarrer une optimisation locale. Un élément notable de cette procédure est que le point initial ainsi
obtenu peut être très éloigné de l’optimum global. Une amélioration possible consiste à tirer
aléatoirement plusieurs points, et à choisir le meilleur pour démarrer l’optimisation locale, en évitant
ainsi d’intensifier la recherche dans les régions peu prometteuses. La méthode décrite dans l’algorithme
qui suit utilise une population de points initiaux, qu’elle met à jour avec de nouveaux points tirés de
manière aléatoire après chaque optimisation locale. Le meilleur point de cette population est utilisé pour
démarrer une descente aléatoire, après qu.il ait été éliminé de la population.
6
La méthode KANGOUROU
L’algorithme de la Descente aléatoire répétée à base de population de points initiaux est comme suit :
L’algorithme ci-dessus peut être vu comme une répétition de deux étapes :
Une étape d’exploration, qui consiste à construire des points par échantillonnage aléatoire dans
l’espace de recherche, et une étape d’exploitation, dans laquelle on démarre une descente à partir du
meilleur point obtenu au cours des explorations précédentes.
Dans l’étape exploratoire, nous utiliserons la stratégie d’initialisation (SI), ce qui permettra de
sélectionner un sous-ensemble de paramètres intéressants. On utilisera ensuite la stratégie (SM)
avec la mutation de descente, pour intensifier la recherche dans l’espace des paramètres
sélectionnés lors de l’exploration.
3. Evolution de descente stochastique : le recuit simulé
[GOURGAND ET AL, 2003]
La méthode du recuit simulé s'inspire du processus du recuit physique. Ce processus utilisé en
métallurgie pour améliorer la qualité d'un solide cherche un état d'énergie minimale qui correspond
à une structure stable du solide.
En partant d'une haute température à laquelle le solide est devenu liquide, la phase de
refroidissement conduit la matière liquide à retrouver sa forme solide par une diminution
progressive de la température. Chaque température est maintenue jusqu'à ce que la matière trouve
un équilibre thermodynamique. Quand la température tend vers zéro, seules les transitions d'un état
à un état d'énergie plus faible sont possibles.
Les origines du recuit simulé remontent aux expériences réalisées par Metropolis et al. Dans les
années 50 pour simuler l'évolution d'un tel processus de recuit physique.
Metropolis et al utilisent une méthode stochastique pour générer une suite d'états successifs du
système en partant d'un état initial donné.
Tout nouvel état est obtenu en faisant subir un déplacement (une perturbation) aléatoire à un atome
quelconque.
7
La méthode KANGOUROU
4. Du recuit simulé à l’algorithme de kangourou
[GOURGAND ET AL, 2003]
La première idée consiste à utiliser un "recuit à température constante", c'est à dire que l'on fixe
la température T de sorte que l'on accepte un certain nombre de transitions défavorables, mais pas
trop. On sait, dans ces conditions, quelle est la probabilité stationnaire, sous les hypothèses
d'accessibilité, homogénéité et symétrie Le choix de T conditionne évidement la qualité de
concentration de la probabilité stationnaire au voisinage des états optimaux.
Parmi ceux-ci, l'algorithme le plus simple est celui de la descente stochastique, dont, bien sûr, la
convergence n'est pas assurée, contrairement au cas T>0, les états ne communiquant pas
nécessairement.
Par exemple, on peut effectuer des descentes stochastiques successives, c'est-à-dire qu'à l'issue
d'une descente stochastique, lorsque l'état optimal actuel est resté de même coût durant un temps
trop long, on repart d'un état initial aléatoire, pour une autre descente stochastique Analysons le
comportement des algorithmes du recuit. Dans beaucoup de situations, il s'avère que la descente
stochastique, si elle ne garantit pas l'obtention de l'optimum, conduit à un état d'énergie proche du
minimum, et en un temps plus court que le recuit simulé à température non nulle.
Lorsque le cardinal des états possibles est très grand devant le nombre de tirages aléatoires que l'on
a le temps de faire, c'est donc la descente stochastique qui semble être la meilleure méthode.
D'ailleurs, quand on examine une trajectoire d'un algorithme classique du recuit, on constate
généralement deux phases : dans une première, la chute de la fonction à minimiser est rapide, et le
"record" est battu à intervalles proches, puis, dans une deuxième, la descente est lente et des
intervalles de plus en plus longs séparent deux instants où s'améliore le record. Or, dans un recuit
classique, c'est justement dans la première phase que l'on va accepter le plus de transitions
défavorables, alors que c'est plutôt dans la seconde que ce serait nécessaire, pour sortir d'un
minimum local.
La démonstration du théorème de Hajek repose sur la divergence d'une série, or il n'est pas question
de laisser l'algorithme de Metropolis se dérouler indéfiniment, et l'argument permettant d'assurer
que la chaîne de Markov construite finira bien par stationner en un optimum, après avoir franchi les
barrières séparant éventuellement la vallée où se trouve l'état actuel de la vallée contenant un
optimum, reposant sur l'infini, ne tient plus.
8
La méthode KANGOUROU
5. La méthode Kangourou:
Kangourou
La méthode Kangourou est une technique d’approximation fondée sur la descente stochastique
qui consiste à faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans
l’espace de recherche.
Elle a été proposée par Gérard Fleury1 en 1993. Inspiré par la méthode du recuit simulé, mais avec
une stratégie très différente de recherche [SEBRENCU ET AL, 2007].
La descente stochastique
chastique n’est en fait qu’un cas particulier de l’algorithme du kangourou (cas où le
nombre de sauts est nul) [BELKADI 2006].
5.1. Notion de voisinage :
DEFINITION:
Soit X l'ensemble des configurations admissibles d'un problème, on appelle voisinage toute
application N : X → 2X. On appelle mécanisme d'exploration du voisinage toute procédure qui
précise comment la recherche passe d'une configuration s ∈ X à une configuration
configuratio s’ ∈ N(s). Une
configuration s est un optimum (minimum) local par rapport au voisinage N si f(s) ≤ f(s’) pour toute
configuration s’ ∈ N(s). [HAO ET AL., 1999]
Figure 2 : Espace de recherche et voisinage
1
Gérard FLEURY : Maître de conférences à l'Université Blaise Pascal, Gérard Fleury est directeur de l'IREM (Institut de recherche
sur l'Enseignement des Mathématiques). Membre du laboratoire de Mathématiques, ses recherches portent sur les probabilités
numériques et leur utilisation en ingénierie.
9
La méthode KANGOUROU
5.2. Principe [DUTA,2006]
La méthode est un algorithme itératif qui minimise une fonction objectif f(u).
f(u) L’algorithme
explore l'espace des solutions dans le voisinage N(u) en choisissant à chaque fois la meilleure
solution voisine u* de la solution courante u. La recherche de la meilleure
illeure solution voisine est un
problème qui peut être aussi difficile que le problème initial.
Figure 3 : La descente pour trouver un minimum local
Soit u0 une solution admissible du problème d'optimisation. Par des déplacements successifs
l'algorithme de Kangourou cherche une solution qui minimise la fonction f dans un voisinage de la
solution courante. Si la solution ui est meilleure que la solution précédente,
ente, elle est mémorisée et
une nouvelle solution est cherchée dans le même voisinage. Si la solution ui n'est pas meilleure que
la solution précédente, l'algorithme trouve un autre voisinage par un saut. Après un nombre
d'itérations un minimum local u* est trouvé.
10
La méthode KANGOUROU
Ce minimum est plus ou moins proche du minimum global (figure 3).
Dans le cas idéal le minimum local u* est le même avec le minimum global ug.
Figure 4 : La recherche d'un minimum local dans
le voisinage de la solution courante
5.3. L’algorithme du Kangourou : [TALBI, 2004]
Notations :
x : état courant.
encontré à l'itération courante.
x* : meilleur état rencontré
C : compteur d'itérations entre deux
de améliorations de la solution.
A : le nombre maximal d'itérations sans l'amélioration de la solution courante.
courante
f : la fonction objectif.
11
La méthode KANGOUROU
5.3.1-Procédure de descente :
Répéter ns fois :
1 : Appliquer la mutation η2 à la solution courante :
x1 ← η2(x) ;
2:
Si f (x1)= f (x) alors
aller en 5 ;
3:
Si f (x1) < f (x*) alors
Mettre à jour la meilleure solution rencontrée : x*← x1 ;
4:
Réinitialiser le compteur de stationnement C ← 0 ;
5:
Mettre à jour la solution courante : x ← x1 ;
6:
Incrémenter le compteur de stationnement : C ← C+1
5.3.2- Procédure de saut :
1:
Appliquer la mutation η1 à la solution courante : x1← η1(x) ;
2:
Si
f (x1) > f(x)
alors
aller en 5 ;
3:
Si
f (x1) <f(x)
alors
C← 0 ;
4:
x ← x1 ;
5:
C ← C+1 ;
Les mutations η1 et η2 ont été choisies comme suit :
η1: mutation uniforme locale. η1 (xi)= xi +(2 γ −1)p, où p est obtenu à partir d’une distribution
uniforme sur [0,1] et p est un nombre réel (0 < p<1), souvent appelé taille maximum du pas.
Cette mutation peut s’interpréter comme un déplacement vers un point choisi dans un N-cube centré
en x et de côté 2p .
η2: mutation uniforme globale. η2(xi)= γ, où γ est obtenu à partir d’une distribution uniforme sur
[0,1]. La mutation η2 s’interprète comme un déplacement aléatoire dans le N-cube [0,1]N.
La mutation η2 vérifie bien la propriété d’accessibilité, puisqu’à partir d’un point quelconque de
l’espace de recherche [0,1]N, il est possible d’atteindre tout autre point de cet espace.
Les deux mutations η1 et η2 sont utilisées avec des objectifs différents.
12
La méthode KANGOUROU
η1 permet de faire un déplacement local (c’est-à-dire,
(c’est dire, vers un point très proche de la solution
courante), alors que η2 est utilisée pour effectuer un saut vers un autre bassin d’attraction, pour sortir
d’un optimum local.
La figure 5 présente les stratégies de sélection de paramètres utilisées avec l’algorithme du
Kangourou. Pour intensifier la recherche dans l’espace des paramètres sélectionnés, tout en donnant
la possibilité
ilité aux autres d’être sélectionnés eux aussi, une stratégie de type (SM) est utilisée avec la
mutation de descente η1. Avec une telle stratégie, seuls les paramètres ayant permis d’améliorer la
fonction objectif à une itération donnée peuvent être ajoutés
ajoutés à l’ensemble des paramètres
sélectionnés. A la fin de chaque descente, et avant d’effectuer un saut, une stratégie d’élimination
aléatoire en arrière (SE) est appliquée à la solution courante, afin d’éliminer les paramètres inutiles.
Ensuite, les sauts
auts sont effectués en utilisant une stratégie d’initialisation restreinte (SIR) avec la
mutation de saut η2,, ce qui permet d’éviter l’augmentation du nombre de paramètres durant les sauts.
La stratégie (SC) est utilisée à chaque comparaison entre solutions.
Figure 5 : Utilisation des stratégies de sélection de paramètres au sein de
l’algorithme du Kangourou.
13
La méthode KANGOUROU
L’algorithme Kangourou est défini comme suit :
1 : Initialiser la solution courante : x ← x0 ;
2 : Initialiser la meilleure solution rencontrée : x*←x0 ;
// *une meilleure solution x* est recherché afin de minimiser la fonction objectif f *//
3 : Initialiser le compteur de stationnement : C← 1 ;
4 : Si C < A alors
// *descente stochastique *//
exécuter la procédure de descente : x ← descente (x, C) ;
Sinon
exécuter la procédure de saut : x ← saut (x) ;
5 : Si x est meilleure que x* alors
x* ← x ;
6 : Si le critère d’arrêt est atteint alors
aller en 4 ;
Sinon
fin de l’algorithme.
5.4. Explication [TALBI, 2004]
Après une descente aléatoire avec une mutation η1 , si la valeur de la fonction objectif n’a pas
changé depuis A itérations, plusieurs sauts aléatoires consécutifs sont effectués en utilisant une
mutation η2.
La mutation η2 n’est pas nécessairement la même que η1 , mais doit respecter la propriété
d’accessibilité, c’est-à-dire que pour tout couple de points (x, y) de l’espace des paramètres, il doit
être possible d’atteindre y à partir de x, en utilisant une suite finie de mutations de type η2 . Cette
propriété est suffisante pour garantir la convergence asymptotique de l’algorithme.
Les deux mutations η1 et η2 sont utilisées avec des objectifs différents. η1 permet de faire un
déplacement local (c’est-à-dire, vers un point très proche de la solution courante), alors que η2 est
utilisée pour effectuer un saut vers un autre bassin d’attraction, pour sortir d’un optimum local.
La première et la deuxième mutation ne sont pas nécessairement les mêmes, mais doivent respecter la
propriété d’accessibilité de l’algorithme.
5.5. Les paramètres :
Les paramètres de l’algorithme du kangourou sont :
•
le compteur de stationnement,
•
le nombre d’itérations,
•
la procédure de descente,
•
la procédure de saut
•
le critère d’arrêt.
14
La méthode KANGOUROU
5.6.Avantages :
Elle présente l’avantage de ne pas perdre l’information relative aux optima locaux rencontrés.
Les résultats obtenus par la méthode du kangourou sont de bonnes qualités avec un temps de calcul
modéré. Le fait d’effectuer des sauts permet à l’algorithme du kangourou de sortir d’une vallée c’est
à dire d’un minimum local en sautant les barrières de potentiel.
potent
[TALBI 2004]
6. Exemple de la méthode Kangourou [DUTA,2006]
[ Le désassemblage d'une porte du modèle Peugeot 106]
Dans sa thèse, [DUTA ,2006] a appliqué l'algorithme du kangourou sur désassemblage d'une porte du
modèle Peugeot 106. Les composants et les temps de désassemblage sont donnés.
1 Paneau garni
2 Vide-poche
3 Accoudoir
4 Garniture d'absorbeur
5 Absorbeur
6 Enjoliveur de poignée
Commande manuelle de vitre
70 Vis torx
71 Clip de fixation
72 Agrafe
73 Ecrou
plastique
74 Vis torx
75 Agrafe
Figure 6 : Les composants d'une porte Peugeot 106
15
La méthode KANGOUROU
Le tableau représentant Les opérations principales de désassemblage de la porte est comme suit :
Nous avons ignoré les opérations annexes comme la prise ou le positionnement d'un outil.
-Hypothèses :
· Il s'agit d'un seul type de produit (Peugeot 106)
· La période de planification est H = une semaine
· Le nombre de produits de même type à désassembler est constant S=40
· La fonction à optimiser est une fonction d'équilibrage F.
· Les temps de désassemblage pour les autres composants sont connus.
· Le temps de cycle est connu et égale à 3600 s pour le désassemblage de la voiture entière.
· Il y deux postes mixtes où le désassemblage de la porte est réalisé
L'exécution de l'algorithme du [Duta, 2006] donne la valeur minimale de la fonction
F de 260 s, ce qui est un bon résultat.
16
La méthode KANGOUROU
Conclusion
La méthode Kangourou offre une solution par une descente stochastique et une transition dans le
voisinage de l'état actuel pour trouver une meilleure solution de la solution courante. La méthode
donne un optimum local dans un temps acceptable, basé sur le recuit simulé, il permet l’étude de
problèmes à forte combinatoire.[GOURGAND et al., 2003]
Contrairement à la recherche tabou et aux algorithmes évolutionnistes, la méta-heuristique
« méthode Kangourou » n’a besoin que d’une seule évaluation du critère de performance à chaque
itération, ce qui est intéressant du point de vue du temps de calcul.
L’intérêt de cette méthode est qu’elle est facile à mettre en œuvre, elle peut être couplée sans difficulté
avec un modèle pour l’évaluation des performances et on dispose a tout instant d’une solution
réalisable.
L’algorithme du kangourou a beaucoup d’avantages car il permet la recherche globale ainsi que le
réglage de paramètres du recuit simulé. Il présente plusieurs inconvénients comme le nombre de
stationnements et de sauts nécessaire pour la recherche global.
17
La méthode KANGOUROU
Références Bibliographiques
[SEBRENCU ET AL, 2007]
Adrian SERBENCU, Viorel MINZU, Adriana SERBENCU ;
« An ant colony system based metaheuristic for solving single
machine scheduling problem » ; the annals of “dunarea de jos”
university of galati fascicle III, 2007 P19-24
[BELKADI , 2006]
BELKADI K. « Les méta-heuristiques » Cours, Usto ; 2006
[DUTA ,2006 ]
Luminita DUTA ; « Contribution A L'etude De La Conduite Des
Systemes De Desassemblage » ; thèse de doctorat en Automatique
et Informatique; Université Franche-Comte Du Besancon ; soutenue
le 22 septembre 2006
[GOURGAND ET AL, 2003]
M. Gourgand, N. Grangeon et S.Norre ; « Problemes
D’ordonnancement Dans Les Systèmes De Production De Type
Flow-Shop Hybride En Contexte Déterministe » ; J3eA, Journal sur
l’enseignement des sciences et technologies de l’information et des
systèmes ; EDP Sciences, 2003
[HAO ET AL, 1999 ]
Jin-Kao HAO, Philippe GALINIER, Michel HABIB ;
« Méthaheuristiques pour l’optimisation combinatoire et
l’affectation sous contraintes »; Revue d’Intelligence Artificielle ;
1999
[TALBI, 2004]
El-Djillali TALBI ; « Sélection et réglage de paramètres pour
l’optimisation de logiciels d’ordonnancement industriel » ; Institut
National Polytechnique de Toulouse Ecole Doctorale Systèmes ;
Spécialité : Informatique Industrielle Soutenu le 12 novembre 2004
[NET]
http://fr.wikipedia.org/wiki/Recherche_kangourou
18

Documents pareils