SIMULATIONS PARTICIPATIVES DU XBEERGAME

Transcription

SIMULATIONS PARTICIPATIVES DU XBEERGAME
8e Conférence Internationale de MOdélisation et SIMulation - MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
« Evaluation et optimisation des systèmes innovants de production de biens et de services »
SIMULATIONS PARTICIPATIVES DU XBEERGAME:
COMPARAISONS DES PERFORMANCES
ENTRE JOUEURS HUMAINS ET AGENTS DECISIONNELS
S. NACCACHE, B. MONTREUIL, O. LABARTHE, E. BROTHERTON, S. MELLOULI
Centre Interuniversitaire de Recherche sur les Réseaux d'Entreprise, la Logistique et le Transport (CIRRELT)
Faculté des Sciences de l’Administration, Université Laval
G1V 0A6, Québec - Québec - Canada
[email protected], [email protected], [email protected],
[email protected], [email protected]
RESUME : Les jeux de simulation d’entreprise sont des outils d’apprentissage de la prise de décision tant en milieu
académique qu’en milieu professionnel. Le développement des versions électroniques de ces jeux fait appel aux
concepts issus de l’intelligence artificielle pour présenter des outils qui assistent intelligemment l’apprentissage de la
prise de décision. En particulier, le développement des comportements d’agents décisionnels pour les jeux de chaînes
d’approvisionnement est une issue de recherche en voie d’expansion. Dans cet article, nous présentons les
architectures des agents que nous avons développé pour le XBeerGame. Nous effectuons des simulations avec les
architectures implémentées afin d’en étudier la performance, en comparaison avec les performances obtenues par des
joueurs humains. Nous analysons la performance des agents selon différents coûts d’opération et en fonction de
plusieurs paramètres de simulation. Les résultats ainsi présentés permettent de mettre en lumière les points
d’amélioration à mettre en œuvre dans la définition des comportements d’agents décisionnels.
MOTS-CLES : Jeux d’affaires électroniques, Beer Game, XBeerGame, Plate-forme de simulations immersives et
participatives, Agents décisionnels, Comparaisons de performance joueurs humains et agents.
1
INTRODUCTION
Les jeux sont utilisés depuis l’antiquité à des fins
d’apprentissage ludique. Leur nature, leurs supports et
leurs objectifs évoluent sans cesse pour devenir des
outils d’apprentissage de la prise de décision dans des
contextes variés, comme le démontre le nombre croissant
de conférences internationales en relation avec ce sujet.
L’aspect caractéristique de ces jeux est l’abstraction de
la réalité. Cette abstraction est faite à travers des
artéfacts qui représentent des composantes faisant partie
de situations réelles de prise de décision. Les jeux de
simulation constituent un moyen pour former les
décisionnaires en environnement artificiel, afin d’avoir
conscience de l’impact de leurs décisions, sans pour
autant subir des répercussions réelles.
Les jeux de simulation d’affaires s’inscrivent comme des
outils d’apprentissage de la prise de décision, et ce dans
de multiples contextes de gestion d’entreprise. Il s’agit
d’outils qui permettent aux apprenants de s’immerger
dans différents contextes, les obligeant à prendre
dynamiquement un ensemble de décisions afin
d’optimiser leur performance. Le nombre et la
complexité des données fournies pendant le jeu
influencent la structure et la présentation du jeu. En effet,
ces jeux existent sous forme de jeux de plateau ainsi que
sous forme de jeux électroniques.
Les jeux de simulation d’entreprise ont un double rôle.
Ils sont utilisés pour l’apprentissage de la gestion
d’entreprise, mais aussi comme outils de simulation et
d’expérimentation. À travers la conduite de nombreuses
expériences, ils permettent d’évaluer différents
comportements face à certains contextes simulés
d’entreprise, qui reflètent des cas particuliers de prise de
décision. Ainsi, les jeux de simulation d’entreprise
s’inscrivent comme outils de recherche grâce à la
simulation. Les paramètres de l’environnement de prise
de décision sont contrôlables par l’administrateur du jeu.
Dans ce contexte, la simulation favorise l’étude des
comportements des apprenants selon différentes
configurations de l’environnement. Les simulations
permettent d’observer les phénomènes qui découlent de
ces comportements, lesquels reflètent ceux observables à
beaucoup plus grand effort dans des contextes réels. Par
exemple, dans le cadre des jeux de simulation des
chaînes d’approvisionnement, notamment dans le jeu de
la bière, Sterman a pu observer le phénomène de l’effet
coup de fouet. Cet effet correspond à une amplification
de la variance de la demande au fur et à mesure que l’on
remonte dans la chaîne d’approvisionnement, (Sterman,
1989). La prise de conscience de l’existence de ce
phénomène a permis de proposer des modèles de gestion
d’approvisionnement qui tentent de le réduire.
La présente recherche focalise sur le jeu de la bière qui
est un jeu de simulation de chaînes d’approvisionnement,
ainsi que ses extensions.. La problématique repose sur la
modélisation orientée agents des comportements de
preneurs de décision dans une chaîne logistique. Une
architecture d’agents décisionnels est proposée afin
1
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
d’implémenter différents comportements de prise de
décision. Les agents représentent les gestionnaires des
entités composant les chaînes d’approvisionnement.
Lorsqu’ils adoptent un comportement et émettent une
décision, celle-ci est considérée comme étant un des
évènements discrets qui dirigent la dynamique de
l’environnement de la simulation. De plus, les agents
développés peuvent être activés par les joueurs. Ainsi,
l’administrateur du jeu décide à quel niveau chaque
agent va aider ou remplacer un joueur. Ce niveau varie
de la suggestion d’une solution pour assister l’apprenant,
jusqu’à la prise de décision automatique sans son
intervention. Les agents sont donc utilisés dans ce
contexte comme outils d’aide à la décision décision ou
comme comparatif de performance lorsqu’ils gèrent la
chaine en mode autonome.
La suite de l’article est structurée comme suit. La section
2 décrit le jeu de la bière et présente certaines versions
informatisées et extensions du jeu. Elle décrit notamment
le XBeerGame qui sera utilisé pour implémenter et tester
l’architecture des agents. Dans la section 3, l’architecture
d’agent développée est décrite ainsi que les deux
modèles décisionnels implémentés. Afin de tester la
performance de ces comportements, la section 4 est
consacrée à la conception des tests et à l’analyse des
résultats associés. Enfin, la section 5 conclut cet article,
en dressant une synthèse des contributions et en
présentant une ouverture sur les avenues de recherche.
2
LE JEU DE LA BIERE (BEER GAME)
Cette section est dédiée à la présentation des jeux de
simulation de gestion de chaînes d’approvisionnement.
Cette catégorie de jeux connaît un essor croissant pour
l’enseignement universitaire et dans le cadre de
formation de personnel spécialisé dans la gestion des
opérations. Les jeux les plus populaires appartenant à
cette catégorie sont issus du jeu de la bière, connu sous
le nom initial de MIT Beer Distribution Game, ou
simplement Beer Game. Ce jeu repose sur le contrôle
d’un des quatre rôles d’une chaîne d’approvisionnement
linéaire simple, à savoir une usine, un grossiste, un
distributeur et un détaillant. Chaque rôle passe des
commandes et répond à la demande de ses clients en
fonction des produits en inventaire. Ce jeu a été
développé par le System Dynamics Group au MIT Sloan
School of Management sous la direction de Jay Forrester
au début des années soixante. Les versions électroniques
inspirées du Beer Game ont été essentiellement
exploitées pour rendre le jeu de plateau moins
contraignant pour l’initialisation, plus ergonomique,
facilitant ainsi l’apprentissage des étudiants. Dans ces
versions évoluées l’accent est mis sur l’apprentissage de
transfert de flux matériels ainsi que sur l’exploitation des
flux d’information, et ce grâce à différentes informations
affichées sur l’interface du jeu.
2.1
Versions électroniques du jeu de la bière
Le Stationary Beer Game est une variante du Beer
Game développée en Visual Basic, (Chen and
Samroengraja, 2000). Dans ce jeu, l’apprenant accède à
un historique de la demande. Selon les auteurs, cette
version électronique présente des avantages aussi bien
pour l’apprenant que pour les enseignants. Les
apprenants ne sont plus encombrés par la gestion d’un
ensemble de jetons, le suivi de la situation de leur stock
et de leurs coûts. Les informations nécessaires au jeu
sont agencées dans des interfaces. Les instructeurs
peuvent se décharger du contrôle et du suivi des joueurs,
ainsi qu’ajuster le déroulement du jeu en fonction de
leurs rétroactions. Le jeu devient un outil
d’expérimentation que les auteurs visent à utiliser
comme un laboratoire virtuel. Une version jouable en
ligne au moyen d’un navigateur web est introduite par
Jacobs (2000). Cette version web permet d’avoir des
équipes plus hétérogènes, avec des joueurs de différents
pays qui interagissent via la même partie, ayant ainsi
une expérience plus variée et comprenant les
mécanismes de la gestion internationale. Un autre jeu qui
tient en compte l’aspect d’apprentissage des relations
internationales est le SIMBU, (Toyli et al. 2006). Les
joueurs gèrent les demandes de quatre produits de
clientèles internationales provenant de trois pays. Les
joueurs doivent aussi considérer les composantes de
produits et les devises étrangères. Hofstede et al. (2003)
proposent un jeu décentralisé qui s’inspire du Beer
Game. Cependant, les chaînes d’approvisionnement
s’inscrivent dans le domaine de l’agro-alimentaire. Cette
variante du jeu conditionne la gestion de la qualité et
l’aspect périssable des marchandises. Les versions
complètement informatisées des jeux d’entreprise ont
redéfini les objectifs d’apprentissage. L’apprenant ne se
limite plus à la gestion des flux matériels mais il se
focalise aussi sur l’analyse de l’information et son
exploitation. Aussi ces versions du jeu, ont projeté
l’apprenant d’un milieu d’apprentissage, restreint aux
membres d’une chaîne collaborative, vers un milieu
virtuel ouvert pour mettre en pratique les capacités de
communication et de gestion des relations d’affaires dans
un milieu hétérogène. Les jeux informatisés sont
devenus des outils d’expérimentation aux objectifs
multiples. D’un côté ils permettent d’étudier le
comportement des apprenants plus facilement, en ayant
des données compilées et affichées de manière
interactive. Ce suivi combiné avec une facilité de
paramétrage permet aux instructeurs d’agir sur le cours
des jeux. Plus encore, l’expérimentateur peut tester des
hypothèses en paramétrant les jeux avec des variables
statiques (coûts fixes, délais de livraison, etc.) ainsi
qu’étudier l’impact du partage d’information (Huang et
al. 2003).
Le développement des technologies de l’information,
l’amélioration des outils informatiques, couplés d’une
prolifération des différents outils qu’offre l’intelligence
artificielle, amène à faire un lien direct entre les jeux
d’entreprise intégrant la simulation et les paradigmes de
2
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
l’intelligence
décisionnels.
2.2
artificielle,
notamment
les
agents
Jeux de simulation orientés agents
Les jeux de la bière utilisés à but de recherche
s’intéressent à l’analyse et la modélisation du
comportement des preneurs de décision. En particulier,
les jeux orientés agents utilisent des modules logiciels
programmés afin de reproduire un comportement donné,
pour interagir de manière autonome et proactive en
réponse aux stimuli de l’environnement.
Le jeu proposé dans (Nienhaus et al., 2006) peut être
joué par des humains et des agents simultanément. Le
comportement des agents est géré par un algorithme qui
consiste à ce que chaque agent passe à son fournisseur
les commandes reçues de ses clients. Les auteurs
montrent que lorsque le jeu est joué uniquement par les
agents décisionnels, ces derniers réussissent à avoir de
meilleures performances que les humains dans des
simulations aux paramètres identiques. Dans le cas de
simulations mixtes (joueurs humains et agents), les
auteurs relèvent deux types de comportements extrêmes
des joueurs preneurs de décision, à savoir la stratégie de
refuge (Safe harbour) et la stratégie de panique (Panic).
Dans (Kawagoe and Wada, 2005) une version du jeu
utilisant des agents logiciels est proposée. Le
comportement des agents consiste à mettre à jour
l’inventaire en fonction des quantités commandées de la
part des clients et les quantités de marchandise reçues du
fournisseur. Les agents livrent aux clients leurs
commandes dans la mesure de leur inventaire. Les agents
subissent des coûts d’arrérage si l’inventaire calculé
n’est pas suffisant pour satisfaire toutes les commandes à
la date promise. Grâce à ce jeu à base d’agents, les
auteurs ont pu donner un contre exemple de l’effet coup
de fouet. En particulier, en présence de longs délais de
livraison ainsi qu’un nombre élevé d’entreprises dans la
chaîne. Le système multi-agents DragonChain est
composé d’agents dont le comportement est implémenté
par un algorithme génétique, (Kimbrough, Wu and
Zhong, 2002).L’algorithme génère une population de
règles parmi lesquelles l’agent en choisit une selon un
score (fitness value) et l’applique jusqu’à la fin de la
ronde. Les auteurs ont comparé les résultats des agents
avec ceux d’étudiants de Bachelor et de MBA. Ils ont
montré que les agents sont capables de retrouver les
meilleures stratégies pour commander. Notons que dans
le cadre du DragonGame, peu d’hypothèses sur les
informations utilisées dans la simulation sont émises. Le
jeu du bois Québécois, (Moyaux et al., 2003), est une
adaptation numérique à base d’agents du jeu de plateau
Wood Supply Game (Fjeld, 2001). Chaque agent simule
le comportement d’une entreprise en décidant des
quantités à commander et du moment de leur commande.
Les auteurs présentent une architecture pour ces agents,
un aspect omis par les autres travaux. Les auteurs
montrent l’impact de l’architecture sur la réduction de
l’effet de coup de fouet en agissant sur une des quatre
causes présentées par Lee et al. (1997). Le jeu Trading
Agent Competition - Supply Chain Management présente
une autre version à base d’agents décisionnels, (Collins
et al,. 2007). Il s’agit d’une compétition où chaque
candidat crée un agent décisionnel et le fait concourir
dans un environnement prédéfini par la plateforme du
jeu. La plateforme consiste en des mécanismes de
marché, des politiques de coûts et une banque.
2.3
XBeerGame
Le XBeerGame est la version étendue du jeu de la bière
développée à l’Université Laval, Québec, Canada
(Montreuil et al., 2009). Le jeu est implémenté sur la
plate-forme BusinessWebGame développée par la même
équipe, et qui permet à plusieurs joueurs de s’y
connecter et y concourir simultanément, grâce à son
architecture distribuée Il permet au maître de jeu de
spécifier les informations à afficher aux apprenants, en
fonction de leur niveau d’expertise et des objectifs
d’apprentissage. L’information est représentée dans des
tableaux de bord, dont le cockpit principal qui est illustré
à la Figure 1. Celui-ci se compose de données
opérationnelles, d’indicateurs de performance et d’outils
de prise de décision. Il résume les niveaux de stock des
produits gérés et les niveaux des différents coûts
affectés, etc. Les données sont surlignées de couleurs,
utilisées comme indicateurs de la position opérationnelle
et financière de l’entreprise gérée par le joueur. Les
autres onglets / cockpits / panneaux contiennent divers
graphiques indiquant notamment l’évolution des
différents revenus et coûts d’opération, ainsi que
l’historique des demandes.
Le XBeerGame implémente aussi une architecture
d’agents décisionnels. Par exemple, un joueur peut
choisir d’activer un agent d’approvisionnement et de
paramétrer la politique de commande à appliquer pour
un produit donné. Dans ce cas, l’agent est un simple
exécutant de la politique dont les paramètres sont
spécifiés par l’apprenant.
Figure 1: Cockpit XBeerGame (Montreuil et al., 2009)
L’architecture permet d’expérimenter la performance de
l’adoption de ces différentes politiques, ceci en présence
3
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
d’un patron de demande et de paramètres de revenus et
de coûts spécifiés dans le patron de jeu par
l’administrateur. La limite des agents réside dans leur
dépendance face aux valeurs décidées par l’apprenant
ou le maître de jeu. A cet effet, une mise à jour de cette
architecture est ici proposée afin de faire évoluer les
agents du XBeerGame, allant de simples modules
d’automatisation des actions du joueur vers des outils
d’aide à la décision.
3
AGENTS DU XBEERGAME
Cette section est consacrée à la proposition relative à
l’évolution de l’architecture des agents décisionnels au
sein de la plate-forme de simulation XBeerGame. Le
principe repose sur l’ajout d’un niveau de décision aux
comportements des agents d’approvisionnement. La
combinaison entre l’agent de décision et l’agent
d’approvisionnement d’un nœud donné de la chaîne,
constitue l’architecture de notre agent. Le comportement
de ce dernier s’établit comme suit :
L’agent de décision calcule les paramètres de la
politique d’approvisionnement à adopter (selon
son niveau de comportement).
Les paramètres sont communiqués à l’agent
d’approvisionnement.
L’agent d’approvisionnement met à jour les
paramètres de la politique qu’il applique.
Un niveau de comportement correspond au niveau
d’expertise à affecter à l’agent d’approvisionnement.
L’implémentation
intègre
deux
niveaux
de
comportement. Chaque niveau diffère par l’intégration
d’une information supplémentaire. La version actuelle de
l’agent implémente un niveau à la fois, la transition entre
les différents niveaux sera traitée dans de futurs travaux.
L’implémentation
de
différents
niveaux
de
comportement au sein de la plateforme correspond à la
représentation de différents niveaux d’apprentissage. Ces
niveaux sont efficaces dans certains contextes et peu ou
pas efficaces dans d’autres, et ce afin de sensibiliser les
apprenants à l’importance de l’adaptabilité aux différents
contextes informationnels des entreprises. Il ne s’agit pas
ici de donner les meilleurs comportements et de
marginaliser les moins performants, mais plutôt
présenter des outils qui intègrent de manière progressive
différents types d’informations pour en appréhender
l’impact sur la prise de décision et la performance de
l’individu ou de la chaîne.
3.1
Niveau zéro
Le niveau zéro (N0) correspond au comportement d’un
joueur débutant qui a une connaissance très limitée de
son contexte. Il s’agit d’un agent sans mémoire : la seule
information qu’il intègre dans son modèle décisionnel
est la demande reçue de ses clients. Aussitôt qu’une
demande est réceptionnée, l’agent d’approvisionnement
commande la même quantité du même produit à son
fournisseur. Cette politique a été implémentée dans
l’architecture des agents présentés dans (Nienhaus et al.,
2006). Les auteurs affirment que cette stratégie
d’approvisionnement donne une meilleure solution que
la stratégie basée sur le calcul de la moyenne mobile et
l’écart type des demandes. Cependant, les hypothèses
sous lesquelles ce comportement a été testé ne sont pas
présentées par les auteurs. Dans le présent article,
l’impact de ce comportement dans différentes
configurations du jeu est testé, et ce en utilisant
différents scénarios de demande, ainsi que divers délais
d’acheminement de flux matériels d’un fournisseur à son
client. Le diagramme d’états-transitions correspondant
est illustré dans la Figure 2.
Figure 2: Diagramme d’états-transitions N0
3.2
Niveau un
Le niveau un (N1) correspond au comportement d’un
joueur qui intègre l’information passée sur un court
horizon de temps. Il s’agit d’un agent disposant d’une
mémoire à court terme, qui intègre l’information sur les
dernières commandes reçues en calculant la moyenne
mobile des demandes sur les n dernières périodes, ainsi
que l’écart type. Ces deux paramètres sont communiqués
à l’agent d’approvisionnement qui implémente une
politique de stock s, S. Le diagramme d’états-transitions
correspondant à N0 est illustré dans la Figure 3.
Afin de tester la performance des deux niveaux de
comportement, contrairement aux travaux précédemment
évoqués dans notre revue de la littérature, la recherche
ici rapportée ne focalise pas sur l’analyse des profits
réalisés par les agents, mais plutôt sur l’analyse des coûts
qu’engendrent leurs décisions et sur l’impact de
performance de la chaîne.
4
SIMULATIONS ET RESULTATS
Afin de pouvoir tester la performance des architectures
d’agents proposés, deux modules logiciels ont été
implémentés et testés par la conduite de simulations sur
la plate-forme XBeerGame. La comparaison des
comportements des deux agents se fait par rapport à ceux
d’étudiants du Masters en Global Supply Chain
Management à l’Ecole Polytechnique Fédérale de
Lausanne dans un tournoi joué du 10 au 13 Février 2009,
en collaboration avec des membres du CIRRELT de
4
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
l’Université Laval. A cet effet, les agents ont disposé des
mêmes paramètres que les différentes simulations jouées
par les étudiants.
premier jour du tournoi, chaque joueur gérait le détaillant
de la chaîne, alors que les trois autres rôles étaient tenus
par des agents logiciels. Chacun de ces agents
implémente une politique de stock s, S.
Inventaire
Arrérage
Transport
Coûts fixes
Délai de
transport
Délai interne
Coût achat
Coût fixe de
commande
Figure 3: Diagramme d’états-transitions N1
4.1
Paramétrage des simulations
Le paramétrage des rondes du XBeerGame consiste à
fournir les coûts d’opérations (prix, coûts d’inventaire,
coûts d’arrérage, coûts de transport, coûts fixes), le
patron de la demande de chacun des produits gérés au
cours du jeu, le temps de production à l’usine, le délai de
livraison, les niveaux d’inventaire initiaux. Le Tableau 1
reprend les paramètres utilisés par défaut dans la ronde
1.1.
Les rondes utilisées pour simuler le comportement des
joueurs diffèrent par :
• Le patron de la demande ;
• Le temps de production en usine ;
• L’inventaire initial des deux produits ;
• La durée de la simulation ;
• La vitesse de la simulation.
Coût fixe
d'annulation
d'une
commande
Coût variable
d'annulation
d'une
commande
Marge
Usine
Distributeur
Grossiste
Détaillant
0.2$ / jour
0.4$ / jour
0.6$ / jour
0.8$ / jour
0.2$ / jour de
délai
0.3$ / jour de
délai
0.6$ / jour de
délai
1$ / jour de
délai
360$ / camion
240$ / camion
120$ / camion
40$ / camion
50 000 $ / mois
37 500 $ / mois
18 750 $ / mois
6 250 $ / mois
Usine vers
Distributeur
Distributeur
vers Grossiste
Grossiste vers
Détaillant
Détaillant vers
Marché
4 jours
3 jours
2 jours
1 jour
4,5 jours
-
-
-
2$
4$
6$
8$
25 $
25 $
25 $
25 $
5$
5$
5$
5$
0,10 $
0,10 $
0,10 $
0,10 $
2$
2$
2$
2$
Tableau 1: Paramètres de base, altérés en fonction des
rondes
Figure 4: Demande de la ronde 1.2
De ronde en ronde, nous avons utilisé des patrons de
demande différents. Par exemple, nous avons utilisé à la
ronde 1.2 un patron de demande stable, à la ronde 1.3 un
patron de demande variable et à la ronde 2.2 un patron
de demande à effets saisonniers.
Les demandes des rondes 1.2, 1.3 et 2.2 sont
respectivement illustrées dans les Figures 4,5 et 6. Dans
chaque figure, la demande affichée pendant le jeu est
délimitée par un cadre bleu. Ces demandes ont été
obtenues à partir de distributions issues de simulations
de marché. Ces demandes ainsi générées ont été utilisées
pendant la simulation de la chaîne: pendant chaque
ronde, à chaque moment du temps simulé, la demande
correspondante était affichée aux joueurs. Ainsi, étant
donné que la demande n’est pas générée de manière
aléatoire pendant les rondes, et qu’elle n’est pas affectée
par les décisions des joueurs, nous n’avons eu besoin que
d’une seule réplication de chaque ronde pour analyser les
performances des deux niveaux de comportement
d’agents que nous avons implémentés.Dans le Tableau 2
nous rapportons les différences entre les configurations
des différentes rondes du tournoi. Durant les rondes du
Figure 5: Demande de la ronde 1.3
Figure 6: Demande de la ronde 2.2
Les stocks de sécurité pour ces politiques sont
prédéterminés dans le patron du jeu, par le concepteur
des rondes. Ces niveaux ont été spécifiés en fonction des
patrons des demandes correspondantes à chaque ronde.
5
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
Dans les rondes suivantes, les équipes étaient constituées
uniquement de joueurs humains.
Ronde
1.1
1.2
1.3
1.4
2.1
2.2
2.3
2.4
3.1
3.2
4.1
4.3
Objectfis
max. profit
indiv.
max. profit
indiv.
max. profit
indiv.
max. profit
indiv.
max. profit
indiv.
max. profit
indiv.
max. profit
indiv.
max. profit
indiv.
max. profit
indiv.
max. profit
indiv.
max. profit
chaîne
max. profit
chaîne
Visibilité
du rôle
non
Historique
demande
Clavardage
Délais (Jours)
par défaut
non
tr. de Gr. à Det. : 10
non
pdt Calore: 10
non
X
pdt Igloo: 14
non
non
X
non
X
X
pdt Igloo: 16
pdt Calore: 8
pdt Igloo: 3
pdt Calore: 7
pdt Igloo: 7
pdt Calore: 3
pdt Igloo: 4
pdt Calore: 8
par défaut
non
oui
oui
X
X
tr. de Usn. à Dist. : 21
oui
X
X
tr. de Usn. à Dist. : 14
oui
X
X
tr. de Usn. à Dist. : 14
tr. de Dist. à Gr. : 7
Légende
max. : maximiser
indiv. : individuel
tr. : transport
pdt. :production
Usn. : usine
Dist. : distributeur
Gr. :grossiste
Det. : détaillant
Tableau 2: Paramétrages des rondes du tournoi
Tel que décrit au Tableau 2, de ronde en ronde, des outils
de communication entre les joueurs étaient rajoutés et les
contextes collaboratifs étaient altérés. Par exemple à la
ronde 3.1, les joueurs ont accès à une interface de
clavardage pour communiquer avec leurs nœuds
adjacents dans la chaîne. À partir de 4.1, les joueurs
visent à optimiser le profit total de la chaîne, et non plus
leur profit individuel, sous-entendant le passage vers une
chaîne intégrée.
4.2
communication entre les joueurs n’était permise. Pour
chacune des parties individuelles correspondantes aux
rondes 1.1, 1.2, 1.3, 1.4, la performance des agents est
comparée en les positionnant par rapport à la meilleure
valeur, la pire valeur et la valeur moyenne de coûts des
joueurs humains, et ce pour chaque type de coût. Pour ce
faire, pour chaque comportement d’agent i ∊ {N0,N1} et
pour chaque ronde t, le rapport
est calculé avec
∊ {meilleure performance, pire performance,
performance moyenne} de la manière suivante :
avec
le montant obtenu par i pour le coût k ∊
{Arrérages, Transport, Stockage, Achat} à la ronde t,
le montant obtenu par l’humain ou l’équipe humaine
j. Les proportions
pour la journée 1 sont
rapportées dans le Tableau 3.
Dans les tableaux de performance, nous avons coloré
chaque triplet de proportions selon la qualité de la
performance de l’agent. Nous avons utilisé le bleu clair
pour une excellente performance (
tend
vers zéro), le vert pour une bonne performance
(
), le jaune pour une faible
performance
(
0
mais
tendent vers zéro) et le
rouge pour une mauvais performance (
,
).
k
Arrérages
Analyse des résultats
Transport
La recherche ici rapportée a simulé les rondes du tournoi
explicitées en section 4.1 en remplaçant les joueurs
humains par des agents avec le comportement N0 dans
un premier temps, ensuite avec le comportement N1 tel
que décrits en section 3. Dans les travaux présentés à la
sous-section 2.2, les auteurs ont comparé les
performances d’agents artificiels avec celles de joueurs
humains. Cette comparaison repose sur les profits ou
pertes réalisés par les différents acteurs. Cette soussection présente une analyse des différents coûts
résultants du comportement des joueurs et des agents.
Les coûts en question sont le coût d’arrérage, le coût de
transport, le coût de stockage et les coûts d’achat (ou de
production pour l’usine).
4.2.1 Résultats des parties individuelles
Le but à travers les rondes de la journée 1 est de se
concentrer sur la performance individuelle. Pour ce faire,
les rondes ont été conçues de manière à ce que les
joueurs n’aient aucune visibilité de la composition de la
chaîne, ni de leur rôle (détaillant). De plus, aucune
Stockage
Achat
p usine
t =1.1
t =1.2
t =1.3
t =1.4
i =N0 i =N1 i =N0 i =N1 i =N0 i =N1 i=N0 i=N1
meilleure
0,39
0,99
0,85
0,44
1,19
3,27
4,47
5,53
pire
0,09
0,22
0,16
0,08
0,32
0,87
4,12
5,09
moyenne
0,19
0,48
0,39
0,20
0,50
1,37
4,21
5,20
meilleure
0,01
0,01
2,50
3,26
1,04
1,06
0,85
0,86
pire
0,00
0,00
1,05
1,38
0,97
0,99
0,83
0,84
moyenne
0,01
0,01
1,29
1,68
1,00
1,02
0,83
0,84
meilleure
0,30
0,23
0,24
0,47
1,57
0,38
0,61
0,30
pire
0,07
0,05
0,07
0,15
0,23
0,06
0,30
0,15
moyenne
0,16
0,12
0,15
0,29
0,59
0,14
0,39
0,19
meilleure
1,05
1,05
1,71
2,18
0,77
0,76
0,57
0,56
pire
0,99
1,01
0,99
1,01
0,80
0,92
1,01
1,18
0,76
0,77
0,74
0,75
0,57
0,57
0,56
0,56
moyenne
Tableau 3:
journée 1
D’après les résultats rapportés dans le Tableau 3, N0
engage de faibles coûts d’arrérage dans les rondes 1.1,
1.2 et 1.3 ainsi que de faibles coûts de stockage aux
rondes 1.1, 1.2 et 1.4, et ce par rapport au comportement
des joueurs humains. Par contre, ce comportement
engage dans la majorité des cas des coûts de transport
plus importants que ceux réalisés par les joueurs
humains, à l’exception de la ronde 1.1. Les coûts subis
pas les agents N0 sont en moyenne équivalents aux coûts
d’achat subis par les joueurs humains et ce aux rondes
1.1 et 1.2. Ceci s’explique par le fait que ce
comportement achemine la marchandise aussitôt que la
commande d’un client peut être desservie, ce qui peut
engendrer des exploitations inefficaces de camions qui
quittent l’entrepôt sans pour autant exploiter leur
6
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
capacité maximale. À la ronde 1.4 les agents N0 ont
réussi à avoir de meilleures performances que les joueurs
humains sur les coûts de transport, de stockage et
d’achat, alors que les coûts d’arrérages sont quatre fois
plus élevés. Ces derniers peuvent être expliqués par le
grand délai de livraison de la première catégorie de
produit de l’usine vers le distributeur qui est de 14 jours,
alors que dans les rondes 1.1, 1.2 et 1.3 le délai était de 4
jours. N1 a donné moins de coûts de stockage que les
joueurs humains et que N0, au niveau des rondes 1.1, 1.3
et 1.4. La Figure 7 présente un histogramme comparatif
entre les meilleurs, les pires profits et les profits moyens
des joueurs humains et des agents, et ce à travers les
rondes de la journée 1.
Notons que pendant les journées 2, 3 et 4 du tournoi joué
par les joueurs humains, les équipes ont été constituées
de joueurs humains seulement. Les simulations des
rondes de ces journées ont été opérées par une équipe
d’agents de comportement niveau zéro, ensuite une
équipe d’agents de comportement niveau un et nous en
avons recueilli les performances dans les différentes
rondes de ces trois journées.
Pendant les rondes de la journée 3 (3.1 et 3.2) les joueurs
pouvaient établir une stratégie de manière individuelle
avant le début de la simulation.
t =2.1
t =2.2
t =2.3
t =2.4
p individus i =N0 i =N1 i =N0 i =N1 i =N0 i =N1 i =N0 i =N1
k
Arrérages
Transport
Stockage
Achat
meilleure
0,65
1,55
0,03
3,93
0,07
0,75
1,09
5,39
pire
0,06
0,14 0.0005
0,07
0,01
0,05
0,01
0,07
moyenne
0,17
0,41 0.0015
0,20
0,02
0,19
0,06
0,31
meilleure
1,54
1,56
2,44
2,13
1,55
1,52
2,24
2,47
pire
0,08
0,08
0,12
0,11
0,17
0,16
0,22
0,24
moyenne
0,25
0,26
0,44
0,38
0,35
0,34
0,45
0,49
meilleure
0,55
0,12
2,77
0,43
0,58
0,30
0,54
0,48
pire
0,01 0,002
0,03 0,004
0,01
0,01
0,06
0,05
moyenne
0,06
0,01
0,17
0,03
0,07
0,04
0,16
0,14
meilleure
0,87
0,84
0,95
0,60
0,57
0,57
1,49
1,54
pire
0,18
0,30
0,18
0,29
0,17
0,27
0,11
0,17
0,14
0,22
0,14
0,21
0,32
0,53
0,33
0,55
moyenne
Tableau 4:
journée 2
5 000 000,00
0,00
2.1
2.2
2.3
2.4
-5 000 000,00
Meilleur profit humain
Pire profit humain
Profit moyen humain
Profit agent zero
-10 000 000,00
1 000 000,00
Profit agent un
0,00
-1 000 000,00
-2 000 000,00
1.1 1.2
1.3
1.4
Meilleur profit
humain
Pire profit humain
-20 000 000,00
-3 000 000,00
-4 000 000,00
Profit moyen
humain
-5 000 000,00
Profit agent zero
-6 000 000,00
-7 000 000,00
-15 000 000,00
Profit agent un
-8 000 000,00
-9 000 000,00
Figure 7: Profits/pertes de journée 1
Le but à travers les rondes de la journée 2 (2.1, 2.2, 2.3
et 2.4) était aussi de développer les performances
individuelles des joueurs. Dans le Tableau 4, nous
rapportons les
respectivement pour N0 et N1 pour
les rondes de la journée 2. L’indice j dans
correspond aux individus ayant joué les rondes des
journées 1, 2 et 3. Pour la journée 4, les j correspondent
aux indices des individus de chaque rôle, ainsi qu’aux
indices des équipes d’humains.
A travers le Tableau 4 nous constatons que le
comportement N0 donne de meilleurs coûts d’arrérages,
de stockage et d’achat que les acteurs humains, par
contre les coûts de transport obtenus par cet agents se
trouvent meilleurs que la moyenne obtenue des coûts de
transport obtenus par les humains. Nous émettons les
mêmes observations pour N1. Lors de la journée 2, N0
a obtenu de meilleurs coûts d’arrérages que N1, N1 a
obtenu de meilleurs coûts de stockage que N0, et les
deux agents ont eu des coûts de transport et de stockage,
qui sont en moyenne similaires.La figure 8 présente une
comparaison entre les différents profits de la journée 2
obtenus par les agents humains et artificiels.
Figure 8: Profits/pertes réalisés journée 2
De plus, les joueurs ont eu accès à une interface de
clavardage qui leur permettait de communiquer
librement avec leurs nœuds adjacents dans la chaîne
d’approvisionnement. Pendant ces rondes les joueurs
avaient une visibilité complète sur la constitution de la
chaîne. Le but à travers les rondes de la journée 3 était
d’améliorer les performances individuelles des joueurs à
travers la collaboration avec les nœuds adjacents.
Dans le Tableau 5, nous rapportons les
de la
journée 3. Nous constatons que pour N0, l’agent a eu de
meilleurs coûts de stockage que les joueurs humains et
ce pour les deux rondes de la journée 3, par contre pour
les coûts d’arrérage, de transport et d’achat, N0 a obtenu
des coûts d’achat qui sont meilleurs que les coûts d’achat
moyens des joueurs humains, mais qui sont moins bons
que leurs meilleurs coûts. Par contre, l’agent N1 a réalisé
de meilleurs coûts de stockage et de transport que l’agent
N0 et ce pour les deux rondes 3.1 et 3.2. Aussi N1 a eu
de meilleurs coûts d’arrérages et d’achat pour la ronde
3.1. Le positionnement des profits de chacun des agents
pour les rondes 3.1 et 3.2 sont illustrés par le graphique
de la Figure 9.
4.2.2 Résultats des parties en équipes
Les rondes des journées 1, 2 et 3 visaient à renforcer
l’apprentissage individuel des joueurs. Les rondes de la
journée 4 ont eu pour but d’apprendre aux joueurs à
collaborer ensemble pour mener à bien leurs opérations.
7
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
3.1
Performance
joueur us ine
Arrérages
Trans port
Stockage
Achat
N0
3.2
N1
N0
N1
meilleure
1,81
11,55
14,42
0,88
pire
0,02
0,13
0,07
0,004
moyenne
0,10
0,64
0,33
0,02
meilleure
2,02
1,93
2,48
0,17
pire
0,18
0,17
0,06
0,004
moyenne
0,42
0,40
0,22
0,01
meilleure
0,50
0,34
0,09
0,01
pire
0,02
0,02
0,005
0,0007
moyenne
0,09
0,06
0,02
0,002
meilleure
1,21
1,34
1,53
0,08
pire
0,20
0,37
0,23
0,41
0,29
0,58
0,02
0,03
moyenne
Tableau 5:
journée 3
2 000 000,00
Pire profit humain
3.1
3.2
meilleure
Arrérages
pire
moyenne
Transport
Achat
meilleure
2,25
1,40
5,46
0,95
pire
1,99
1,24
2,18
0,38
moyenne
2,08
1,30
2,86
0,50
meilleure
0,98
0,25
0,67
0,46
pire
0,23
0,06
0,24
0,16
moyenne
0,47
0,12
0,36
0,24
meilleure
1,13
0,98
5,78
0,98
pire
1,01
1,06
0,88
0,92
2,26
2,91
0,38
0,49
moyenne
Profit moyen humain
Profit agent zero
t =4.1
t =4.3
i =N0 i =N1 i =N0 i =N1
#
#
#
#
#
#
#
#
#
#
#
#
p usines
Meilleur profit humain
0,00
-4 000 000,00
k
Stockage
4 000 000,00
-2 000 000,00
distributeur, grossiste et détaillant, ainsi que pour
l’équipe de ces agents. Finalement notons que les agents
N1 ont eu de meilleures performances pour les quatre
coûts, que les agents N0 que ce soit par rôle ou par
équipe.
Tableau 6:
usines N0 et N1 journée 4
Profit agent un
200 000,00
-6 000 000,00
100 000,00
-8 000 000,00
0,00
Figure 9: Profits/pertes journée 3
-100 000,00
Meilleur profit humain
4.1
4.3
Pire profit humain
-200 000,00
Pendant les rondes de la journée 4 (4.1 et 4.3), en plus de
la possibilité de communiquer, les joueurs avaient accès
à l’information historique sur les distributions des
demandes des deux produits et pouvaient établir une
stratégie en groupe avant le début de la simulation.
Notons que pendant les rondes 4.1 et 4.3, les joueurs
sont autorisés à communiquer directement ainsi que de
communiquer par vidéo conférence avec des joueurs
distants situés à Québec.
Dans un second temps, nous nous sommes intéressés à
analyser l’impact des comportements d’agents sur la
performance globale des équipes pour chaque journée de
jeu. A cet effet, nous comparons les coûts obtenus par les
agents par rôle et par équipe. Dans les Tableaux 6 à 9,
nous rapportons les
de la journée 4, et ce par rôle
joué. Le tableau 10 présente ces proportions par équipes.
Notons que les usines ont des coûts d’arrérages nuls.
Chacune des figures 8 à 11 illustrent pour un rôle donné
dans la chaîne une comparaison entre les profits ou
pertes obtenus par les agents et les humains au cours des
rondes 4.1 et 4.3. La comparaison entre profits des
équipes pour ces deux rondes et illustrée dans la Figure
14.
D’après ces résultats, les agents N1 ont eu de meilleures
performances que les joueurs humains, ainsi que les
agents N0, et ce en termes de coûts de stockage et
d’achat, que ce soit pour les coûts par rôle, ou les coûts
par équipe pour les rondes 4.1 et 4.3. Ces agents ont
aussi obtenu les meilleurs coûts de transport à la ronde
4.3. Les agents N0 ont eu de meilleurs coûts de stockage
que les joueurs humains, que ce soit par rôle ou par
équipe, et ce pour la ronde 4.1. Pour la ronde 4.3, ces
coûts ont été meilleurs que la moyenne des coûts des
joueurs humains, mais n’ont pas dépassé les meilleurs
coûts qu’ils ont réalisés et ce pour les agents N1 de rôles
Profit moyen humain
-300 000,00
Profit agent zero
-400 000,00
Profit agent un
-500 000,00
-600 000,00
-700 000,00
Figure 10: Profits/pertes usines journée 4
k
p dis tr.
229,29
100,05
22,68
6,77
19,69
8,69
1,97
18,33
1,94
53,31
1,19
15,99
2,50
3,62
0,35
pire
1,76
1,08
1,13
0,16
moyenne
1,84
1,13
1,40
0,20
meilleure
0,18
0,12
2,01
1,54
pire
0,05
0,03
0,27
0,21
moyenne
0,09
0,06
0,41
0,31
meilleure
1,01
0,84
5,00
1,06
pire
0,91
0,95
0,76
0,79
2,05
2,61
0,43
0,55
pire
moyenne
meilleure
Trans port
Stockage
Achat
moyenne
Tableau 7:
t =4.3
i =N0 i =N1
78,85
meilleure
Arrérages
t =4.1
i =N0 i =N1
distributeurs N0 et N1 journée 4
Dans le présent travail de recherche nous avons étudié
les deux comportements d’agents dans différentes
configurations en agissant sur plusieurs paramètres du
jeu. De plus, notre analyse de la performance des agents
a été plus granulaire dans le sens où nous l’avons
évaluée en termes de différents coûts, ce qui nous a
permis de détecter
quel est l’impact de chaque
comportement sur chaque coût dans différentes
configurations de la simulation. Notons que les agents
ont eu de meilleures performances que les humains
pendant les 1ère, 2ème et 3ème journées de jeu, tandis que
pour la 4ème journée ils ont obtenus de mauvaises
performances, notamment au niveau des coûts
d’arrérage. Ceci s’explique par le fait que les joueurs
humains ont pu tirer profit du contexte collaboratif de
ces rondes et ont obtenu de bonnes performances au
niveau de leur chaîne, chose non réalisable par les
8
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
comportements d’agents actuellement développés, étant
donné qu’ils n’ont pas la capacité de déceler la
sémantique du contexte et n’implémentent aucun
mécanisme de collaboration.
3 000 000,00
2 000 000,00
Meilleur profit humain
1 000 000,00
Pire profit humain
0,00
0,00
4.1
-500 000,00
4.3
Meilleur profit
humain
-1 000 000,00
Pire profit humain
-2 000 000,00
4.1
Profit moyen humain
4.3
Profit agent zero
Profit agent un
-3 000 000,00
-1 000 000,00
Profit moyen
humain
-1 500 000,00
-4 000 000,00
Figure 13: Profits/pertes détaillants journée 4
Profit agent zero
t =4.1
-2 000 000,00
Profit agent un
k
-2 500 000,00
p équipes
Arrérages
p gros s is tes
Arrérages
Trans port
Stockage
Achat
t =4.1
i =N0 i =N1
meilleure
7,12
23,54
2,58
29,36
pire
4,90
16,20
0,35
3,94
moyenne
meilleure
5,83
1,90
19,29
1,19
0,61
2,37
6,95
0,40
pire
1,66
1,04
1,08
0,18
moyenne
1,80
1,13
1,27
0,21
meilleure
0,64
0,11
1,45
0,48
pire
0,17
0,03
0,28
0,09
moyenne
0,27
0,05
0,47
0,16
meilleure
0,98
0,85
5,09
0,78
pire
0,93
0,95
0,80
0,82
2,11
2,61
0,32
0,40
moyenne
Tableau 8:
Trans port
Stockage
Achat
297,23
62,38
25,13
17,42
3,66
11,36
2,10
36,13
1,32
42,32
3,90
8,88
0,64
pire
1,90
1,19
1,68
0,28
moyenne
1,97
1,24
2,11
0,35
meilleure
0,40
0,13
1,02
0,56
pire
0,12
0,04
0,28
0,16
moyenne
0,20
0,06
0,41
0,23
meilleure
1,13
0,98
5,78
0,98
pire
1,01
1,06
0,88
0,92
2,26
2,91
0,38
0,49
moyenne
Tableau 10:
2 000 000,00
4.1
-500 000,00
4.3
-2 000 000,00
Meilleur profit
humain
-6 000 000,00
Pire profit humain
-8 000 000,00
Profit agent zero
Profit agent un
5
CONCLUSIONS ET PERSECTIVES
Profit agent un
-3 000 000,00
-3 500 000,00
Figure 12: Profits/pertes grossistes journée 4
t =4.1
p détaillants
i =N0
t =4.3
i =N1
i =N0
i =N1
60,75
193,20
297,23
62,38
7,90
25,13
55,87
11,73
13,98
1,65
44,47
1,34
72,73
1,84
15,26
0,29
pire
1,40
1,14
0,92
0,15
moyenne
1,50
1,22
1,13
0,18
meilleure
0,54
0,16
1,15
0,22
pire
0,11
0,03
0,25
0,05
moyenne
0,21
0,06
0,39
0,07
meilleure
0,98
0,85
5,13
0,74
pire
0,93
0,95
0,81
0,82
2,23
2,73
0,32
0,40
meilleure
pire
moyenne
meilleure
Achat
Profit moyen humain
Profit agent zero
-2 500 000,00
Stockage
Pire profit humain
Figure 14: Profits/pertes équipes journée 4
-2 000 000,00
Trans port
4.3
Profit moyen humain
-1 500 000,00
Arrérages
4.1
-10 000 000,00
-1 000 000,00
k
Meilleur profit humain
0,00
-4 000 000,00
0,00
équipes N0 et N1 journée 4
4 000 000,00
grossistes N0 et N1 journée 4
500 000,00
i =N1
193,20
moyenne
t =4.3
i =N0 i =N1
i =N0
7,90
pire
meilleure
k
i =N1
60,75
meilleure
Figure 11: Profits/pertes distributeurs réalisés lors de la
journée 4
i =N0
t =4.3
moyenne
Tableau 9 :
détaillants N0 et N1 journée 4
Au cours de cet article, nous avons étudié l’impact de
deux comportements d’agents décisionnels pour le jeu
du XBeerGame. Notre analyse s’est focalisée sur le test
de ces comportements dans différentes configurations du
jeu. De plus, nous nous sommes intéressés à étudier
l’impact de ces comportements sur les coûts infligés
pendant le jeu.
Cette analyse diffère de celles effectuées dans la
littérature, qui se basent sur un seul indicateur de
performance qui est le profit (ou les pertes). Nous
sommes conscients que les comportements d’agents sont
pour l’instant simplistes. Cependant, nous avons en
premier lieu validé le fonctionnement de l’architecture
des agents du XBeerGame. En second lieu, les résultats
obtenus nous permettent d’identifier les comportements
à modifier. Ainsi, il apparait clairement que les coûts
d’arrérages peuvent être largement améliorés.
9
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
Notre analyse plus granulaire de la performance, nous a
permis de nous rendre compte que les agents
décisionnels implémentés dans le XBeerGame doivent
avoir des comportements qui agissent sur plusieurs
paramètres pour en améliorer les performances. A cet
effet, nous nous intéresserons dans nos futurs travaux à
la conception de comportements qui prennent des
décisions d’approvisionnement en tenant compte des
différents critères de coûts. Cette évolution du
comportement nécessiterait des architectures d’agents
plus complexes, incluant notamment un module
d’apprentissage.
De plus, les comportements d’agents décisionnels du
XBeerGame ne doivent être génériques, mais doivent
s’adapter à leur contexte de prise de décision. A cet effet,
ces agents artificiels doivent être en mesure d’identifier
le contexte sémantique des différentes informations qui
sont diffusées dans l’environnement du jeu.
En effet, des agents qui seront capables de déceler le
contexte des informations, pourront en détecter celles qui
sont pertinentes et seront capables par la suite d’ajuster
leur comportement en conséquent en choisissant une
politique d’approvisionnement appropriée, ou en en
modifiant les paramètres.
Le défi de mettre en place des agents décisionnels dotés
de capacités d’interprétations sémantiques, requiert la
construction d’ontologies du domaine de prise de
décision
et
l’utilisation
d’outils
d’extraction
d’information, ainsi que des algorithmes de
classification. Nous pensons que la combinaison de ces
outils avec des modèles issus de la littérature relative à la
conception des chaînes logistiques permet de modéliser
un comportement d’agent réactif à l’environnement, dans
une tentative de reproduire un comportement de décideur
humain dans le contexte de la gestion des opérations des
chaînes logistiques.
REMERCIEMENTS
Nous tenons à remercier la Chaire de recherche du
Canada en Ingénierie d’Entreprise et le programme de
subventions à la découverte du Conseil de recherche en
Sciences et Génie pour leur support à cette recherche.
Nous remercions aussi le professeur Rémy Glardon et
son équipe à l‘ÉPFL pour leur collaboration dans
l’acquisition des résultats du tournoi.
REFERENCES
Chen F. and R. Samroenraja, 2000. The stationary Beer
Game. Production and Operations Management, vol.
9, p.19-30.
Collins J., R. Arunachalam, N. Sadeh, J. Eriksson, N.
Finne and S. Janson, 2007. The Supply Chain
Management Game for the 2007 Trading Agent
Competition. Carnegie Mellon Technical Report,
CMU-ISRI-07-100.
Fjeld D. E., 2001. The Wood Supply Game as an
educational application for simulating dynamics in
the forest sector. Supply Chain Management for
Paper and Timber Industries, Växjö, Suède, p. 241251.
Hofstede G. J., M. Kramer, S. Meijer and J. Wijdemans,
2003. A Chain Game for Distributed Trading and
Negotiation. Production Planning & Control, 14, p.
111-121.
Huang G.Q., S.K. Lau and K.L. Mak, 2003. The impacts
of sharing production information on supply chain
dynamics: a review of the literature. International
Journal of Production Research, 41, 1483-1517.
Jacobs F. R., 2000. Playing the beer distribution game
over the Internet. Production and Operations
Management, 9, p. 31-39.
Kawagoe T. and S. Wada, 2005. A Counterexample for
the Bullwhip Effect. Proceedings of Gaming and
Multiagent
Simulations
IEEE/WIC/ACM
Inernational. Conference on Intelligent Agent
Technology, p. 124-127.
Kimbrough S. O., D.J. Wu and F. Zhong, 2002.
Computers play the Beer Game: Can artificial agents
manage supply chains? Decision Support Systems,
33, p. 323-333.
Lee L. H., V. Padmanabhan and S. Whang, 1997. The
Bullwhip Effect in Supply Chains. Sloan
Management Review, Spring 1997, p. 93-102.
Montreuil B., E. Brotherton, O. Labarthe et A. Morneau,
2009. XBeerGame: simulations participatives pour le
pilotage et l'analyse de chaînes logistiques. Actes de
du 8ème Congrès international de génie industriel,
Bagnères de Bigorre, France.
Moyaux T., B. Chaib-draa and S. D'Amours, 2003.
Agent-Based Simulation of the Amplification of
Demand variability in a Supply Chain. Proceedings
of the 4th workshop on Agent-Based Simulation,
Montpellier, France.
Nienhaus J., A. Ziegenbein and P. Schoensleben, 2006.
How human behaviour amplifies the bullwhip effect.
A study based on the beer distribution game online.
Production Planning & Control, 17, p. 547-557.
Sterman J.D., 1989. Modeling managerial behavior:
misperceptions of feedback in a dynamic decision
making experiments. Management Science, 35, p.
321-339.
Toyli J., S.O. Hansen and R. Smeds, 2006. Plan for
profit and achieve profit: Lessons learnt from a
business management simulation. Production
Planning & Control, 17, p. 584-595.
10