SIMULATIONS PARTICIPATIVES DU XBEERGAME
Transcription
SIMULATIONS PARTICIPATIVES DU XBEERGAME
8e Conférence Internationale de MOdélisation et SIMulation - MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie « Evaluation et optimisation des systèmes innovants de production de biens et de services » SIMULATIONS PARTICIPATIVES DU XBEERGAME: COMPARAISONS DES PERFORMANCES ENTRE JOUEURS HUMAINS ET AGENTS DECISIONNELS S. NACCACHE, B. MONTREUIL, O. LABARTHE, E. BROTHERTON, S. MELLOULI Centre Interuniversitaire de Recherche sur les Réseaux d'Entreprise, la Logistique et le Transport (CIRRELT) Faculté des Sciences de l’Administration, Université Laval G1V 0A6, Québec - Québec - Canada [email protected], [email protected], [email protected], [email protected], [email protected] RESUME : Les jeux de simulation d’entreprise sont des outils d’apprentissage de la prise de décision tant en milieu académique qu’en milieu professionnel. Le développement des versions électroniques de ces jeux fait appel aux concepts issus de l’intelligence artificielle pour présenter des outils qui assistent intelligemment l’apprentissage de la prise de décision. En particulier, le développement des comportements d’agents décisionnels pour les jeux de chaînes d’approvisionnement est une issue de recherche en voie d’expansion. Dans cet article, nous présentons les architectures des agents que nous avons développé pour le XBeerGame. Nous effectuons des simulations avec les architectures implémentées afin d’en étudier la performance, en comparaison avec les performances obtenues par des joueurs humains. Nous analysons la performance des agents selon différents coûts d’opération et en fonction de plusieurs paramètres de simulation. Les résultats ainsi présentés permettent de mettre en lumière les points d’amélioration à mettre en œuvre dans la définition des comportements d’agents décisionnels. MOTS-CLES : Jeux d’affaires électroniques, Beer Game, XBeerGame, Plate-forme de simulations immersives et participatives, Agents décisionnels, Comparaisons de performance joueurs humains et agents. 1 INTRODUCTION Les jeux sont utilisés depuis l’antiquité à des fins d’apprentissage ludique. Leur nature, leurs supports et leurs objectifs évoluent sans cesse pour devenir des outils d’apprentissage de la prise de décision dans des contextes variés, comme le démontre le nombre croissant de conférences internationales en relation avec ce sujet. L’aspect caractéristique de ces jeux est l’abstraction de la réalité. Cette abstraction est faite à travers des artéfacts qui représentent des composantes faisant partie de situations réelles de prise de décision. Les jeux de simulation constituent un moyen pour former les décisionnaires en environnement artificiel, afin d’avoir conscience de l’impact de leurs décisions, sans pour autant subir des répercussions réelles. Les jeux de simulation d’affaires s’inscrivent comme des outils d’apprentissage de la prise de décision, et ce dans de multiples contextes de gestion d’entreprise. Il s’agit d’outils qui permettent aux apprenants de s’immerger dans différents contextes, les obligeant à prendre dynamiquement un ensemble de décisions afin d’optimiser leur performance. Le nombre et la complexité des données fournies pendant le jeu influencent la structure et la présentation du jeu. En effet, ces jeux existent sous forme de jeux de plateau ainsi que sous forme de jeux électroniques. Les jeux de simulation d’entreprise ont un double rôle. Ils sont utilisés pour l’apprentissage de la gestion d’entreprise, mais aussi comme outils de simulation et d’expérimentation. À travers la conduite de nombreuses expériences, ils permettent d’évaluer différents comportements face à certains contextes simulés d’entreprise, qui reflètent des cas particuliers de prise de décision. Ainsi, les jeux de simulation d’entreprise s’inscrivent comme outils de recherche grâce à la simulation. Les paramètres de l’environnement de prise de décision sont contrôlables par l’administrateur du jeu. Dans ce contexte, la simulation favorise l’étude des comportements des apprenants selon différentes configurations de l’environnement. Les simulations permettent d’observer les phénomènes qui découlent de ces comportements, lesquels reflètent ceux observables à beaucoup plus grand effort dans des contextes réels. Par exemple, dans le cadre des jeux de simulation des chaînes d’approvisionnement, notamment dans le jeu de la bière, Sterman a pu observer le phénomène de l’effet coup de fouet. Cet effet correspond à une amplification de la variance de la demande au fur et à mesure que l’on remonte dans la chaîne d’approvisionnement, (Sterman, 1989). La prise de conscience de l’existence de ce phénomène a permis de proposer des modèles de gestion d’approvisionnement qui tentent de le réduire. La présente recherche focalise sur le jeu de la bière qui est un jeu de simulation de chaînes d’approvisionnement, ainsi que ses extensions.. La problématique repose sur la modélisation orientée agents des comportements de preneurs de décision dans une chaîne logistique. Une architecture d’agents décisionnels est proposée afin 1 MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie d’implémenter différents comportements de prise de décision. Les agents représentent les gestionnaires des entités composant les chaînes d’approvisionnement. Lorsqu’ils adoptent un comportement et émettent une décision, celle-ci est considérée comme étant un des évènements discrets qui dirigent la dynamique de l’environnement de la simulation. De plus, les agents développés peuvent être activés par les joueurs. Ainsi, l’administrateur du jeu décide à quel niveau chaque agent va aider ou remplacer un joueur. Ce niveau varie de la suggestion d’une solution pour assister l’apprenant, jusqu’à la prise de décision automatique sans son intervention. Les agents sont donc utilisés dans ce contexte comme outils d’aide à la décision décision ou comme comparatif de performance lorsqu’ils gèrent la chaine en mode autonome. La suite de l’article est structurée comme suit. La section 2 décrit le jeu de la bière et présente certaines versions informatisées et extensions du jeu. Elle décrit notamment le XBeerGame qui sera utilisé pour implémenter et tester l’architecture des agents. Dans la section 3, l’architecture d’agent développée est décrite ainsi que les deux modèles décisionnels implémentés. Afin de tester la performance de ces comportements, la section 4 est consacrée à la conception des tests et à l’analyse des résultats associés. Enfin, la section 5 conclut cet article, en dressant une synthèse des contributions et en présentant une ouverture sur les avenues de recherche. 2 LE JEU DE LA BIERE (BEER GAME) Cette section est dédiée à la présentation des jeux de simulation de gestion de chaînes d’approvisionnement. Cette catégorie de jeux connaît un essor croissant pour l’enseignement universitaire et dans le cadre de formation de personnel spécialisé dans la gestion des opérations. Les jeux les plus populaires appartenant à cette catégorie sont issus du jeu de la bière, connu sous le nom initial de MIT Beer Distribution Game, ou simplement Beer Game. Ce jeu repose sur le contrôle d’un des quatre rôles d’une chaîne d’approvisionnement linéaire simple, à savoir une usine, un grossiste, un distributeur et un détaillant. Chaque rôle passe des commandes et répond à la demande de ses clients en fonction des produits en inventaire. Ce jeu a été développé par le System Dynamics Group au MIT Sloan School of Management sous la direction de Jay Forrester au début des années soixante. Les versions électroniques inspirées du Beer Game ont été essentiellement exploitées pour rendre le jeu de plateau moins contraignant pour l’initialisation, plus ergonomique, facilitant ainsi l’apprentissage des étudiants. Dans ces versions évoluées l’accent est mis sur l’apprentissage de transfert de flux matériels ainsi que sur l’exploitation des flux d’information, et ce grâce à différentes informations affichées sur l’interface du jeu. 2.1 Versions électroniques du jeu de la bière Le Stationary Beer Game est une variante du Beer Game développée en Visual Basic, (Chen and Samroengraja, 2000). Dans ce jeu, l’apprenant accède à un historique de la demande. Selon les auteurs, cette version électronique présente des avantages aussi bien pour l’apprenant que pour les enseignants. Les apprenants ne sont plus encombrés par la gestion d’un ensemble de jetons, le suivi de la situation de leur stock et de leurs coûts. Les informations nécessaires au jeu sont agencées dans des interfaces. Les instructeurs peuvent se décharger du contrôle et du suivi des joueurs, ainsi qu’ajuster le déroulement du jeu en fonction de leurs rétroactions. Le jeu devient un outil d’expérimentation que les auteurs visent à utiliser comme un laboratoire virtuel. Une version jouable en ligne au moyen d’un navigateur web est introduite par Jacobs (2000). Cette version web permet d’avoir des équipes plus hétérogènes, avec des joueurs de différents pays qui interagissent via la même partie, ayant ainsi une expérience plus variée et comprenant les mécanismes de la gestion internationale. Un autre jeu qui tient en compte l’aspect d’apprentissage des relations internationales est le SIMBU, (Toyli et al. 2006). Les joueurs gèrent les demandes de quatre produits de clientèles internationales provenant de trois pays. Les joueurs doivent aussi considérer les composantes de produits et les devises étrangères. Hofstede et al. (2003) proposent un jeu décentralisé qui s’inspire du Beer Game. Cependant, les chaînes d’approvisionnement s’inscrivent dans le domaine de l’agro-alimentaire. Cette variante du jeu conditionne la gestion de la qualité et l’aspect périssable des marchandises. Les versions complètement informatisées des jeux d’entreprise ont redéfini les objectifs d’apprentissage. L’apprenant ne se limite plus à la gestion des flux matériels mais il se focalise aussi sur l’analyse de l’information et son exploitation. Aussi ces versions du jeu, ont projeté l’apprenant d’un milieu d’apprentissage, restreint aux membres d’une chaîne collaborative, vers un milieu virtuel ouvert pour mettre en pratique les capacités de communication et de gestion des relations d’affaires dans un milieu hétérogène. Les jeux informatisés sont devenus des outils d’expérimentation aux objectifs multiples. D’un côté ils permettent d’étudier le comportement des apprenants plus facilement, en ayant des données compilées et affichées de manière interactive. Ce suivi combiné avec une facilité de paramétrage permet aux instructeurs d’agir sur le cours des jeux. Plus encore, l’expérimentateur peut tester des hypothèses en paramétrant les jeux avec des variables statiques (coûts fixes, délais de livraison, etc.) ainsi qu’étudier l’impact du partage d’information (Huang et al. 2003). Le développement des technologies de l’information, l’amélioration des outils informatiques, couplés d’une prolifération des différents outils qu’offre l’intelligence artificielle, amène à faire un lien direct entre les jeux d’entreprise intégrant la simulation et les paradigmes de 2 MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie l’intelligence décisionnels. 2.2 artificielle, notamment les agents Jeux de simulation orientés agents Les jeux de la bière utilisés à but de recherche s’intéressent à l’analyse et la modélisation du comportement des preneurs de décision. En particulier, les jeux orientés agents utilisent des modules logiciels programmés afin de reproduire un comportement donné, pour interagir de manière autonome et proactive en réponse aux stimuli de l’environnement. Le jeu proposé dans (Nienhaus et al., 2006) peut être joué par des humains et des agents simultanément. Le comportement des agents est géré par un algorithme qui consiste à ce que chaque agent passe à son fournisseur les commandes reçues de ses clients. Les auteurs montrent que lorsque le jeu est joué uniquement par les agents décisionnels, ces derniers réussissent à avoir de meilleures performances que les humains dans des simulations aux paramètres identiques. Dans le cas de simulations mixtes (joueurs humains et agents), les auteurs relèvent deux types de comportements extrêmes des joueurs preneurs de décision, à savoir la stratégie de refuge (Safe harbour) et la stratégie de panique (Panic). Dans (Kawagoe and Wada, 2005) une version du jeu utilisant des agents logiciels est proposée. Le comportement des agents consiste à mettre à jour l’inventaire en fonction des quantités commandées de la part des clients et les quantités de marchandise reçues du fournisseur. Les agents livrent aux clients leurs commandes dans la mesure de leur inventaire. Les agents subissent des coûts d’arrérage si l’inventaire calculé n’est pas suffisant pour satisfaire toutes les commandes à la date promise. Grâce à ce jeu à base d’agents, les auteurs ont pu donner un contre exemple de l’effet coup de fouet. En particulier, en présence de longs délais de livraison ainsi qu’un nombre élevé d’entreprises dans la chaîne. Le système multi-agents DragonChain est composé d’agents dont le comportement est implémenté par un algorithme génétique, (Kimbrough, Wu and Zhong, 2002).L’algorithme génère une population de règles parmi lesquelles l’agent en choisit une selon un score (fitness value) et l’applique jusqu’à la fin de la ronde. Les auteurs ont comparé les résultats des agents avec ceux d’étudiants de Bachelor et de MBA. Ils ont montré que les agents sont capables de retrouver les meilleures stratégies pour commander. Notons que dans le cadre du DragonGame, peu d’hypothèses sur les informations utilisées dans la simulation sont émises. Le jeu du bois Québécois, (Moyaux et al., 2003), est une adaptation numérique à base d’agents du jeu de plateau Wood Supply Game (Fjeld, 2001). Chaque agent simule le comportement d’une entreprise en décidant des quantités à commander et du moment de leur commande. Les auteurs présentent une architecture pour ces agents, un aspect omis par les autres travaux. Les auteurs montrent l’impact de l’architecture sur la réduction de l’effet de coup de fouet en agissant sur une des quatre causes présentées par Lee et al. (1997). Le jeu Trading Agent Competition - Supply Chain Management présente une autre version à base d’agents décisionnels, (Collins et al,. 2007). Il s’agit d’une compétition où chaque candidat crée un agent décisionnel et le fait concourir dans un environnement prédéfini par la plateforme du jeu. La plateforme consiste en des mécanismes de marché, des politiques de coûts et une banque. 2.3 XBeerGame Le XBeerGame est la version étendue du jeu de la bière développée à l’Université Laval, Québec, Canada (Montreuil et al., 2009). Le jeu est implémenté sur la plate-forme BusinessWebGame développée par la même équipe, et qui permet à plusieurs joueurs de s’y connecter et y concourir simultanément, grâce à son architecture distribuée Il permet au maître de jeu de spécifier les informations à afficher aux apprenants, en fonction de leur niveau d’expertise et des objectifs d’apprentissage. L’information est représentée dans des tableaux de bord, dont le cockpit principal qui est illustré à la Figure 1. Celui-ci se compose de données opérationnelles, d’indicateurs de performance et d’outils de prise de décision. Il résume les niveaux de stock des produits gérés et les niveaux des différents coûts affectés, etc. Les données sont surlignées de couleurs, utilisées comme indicateurs de la position opérationnelle et financière de l’entreprise gérée par le joueur. Les autres onglets / cockpits / panneaux contiennent divers graphiques indiquant notamment l’évolution des différents revenus et coûts d’opération, ainsi que l’historique des demandes. Le XBeerGame implémente aussi une architecture d’agents décisionnels. Par exemple, un joueur peut choisir d’activer un agent d’approvisionnement et de paramétrer la politique de commande à appliquer pour un produit donné. Dans ce cas, l’agent est un simple exécutant de la politique dont les paramètres sont spécifiés par l’apprenant. Figure 1: Cockpit XBeerGame (Montreuil et al., 2009) L’architecture permet d’expérimenter la performance de l’adoption de ces différentes politiques, ceci en présence 3 MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie d’un patron de demande et de paramètres de revenus et de coûts spécifiés dans le patron de jeu par l’administrateur. La limite des agents réside dans leur dépendance face aux valeurs décidées par l’apprenant ou le maître de jeu. A cet effet, une mise à jour de cette architecture est ici proposée afin de faire évoluer les agents du XBeerGame, allant de simples modules d’automatisation des actions du joueur vers des outils d’aide à la décision. 3 AGENTS DU XBEERGAME Cette section est consacrée à la proposition relative à l’évolution de l’architecture des agents décisionnels au sein de la plate-forme de simulation XBeerGame. Le principe repose sur l’ajout d’un niveau de décision aux comportements des agents d’approvisionnement. La combinaison entre l’agent de décision et l’agent d’approvisionnement d’un nœud donné de la chaîne, constitue l’architecture de notre agent. Le comportement de ce dernier s’établit comme suit : L’agent de décision calcule les paramètres de la politique d’approvisionnement à adopter (selon son niveau de comportement). Les paramètres sont communiqués à l’agent d’approvisionnement. L’agent d’approvisionnement met à jour les paramètres de la politique qu’il applique. Un niveau de comportement correspond au niveau d’expertise à affecter à l’agent d’approvisionnement. L’implémentation intègre deux niveaux de comportement. Chaque niveau diffère par l’intégration d’une information supplémentaire. La version actuelle de l’agent implémente un niveau à la fois, la transition entre les différents niveaux sera traitée dans de futurs travaux. L’implémentation de différents niveaux de comportement au sein de la plateforme correspond à la représentation de différents niveaux d’apprentissage. Ces niveaux sont efficaces dans certains contextes et peu ou pas efficaces dans d’autres, et ce afin de sensibiliser les apprenants à l’importance de l’adaptabilité aux différents contextes informationnels des entreprises. Il ne s’agit pas ici de donner les meilleurs comportements et de marginaliser les moins performants, mais plutôt présenter des outils qui intègrent de manière progressive différents types d’informations pour en appréhender l’impact sur la prise de décision et la performance de l’individu ou de la chaîne. 3.1 Niveau zéro Le niveau zéro (N0) correspond au comportement d’un joueur débutant qui a une connaissance très limitée de son contexte. Il s’agit d’un agent sans mémoire : la seule information qu’il intègre dans son modèle décisionnel est la demande reçue de ses clients. Aussitôt qu’une demande est réceptionnée, l’agent d’approvisionnement commande la même quantité du même produit à son fournisseur. Cette politique a été implémentée dans l’architecture des agents présentés dans (Nienhaus et al., 2006). Les auteurs affirment que cette stratégie d’approvisionnement donne une meilleure solution que la stratégie basée sur le calcul de la moyenne mobile et l’écart type des demandes. Cependant, les hypothèses sous lesquelles ce comportement a été testé ne sont pas présentées par les auteurs. Dans le présent article, l’impact de ce comportement dans différentes configurations du jeu est testé, et ce en utilisant différents scénarios de demande, ainsi que divers délais d’acheminement de flux matériels d’un fournisseur à son client. Le diagramme d’états-transitions correspondant est illustré dans la Figure 2. Figure 2: Diagramme d’états-transitions N0 3.2 Niveau un Le niveau un (N1) correspond au comportement d’un joueur qui intègre l’information passée sur un court horizon de temps. Il s’agit d’un agent disposant d’une mémoire à court terme, qui intègre l’information sur les dernières commandes reçues en calculant la moyenne mobile des demandes sur les n dernières périodes, ainsi que l’écart type. Ces deux paramètres sont communiqués à l’agent d’approvisionnement qui implémente une politique de stock s, S. Le diagramme d’états-transitions correspondant à N0 est illustré dans la Figure 3. Afin de tester la performance des deux niveaux de comportement, contrairement aux travaux précédemment évoqués dans notre revue de la littérature, la recherche ici rapportée ne focalise pas sur l’analyse des profits réalisés par les agents, mais plutôt sur l’analyse des coûts qu’engendrent leurs décisions et sur l’impact de performance de la chaîne. 4 SIMULATIONS ET RESULTATS Afin de pouvoir tester la performance des architectures d’agents proposés, deux modules logiciels ont été implémentés et testés par la conduite de simulations sur la plate-forme XBeerGame. La comparaison des comportements des deux agents se fait par rapport à ceux d’étudiants du Masters en Global Supply Chain Management à l’Ecole Polytechnique Fédérale de Lausanne dans un tournoi joué du 10 au 13 Février 2009, en collaboration avec des membres du CIRRELT de 4 MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie l’Université Laval. A cet effet, les agents ont disposé des mêmes paramètres que les différentes simulations jouées par les étudiants. premier jour du tournoi, chaque joueur gérait le détaillant de la chaîne, alors que les trois autres rôles étaient tenus par des agents logiciels. Chacun de ces agents implémente une politique de stock s, S. Inventaire Arrérage Transport Coûts fixes Délai de transport Délai interne Coût achat Coût fixe de commande Figure 3: Diagramme d’états-transitions N1 4.1 Paramétrage des simulations Le paramétrage des rondes du XBeerGame consiste à fournir les coûts d’opérations (prix, coûts d’inventaire, coûts d’arrérage, coûts de transport, coûts fixes), le patron de la demande de chacun des produits gérés au cours du jeu, le temps de production à l’usine, le délai de livraison, les niveaux d’inventaire initiaux. Le Tableau 1 reprend les paramètres utilisés par défaut dans la ronde 1.1. Les rondes utilisées pour simuler le comportement des joueurs diffèrent par : • Le patron de la demande ; • Le temps de production en usine ; • L’inventaire initial des deux produits ; • La durée de la simulation ; • La vitesse de la simulation. Coût fixe d'annulation d'une commande Coût variable d'annulation d'une commande Marge Usine Distributeur Grossiste Détaillant 0.2$ / jour 0.4$ / jour 0.6$ / jour 0.8$ / jour 0.2$ / jour de délai 0.3$ / jour de délai 0.6$ / jour de délai 1$ / jour de délai 360$ / camion 240$ / camion 120$ / camion 40$ / camion 50 000 $ / mois 37 500 $ / mois 18 750 $ / mois 6 250 $ / mois Usine vers Distributeur Distributeur vers Grossiste Grossiste vers Détaillant Détaillant vers Marché 4 jours 3 jours 2 jours 1 jour 4,5 jours - - - 2$ 4$ 6$ 8$ 25 $ 25 $ 25 $ 25 $ 5$ 5$ 5$ 5$ 0,10 $ 0,10 $ 0,10 $ 0,10 $ 2$ 2$ 2$ 2$ Tableau 1: Paramètres de base, altérés en fonction des rondes Figure 4: Demande de la ronde 1.2 De ronde en ronde, nous avons utilisé des patrons de demande différents. Par exemple, nous avons utilisé à la ronde 1.2 un patron de demande stable, à la ronde 1.3 un patron de demande variable et à la ronde 2.2 un patron de demande à effets saisonniers. Les demandes des rondes 1.2, 1.3 et 2.2 sont respectivement illustrées dans les Figures 4,5 et 6. Dans chaque figure, la demande affichée pendant le jeu est délimitée par un cadre bleu. Ces demandes ont été obtenues à partir de distributions issues de simulations de marché. Ces demandes ainsi générées ont été utilisées pendant la simulation de la chaîne: pendant chaque ronde, à chaque moment du temps simulé, la demande correspondante était affichée aux joueurs. Ainsi, étant donné que la demande n’est pas générée de manière aléatoire pendant les rondes, et qu’elle n’est pas affectée par les décisions des joueurs, nous n’avons eu besoin que d’une seule réplication de chaque ronde pour analyser les performances des deux niveaux de comportement d’agents que nous avons implémentés.Dans le Tableau 2 nous rapportons les différences entre les configurations des différentes rondes du tournoi. Durant les rondes du Figure 5: Demande de la ronde 1.3 Figure 6: Demande de la ronde 2.2 Les stocks de sécurité pour ces politiques sont prédéterminés dans le patron du jeu, par le concepteur des rondes. Ces niveaux ont été spécifiés en fonction des patrons des demandes correspondantes à chaque ronde. 5 MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie Dans les rondes suivantes, les équipes étaient constituées uniquement de joueurs humains. Ronde 1.1 1.2 1.3 1.4 2.1 2.2 2.3 2.4 3.1 3.2 4.1 4.3 Objectfis max. profit indiv. max. profit indiv. max. profit indiv. max. profit indiv. max. profit indiv. max. profit indiv. max. profit indiv. max. profit indiv. max. profit indiv. max. profit indiv. max. profit chaîne max. profit chaîne Visibilité du rôle non Historique demande Clavardage Délais (Jours) par défaut non tr. de Gr. à Det. : 10 non pdt Calore: 10 non X pdt Igloo: 14 non non X non X X pdt Igloo: 16 pdt Calore: 8 pdt Igloo: 3 pdt Calore: 7 pdt Igloo: 7 pdt Calore: 3 pdt Igloo: 4 pdt Calore: 8 par défaut non oui oui X X tr. de Usn. à Dist. : 21 oui X X tr. de Usn. à Dist. : 14 oui X X tr. de Usn. à Dist. : 14 tr. de Dist. à Gr. : 7 Légende max. : maximiser indiv. : individuel tr. : transport pdt. :production Usn. : usine Dist. : distributeur Gr. :grossiste Det. : détaillant Tableau 2: Paramétrages des rondes du tournoi Tel que décrit au Tableau 2, de ronde en ronde, des outils de communication entre les joueurs étaient rajoutés et les contextes collaboratifs étaient altérés. Par exemple à la ronde 3.1, les joueurs ont accès à une interface de clavardage pour communiquer avec leurs nœuds adjacents dans la chaîne. À partir de 4.1, les joueurs visent à optimiser le profit total de la chaîne, et non plus leur profit individuel, sous-entendant le passage vers une chaîne intégrée. 4.2 communication entre les joueurs n’était permise. Pour chacune des parties individuelles correspondantes aux rondes 1.1, 1.2, 1.3, 1.4, la performance des agents est comparée en les positionnant par rapport à la meilleure valeur, la pire valeur et la valeur moyenne de coûts des joueurs humains, et ce pour chaque type de coût. Pour ce faire, pour chaque comportement d’agent i ∊ {N0,N1} et pour chaque ronde t, le rapport est calculé avec ∊ {meilleure performance, pire performance, performance moyenne} de la manière suivante : avec le montant obtenu par i pour le coût k ∊ {Arrérages, Transport, Stockage, Achat} à la ronde t, le montant obtenu par l’humain ou l’équipe humaine j. Les proportions pour la journée 1 sont rapportées dans le Tableau 3. Dans les tableaux de performance, nous avons coloré chaque triplet de proportions selon la qualité de la performance de l’agent. Nous avons utilisé le bleu clair pour une excellente performance ( tend vers zéro), le vert pour une bonne performance ( ), le jaune pour une faible performance ( 0 mais tendent vers zéro) et le rouge pour une mauvais performance ( , ). k Arrérages Analyse des résultats Transport La recherche ici rapportée a simulé les rondes du tournoi explicitées en section 4.1 en remplaçant les joueurs humains par des agents avec le comportement N0 dans un premier temps, ensuite avec le comportement N1 tel que décrits en section 3. Dans les travaux présentés à la sous-section 2.2, les auteurs ont comparé les performances d’agents artificiels avec celles de joueurs humains. Cette comparaison repose sur les profits ou pertes réalisés par les différents acteurs. Cette soussection présente une analyse des différents coûts résultants du comportement des joueurs et des agents. Les coûts en question sont le coût d’arrérage, le coût de transport, le coût de stockage et les coûts d’achat (ou de production pour l’usine). 4.2.1 Résultats des parties individuelles Le but à travers les rondes de la journée 1 est de se concentrer sur la performance individuelle. Pour ce faire, les rondes ont été conçues de manière à ce que les joueurs n’aient aucune visibilité de la composition de la chaîne, ni de leur rôle (détaillant). De plus, aucune Stockage Achat p usine t =1.1 t =1.2 t =1.3 t =1.4 i =N0 i =N1 i =N0 i =N1 i =N0 i =N1 i=N0 i=N1 meilleure 0,39 0,99 0,85 0,44 1,19 3,27 4,47 5,53 pire 0,09 0,22 0,16 0,08 0,32 0,87 4,12 5,09 moyenne 0,19 0,48 0,39 0,20 0,50 1,37 4,21 5,20 meilleure 0,01 0,01 2,50 3,26 1,04 1,06 0,85 0,86 pire 0,00 0,00 1,05 1,38 0,97 0,99 0,83 0,84 moyenne 0,01 0,01 1,29 1,68 1,00 1,02 0,83 0,84 meilleure 0,30 0,23 0,24 0,47 1,57 0,38 0,61 0,30 pire 0,07 0,05 0,07 0,15 0,23 0,06 0,30 0,15 moyenne 0,16 0,12 0,15 0,29 0,59 0,14 0,39 0,19 meilleure 1,05 1,05 1,71 2,18 0,77 0,76 0,57 0,56 pire 0,99 1,01 0,99 1,01 0,80 0,92 1,01 1,18 0,76 0,77 0,74 0,75 0,57 0,57 0,56 0,56 moyenne Tableau 3: journée 1 D’après les résultats rapportés dans le Tableau 3, N0 engage de faibles coûts d’arrérage dans les rondes 1.1, 1.2 et 1.3 ainsi que de faibles coûts de stockage aux rondes 1.1, 1.2 et 1.4, et ce par rapport au comportement des joueurs humains. Par contre, ce comportement engage dans la majorité des cas des coûts de transport plus importants que ceux réalisés par les joueurs humains, à l’exception de la ronde 1.1. Les coûts subis pas les agents N0 sont en moyenne équivalents aux coûts d’achat subis par les joueurs humains et ce aux rondes 1.1 et 1.2. Ceci s’explique par le fait que ce comportement achemine la marchandise aussitôt que la commande d’un client peut être desservie, ce qui peut engendrer des exploitations inefficaces de camions qui quittent l’entrepôt sans pour autant exploiter leur 6 MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie capacité maximale. À la ronde 1.4 les agents N0 ont réussi à avoir de meilleures performances que les joueurs humains sur les coûts de transport, de stockage et d’achat, alors que les coûts d’arrérages sont quatre fois plus élevés. Ces derniers peuvent être expliqués par le grand délai de livraison de la première catégorie de produit de l’usine vers le distributeur qui est de 14 jours, alors que dans les rondes 1.1, 1.2 et 1.3 le délai était de 4 jours. N1 a donné moins de coûts de stockage que les joueurs humains et que N0, au niveau des rondes 1.1, 1.3 et 1.4. La Figure 7 présente un histogramme comparatif entre les meilleurs, les pires profits et les profits moyens des joueurs humains et des agents, et ce à travers les rondes de la journée 1. Notons que pendant les journées 2, 3 et 4 du tournoi joué par les joueurs humains, les équipes ont été constituées de joueurs humains seulement. Les simulations des rondes de ces journées ont été opérées par une équipe d’agents de comportement niveau zéro, ensuite une équipe d’agents de comportement niveau un et nous en avons recueilli les performances dans les différentes rondes de ces trois journées. Pendant les rondes de la journée 3 (3.1 et 3.2) les joueurs pouvaient établir une stratégie de manière individuelle avant le début de la simulation. t =2.1 t =2.2 t =2.3 t =2.4 p individus i =N0 i =N1 i =N0 i =N1 i =N0 i =N1 i =N0 i =N1 k Arrérages Transport Stockage Achat meilleure 0,65 1,55 0,03 3,93 0,07 0,75 1,09 5,39 pire 0,06 0,14 0.0005 0,07 0,01 0,05 0,01 0,07 moyenne 0,17 0,41 0.0015 0,20 0,02 0,19 0,06 0,31 meilleure 1,54 1,56 2,44 2,13 1,55 1,52 2,24 2,47 pire 0,08 0,08 0,12 0,11 0,17 0,16 0,22 0,24 moyenne 0,25 0,26 0,44 0,38 0,35 0,34 0,45 0,49 meilleure 0,55 0,12 2,77 0,43 0,58 0,30 0,54 0,48 pire 0,01 0,002 0,03 0,004 0,01 0,01 0,06 0,05 moyenne 0,06 0,01 0,17 0,03 0,07 0,04 0,16 0,14 meilleure 0,87 0,84 0,95 0,60 0,57 0,57 1,49 1,54 pire 0,18 0,30 0,18 0,29 0,17 0,27 0,11 0,17 0,14 0,22 0,14 0,21 0,32 0,53 0,33 0,55 moyenne Tableau 4: journée 2 5 000 000,00 0,00 2.1 2.2 2.3 2.4 -5 000 000,00 Meilleur profit humain Pire profit humain Profit moyen humain Profit agent zero -10 000 000,00 1 000 000,00 Profit agent un 0,00 -1 000 000,00 -2 000 000,00 1.1 1.2 1.3 1.4 Meilleur profit humain Pire profit humain -20 000 000,00 -3 000 000,00 -4 000 000,00 Profit moyen humain -5 000 000,00 Profit agent zero -6 000 000,00 -7 000 000,00 -15 000 000,00 Profit agent un -8 000 000,00 -9 000 000,00 Figure 7: Profits/pertes de journée 1 Le but à travers les rondes de la journée 2 (2.1, 2.2, 2.3 et 2.4) était aussi de développer les performances individuelles des joueurs. Dans le Tableau 4, nous rapportons les respectivement pour N0 et N1 pour les rondes de la journée 2. L’indice j dans correspond aux individus ayant joué les rondes des journées 1, 2 et 3. Pour la journée 4, les j correspondent aux indices des individus de chaque rôle, ainsi qu’aux indices des équipes d’humains. A travers le Tableau 4 nous constatons que le comportement N0 donne de meilleurs coûts d’arrérages, de stockage et d’achat que les acteurs humains, par contre les coûts de transport obtenus par cet agents se trouvent meilleurs que la moyenne obtenue des coûts de transport obtenus par les humains. Nous émettons les mêmes observations pour N1. Lors de la journée 2, N0 a obtenu de meilleurs coûts d’arrérages que N1, N1 a obtenu de meilleurs coûts de stockage que N0, et les deux agents ont eu des coûts de transport et de stockage, qui sont en moyenne similaires.La figure 8 présente une comparaison entre les différents profits de la journée 2 obtenus par les agents humains et artificiels. Figure 8: Profits/pertes réalisés journée 2 De plus, les joueurs ont eu accès à une interface de clavardage qui leur permettait de communiquer librement avec leurs nœuds adjacents dans la chaîne d’approvisionnement. Pendant ces rondes les joueurs avaient une visibilité complète sur la constitution de la chaîne. Le but à travers les rondes de la journée 3 était d’améliorer les performances individuelles des joueurs à travers la collaboration avec les nœuds adjacents. Dans le Tableau 5, nous rapportons les de la journée 3. Nous constatons que pour N0, l’agent a eu de meilleurs coûts de stockage que les joueurs humains et ce pour les deux rondes de la journée 3, par contre pour les coûts d’arrérage, de transport et d’achat, N0 a obtenu des coûts d’achat qui sont meilleurs que les coûts d’achat moyens des joueurs humains, mais qui sont moins bons que leurs meilleurs coûts. Par contre, l’agent N1 a réalisé de meilleurs coûts de stockage et de transport que l’agent N0 et ce pour les deux rondes 3.1 et 3.2. Aussi N1 a eu de meilleurs coûts d’arrérages et d’achat pour la ronde 3.1. Le positionnement des profits de chacun des agents pour les rondes 3.1 et 3.2 sont illustrés par le graphique de la Figure 9. 4.2.2 Résultats des parties en équipes Les rondes des journées 1, 2 et 3 visaient à renforcer l’apprentissage individuel des joueurs. Les rondes de la journée 4 ont eu pour but d’apprendre aux joueurs à collaborer ensemble pour mener à bien leurs opérations. 7 MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie 3.1 Performance joueur us ine Arrérages Trans port Stockage Achat N0 3.2 N1 N0 N1 meilleure 1,81 11,55 14,42 0,88 pire 0,02 0,13 0,07 0,004 moyenne 0,10 0,64 0,33 0,02 meilleure 2,02 1,93 2,48 0,17 pire 0,18 0,17 0,06 0,004 moyenne 0,42 0,40 0,22 0,01 meilleure 0,50 0,34 0,09 0,01 pire 0,02 0,02 0,005 0,0007 moyenne 0,09 0,06 0,02 0,002 meilleure 1,21 1,34 1,53 0,08 pire 0,20 0,37 0,23 0,41 0,29 0,58 0,02 0,03 moyenne Tableau 5: journée 3 2 000 000,00 Pire profit humain 3.1 3.2 meilleure Arrérages pire moyenne Transport Achat meilleure 2,25 1,40 5,46 0,95 pire 1,99 1,24 2,18 0,38 moyenne 2,08 1,30 2,86 0,50 meilleure 0,98 0,25 0,67 0,46 pire 0,23 0,06 0,24 0,16 moyenne 0,47 0,12 0,36 0,24 meilleure 1,13 0,98 5,78 0,98 pire 1,01 1,06 0,88 0,92 2,26 2,91 0,38 0,49 moyenne Profit moyen humain Profit agent zero t =4.1 t =4.3 i =N0 i =N1 i =N0 i =N1 # # # # # # # # # # # # p usines Meilleur profit humain 0,00 -4 000 000,00 k Stockage 4 000 000,00 -2 000 000,00 distributeur, grossiste et détaillant, ainsi que pour l’équipe de ces agents. Finalement notons que les agents N1 ont eu de meilleures performances pour les quatre coûts, que les agents N0 que ce soit par rôle ou par équipe. Tableau 6: usines N0 et N1 journée 4 Profit agent un 200 000,00 -6 000 000,00 100 000,00 -8 000 000,00 0,00 Figure 9: Profits/pertes journée 3 -100 000,00 Meilleur profit humain 4.1 4.3 Pire profit humain -200 000,00 Pendant les rondes de la journée 4 (4.1 et 4.3), en plus de la possibilité de communiquer, les joueurs avaient accès à l’information historique sur les distributions des demandes des deux produits et pouvaient établir une stratégie en groupe avant le début de la simulation. Notons que pendant les rondes 4.1 et 4.3, les joueurs sont autorisés à communiquer directement ainsi que de communiquer par vidéo conférence avec des joueurs distants situés à Québec. Dans un second temps, nous nous sommes intéressés à analyser l’impact des comportements d’agents sur la performance globale des équipes pour chaque journée de jeu. A cet effet, nous comparons les coûts obtenus par les agents par rôle et par équipe. Dans les Tableaux 6 à 9, nous rapportons les de la journée 4, et ce par rôle joué. Le tableau 10 présente ces proportions par équipes. Notons que les usines ont des coûts d’arrérages nuls. Chacune des figures 8 à 11 illustrent pour un rôle donné dans la chaîne une comparaison entre les profits ou pertes obtenus par les agents et les humains au cours des rondes 4.1 et 4.3. La comparaison entre profits des équipes pour ces deux rondes et illustrée dans la Figure 14. D’après ces résultats, les agents N1 ont eu de meilleures performances que les joueurs humains, ainsi que les agents N0, et ce en termes de coûts de stockage et d’achat, que ce soit pour les coûts par rôle, ou les coûts par équipe pour les rondes 4.1 et 4.3. Ces agents ont aussi obtenu les meilleurs coûts de transport à la ronde 4.3. Les agents N0 ont eu de meilleurs coûts de stockage que les joueurs humains, que ce soit par rôle ou par équipe, et ce pour la ronde 4.1. Pour la ronde 4.3, ces coûts ont été meilleurs que la moyenne des coûts des joueurs humains, mais n’ont pas dépassé les meilleurs coûts qu’ils ont réalisés et ce pour les agents N1 de rôles Profit moyen humain -300 000,00 Profit agent zero -400 000,00 Profit agent un -500 000,00 -600 000,00 -700 000,00 Figure 10: Profits/pertes usines journée 4 k p dis tr. 229,29 100,05 22,68 6,77 19,69 8,69 1,97 18,33 1,94 53,31 1,19 15,99 2,50 3,62 0,35 pire 1,76 1,08 1,13 0,16 moyenne 1,84 1,13 1,40 0,20 meilleure 0,18 0,12 2,01 1,54 pire 0,05 0,03 0,27 0,21 moyenne 0,09 0,06 0,41 0,31 meilleure 1,01 0,84 5,00 1,06 pire 0,91 0,95 0,76 0,79 2,05 2,61 0,43 0,55 pire moyenne meilleure Trans port Stockage Achat moyenne Tableau 7: t =4.3 i =N0 i =N1 78,85 meilleure Arrérages t =4.1 i =N0 i =N1 distributeurs N0 et N1 journée 4 Dans le présent travail de recherche nous avons étudié les deux comportements d’agents dans différentes configurations en agissant sur plusieurs paramètres du jeu. De plus, notre analyse de la performance des agents a été plus granulaire dans le sens où nous l’avons évaluée en termes de différents coûts, ce qui nous a permis de détecter quel est l’impact de chaque comportement sur chaque coût dans différentes configurations de la simulation. Notons que les agents ont eu de meilleures performances que les humains pendant les 1ère, 2ème et 3ème journées de jeu, tandis que pour la 4ème journée ils ont obtenus de mauvaises performances, notamment au niveau des coûts d’arrérage. Ceci s’explique par le fait que les joueurs humains ont pu tirer profit du contexte collaboratif de ces rondes et ont obtenu de bonnes performances au niveau de leur chaîne, chose non réalisable par les 8 MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie comportements d’agents actuellement développés, étant donné qu’ils n’ont pas la capacité de déceler la sémantique du contexte et n’implémentent aucun mécanisme de collaboration. 3 000 000,00 2 000 000,00 Meilleur profit humain 1 000 000,00 Pire profit humain 0,00 0,00 4.1 -500 000,00 4.3 Meilleur profit humain -1 000 000,00 Pire profit humain -2 000 000,00 4.1 Profit moyen humain 4.3 Profit agent zero Profit agent un -3 000 000,00 -1 000 000,00 Profit moyen humain -1 500 000,00 -4 000 000,00 Figure 13: Profits/pertes détaillants journée 4 Profit agent zero t =4.1 -2 000 000,00 Profit agent un k -2 500 000,00 p équipes Arrérages p gros s is tes Arrérages Trans port Stockage Achat t =4.1 i =N0 i =N1 meilleure 7,12 23,54 2,58 29,36 pire 4,90 16,20 0,35 3,94 moyenne meilleure 5,83 1,90 19,29 1,19 0,61 2,37 6,95 0,40 pire 1,66 1,04 1,08 0,18 moyenne 1,80 1,13 1,27 0,21 meilleure 0,64 0,11 1,45 0,48 pire 0,17 0,03 0,28 0,09 moyenne 0,27 0,05 0,47 0,16 meilleure 0,98 0,85 5,09 0,78 pire 0,93 0,95 0,80 0,82 2,11 2,61 0,32 0,40 moyenne Tableau 8: Trans port Stockage Achat 297,23 62,38 25,13 17,42 3,66 11,36 2,10 36,13 1,32 42,32 3,90 8,88 0,64 pire 1,90 1,19 1,68 0,28 moyenne 1,97 1,24 2,11 0,35 meilleure 0,40 0,13 1,02 0,56 pire 0,12 0,04 0,28 0,16 moyenne 0,20 0,06 0,41 0,23 meilleure 1,13 0,98 5,78 0,98 pire 1,01 1,06 0,88 0,92 2,26 2,91 0,38 0,49 moyenne Tableau 10: 2 000 000,00 4.1 -500 000,00 4.3 -2 000 000,00 Meilleur profit humain -6 000 000,00 Pire profit humain -8 000 000,00 Profit agent zero Profit agent un 5 CONCLUSIONS ET PERSECTIVES Profit agent un -3 000 000,00 -3 500 000,00 Figure 12: Profits/pertes grossistes journée 4 t =4.1 p détaillants i =N0 t =4.3 i =N1 i =N0 i =N1 60,75 193,20 297,23 62,38 7,90 25,13 55,87 11,73 13,98 1,65 44,47 1,34 72,73 1,84 15,26 0,29 pire 1,40 1,14 0,92 0,15 moyenne 1,50 1,22 1,13 0,18 meilleure 0,54 0,16 1,15 0,22 pire 0,11 0,03 0,25 0,05 moyenne 0,21 0,06 0,39 0,07 meilleure 0,98 0,85 5,13 0,74 pire 0,93 0,95 0,81 0,82 2,23 2,73 0,32 0,40 meilleure pire moyenne meilleure Achat Profit moyen humain Profit agent zero -2 500 000,00 Stockage Pire profit humain Figure 14: Profits/pertes équipes journée 4 -2 000 000,00 Trans port 4.3 Profit moyen humain -1 500 000,00 Arrérages 4.1 -10 000 000,00 -1 000 000,00 k Meilleur profit humain 0,00 -4 000 000,00 0,00 équipes N0 et N1 journée 4 4 000 000,00 grossistes N0 et N1 journée 4 500 000,00 i =N1 193,20 moyenne t =4.3 i =N0 i =N1 i =N0 7,90 pire meilleure k i =N1 60,75 meilleure Figure 11: Profits/pertes distributeurs réalisés lors de la journée 4 i =N0 t =4.3 moyenne Tableau 9 : détaillants N0 et N1 journée 4 Au cours de cet article, nous avons étudié l’impact de deux comportements d’agents décisionnels pour le jeu du XBeerGame. Notre analyse s’est focalisée sur le test de ces comportements dans différentes configurations du jeu. De plus, nous nous sommes intéressés à étudier l’impact de ces comportements sur les coûts infligés pendant le jeu. Cette analyse diffère de celles effectuées dans la littérature, qui se basent sur un seul indicateur de performance qui est le profit (ou les pertes). Nous sommes conscients que les comportements d’agents sont pour l’instant simplistes. Cependant, nous avons en premier lieu validé le fonctionnement de l’architecture des agents du XBeerGame. En second lieu, les résultats obtenus nous permettent d’identifier les comportements à modifier. Ainsi, il apparait clairement que les coûts d’arrérages peuvent être largement améliorés. 9 MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie Notre analyse plus granulaire de la performance, nous a permis de nous rendre compte que les agents décisionnels implémentés dans le XBeerGame doivent avoir des comportements qui agissent sur plusieurs paramètres pour en améliorer les performances. A cet effet, nous nous intéresserons dans nos futurs travaux à la conception de comportements qui prennent des décisions d’approvisionnement en tenant compte des différents critères de coûts. Cette évolution du comportement nécessiterait des architectures d’agents plus complexes, incluant notamment un module d’apprentissage. De plus, les comportements d’agents décisionnels du XBeerGame ne doivent être génériques, mais doivent s’adapter à leur contexte de prise de décision. A cet effet, ces agents artificiels doivent être en mesure d’identifier le contexte sémantique des différentes informations qui sont diffusées dans l’environnement du jeu. En effet, des agents qui seront capables de déceler le contexte des informations, pourront en détecter celles qui sont pertinentes et seront capables par la suite d’ajuster leur comportement en conséquent en choisissant une politique d’approvisionnement appropriée, ou en en modifiant les paramètres. Le défi de mettre en place des agents décisionnels dotés de capacités d’interprétations sémantiques, requiert la construction d’ontologies du domaine de prise de décision et l’utilisation d’outils d’extraction d’information, ainsi que des algorithmes de classification. Nous pensons que la combinaison de ces outils avec des modèles issus de la littérature relative à la conception des chaînes logistiques permet de modéliser un comportement d’agent réactif à l’environnement, dans une tentative de reproduire un comportement de décideur humain dans le contexte de la gestion des opérations des chaînes logistiques. REMERCIEMENTS Nous tenons à remercier la Chaire de recherche du Canada en Ingénierie d’Entreprise et le programme de subventions à la découverte du Conseil de recherche en Sciences et Génie pour leur support à cette recherche. Nous remercions aussi le professeur Rémy Glardon et son équipe à l‘ÉPFL pour leur collaboration dans l’acquisition des résultats du tournoi. REFERENCES Chen F. and R. Samroenraja, 2000. The stationary Beer Game. Production and Operations Management, vol. 9, p.19-30. Collins J., R. Arunachalam, N. Sadeh, J. Eriksson, N. Finne and S. Janson, 2007. The Supply Chain Management Game for the 2007 Trading Agent Competition. Carnegie Mellon Technical Report, CMU-ISRI-07-100. Fjeld D. E., 2001. The Wood Supply Game as an educational application for simulating dynamics in the forest sector. Supply Chain Management for Paper and Timber Industries, Växjö, Suède, p. 241251. Hofstede G. J., M. Kramer, S. Meijer and J. Wijdemans, 2003. A Chain Game for Distributed Trading and Negotiation. Production Planning & Control, 14, p. 111-121. Huang G.Q., S.K. Lau and K.L. Mak, 2003. The impacts of sharing production information on supply chain dynamics: a review of the literature. International Journal of Production Research, 41, 1483-1517. Jacobs F. R., 2000. Playing the beer distribution game over the Internet. Production and Operations Management, 9, p. 31-39. Kawagoe T. and S. Wada, 2005. A Counterexample for the Bullwhip Effect. Proceedings of Gaming and Multiagent Simulations IEEE/WIC/ACM Inernational. Conference on Intelligent Agent Technology, p. 124-127. Kimbrough S. O., D.J. Wu and F. Zhong, 2002. Computers play the Beer Game: Can artificial agents manage supply chains? Decision Support Systems, 33, p. 323-333. Lee L. H., V. Padmanabhan and S. Whang, 1997. The Bullwhip Effect in Supply Chains. Sloan Management Review, Spring 1997, p. 93-102. Montreuil B., E. Brotherton, O. Labarthe et A. Morneau, 2009. XBeerGame: simulations participatives pour le pilotage et l'analyse de chaînes logistiques. Actes de du 8ème Congrès international de génie industriel, Bagnères de Bigorre, France. Moyaux T., B. Chaib-draa and S. D'Amours, 2003. Agent-Based Simulation of the Amplification of Demand variability in a Supply Chain. Proceedings of the 4th workshop on Agent-Based Simulation, Montpellier, France. Nienhaus J., A. Ziegenbein and P. Schoensleben, 2006. How human behaviour amplifies the bullwhip effect. A study based on the beer distribution game online. Production Planning & Control, 17, p. 547-557. Sterman J.D., 1989. Modeling managerial behavior: misperceptions of feedback in a dynamic decision making experiments. Management Science, 35, p. 321-339. Toyli J., S.O. Hansen and R. Smeds, 2006. Plan for profit and achieve profit: Lessons learnt from a business management simulation. Production Planning & Control, 17, p. 584-595. 10