L`Approche Systèmes Complexe de la Cognition : Vers - cris
Transcription
L`Approche Systèmes Complexe de la Cognition : Vers - cris
L’Approche Systèmes Complexe de la Cognition : Vers un Système Cognitif Artificiel Intégral Leonardo Lana de Carvalho12, Salima Hassas2, Amélie Cordier3, Ederaldo José Lopes4, Louis Frécon1 1 ISH-Lyon2, CNRS, LEACM-CRIS, [email protected] 2 Lyon1, LIESP, [email protected] 3 Lyon1, LIRIS, le CNRS UMR 5202, [email protected] 4 UFU, Institut de Psychologie, Lab. de Psychologie Expérimentale, [email protected] Résumé. Dans une approche systèmes complexes de la cognition, nous développons le concept de représentation émergente et nous proposons un méta-modèle (4MER) pour la différenciation de quatre types de modèles de représentations émergentes à travers une décomposition selon deux axes : collectif/individuel et intérieur/extérieur. Les représentations émergentes sont des systèmes complexes adaptatifs à part entière et se trouvent à l’intérieur d’un second système complexe plus robuste. Deux aspects croisés caractérisent chaque type de représentations émergentes. Dans la composition individuel/intérieur, les représentations émergentes sont : (i) des symboles manipulés par l’agent et (ii) causales, actives dans le guidage du système cognitif vers des formes optimales. Dans la composition collectif/intérieur les représentations émergentes sont : (i) de sous-organisations d’agent émergentes, stables et non-réactives aux changements environnementaux et (ii) causales, actives dans le guidage du système cognitif vers des formes optimales. Dans la composition individuel/extérieur les représentations émergentes sont : (i) des symboles manipulés par l’agent et (ii) dans une relation sémiotique (i.e., elles re-présentent un objet extérieur). Dans la composition collectif/extérieur les représentations émergentes sont : (i) des groupes émergents et stables d’agent et (ii) dans une relation sémiotique. Un système cognitif artificiel intégral est vu dans le couplage des modèles des différents types de représentations émergentes. 1. Introduction Notre domaine de recherche est situé entre la modélisation informatique et la psychologie cognitive. En psychologie, un vaste corps conceptuel sur la cognition existe, qualitativement riche et qui sert d’inspiration pour la conception de nouveaux systèmes informatiques imitant des propriétés cognitives des organismes complexes naturels. De l’autre coté, les modèles informatiques permettent ce qui, en psychologie, est appelé « l’expérimentation numérique » des modèles conceptuels conçus à partir des théories et des approches de la cognition. En psychologie informatique (computational psychology) la méthode de validation d’une hypothèse passe par l’instanciation d’un modèle sur machine (Newell & Simon, 1976), (Fodor, 1983), (van Gelder & Port, 1996). En psychologie expérimentale, les organismes complexes vivants (ex : rats, singes, être humains, etc.) sont soumis à des tests, observations et expérimentations (Galera, Lopes & von Grünau, 2000). Dans ce sens, c’est l’interaction entre la psychologie cognitive, la psychologie informatique et la psychologie expérimentale qui fait converger les ontologies du domaine conceptuel, du domaine du modèle et du modèle empirique dans la discipline. Ci-dessous on présente une interprétation des relations entretenues par la psychologie cognitive, la psychologie informatique et la psychologie expérimentale suivant le cadre conceptuel proposé par Livet et al. (2008), Müller (2009). La problématique abordée ici est celle des représentations émergentes (Mitchell, 1998), (Steels, 2003), (Carvalho & Hassas, 2005). Notre objectif est de concevoir, dans le domaine du modèle, un système informatique qui puisse satisfaire des conditions nécessaires pour considérer un système faisant émerger une représentation. Rocha & Hordijk (2005) énoncent trois propriétés d’une représentation : auto-organisation et sélection, construction de code et mémoire dynamiquement stable et non-réactive. 1 Figure 1 : Convergence d’ontologies dans le domaine de la psychologie Notre hypothèse est que l’intérieur de la cognition est un système complexe qui possède plusieurs niveaux hiérarchiques. Par auto-organisation, auto-adaptation et autodéveloppement un système cognitif peut générer et contrôler dynamiquement sa hiérarchie complexe. Un système cognitif intégral nécessite quatre types de représentations émergentes afin de guider son développement et de communiquer avec l’extérieur. Un système cognitif est un système qui se développe dynamiquement (van Gelder & Port, 1995). Selon Piaget (1978) il existe quatre niveaux ou stades du développement mental qu’ont peut corréler avec l’âge de l’enfant. Quatre étapes sont proposées par l’auteur : la sensori-moteur, la préopératoire, l’opératoire concrète et l’opératoire formelle. Le jeu et l’imitation sont présents à chaque étape afin de faire avancer les fonctions cognitives sousjacentes à chaque étape. Certains événements sont très importants dans le développement mental. La permanence de l’objet qui se passe vers l’âge d’un an à l’étape sensori-moteur. L’apprentissage de la fonction sémiotique au préopératoire. Les premières conceptualisations et raisonnements logiques à l’étape opératoire concrète. Les concepts abstraits et le raisonnement hypothético-déductif à l’étape opératoire formelle. En psychologie cognitive, les stades de Piaget ne sont pas vus comme discrets, mais en continuité (Sternberg, 1996), (Cadet, 1998). D'un point de vue évolutionniste, les structures cognitives propres à chaque niveau possèdent un contexte d’apparition et un âge dans l’histoire de l’évolution des espèces (Pinker & Mehler, 1988), (Donald, 1999), (Gärdenfors, 2000). La question centrale abordée ici est : dans cette vision évolutive et développementale de la cognition, comment les représentations peuvent-elles émerger dans un monde suivant les lois naturelles ? (Brentano, 1874). Comment les représentations au niveau sensori-moteur deviennent-elles des représentations préopératoires, ensuite des représentations opératoires et enfin des représentations formelles ? En psychologie cognitive, les représentations ne sont plus vues comme de simples effets complexes du développement cognitif. Selon Fodor (1983) les représentations ont un rôle actif dans le développement des structures cognitives. Dans un point de vue dynamique, Thelen & Smith (1993) pensent que les représentations sont des attracteurs et la succession d’attracteurs constitue la mécanique du développement cognitif. Le cerveau/esprit possède une très grande complexité combinatoire. Le modèle classique en cube de l’intellect de Guilford (1967-1982) montre une complexité de 150 facteurs : il comprend respectivement 5, 5 et 6 modules par dimension (opérations, contenus et produits), soit 25*6 = 150 facteurs. Les opérations (cognition, mémoire, production divergente, production convergente, évaluation), 2 les produits (unités, classes, relations, systèmes, transformations, implications) et le contenu (symbolique, sémantique, comportementale, auditif, visuel) composent les trois dimensions du modèle (Sternberg, 1996). La complexité du système a amené plusieurs psychologues à proposer des modèles simplifiés pour réduire cette complexité combinatoire. Nous pouvons représenter la complexité de la structure de l’intellect de Guilford par un arrangement sans répétition, car l’ordre d’apparition d’un facteur compte et il ne faut pas répéter le même facteur dans un arrangement. Le nombre total d’arrangements possibles est ainsi dans ce modèle appelé V : V= 150 150 150! 150 Ak = = ሺ150-kሻ! k=1 k=1 41*10261 Le développement intellectuel ne passe sûrement pas par tous ces arrangements, parce que sinon il faudrait, à la raison d’un arrangement par seconde, 13*10254 années pour les parcourir tous. Ce qui excède largement l’âge de l’univers, qui est seulement de l’ordre de 15*109 années. Il est plus raisonnable de penser que le développement cognitif connaît assez bien son chemin. Des représentations internes guident à terme le développement cognitif à travers les étapes du développement. Des apports environnementaux et sociaux influencent aussi ce système complexe adaptatif, surtout pendant les dernières étapes du développement. Thelen & Smith (1993) et Gärdenfors (2000) disent qu’une hypothèse « généticiste » du développement cognitif est peu probable. Les informations internes ne sont pas toutes d’origine génétique mais une partie émerge comme des attracteurs à travers les interactions des éléments internes. Dans ce sens, chez les bébés, le développement psychomoteur se passe à travers des dynamiques auto-organisationnelles à l’intérieur du corps qui réduisent l’énorme complexité combinatoire. La stabilité d’attracteurs dans les étapes du développement est influencée par une diversité de causes internes et externes à l’organisme. Le changement d’attracteurs internes fait que le système prend une direction plutôt que autre. Le concept de représentation émergente est modélisé ici dans le domaine du modèle, i.e., en psychologie informatique. L’objectif est de faire évoluer et de développer des modèles de représentations émergentes (MER). C’est la complexité des systèmes cognitifs naturels qui nous pousse alors à considérer l'évolution de l'acte de calcul dans les systèmes artificiels vers les systèmes complexes adaptatifs capables de guider leur propre développement. Des systèmes complexes auto-adaptatifs et auto-développants, même très simples, serviront à mieux interpréter les systèmes cognitifs naturels. 2. L’Approche Systèmes Complexes (ASC) de la Cognition Nous posons l’hypothèse que les représentations émergentes sont les mécanismes principaux de transition des systèmes intelligents artificiels existants vers des systèmes cognitifs artificiels d’une nouvelle qualité. En psychologie cognitive, les différentes approches de la cognition ont collaboré au fil de l’histoire avec de nouveaux concepts de la cognition et de nouvelles exigences envers les systèmes artificiels pour les considérer comme des vrais systèmes cognitifs artificiels. Dans ces approches, le concept de représentation est soit enrichi soit critiqué et menacé d’abandon. Dans l’approche cognitiviste, la représentation est vue comme des règles symboliques abstraites (logico-mathématiques) instanciées dans la nature physique. Les actions comportementales et cognitives ne sont pas le principe mais un résultat des représentations naturelles (Newell & Simon, 1972), Fodor (1983), Pylyshyn (1984). Le cognitivisme est une source d’inspiration très importante née en psychologie et qui est répandue jusqu’à nous jours dans toutes les disciplines en sciences cognitives. Dans le domaine de la modélisation multi3 agents des systèmes complexes, les symboles instanciés dans l’architecture des agents peuvent être vus comme des représentations émergentes si leur utilisation dépend de la dynamique complexe du système (Loula et al., 2003). Selon un point de vue buttom-up, la cognition se construit à partir du bas. Dans cette vision l’approche connexionniste introduit un nouveau concept de représentation. Les microreprésentations sont toujours les symboles matériels manipulés par des unités de traitement de l’information, i.e., des neurones formels interconnectés. Les macro-représentations sont des représentations au niveau du réseau de connexions et n’existent que par une coordination des paramètres informés par les unités (McCulloch & Pitts, 1943), (Hopfield, 1982). L'approche cognitiviste manque d'adaptation et de flexibilité (Pinker, 1988), (Sternberg, 1996), mais l'approche connexionniste n'apporte pas toutes les réponses non plus. Par exemple, comment faire pour que les macro-représentations deviennent plus que des configurations de représentations et soient alors actives dans le raisonnement et dans les fonctions cognitives de haut-niveaux ? (Hopfield, 1982). L’approche de l’enaction introduit le concept d’auto-organisation dans la définition de vie et de cognition (Maturana & Varela, 1973). Dans le domaine des systèmes intelligents artificiels et de la vie artificielle, cette nouvelle façon de penser la cognition mène à la conception de systèmes artificiels dont les processus ont un rôle actif dans le changement de la structure du système (Brooks, 1991). De ce fait, l’action planifiée au niveau des éléments d’un système par des méthodes symboliques va pouvoir modifier les structures qui ont donné origine à l’action initiale, ainsi, l’action est emboîtée. De ce point de vue, nous parlons ici d’un système complexe artificiel quand ces aspects liés à l’enaction et à l’auto-organisation sont présents dans le système informatique. Les systèmes multi-agents (SMA) peuvent en fournir un exemple. Dans les SMA, les structures sociales et environnementales façonnent les actions des agents et sont modifiées selon les actions collectives réalisées par ces agents. Ce mécanisme de couplage structurel est appelé dans le domaine SMA « stigmergie » en référence au concept introduit par Grassé (1956) et repris ensuite par d’autres dont on peut citer (Drogoul, 1993), (Garnier, Gautrais et Theraulaz, 2007). En psychologie, en informatique et en robotique, la théorie de l’enaction semble nécessaire mais insuffisante pour l’explication de la cognition de haut-niveau (van Gelder & Port, 1996), (Steels, 2003), (Carvalho et al., 2008). Les capacités d’adaptation et la grande applicabilité de la théorie de l’enaction (web intelligence, optimisation combinatoire, contrôle de systèmes, modélisation en SHS, physique, chimie, biologie, etc.) constituent le point fort de l’approche. Pourtant, dans le domaine conceptuel, ni l’enaction qui existe entre l’organisme et son environnement ni l’auto-organisation interne ne suffisent à l’explication du développement cognitif (Thelen & Smith, 1993), (van Gelder & Port, 1995). En effet, l’autoorganisation n’assure pas à elle seule une forme optimale à un système (Hassas et al., 2006). Dans l’approche dynamique de la cognition, les représentations et la cognition sont toutes les deux considérées comme des systèmes dynamiques, mais les représentations sont vues comme une dynamique interne à la cognition. La difficulté, lors de l’implémentation des modèles dynamiques, est de distinguer la dynamique du système cognitif de celle de la représentation. De tels problèmes ont amené à des difficultés pour soutenir le concept de représentation dynamique (Thelen & Smith, 1993), (van Gelder & Port, 1995). Dans l’ASC de la cognition, les représentations sont des systèmes complexes à part entière et deux rôles majeurs sont attribués aux représentations émergentes : le renouveau par l’optimisation de la structure cognitive (l’amélioration des performances du système autoorganisationnel cognitif) et le rôle symbolique joué lors d’une relation sémiotique (SymboleInterprétant-Objet). L’optimisation de la structure cognitive est fondamentale afin de changer qualitativement les processus cognitifs. La représentation optimise le SCA afin de lancer les nouvelles étapes du développement (Carvalho, 2008). 4 Selon Crutchfield (1994), l’ASC des machines consiste en une notion particulière de structure en théorie du calcul. La structure de la machine complexe serait à base de «computational mechanics of nonlinear processes». Cette structure malléable pourra être modifiée grâce à des mécanismes de transformation de la structure. Elle est appelée par l’auteur «hierarchical machine reconstruction». Afin de relier les processus structurels à ceux de la reconstruction, Crutchfield prévoit des «evolutionary mechanics». Enfin, il suggère que cette machine complexe serait le cadre du calculable pour l’étude de l’émergence. Mitchell (1998) pense que l’ASC des machines de calcul, ou du calculable, se fait par l’union des approches en IA classique et de l’approche dynamique. En ce qui concerne la machine complexe, Mitchell (1998) propose la reprise du concept de représentation mais pas comme symboles matériels : « most of these theories assume that information processing consists of the manipulation of explicit, static symbols rather than the autonomous interaction of emergent, active ones » (p. 715). Dans ce sens, les travaux de Mitchell, Rocha et Hordijk, viennent compléter et modifier un peu le projet d’une machine complexe de Crutchfield. Compléter, car sur le triptyque processus, structure et représentation, Crutchfield (1994) a porté beaucoup d’attention au concept de «mécanismes non-linéaires» comme structure, à celui de «reconstruction hiérarchique de la machine» pour la transformation de la structure et à celui de « mécanismes évolutionnaires » comme processus. Mais pour Mitchell, Rocha et Hordijk cela ne semblait pas suffisant, il fallait une manipulation de représentations émergentes. Pour Mitchell (1998), la manipulation de représentations émergentes est nécessaire pour jouer le même rôle pour la machine complexe que les symboles matériels jouent dans les systèmes informatiques actuels. «Unlike what is commonly understood in Cognitive Science, we argue that evidence from Biology shows that representations are not stand-ins dynamic processes, and also do not need to refer to situations external to a given organism or dynamics. We propose criteria to decide if a given structure is a representation by unpacking the idea of inert structures that can be used as memory for arbitrary dynamic configurations.» (Rocha & Hordijk, 2005, p. 189). L’ASC soutient que les représentations sont des systèmes dont les éléments sont matériellement instanciés, dont l’auto-organisation met en place un couplage structurel et dont une information concernant l’intérieur du système cognitif ou son extérieur peut être gardée invariante. La représentation émergente est ainsi, à l’intérieur d’un système complexe adaptatif, un système complexe non-réactif à des changements extérieurs car sinon aucune information pérenne ne pourrait y être extraite par le système cognitif. 3. Le développement cognitif comme un système intentionnel L’image du développement comme une transition d’étapes donne l’impression que le système cognitif connaît les moyens qu’il faut employer afin d’arriver à son objectif, l’étape la plus élevée. Dans l’espèce humaine, chaque enfant se développe cognitivement en les franchissant les unes après les autres, comme si l’objectif du système cognitif était d’arriver à l’intelligence opératoire formelle. C’est dans ce sens que, dans l’ASC, le développement cognitif est vu comme un acte intentionnel. En effet, le développement cognitif suit le principe de la téléologie. Dennett (1987) distingue trois niveaux : « intentional stance », « design stance » et « physical stance ». L’auteur utilise encore le terme « system » comme synonyme du terme « stance » pour faire référence à la configuration et au mode de fonctionnement d’un système naturel. Un système intentionnel peut être décrit à travers chaque stance mais ce sont les représentations émergentes qui instancient l’attitude intentionnelle. L’attitude intentionnelle 5 émerge à partir du niveau de « design » des systèmes biologiques, auto-organisateurs, complexes, dynamiques et incorporés. Figure 2 : Les trois niveaux de description des systèmes cognitifs Une attitude physique de la cognition se manifeste dans la modélisation, la description et la prédiction par des équations, des règles logiques et d'autres systèmes formels simples. L’hypothèse de support de la stance physique est celle d’un déterminisme entre les entités qui donne suite à une chaîne réactive au sein du système. Dans le cadre conceptuel de la psychologie, la matière ou le niveau physique sont les Systèmes Physiques Symboliques (SPS), i.e., les machines ou les systèmes informatiques mais aussi les organismes complexes, les systèmes nerveux, etc., qui font aussi de la manipulation de symboles (Newell & Simon, 1972, 1976), (Fodor, 1983), (van Gelder & Port, 1993). Pourtant, les systèmes cognitifs naturels ont une qualité supérieure par rapport aux systèmes artificiels conçus à présent, ce qui nous fait penser qu’ils sont à un niveau plus élevé dans la hiérarchie cognitive. Au niveau auto-organisationnel ou de « design », l’émergence de systèmes complexes passe par l’interaction de fonctions logico-mathématiques instanciées. L’auto-organisation et l’auto-adaptation arrivent par une clôture causale dans la chaîne réactive du système. Ici, les organisations émergentes jouent un rôle représentationnel et peuvent être décrites comme des configurations de représentation (Minsky, 1977). Pourtant, ces configurations sont réactives vis-à-vis des changements extérieurs et ainsi une mémoire à long terme est compromise (voir Ramos & Almeida, 2000). Les représentations émergentes et l’origine de l’attitude intentionnelle ont lieu dans un système dont la réactivité envers les changements extérieurs est spontanément brisée par des bifurcations internes. C’est l’auto-organisation et l’auto-adaptation qui donnent naissance au niveau de « design » où les événements sont encapsulés dans une chaîne causale complexe réactive à l’environnement externe. L’origine du niveau intentionnel est liée à l’émergence de configurations de représentations stables et non-réactives à des changements extérieurs. C’est à travers des informations stables et non-réactives que le code génétique se manifeste dans le guidage du développement d’un organisme complexe, bien qu’ayant été formé comme représentation (code) cela remontant à des millions d’années. 6 Néanmoins, ni toute mémoire stable et non-réactive est d’ordre génétique. Certaines représentations émergentes sont formées comme code au cours du développement de l’organisme. L’attitude intentionnelle de l’esprit dépend fortement ces représentations émergentes, sans lesquelles le mental serait réductible au niveau biologique. Considérons le système intentionnel suivant : le système A est un système complexe adaptatif qui s’auto-organise sur un environnement C. Le couplage de C et A génère à l’intérieur de A un système immergé B qui représente fA, la forme de A. B fait évoluer la forme de A vers A’. Par communication directe ou indirecte, l’internalisation de B à un système complexe adaptatif H fait que B joue un rôle développemental. B guide le système H vers fA. ܪ՜ ܪ′ La représentation émergente B provoque ainsi la transition de H vers H’. La forme de H’ n’est pas identique à A vu que l’environnement et l’historique du couplage de A et H’ ne se reproduisent pas à l’identique. L’émergence de la représentation B produit un comportement que nous pouvons décrire de façon naïve comme une intention du système. H « croit » B et ainsi, il pense que le mieux est de devenir H’. Ou encore, H désire B et ainsi, à la lumière de ses actions, il cherche à devenir H’. L’intention comme libre arbitre est ici questionnée tout comme chez Dennett (1987). La différence est que nous décrirons l’émergence d’une attitude intentionnelle dans un système artificiel ou naturel par sa capacité d’auto-développement à travers des représentations émergentes. 4. Quatre modèles d’émergence de représentations (4MER) Rocha et Hordijk (2005) pensent les représentations émergentes comme le code génétique. Dans des systèmes artificiels, les algorithmes génétiques sont combinés aux automates cellulaires pour faire apparaître des représentations. Des fonctions à base de symboles sont spontanément formées à l’intérieur des cellules de calcul sous l’effet de l’autoorganisation du système. Leur objectif serait de rendre ces fonctions des « codes génétiques », capables de garder « une mémoire à long terme » du « phénotype » du SCA. Les auteurs listent les conditions pour considérer ces fonctions symboliques comme une représentation stable et non-réactive : (i) “mémoire dynamiquement incohérente », (ii) « construction de code» et (iii) « auto-organisation et sélection” (Rocha et Hordijk 2005). Steels (2003), Loula et al. (2003) et Arnellos et al. (2006) présentent différents SMA qui négocient des symboles dans un rapport sémiotique. À l'initialisation, les agents n'ont pas les mêmes symboles se rapportant aux mêmes objets. Par des interactions, l'utilisation des symboles représentant des objets est coordonnée par des fonctions de renforcement mais le « choix » du symbole, pour une relation sémiotique dépendra de la dynamique complexe du système. Chez Steels (2003) deux robots négocient des symboles pour différentes relations sémiotiques. A l’intérieur des robots, parfois, des milliers d’agents interagissent pour faire du lexique commun un SCA, où les configurations d’agents représentent un pattern externe et constituent ce que Steels appelle « représentations émergentes externes» (Steels, 2003). Ramos & Almeida (2000) présentent une mémoire collective en utilisant un SMA réactif. Les agents marquent leur environnement, i.e., des images numériques. Une configuration représentant les images numériques émergent par le dépôt des marques. Les configurations de représentations de Ramos & Almeida sont complètement réactives au changement des images numériques. Lorsqu’une image numérique est remplacée par une deuxième, la configuration correspondant à la première disparait. Un observateur externe peut 7 voir ainsi une « image-en-action » parce que les agents marquent sans interruption l'environnement en se basant sur la tonalité blanc-noir de l’image numérique. Partant de ces travaux, nous proposons de distinguer quatre modèles de représentations émergentes en utilisant une décomposition selon les dimensions interne/externe et individuel/collectif. La caractéristique principale de chaque aspect est donnée ci-après. Interne : représentations internes stables et non-réactives dont le rôle est le guidage du développement. Externe : les représentations font référence à des objets externes dans une relation sémiotique. Individuel : la représentation émergente résulte des fonctions symboliques. Collectif : la représentation émergente est un groupe émergent d'unités autonomes de traitement d'information. Une analyse tenant compte de l’aspect individuel/collectif et intérieur/extérieur est introduit en psychologie par Wilber (2000) et en SMA par Ferber (2006). Une composition de ces axes intérieur/extérieur et individuel/collectif donne suite aux quatre quadrants suivants en prenant sur l’axe intérieur/extérieur un SCA comme unité d’analyse et sur l’axe individuel/collectif, l’agent. Quatre modèles de Représentations Emergentes Individuel Systèmes Complexes Adaptatifs (SCA) Intérieur au SCA Extérieur au SCA Modèle Individuel/intérieur Modèle Individuel/extérieur - Mutation et échange de fonctions symboliques dans chaque agent - Représentation active dans le guidage vers une forme optimale d'organisation globale Agent << Systèmes cognitifs génétiques/biologiques >> Collectif Modèle Collectif/intérieur - Interactions d'agents et émergence de groupes d'agents - Représentation active dans le guidage vers une forme optimale d'organisation globale d'agents << Activités cognitives de haut niveau, développement cognitif, mémoire à long-terme >> - Négociation et échange de fonctions symboliques dans chaque agent - Représentation sémiotique (Agent, Symbole, Objet externe au SCA) << L'émergence du langage >> Modèle Collectif/extérieur - Interactions d'agents et émergence d'une organisation globale d'agents - Représentation sémiotique (SCA, agents situés et marqueurs distribués, Pattern externe au SCA) << Cognition Sociale, Mémoire Collective, Représentation Sociale >> Figure3 : Quatre modèles de représentations émergentes décrits à travers une décomposition individuel/collectif et intérieur/extérieur des méta-ontologies : agent et SCA – système complexe adaptatif (Carvalho, 2008). Le quadrant individuel/intérieur concerne le modèle de représentations émergentes de Rocha & Hordijk (2005). Le quadrant individuel/extérieur concerne le modèle de représentations émergentes de Loula et al. (2003). Le quadrant collectif/extérieur correspond au modèle de représentations émergentes de Ramos & Almeida (2000). Ces modèles sont vus comme les prototypes de leur classe de modèles et ainsi plusieurs autres peuvent y être inclus, comme le modèle d’Arnellos et al. (2006) dans le quadrant individuel/extérieur. Ce quadrant a été conçu sous l’intuition qu’il manquait un type de modèle concernant les représentations émergentes, celui du quadrant collectif/intérieur. A ce méta-modèle nous 8 avons donné le nom de MER-CI pour « Méta-modèle de Représentations Emergentes du type Collectif-Intérieur ». Un modèle collectif/intérieur des représentations émergentes peut répondre à des exigences pour les représentations émergentes capables d’instancier une attitude intentionnelle chez les systèmes complexes adaptatifs artificiels. Carvalho et al. (2008) et Carvalho (2008) proposent OTD (Optimisation à base de Tolérance à la Différence) comme un modèle prototypique de la classe de modèles collectif/intérieur de représentations émergentes. Sur l’OTD, l’émergence d’un groupe d’agents (sous-organisation d’agents) est capable d’informer une valeur stable et non-réactive à des changements sur l’environnement externe concernant une solution heuristique de problèmes d’optimisation non-linéaire. Le défi est l’utilisation de l’information stable et non-réactive dans le contrôle du développement du SCA. En suite nous proposons un méta-modèle pour la classe de modèles collectif/intérieur dans un plan Agent*SCA. 5. Modèle de Représentations Emergentes issu d’une composition collectif/intérieur dans un plan Agent*SCA (MER-CI) Notre modèle MER-CI appartient au module collectif de l’axe Agent et suit ainsi une approche centrée organisation en SMA, comme définie par Ferber et al. (2003). Voici les quatre principes du MER-CI : 1. Les représentations sont des entités émergentes à l’intérieur d’un système complexe adaptatif multi-agents où elles manifestent leur existence à travers : a. Une propriété globale non réductible, ni à un agent, ni à l’organisation émergente globale d'agents, mais qui est incorporée à une sous-organisation ou groupe émergent au sein de l’organisation globale d’agents ; b. Des représentations sont des entités situées, incorporées et constituent des systèmes ouverts. Dans le corps de la représentation émergente, i.e., le groupe émergent, les agents entrent et sortent du groupe. 2. Une représentation émerge d’une façon simultanément située dans une hiérarchie dynamiquement complexe en tant qu’entité intermédiaire entre deux entités : l’agent et le SCA. 3. Dans un SCA sca, la représentation re peut jouer deux rôles r : guider le SCA et garder des informations dynamiquement stables et non-réactives. Ces deux rôles additionnés au fait que la représentation est incorporée, caractérisent des « modes » m d’existence d’une représentation émergente re dans un environnement en. mode (re, m, en) [role (re, r, sca)] : la représentation émergente re a un mode m dans un environnement en [une re a un rôle r dans un SCA sca] a. Une représentation émergente peut avoir différents rôles dans un SCA et peut appartenir à plus d’un SCA. b. Une représentation émergente peut avoir un seul corps (groupe émergent) par environnement. Si le modèle possède N environnements, la représentation émergente doit avoir N corps. 4. Un mode est la voie d’action d’une représentation émergente sur un environnement. Une représentation émergente re peut résoudre un problème oFunc dans un espace de projet M, s’il existe un mode m de la re situé sur M. Autrement dit : dans un environnement en 9 une action adaptative o de résolution de problème avec des règles d’action dans l’architecture des agents a1, …, an, fait partie d’un mode m. De ce fait : en : m.o(a1,..,an) → ∃ re ∈ ReprésentationEmergente ∧ mode(re, m, en) ∧ type(m, M) ∧ oFunc(o(a1,..,an), M) a. Le corps d'une représentation émergente, i.e., le groupe émergent d’agents, émerge à travers des règles d’action prévues dans l'architecture des agents : Tout agent est membre de (au moins) un groupe : ∀ x∈ Agents ( ∃ g ∈ Groupes : x∈ g) b. Une action adaptative collective o (basée sur des règles d’actions a1,…, an, dans l’architecture des agents), conduit à l'émergence d'un groupe ouvert d’agents : ∀ re ∈ ReprésentationEmergente ∀ sca ∈ SystèmeComplexeAdaptatifs ∀ r∈ Rôles : joue(re, r, sca) → ∃ sg ∈ StructureDeGroupes ∧ Gstruct(g, sg) ∧ o(g, sg) Le diagramme UML (Unified Model Language) au sujet de MER-CI, a été proposé pour mettre en relief les ontologies appartenant au modèle. Figure 4 : Le diagramme UML de MER-CI. Les représentations émergentes ont des modes dans l’environnement : une position dans l’espace de projet et une position dans la hiérarchie complexe. Les RE ont deux rôles : (i) à travers la position dans l’espace de projet, garder une information stable et non-réactive à des changements environnementaux, (ii) exploiter l’information dans la guidage du SCA vers des formes optimales. Ces deux rôles sont nécessaires pour qu'un SCA puisse réaliser l’autodéveloppement basé sur des connaissances qu’il s’est construit de l’environnement problème en constante évolution. 10 Les expérimentations sur OTD présentent un SCA dans l’exercice du rôle (i). Dans le cadre des problèmes d'optimisation, le but est de résoudre et garder une information stable et non-réactive à des changements de la fonction objective. L’information gardée est une solution heuristique d’un problème d’optimisation standard. (Carvalho et al., 2008) 6. Conclusion Les quatre modèles indépendants de représentations émergentes, étudiés par des expériences numériques, sont particulièrement intéressants en psychologie, en sciences sociales et en sciences cognitives. L'impact des modèles de représentations émergentes (MER-II, MER-IE, MER-CI et MER-CE) dans la théorie de la cognition incarnée nous mène à soutenir que les processus mentaux ont tous ces types de représentations émergentes, chacune à un niveau différent. Un système cognitif intégral est ainsi un système multi-niveaux où les différents types de représentations émergentes se trouvent couplés. Les représentations émergentes CI ont le rôle de guider le développement cognitif, du niveau bas vers le hautniveau des systèmes cognitifs. Les représentations émergentes mettent en place des opérateurs émergents tels que les fonctions logiques ET, OU, OUEX, etc. Les représentations émergentes IE mettent en place un système de coordination à travers un lexique et des règles grammaticales communes entre les agents. Les représentations émergentes CE jouent le rôle de reconnaissance de motifs externes. Les représentations émergentes CI jouent le rôle fondamental dans les systèmes à forte cognition. La construction d’une « mémoire dynamiquement incohérente » (structures organisationnelles stables et non-réactives) par les représentations monte au rang de cause et cela à l’intérieur du SCA. Les représentations sont ainsi indispensables dans le développement de l’organisation de la cognition vers des configurations et comportements optimaux, i.e., des formes et comportements plus adaptées à des classes d’événement. Les perspectives sont autour de (i) l’utilisation de représentations émergentes dans l’optimisation de l’apprentissage des fonctions logiques effectuées par des réseaux de neurones formels (particulièrement la fonction logique OUEX), (ii) les applications en sciences sociales et économie (simulation de l’équilibre local de Nash), (iii) l'étude de l’émergence du lexique et de règles grammaticales comme support négocié d’une communication, (iv) l’utilisation des représentations émergentes dans le domaine du contrôle des systèmes, et enfin, (v) l’émergence d’un concept de système cognitif intégral caractérisé par le couplage des quatre modèles des représentations émergentes, qui offre une nouvelle piste à explorer dans la conception de systèmes cognitifs artificiels. Références Arnellos, A., S. Vosinakis, T. Spyrou, J. Darzentas. 2006. The Emergence of Autonomous Representations. Journal of Computers, 1(6), 29-36. Brentano, F. (1874). Psychologie d'un point de vue empirique. Paris: Vrin. Brooks, R. (1991). Intelligence Without Representation. Artificial Intelligence Journal, 47, 139–159. Cadet, B. (1998). Psychologie cognitive. Paris: In Press Editions. Carvalho, L. L. (2008). Représentations Emergentes : Une Approche Multi-Agents des Systèmes Complexes Adaptatifs en Psychologie Cognitive. Thèse de doctorat, Université de Lyon 2. Carvalho, L. L. & Hassas, S. (2005). Complex Systems and Cognition: the incoherent dynamics implementation using multi-agents systems. In Proceedings of European Conference on Complex Systems (ECCS'05). Carvalho, L. L., Hassas, S., Martin, R., Lopes, E. J., Frécon, L. (2008). Emergence of Representations from a multi-agent implementation of Schelling’s model. 7th Congress of Systems Science European Union. 1-10. Crutchfield, J. P. (1994). Is anything ever new? Considering emergence. In G. Cowan, D. Pines and D. Meltzer (Ed), Complexity: Metaphors, Models, and Reality (pp. 515-537). Reading, MA: Addison-Wesley. Dennett, D. C. (1987). The intentional stance. Cambridge, MA: MIT Press. 11 Donald, M. (1999). Les origines de l'esprit moderne : trois étapes dans l'évolution de la culture et de la cognition. Paris-Bruxelles: DeBoeck Université. Drogoul, A. (1993). De la simulation multi-agent à la résolution collective de problèmes. Une étude de l'émergence de structures d'organisation dans les systèmes multi-agents. Thèse de doctorat,Université de Paris 6. Ferber, J. (2006). Concepts et méthodologies multi-agents. In F. Amblard, & D. Phan (Ed), Modélisation et simulation multi-agents : applications pour les Sciences de l'Homme et de la Société (pp. 23-48). Paris: Lavoisier. Ferber, J., Gutknecht, O., Michel, F. (2003). From Agents to Organizations: An Organizational View of MultiAgent Systems. AOSE'03: Agent Oriented Software Engineering (pp. 14). Melbourne, Australia: Springer. LNCS 2935, pp. 214-230, 2004. Fodor, J. A. (1983). The Modularity of Mind: An Essay on Faculty Psychology. Cambridge, MA: MIT Press. Galera, C. & Lopes, E. J. (1997). Diagnostics of Parallel and Serial Processing in a Visual Search Task. II Workshop on Cybernetic Vision, IFSC-USP (pp. 159-165). São Carlos: IEEE Computer Society. Gärdenfors, P. (2000). Comment homo est devenu sapiens : Sur l'évolution de la pensée. Sciences Humaines. Garnier, S., Gautrais, J. & Theraulaz, G. (2007). The biological principles of swarm intelligence. Swarm Intelligence, 1(1), 3-31. Grassé, P.-P. (1959). La reconstruction du nid et les coordinations interindividuelles chez Bellicosistermes natalensis et cubitermes sp. La théorie de la stigmergie : essai d'interprétation du comportement des termites constructeurs. Insectes sociaux, IV(1), 41-83. Hassas, S., Marzo-Serugendo, G., Karageorgos, A., Castelfranchi, C. (2006). On Self-Organising Mechanisms from Social, Business and Economic Domains. Informatica, 30, 63-71. Hope, T., Stoianov, I., Zorzi, M. (2006). Searching for Emergent Representations in Evolved Dynamical Systems”. In S. Nolfi, et al. (Ed), SAB 2006, LNAI 4095 (pp. 522-533). Berlin: Springer-Verlag. Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences (pp. 2554-2558). Livet, P., Müller, J.-P., Phan, D. & Sanders, L. (2008). Ontology, a mediator for Agent-Based Modeling in Social Science. EPOS'08 - Epistemological Perspective on Simulation A Cross-Disciplinary Workshop. Lisboa. Loula, A. G., R. Gudwin, R. Queiroz, J. (2003). Synthetic approach of symbolic creatures. S.E.E.D. Journal -Semiotics, Evolution, Energy, and Development, 3(3), 125-133. McCulloch, W. S. & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5, 115-133. Maturana, H. & Varela, F. J. (1973). Autopoiesis and Cognition: the Realization of the Living. Dodrecht: Reidel. Mitchell, M. (1998). A complex-systems perspective on the "computation vs. dynamics" debate in cognitive science. Proceedings of the 20th Annual Conference of the Cognitive Science Society, 710-715. Minsky, M. (1986). The Society of Mind. New York: Simon and Schuster. Müller, J.-P. (2009). La notion de cadre conceptuel: penser la place des ontologies dans le processus de modélisation. Cosmagems, Rochebrune, 1-12. Newell, A. & Simon, H. A. (1972). Human Problem Solving. Englewood Cliffs: NJ Prentice-Hall. Newell, A. & Simon, H. (1976). Computer science as empirical inquiry: Symbols and search. Communications of the Association for Computing Machinery, 19(3), 113-126. Piaget, J. (1978). La formation du symbole chez l'enfant : imitation, jeu et rêve, image et représentation. Lausanne-Paris: Delachaux & Niestlé. Pinker, S. & Mehler, J. (1988). Connections and Symbols. Cambridge, MA: MIT Press. Pylyshyn, Z. W. (1984). Computation and cognition: toward a foundation for cognitive science. Cambridge: MIT press. Ramos, V. & Almeida, F. (2000). Artificial Ant Colonies in Digital Image Habitats: A Mass Behavior Effect Study on Pattern Recognition. Proceedings of ANTS'2000 - 2nd International Workshop on Ant Algorithms (From Ant Colonies to Artificial Ants) (pp. 113-116). Brussels, Belgium. Rocha, L. M. & W. Hordijk. (2005). Material representations: from the genetic code to the evolution of cellular automata. Artificial Life, 11, 189-214. Steels, L. (2003). Intelligence with representation. Philosophical Transactions of the Royal Society, A 361(1811), 2381-2395. Sternberg, R. J. (1996). Cognitive Psychology. Fort Worth: Harcourt Brace College. Thelen, E. & Smith, T. B. (1994). A dynamic systems approach to the development of cognition and action. MIT Press, Cambridge, MA. van Gelder, T. & Port, R. F. (1995). It's about time: an overview of the dynamical approach to cognition. In R. F. Port and T. van Gelder (Ed), Mind as motion: explorations in the dynamics of cognition (pp. 1-43). Cambridge, MA: MIT Press. Wilber, K. (2000). Integral Psychology: Consciousness, Spirit, Psychology, Therapy. Shambhala, Boston, MA. 12