L`Approche Systèmes Complexe de la Cognition : Vers - cris

Transcription

L`Approche Systèmes Complexe de la Cognition : Vers - cris
L’Approche Systèmes Complexe de la Cognition :
Vers un Système Cognitif Artificiel Intégral
Leonardo Lana de Carvalho12, Salima Hassas2,
Amélie Cordier3, Ederaldo José Lopes4, Louis Frécon1
1
ISH-Lyon2, CNRS, LEACM-CRIS, [email protected]
2
Lyon1, LIESP, [email protected]
3
Lyon1, LIRIS, le CNRS UMR 5202, [email protected]
4
UFU, Institut de Psychologie, Lab. de Psychologie Expérimentale, [email protected]
Résumé. Dans une approche systèmes complexes de la cognition, nous développons le concept de
représentation émergente et nous proposons un méta-modèle (4MER) pour la différenciation de quatre types de
modèles de représentations émergentes à travers une décomposition selon deux axes : collectif/individuel et
intérieur/extérieur. Les représentations émergentes sont des systèmes complexes adaptatifs à part entière et se
trouvent à l’intérieur d’un second système complexe plus robuste. Deux aspects croisés caractérisent chaque type
de représentations émergentes. Dans la composition individuel/intérieur, les représentations émergentes sont : (i)
des symboles manipulés par l’agent et (ii) causales, actives dans le guidage du système cognitif vers des formes
optimales. Dans la composition collectif/intérieur les représentations émergentes sont : (i) de sous-organisations
d’agent émergentes, stables et non-réactives aux changements environnementaux et (ii) causales, actives dans le
guidage du système cognitif vers des formes optimales. Dans la composition individuel/extérieur les
représentations émergentes sont : (i) des symboles manipulés par l’agent et (ii) dans une relation sémiotique (i.e.,
elles re-présentent un objet extérieur). Dans la composition collectif/extérieur les représentations émergentes
sont : (i) des groupes émergents et stables d’agent et (ii) dans une relation sémiotique. Un système cognitif
artificiel intégral est vu dans le couplage des modèles des différents types de représentations émergentes.
1. Introduction
Notre domaine de recherche est situé entre la modélisation informatique et la
psychologie cognitive. En psychologie, un vaste corps conceptuel sur la cognition existe,
qualitativement riche et qui sert d’inspiration pour la conception de nouveaux systèmes
informatiques imitant des propriétés cognitives des organismes complexes naturels. De l’autre
coté, les modèles informatiques permettent ce qui, en psychologie, est appelé
« l’expérimentation numérique » des modèles conceptuels conçus à partir des théories et des
approches de la cognition. En psychologie informatique (computational psychology) la
méthode de validation d’une hypothèse passe par l’instanciation d’un modèle sur machine
(Newell & Simon, 1976), (Fodor, 1983), (van Gelder & Port, 1996). En psychologie
expérimentale, les organismes complexes vivants (ex : rats, singes, être humains, etc.) sont
soumis à des tests, observations et expérimentations (Galera, Lopes & von Grünau, 2000).
Dans ce sens, c’est l’interaction entre la psychologie cognitive, la psychologie informatique et
la psychologie expérimentale qui fait converger les ontologies du domaine conceptuel, du
domaine du modèle et du modèle empirique dans la discipline.
Ci-dessous on présente une interprétation des relations entretenues par la psychologie
cognitive, la psychologie informatique et la psychologie expérimentale suivant le cadre
conceptuel proposé par Livet et al. (2008), Müller (2009).
La problématique abordée ici est celle des représentations émergentes (Mitchell,
1998), (Steels, 2003), (Carvalho & Hassas, 2005). Notre objectif est de concevoir, dans le
domaine du modèle, un système informatique qui puisse satisfaire des conditions nécessaires
pour considérer un système faisant émerger une représentation. Rocha & Hordijk (2005)
énoncent trois propriétés d’une représentation : auto-organisation et sélection, construction de
code et mémoire dynamiquement stable et non-réactive.
1
Figure 1 : Convergence d’ontologies dans le domaine de la psychologie
Notre hypothèse est que l’intérieur de la cognition est un système complexe qui
possède plusieurs niveaux hiérarchiques. Par auto-organisation, auto-adaptation et autodéveloppement un système cognitif peut générer et contrôler dynamiquement sa hiérarchie
complexe. Un système cognitif intégral nécessite quatre types de représentations émergentes
afin de guider son développement et de communiquer avec l’extérieur.
Un système cognitif est un système qui se développe dynamiquement (van Gelder &
Port, 1995). Selon Piaget (1978) il existe quatre niveaux ou stades du développement mental
qu’ont peut corréler avec l’âge de l’enfant. Quatre étapes sont proposées par l’auteur : la
sensori-moteur, la préopératoire, l’opératoire concrète et l’opératoire formelle. Le jeu et
l’imitation sont présents à chaque étape afin de faire avancer les fonctions cognitives sousjacentes à chaque étape. Certains événements sont très importants dans le développement
mental. La permanence de l’objet qui se passe vers l’âge d’un an à l’étape sensori-moteur.
L’apprentissage de la fonction sémiotique au préopératoire. Les premières conceptualisations
et raisonnements logiques à l’étape opératoire concrète. Les concepts abstraits et le
raisonnement hypothético-déductif à l’étape opératoire formelle. En psychologie cognitive,
les stades de Piaget ne sont pas vus comme discrets, mais en continuité (Sternberg, 1996),
(Cadet, 1998). D'un point de vue évolutionniste, les structures cognitives propres à chaque
niveau possèdent un contexte d’apparition et un âge dans l’histoire de l’évolution des espèces
(Pinker & Mehler, 1988), (Donald, 1999), (Gärdenfors, 2000).
La question centrale abordée ici est : dans cette vision évolutive et développementale
de la cognition, comment les représentations peuvent-elles émerger dans un monde suivant les
lois naturelles ? (Brentano, 1874). Comment les représentations au niveau sensori-moteur
deviennent-elles des représentations préopératoires, ensuite des représentations opératoires et
enfin des représentations formelles ?
En psychologie cognitive, les représentations ne sont plus vues comme de simples
effets complexes du développement cognitif. Selon Fodor (1983) les représentations ont un
rôle actif dans le développement des structures cognitives. Dans un point de vue dynamique,
Thelen & Smith (1993) pensent que les représentations sont des attracteurs et la succession
d’attracteurs constitue la mécanique du développement cognitif. Le cerveau/esprit possède
une très grande complexité combinatoire. Le modèle classique en cube de l’intellect de
Guilford (1967-1982) montre une complexité de 150 facteurs : il comprend respectivement 5,
5 et 6 modules par dimension (opérations, contenus et produits), soit 25*6 = 150 facteurs. Les
opérations (cognition, mémoire, production divergente, production convergente, évaluation),
2
les produits (unités, classes, relations, systèmes, transformations, implications) et le contenu
(symbolique, sémantique, comportementale, auditif, visuel) composent les trois dimensions
du modèle (Sternberg, 1996). La complexité du système a amené plusieurs psychologues à
proposer des modèles simplifiés pour réduire cette complexité combinatoire.
Nous pouvons représenter la complexité de la structure de l’intellect de Guilford par
un arrangement sans répétition, car l’ordre d’apparition d’un facteur compte et il ne faut pas
répéter le même facteur dans un arrangement. Le nombre total d’arrangements possibles est
ainsi dans ce modèle appelé V :
V=
150
150
150!
150
෍ Ak = ෍
=
ሺ150-kሻ!
k=1
k=1
41*10261
Le développement intellectuel ne passe sûrement pas par tous ces arrangements, parce
que sinon il faudrait, à la raison d’un arrangement par seconde, 13*10254 années pour les
parcourir tous. Ce qui excède largement l’âge de l’univers, qui est seulement de l’ordre de
15*109 années. Il est plus raisonnable de penser que le développement cognitif connaît assez
bien son chemin. Des représentations internes guident à terme le développement cognitif à
travers les étapes du développement. Des apports environnementaux et sociaux influencent
aussi ce système complexe adaptatif, surtout pendant les dernières étapes du développement.
Thelen & Smith (1993) et Gärdenfors (2000) disent qu’une hypothèse « généticiste »
du développement cognitif est peu probable. Les informations internes ne sont pas toutes
d’origine génétique mais une partie émerge comme des attracteurs à travers les interactions
des éléments internes. Dans ce sens, chez les bébés, le développement psychomoteur se passe
à travers des dynamiques auto-organisationnelles à l’intérieur du corps qui réduisent l’énorme
complexité combinatoire. La stabilité d’attracteurs dans les étapes du développement est
influencée par une diversité de causes internes et externes à l’organisme. Le changement
d’attracteurs internes fait que le système prend une direction plutôt que autre.
Le concept de représentation émergente est modélisé ici dans le domaine du modèle,
i.e., en psychologie informatique. L’objectif est de faire évoluer et de développer des modèles
de représentations émergentes (MER). C’est la complexité des systèmes cognitifs naturels qui
nous pousse alors à considérer l'évolution de l'acte de calcul dans les systèmes artificiels vers
les systèmes complexes adaptatifs capables de guider leur propre développement. Des
systèmes complexes auto-adaptatifs et auto-développants, même très simples, serviront à
mieux interpréter les systèmes cognitifs naturels.
2. L’Approche Systèmes Complexes (ASC) de la Cognition
Nous posons l’hypothèse que les représentations émergentes sont les mécanismes
principaux de transition des systèmes intelligents artificiels existants vers des systèmes
cognitifs artificiels d’une nouvelle qualité. En psychologie cognitive, les différentes
approches de la cognition ont collaboré au fil de l’histoire avec de nouveaux concepts de la
cognition et de nouvelles exigences envers les systèmes artificiels pour les considérer comme
des vrais systèmes cognitifs artificiels. Dans ces approches, le concept de représentation est
soit enrichi soit critiqué et menacé d’abandon.
Dans l’approche cognitiviste, la représentation est vue comme des règles symboliques
abstraites (logico-mathématiques) instanciées dans la nature physique. Les actions
comportementales et cognitives ne sont pas le principe mais un résultat des représentations
naturelles (Newell & Simon, 1972), Fodor (1983), Pylyshyn (1984). Le cognitivisme est une
source d’inspiration très importante née en psychologie et qui est répandue jusqu’à nous jours
dans toutes les disciplines en sciences cognitives. Dans le domaine de la modélisation multi3
agents des systèmes complexes, les symboles instanciés dans l’architecture des agents
peuvent être vus comme des représentations émergentes si leur utilisation dépend de la
dynamique complexe du système (Loula et al., 2003).
Selon un point de vue buttom-up, la cognition se construit à partir du bas. Dans cette
vision l’approche connexionniste introduit un nouveau concept de représentation. Les microreprésentations sont toujours les symboles matériels manipulés par des unités de traitement de
l’information, i.e., des neurones formels interconnectés. Les macro-représentations sont des
représentations au niveau du réseau de connexions et n’existent que par une coordination des
paramètres informés par les unités (McCulloch & Pitts, 1943), (Hopfield, 1982). L'approche
cognitiviste manque d'adaptation et de flexibilité (Pinker, 1988), (Sternberg, 1996), mais
l'approche connexionniste n'apporte pas toutes les réponses non plus. Par exemple, comment
faire pour que les macro-représentations deviennent plus que des configurations de
représentations et soient alors actives dans le raisonnement et dans les fonctions cognitives de
haut-niveaux ? (Hopfield, 1982).
L’approche de l’enaction introduit le concept d’auto-organisation dans la définition de
vie et de cognition (Maturana & Varela, 1973). Dans le domaine des systèmes intelligents
artificiels et de la vie artificielle, cette nouvelle façon de penser la cognition mène à la
conception de systèmes artificiels dont les processus ont un rôle actif dans le changement de
la structure du système (Brooks, 1991). De ce fait, l’action planifiée au niveau des éléments
d’un système par des méthodes symboliques va pouvoir modifier les structures qui ont donné
origine à l’action initiale, ainsi, l’action est emboîtée. De ce point de vue, nous parlons ici
d’un système complexe artificiel quand ces aspects liés à l’enaction et à l’auto-organisation
sont présents dans le système informatique. Les systèmes multi-agents (SMA) peuvent en
fournir un exemple. Dans les SMA, les structures sociales et environnementales façonnent les
actions des agents et sont modifiées selon les actions collectives réalisées par ces agents. Ce
mécanisme de couplage structurel est appelé dans le domaine SMA « stigmergie » en
référence au concept introduit par Grassé (1956) et repris ensuite par d’autres dont on peut
citer (Drogoul, 1993), (Garnier, Gautrais et Theraulaz, 2007).
En psychologie, en informatique et en robotique, la théorie de l’enaction semble
nécessaire mais insuffisante pour l’explication de la cognition de haut-niveau (van Gelder &
Port, 1996), (Steels, 2003), (Carvalho et al., 2008). Les capacités d’adaptation et la grande
applicabilité de la théorie de l’enaction (web intelligence, optimisation combinatoire, contrôle
de systèmes, modélisation en SHS, physique, chimie, biologie, etc.) constituent le point fort
de l’approche. Pourtant, dans le domaine conceptuel, ni l’enaction qui existe entre
l’organisme et son environnement ni l’auto-organisation interne ne suffisent à l’explication du
développement cognitif (Thelen & Smith, 1993), (van Gelder & Port, 1995). En effet, l’autoorganisation n’assure pas à elle seule une forme optimale à un système (Hassas et al., 2006).
Dans l’approche dynamique de la cognition, les représentations et la cognition sont
toutes les deux considérées comme des systèmes dynamiques, mais les représentations sont
vues comme une dynamique interne à la cognition. La difficulté, lors de l’implémentation des
modèles dynamiques, est de distinguer la dynamique du système cognitif de celle de la
représentation. De tels problèmes ont amené à des difficultés pour soutenir le concept de
représentation dynamique (Thelen & Smith, 1993), (van Gelder & Port, 1995).
Dans l’ASC de la cognition, les représentations sont des systèmes complexes à part
entière et deux rôles majeurs sont attribués aux représentations émergentes : le renouveau par
l’optimisation de la structure cognitive (l’amélioration des performances du système autoorganisationnel cognitif) et le rôle symbolique joué lors d’une relation sémiotique (SymboleInterprétant-Objet). L’optimisation de la structure cognitive est fondamentale afin de changer
qualitativement les processus cognitifs. La représentation optimise le SCA afin de lancer les
nouvelles étapes du développement (Carvalho, 2008).
4
Selon Crutchfield (1994), l’ASC des machines consiste en une notion particulière de
structure en théorie du calcul. La structure de la machine complexe serait à base de
«computational mechanics of nonlinear processes». Cette structure malléable pourra être
modifiée grâce à des mécanismes de transformation de la structure. Elle est appelée par
l’auteur «hierarchical machine reconstruction». Afin de relier les processus structurels à ceux
de la reconstruction, Crutchfield prévoit des «evolutionary mechanics». Enfin, il suggère que
cette machine complexe serait le cadre du calculable pour l’étude de l’émergence.
Mitchell (1998) pense que l’ASC des machines de calcul, ou du calculable, se fait par
l’union des approches en IA classique et de l’approche dynamique. En ce qui concerne la
machine complexe, Mitchell (1998) propose la reprise du concept de représentation mais pas
comme symboles matériels : « most of these theories assume that information processing
consists of the manipulation of explicit, static symbols rather than the autonomous interaction
of emergent, active ones » (p. 715).
Dans ce sens, les travaux de Mitchell, Rocha et Hordijk, viennent compléter et
modifier un peu le projet d’une machine complexe de Crutchfield. Compléter, car sur le
triptyque processus, structure et représentation, Crutchfield (1994) a porté beaucoup
d’attention au concept de «mécanismes non-linéaires» comme structure, à celui de
«reconstruction hiérarchique de la machine» pour la transformation de la structure et à celui
de « mécanismes évolutionnaires » comme processus. Mais pour Mitchell, Rocha et Hordijk
cela ne semblait pas suffisant, il fallait une manipulation de représentations émergentes.
Pour Mitchell (1998), la manipulation de représentations émergentes est nécessaire
pour jouer le même rôle pour la machine complexe que les symboles matériels jouent dans les
systèmes informatiques actuels. «Unlike what is commonly understood in Cognitive Science,
we argue that evidence from Biology shows that representations are not stand-ins dynamic
processes, and also do not need to refer to situations external to a given organism or
dynamics. We propose criteria to decide if a given structure is a representation by unpacking
the idea of inert structures that can be used as memory for arbitrary dynamic configurations.»
(Rocha & Hordijk, 2005, p. 189).
L’ASC soutient que les représentations sont des systèmes dont les éléments sont
matériellement instanciés, dont l’auto-organisation met en place un couplage structurel et dont
une information concernant l’intérieur du système cognitif ou son extérieur peut être gardée
invariante. La représentation émergente est ainsi, à l’intérieur d’un système complexe
adaptatif, un système complexe non-réactif à des changements extérieurs car sinon aucune
information pérenne ne pourrait y être extraite par le système cognitif.
3. Le développement cognitif comme un système intentionnel
L’image du développement comme une transition d’étapes donne l’impression que le
système cognitif connaît les moyens qu’il faut employer afin d’arriver à son objectif, l’étape
la plus élevée. Dans l’espèce humaine, chaque enfant se développe cognitivement en les
franchissant les unes après les autres, comme si l’objectif du système cognitif était d’arriver à
l’intelligence opératoire formelle. C’est dans ce sens que, dans l’ASC, le développement
cognitif est vu comme un acte intentionnel. En effet, le développement cognitif suit le
principe de la téléologie.
Dennett (1987) distingue trois niveaux : « intentional stance », « design stance » et
« physical stance ». L’auteur utilise encore le terme « system » comme synonyme du terme
« stance » pour faire référence à la configuration et au mode de fonctionnement d’un système
naturel. Un système intentionnel peut être décrit à travers chaque stance mais ce sont les
représentations émergentes qui instancient l’attitude intentionnelle. L’attitude intentionnelle
5
émerge à partir du niveau de « design » des systèmes biologiques, auto-organisateurs,
complexes, dynamiques et incorporés.
Figure 2 : Les trois niveaux de description des systèmes cognitifs
Une attitude physique de la cognition se manifeste dans la modélisation, la description
et la prédiction par des équations, des règles logiques et d'autres systèmes formels simples.
L’hypothèse de support de la stance physique est celle d’un déterminisme entre les entités qui
donne suite à une chaîne réactive au sein du système. Dans le cadre conceptuel de la
psychologie, la matière ou le niveau physique sont les Systèmes Physiques Symboliques
(SPS), i.e., les machines ou les systèmes informatiques mais aussi les organismes complexes,
les systèmes nerveux, etc., qui font aussi de la manipulation de symboles (Newell & Simon,
1972, 1976), (Fodor, 1983), (van Gelder & Port, 1993). Pourtant, les systèmes cognitifs
naturels ont une qualité supérieure par rapport aux systèmes artificiels conçus à présent, ce qui
nous fait penser qu’ils sont à un niveau plus élevé dans la hiérarchie cognitive.
Au niveau auto-organisationnel ou de « design », l’émergence de systèmes complexes
passe par l’interaction de fonctions logico-mathématiques instanciées. L’auto-organisation et
l’auto-adaptation arrivent par une clôture causale dans la chaîne réactive du système. Ici, les
organisations émergentes jouent un rôle représentationnel et peuvent être décrites comme des
configurations de représentation (Minsky, 1977). Pourtant, ces configurations sont réactives
vis-à-vis des changements extérieurs et ainsi une mémoire à long terme est compromise (voir
Ramos & Almeida, 2000).
Les représentations émergentes et l’origine de l’attitude intentionnelle ont lieu dans un
système dont la réactivité envers les changements extérieurs est spontanément brisée par des
bifurcations internes. C’est l’auto-organisation et l’auto-adaptation qui donnent naissance au
niveau de « design » où les événements sont encapsulés dans une chaîne causale complexe
réactive à l’environnement externe. L’origine du niveau intentionnel est liée à l’émergence de
configurations de représentations stables et non-réactives à des changements extérieurs. C’est
à travers des informations stables et non-réactives que le code génétique se manifeste dans le
guidage du développement d’un organisme complexe, bien qu’ayant été formé comme
représentation (code) cela remontant à des millions d’années.
6
Néanmoins, ni toute mémoire stable et non-réactive est d’ordre génétique. Certaines
représentations émergentes sont formées comme code au cours du développement de
l’organisme. L’attitude intentionnelle de l’esprit dépend fortement ces représentations
émergentes, sans lesquelles le mental serait réductible au niveau biologique.
Considérons le système intentionnel suivant : le système A est un système complexe
adaptatif qui s’auto-organise sur un environnement C. Le couplage de C et A génère à
l’intérieur de A un système immergé B qui représente fA, la forme de A. B fait évoluer la
forme de A vers A’. Par communication directe ou indirecte, l’internalisation de B à un
système complexe adaptatif H fait que B joue un rôle développemental. B guide le système H
vers fA.
஻
‫ ܪ‬՜ ‫ܪ‬′
La représentation émergente B provoque ainsi la transition de H vers H’. La forme de
H’ n’est pas identique à A vu que l’environnement et l’historique du couplage de A et H’ ne se
reproduisent pas à l’identique. L’émergence de la représentation B produit un comportement
que nous pouvons décrire de façon naïve comme une intention du système. H « croit » B et
ainsi, il pense que le mieux est de devenir H’. Ou encore, H désire B et ainsi, à la lumière de
ses actions, il cherche à devenir H’. L’intention comme libre arbitre est ici questionnée tout
comme chez Dennett (1987). La différence est que nous décrirons l’émergence d’une attitude
intentionnelle dans un système artificiel ou naturel par sa capacité d’auto-développement à
travers des représentations émergentes.
4. Quatre modèles d’émergence de représentations (4MER)
Rocha et Hordijk (2005) pensent les représentations émergentes comme le code
génétique. Dans des systèmes artificiels, les algorithmes génétiques sont combinés aux
automates cellulaires pour faire apparaître des représentations. Des fonctions à base de
symboles sont spontanément formées à l’intérieur des cellules de calcul sous l’effet de l’autoorganisation du système. Leur objectif serait de rendre ces fonctions des « codes génétiques »,
capables de garder « une mémoire à long terme » du « phénotype » du SCA. Les auteurs
listent les conditions pour considérer ces fonctions symboliques comme une représentation
stable et non-réactive : (i) “mémoire dynamiquement incohérente », (ii) « construction de
code» et (iii) « auto-organisation et sélection” (Rocha et Hordijk 2005).
Steels (2003), Loula et al. (2003) et Arnellos et al. (2006) présentent différents SMA
qui négocient des symboles dans un rapport sémiotique. À l'initialisation, les agents n'ont pas
les mêmes symboles se rapportant aux mêmes objets. Par des interactions, l'utilisation des
symboles représentant des objets est coordonnée par des fonctions de renforcement mais le
« choix » du symbole, pour une relation sémiotique dépendra de la dynamique complexe du
système. Chez Steels (2003) deux robots négocient des symboles pour différentes relations
sémiotiques. A l’intérieur des robots, parfois, des milliers d’agents interagissent pour faire du
lexique commun un SCA, où les configurations d’agents représentent un pattern externe et
constituent ce que Steels appelle « représentations émergentes externes» (Steels, 2003).
Ramos & Almeida (2000) présentent une mémoire collective en utilisant un SMA
réactif. Les agents marquent leur environnement, i.e., des images numériques. Une
configuration représentant les images numériques émergent par le dépôt des marques. Les
configurations de représentations de Ramos & Almeida sont complètement réactives au
changement des images numériques. Lorsqu’une image numérique est remplacée par une
deuxième, la configuration correspondant à la première disparait. Un observateur externe peut
7
voir ainsi une « image-en-action » parce que les agents marquent sans interruption
l'environnement en se basant sur la tonalité blanc-noir de l’image numérique.
Partant de ces travaux, nous proposons de distinguer quatre modèles de représentations
émergentes en utilisant une décomposition selon les dimensions interne/externe et
individuel/collectif. La caractéristique principale de chaque aspect est donnée ci-après.
Interne : représentations internes stables et non-réactives dont le rôle est le guidage du
développement. Externe : les représentations font référence à des objets externes dans une
relation sémiotique. Individuel : la représentation émergente résulte des fonctions
symboliques. Collectif : la représentation émergente est un groupe émergent d'unités
autonomes de traitement d'information.
Une analyse tenant compte de l’aspect individuel/collectif et intérieur/extérieur est
introduit en psychologie par Wilber (2000) et en SMA par Ferber (2006). Une composition de
ces axes intérieur/extérieur et individuel/collectif donne suite aux quatre quadrants suivants en
prenant sur l’axe intérieur/extérieur un SCA comme unité d’analyse et sur l’axe
individuel/collectif, l’agent.
Quatre modèles de Représentations Emergentes
Individuel
Systèmes Complexes Adaptatifs (SCA)
Intérieur au SCA
Extérieur au SCA
Modèle Individuel/intérieur
Modèle Individuel/extérieur
- Mutation et échange de fonctions
symboliques dans chaque agent
- Représentation active dans le guidage vers
une forme optimale d'organisation globale
Agent
<< Systèmes cognitifs
génétiques/biologiques >>
Collectif
Modèle Collectif/intérieur
- Interactions d'agents et émergence de
groupes d'agents
- Représentation active dans le guidage vers
une forme optimale d'organisation globale
d'agents
<< Activités cognitives de haut niveau, développement cognitif, mémoire à long-terme >>
- Négociation et échange de fonctions
symboliques dans chaque agent
- Représentation sémiotique
(Agent, Symbole, Objet externe au SCA)
<< L'émergence du langage >>
Modèle Collectif/extérieur
- Interactions d'agents et émergence d'une
organisation globale d'agents
- Représentation sémiotique
(SCA, agents situés et marqueurs distribués,
Pattern externe au SCA)
<< Cognition Sociale, Mémoire Collective,
Représentation Sociale >>
Figure3 : Quatre modèles de représentations émergentes décrits à travers une décomposition
individuel/collectif et intérieur/extérieur des méta-ontologies : agent et SCA – système
complexe adaptatif (Carvalho, 2008).
Le quadrant individuel/intérieur concerne le modèle de représentations émergentes de
Rocha & Hordijk (2005). Le quadrant individuel/extérieur concerne le modèle de
représentations émergentes de Loula et al. (2003). Le quadrant collectif/extérieur correspond
au modèle de représentations émergentes de Ramos & Almeida (2000). Ces modèles sont vus
comme les prototypes de leur classe de modèles et ainsi plusieurs autres peuvent y être inclus,
comme le modèle d’Arnellos et al. (2006) dans le quadrant individuel/extérieur.
Ce quadrant a été conçu sous l’intuition qu’il manquait un type de modèle concernant
les représentations émergentes, celui du quadrant collectif/intérieur. A ce méta-modèle nous
8
avons donné le nom de MER-CI pour « Méta-modèle de Représentations Emergentes du type
Collectif-Intérieur ».
Un modèle collectif/intérieur des représentations émergentes peut répondre à des
exigences pour les représentations émergentes capables d’instancier une attitude
intentionnelle chez les systèmes complexes adaptatifs artificiels. Carvalho et al. (2008) et
Carvalho (2008) proposent OTD (Optimisation à base de Tolérance à la Différence) comme
un modèle prototypique de la classe de modèles collectif/intérieur de représentations
émergentes. Sur l’OTD, l’émergence d’un groupe d’agents (sous-organisation d’agents) est
capable d’informer une valeur stable et non-réactive à des changements sur l’environnement
externe concernant une solution heuristique de problèmes d’optimisation non-linéaire. Le défi
est l’utilisation de l’information stable et non-réactive dans le contrôle du développement du
SCA.
En suite nous proposons un méta-modèle pour la classe de modèles collectif/intérieur
dans un plan Agent*SCA.
5. Modèle de Représentations Emergentes issu d’une composition collectif/intérieur dans
un plan Agent*SCA (MER-CI)
Notre modèle MER-CI appartient au module collectif de l’axe Agent et suit ainsi une
approche centrée organisation en SMA, comme définie par Ferber et al. (2003).
Voici les quatre principes du MER-CI :
1. Les représentations sont des entités émergentes à l’intérieur d’un système complexe
adaptatif multi-agents où elles manifestent leur existence à travers :
a.
Une propriété globale non réductible, ni à un agent, ni à l’organisation
émergente globale d'agents, mais qui est incorporée à une sous-organisation ou
groupe émergent au sein de l’organisation globale d’agents ;
b.
Des représentations sont des entités situées, incorporées et constituent des
systèmes ouverts. Dans le corps de la représentation émergente, i.e., le groupe
émergent, les agents entrent et sortent du groupe.
2. Une représentation émerge d’une façon simultanément située dans une hiérarchie
dynamiquement complexe en tant qu’entité intermédiaire entre deux entités : l’agent et le
SCA.
3. Dans un SCA sca, la représentation re peut jouer deux rôles r : guider le SCA et garder
des informations dynamiquement stables et non-réactives. Ces deux rôles additionnés au
fait que la représentation est incorporée, caractérisent des « modes » m d’existence d’une
représentation émergente re dans un environnement en.
mode (re, m, en) [role (re, r, sca)] : la représentation émergente re a un mode m dans un
environnement en [une re a un rôle r dans un SCA sca]
a.
Une représentation émergente peut avoir différents rôles dans un SCA et peut
appartenir à plus d’un SCA.
b.
Une représentation émergente peut avoir un seul corps (groupe émergent) par
environnement. Si le modèle possède N environnements, la représentation
émergente doit avoir N corps.
4. Un mode est la voie d’action d’une représentation émergente sur un environnement. Une
représentation émergente re peut résoudre un problème oFunc dans un espace de projet
M, s’il existe un mode m de la re situé sur M. Autrement dit : dans un environnement en
9
une action adaptative o de résolution de problème avec des règles d’action dans
l’architecture des agents a1, …, an, fait partie d’un mode m. De ce fait :
en : m.o(a1,..,an) → ∃ re ∈ ReprésentationEmergente ∧ mode(re, m, en) ∧ type(m, M) ∧
oFunc(o(a1,..,an), M)
a.
Le corps d'une représentation émergente, i.e., le groupe émergent d’agents,
émerge à travers des règles d’action prévues dans l'architecture des agents :
Tout agent est membre de (au moins) un groupe :
∀ x∈ Agents ( ∃ g ∈ Groupes : x∈ g)
b.
Une action adaptative collective o (basée sur des règles d’actions a1,…, an, dans
l’architecture des agents), conduit à l'émergence d'un groupe ouvert d’agents :
∀ re ∈ ReprésentationEmergente ∀ sca ∈ SystèmeComplexeAdaptatifs ∀ r∈ Rôles :
joue(re, r, sca) → ∃ sg ∈ StructureDeGroupes ∧ Gstruct(g, sg) ∧ o(g, sg)
Le diagramme UML (Unified Model Language) au sujet de MER-CI, a été proposé
pour mettre en relief les ontologies appartenant au modèle.
Figure 4 : Le diagramme UML de MER-CI.
Les représentations émergentes ont des modes dans l’environnement : une position
dans l’espace de projet et une position dans la hiérarchie complexe. Les RE ont deux rôles :
(i) à travers la position dans l’espace de projet, garder une information stable et non-réactive à
des changements environnementaux, (ii) exploiter l’information dans la guidage du SCA vers
des formes optimales. Ces deux rôles sont nécessaires pour qu'un SCA puisse réaliser l’autodéveloppement basé sur des connaissances qu’il s’est construit de l’environnement problème
en constante évolution.
10
Les expérimentations sur OTD présentent un SCA dans l’exercice du rôle (i). Dans le
cadre des problèmes d'optimisation, le but est de résoudre et garder une information stable et
non-réactive à des changements de la fonction objective. L’information gardée est une
solution heuristique d’un problème d’optimisation standard. (Carvalho et al., 2008)
6. Conclusion
Les quatre modèles indépendants de représentations émergentes, étudiés par des
expériences numériques, sont particulièrement intéressants en psychologie, en sciences
sociales et en sciences cognitives. L'impact des modèles de représentations émergentes
(MER-II, MER-IE, MER-CI et MER-CE) dans la théorie de la cognition incarnée nous mène
à soutenir que les processus mentaux ont tous ces types de représentations émergentes,
chacune à un niveau différent. Un système cognitif intégral est ainsi un système multi-niveaux
où les différents types de représentations émergentes se trouvent couplés. Les représentations
émergentes CI ont le rôle de guider le développement cognitif, du niveau bas vers le hautniveau des systèmes cognitifs. Les représentations émergentes mettent en place des opérateurs
émergents tels que les fonctions logiques ET, OU, OUEX, etc. Les représentations émergentes
IE mettent en place un système de coordination à travers un lexique et des règles
grammaticales communes entre les agents. Les représentations émergentes CE jouent le rôle
de reconnaissance de motifs externes.
Les représentations émergentes CI jouent le rôle fondamental dans les systèmes à forte
cognition. La construction d’une « mémoire dynamiquement incohérente » (structures
organisationnelles stables et non-réactives) par les représentations monte au rang de cause et
cela à l’intérieur du SCA. Les représentations sont ainsi indispensables dans le développement
de l’organisation de la cognition vers des configurations et comportements optimaux, i.e., des
formes et comportements plus adaptées à des classes d’événement.
Les perspectives sont autour de (i) l’utilisation de représentations émergentes dans
l’optimisation de l’apprentissage des fonctions logiques effectuées par des réseaux de
neurones formels (particulièrement la fonction logique OUEX), (ii) les applications en
sciences sociales et économie (simulation de l’équilibre local de Nash), (iii) l'étude de
l’émergence du lexique et de règles grammaticales comme support négocié d’une
communication, (iv) l’utilisation des représentations émergentes dans le domaine du contrôle
des systèmes, et enfin, (v) l’émergence d’un concept de système cognitif intégral caractérisé
par le couplage des quatre modèles des représentations émergentes, qui offre une nouvelle
piste à explorer dans la conception de systèmes cognitifs artificiels.
Références
Arnellos, A., S. Vosinakis, T. Spyrou, J. Darzentas. 2006. The Emergence of Autonomous Representations.
Journal of Computers, 1(6), 29-36.
Brentano, F. (1874). Psychologie d'un point de vue empirique. Paris: Vrin.
Brooks, R. (1991). Intelligence Without Representation. Artificial Intelligence Journal, 47, 139–159.
Cadet, B. (1998). Psychologie cognitive. Paris: In Press Editions.
Carvalho, L. L. (2008). Représentations Emergentes : Une Approche Multi-Agents des Systèmes Complexes
Adaptatifs en Psychologie Cognitive. Thèse de doctorat, Université de Lyon 2.
Carvalho, L. L. & Hassas, S. (2005). Complex Systems and Cognition: the incoherent dynamics implementation
using multi-agents systems. In Proceedings of European Conference on Complex Systems (ECCS'05).
Carvalho, L. L., Hassas, S., Martin, R., Lopes, E. J., Frécon, L. (2008). Emergence of Representations from a
multi-agent implementation of Schelling’s model. 7th Congress of Systems Science European Union. 1-10.
Crutchfield, J. P. (1994). Is anything ever new? Considering emergence. In G. Cowan, D. Pines and D. Meltzer
(Ed), Complexity: Metaphors, Models, and Reality (pp. 515-537). Reading, MA: Addison-Wesley.
Dennett, D. C. (1987). The intentional stance. Cambridge, MA: MIT Press.
11
Donald, M. (1999). Les origines de l'esprit moderne : trois étapes dans l'évolution de la culture et de la
cognition. Paris-Bruxelles: DeBoeck Université.
Drogoul, A. (1993). De la simulation multi-agent à la résolution collective de problèmes. Une étude de
l'émergence de structures d'organisation dans les systèmes multi-agents. Thèse de doctorat,Université de Paris 6.
Ferber, J. (2006). Concepts et méthodologies multi-agents. In F. Amblard, & D. Phan (Ed), Modélisation et
simulation multi-agents : applications pour les Sciences de l'Homme et de la Société (pp. 23-48). Paris:
Lavoisier.
Ferber, J., Gutknecht, O., Michel, F. (2003). From Agents to Organizations: An Organizational View of MultiAgent Systems. AOSE'03: Agent Oriented Software Engineering (pp. 14). Melbourne, Australia: Springer. LNCS
2935, pp. 214-230, 2004.
Fodor, J. A. (1983). The Modularity of Mind: An Essay on Faculty Psychology. Cambridge, MA: MIT Press.
Galera, C. & Lopes, E. J. (1997). Diagnostics of Parallel and Serial Processing in a Visual Search Task. II
Workshop on Cybernetic Vision, IFSC-USP (pp. 159-165). São Carlos: IEEE Computer Society.
Gärdenfors, P. (2000). Comment homo est devenu sapiens : Sur l'évolution de la pensée. Sciences Humaines.
Garnier, S., Gautrais, J. & Theraulaz, G. (2007). The biological principles of swarm intelligence. Swarm
Intelligence, 1(1), 3-31.
Grassé, P.-P. (1959). La reconstruction du nid et les coordinations interindividuelles chez Bellicosistermes
natalensis et cubitermes sp. La théorie de la stigmergie : essai d'interprétation du comportement des termites
constructeurs. Insectes sociaux, IV(1), 41-83.
Hassas, S., Marzo-Serugendo, G., Karageorgos, A., Castelfranchi, C. (2006). On Self-Organising Mechanisms
from Social, Business and Economic Domains. Informatica, 30, 63-71.
Hope, T., Stoianov, I., Zorzi, M. (2006). Searching for Emergent Representations in Evolved Dynamical
Systems”. In S. Nolfi, et al. (Ed), SAB 2006, LNAI 4095 (pp. 522-533). Berlin: Springer-Verlag.
Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities.
Proceedings of the National Academy of Sciences (pp. 2554-2558).
Livet, P., Müller, J.-P., Phan, D. & Sanders, L. (2008). Ontology, a mediator for Agent-Based Modeling in Social
Science. EPOS'08 - Epistemological Perspective on Simulation A Cross-Disciplinary Workshop. Lisboa.
Loula, A. G., R. Gudwin, R. Queiroz, J. (2003). Synthetic approach of symbolic creatures. S.E.E.D. Journal -Semiotics, Evolution, Energy, and Development, 3(3), 125-133.
McCulloch, W. S. & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of
Mathematical Biophysics, 5, 115-133.
Maturana, H. & Varela, F. J. (1973). Autopoiesis and Cognition: the Realization of the Living. Dodrecht: Reidel.
Mitchell, M. (1998). A complex-systems perspective on the "computation vs. dynamics" debate in cognitive
science. Proceedings of the 20th Annual Conference of the Cognitive Science Society, 710-715.
Minsky, M. (1986). The Society of Mind. New York: Simon and Schuster.
Müller, J.-P. (2009). La notion de cadre conceptuel: penser la place des ontologies dans le processus de
modélisation. Cosmagems, Rochebrune, 1-12.
Newell, A. & Simon, H. A. (1972). Human Problem Solving. Englewood Cliffs: NJ Prentice-Hall.
Newell, A. & Simon, H. (1976). Computer science as empirical inquiry: Symbols and search. Communications of
the Association for Computing Machinery, 19(3), 113-126.
Piaget, J. (1978). La formation du symbole chez l'enfant : imitation, jeu et rêve, image et représentation.
Lausanne-Paris: Delachaux & Niestlé.
Pinker, S. & Mehler, J. (1988). Connections and Symbols. Cambridge, MA: MIT Press.
Pylyshyn, Z. W. (1984). Computation and cognition: toward a foundation for cognitive science. Cambridge:
MIT press.
Ramos, V. & Almeida, F. (2000). Artificial Ant Colonies in Digital Image Habitats: A Mass Behavior Effect
Study on Pattern Recognition. Proceedings of ANTS'2000 - 2nd International Workshop on Ant Algorithms
(From Ant Colonies to Artificial Ants) (pp. 113-116). Brussels, Belgium.
Rocha, L. M. & W. Hordijk. (2005). Material representations: from the genetic code to the evolution of cellular
automata. Artificial Life, 11, 189-214.
Steels, L. (2003). Intelligence with representation. Philosophical Transactions of the Royal Society, A 361(1811),
2381-2395.
Sternberg, R. J. (1996). Cognitive Psychology. Fort Worth: Harcourt Brace College.
Thelen, E. & Smith, T. B. (1994). A dynamic systems approach to the development of cognition and action. MIT
Press, Cambridge, MA.
van Gelder, T. & Port, R. F. (1995). It's about time: an overview of the dynamical approach to cognition. In R. F.
Port and T. van Gelder (Ed), Mind as motion: explorations in the dynamics of cognition (pp. 1-43). Cambridge,
MA: MIT Press.
Wilber, K. (2000). Integral Psychology: Consciousness, Spirit, Psychology, Therapy. Shambhala, Boston, MA.
12

Documents pareils