La mémoire à long terme

Transcription

La mémoire à long terme
La mémoire à long terme
1 Différence entre
épisodique.
mémoire
sémantique
et
mémoire
La mémoire à long terme est composée de deux sous systèmes :
• Mémoire sémantique
• Mémoire épisodique
La mémoire sémantique nous permet de comprendre le monde, elle a des représentations
symboliques de tout ce que connaît le sujet, c’est elle qui nous permet de dire :
: C’est une chaise☺. Elle nous permet de catégoriser les choses : une
chaises est un élément du mobilier, elle a 4 pieds, un dossier… Ce
stock de représentation est organisé.
La mémoire épisodique est la mémoire qui va nous donner la reconnaissance et
l’occurrence (est-ce que c’est Mr X qui nous a fait cours de Td de Y). La mémoire épisodique
marque des traces qui sont un enregistrement de tous les concepts épisodiques activé. Il y a
un encodage élaboratif. La boucle articulatoire aide à maintenir activé certains concepts.
C’est l’hippocampe qui assure l’enregistrement de la trace épisodique. L’hippocampe créerait
un index des connaissances.
1.1
1.1.1
La mémoire sémantique
1er modèle Landaver Freedman 68
Comment est organisée la mémoire sémantique ?
On pense à un modèle assez simple, on pense que cette mémoire est organisée en
catégorie.
On pense que les
catégories sont incluses
spatialement. Pour vérifier ce modèle on présentes
des phrases et le suet doit répondre soit oui ou non,
si c’est possible :
Le perroquet peut nager
Le perroquet est un oiseau
Le perroquet est un chien
Le doberman est un chien
La VD est le temps mis par le sujet pour répondre : oui ‘’juste ’’. On répond d’autant plus vite
que l’on est dans la même sous catégorie. On répond plus vite un doberman est un chien
qu’un doberman est un animal.
Lauderman pense que lorsqu’on parle des animaux, on regarde toutes les sous catégories
jusqu'à ce qu’on trouve le bon : recherche catégorielle autodéterminée. Plus il y a d’éléments
dans la catégorie et plus on va mettre de temps pour trouver l’élément. Ce système ne
marche pas trop mal pour les réponses OUI, mais il ne fonctionne pas pour les réponses
non. On répond plus vite qu’une marguerite n’est pas un minéral qu’une marguerite est un
arbre. Les réponses non sont beaucoup plus faciles si les éléments ne se ressemblent pas.
Ce modèle a été abandonnée : recherche catégorielle : modèle invalidé sur les réponses
non.
Ce modèle a été remplacer par :
1.1.2
Le modèle de Smith, shaben et Ripps (1974)
Modèle de comparaison de trait.
Chaque concept a 2 types de propriétés :
• Propriété définissante
• Propriété caractéristique
Exemple pour un chien, la propriété définissante : être un mammifère, avoir des poils, 4
pattes. Propriété caractéristique : aboyer, animal de compagnie, pouvoir être tenue en laisse.
Le Doberman est un chien : on commence donc a regardé si les deux concepts sur leurs
propriétés. S’il y a un fort recouvrement (mêmes propriétés) on répondra oui, si le
recouvrement est faible on répondra non. Ce résultat explique bien pour les réponses NON.
Donc pour la marguerite et le minéral, il n’y a rien en commun, donc on peut dire facilement
non. Entre la Marguerite est l’arbre il y a beaucoup de choses en commun, le recouvrement
n’est pas parfait, mais cela fonctionne. Donc on va chercher au niveau des propriétés
définissante, qui infirme cette fois-ci une marguerite est un arbre.
Le gros problème de ce modèle est lié entre les propriétés caractéristiques et définissante.
Un chien qui a 3 pattes reste un chien, alors que pour ce modèle non. Ce modèle est très
stable, il fonctionne bien pour les réponses non, mais on ne peut rien en faire.
1.1.3
Modèle en réseau sémantique (collins et quilllans 1969)
Le tout est de mettre en place une mémoire sémantique propre et efficace pour créer des
machines intelligentes. Ce modèle a donné lieu à un nouveau langage informatique. Il a un
système hiérarchique, avec plusieurs niveaux de catégorie.
Exemple : on a un grand groupe animal, et on va définir les propriétés des animaux :
Animal
sang
Respire
Peau
Plume
Oiseau
écaille
Poisson
Jaune
Canari
Autruche
Chante
Chacun des sous niveaux hérite des propriétés ci-dessus : un canari a de la peau, après on
fait de l’ontologie. Lorsqu’on compare deux choses, c’est une activation qui se propage, le
temps de réponse dépend du nombre de nœud et de lien interposé. Les 1ers résultats nous
on donné entière satisfaction. La réponse canari jaune est plus rapide que canari plume et
plus rapide que canari peau.
Ce modèle a été abandonné, car on va plus vite pour dire canari a des plumes qu’une
autruche a des plumes, ou canari oiseau avec autruche oiseau. Pourtant en logique, on
devrait mettre le même temps : effet de prototypie. On peut supposer que canarie est plus
connu que autruche, le chemin serait mieux connu. Ce qui invalide : Chien est un animal, est
plus cours qu’un chien est un mammifère. Cette hiérarchie stricte ne marche pas.
1.1.4
Collins est Loftus
On garde l’idée d’une activation, ces liens seront associés, mais sans lien hiérarchique, on
supprime donc toutes hiérarchisations, niveaux….
Exemple :
Un chien est un animal pourra être plus fort que Le Chien est un mammifère.
Si on supprime la hiérarchie, le modèle devient difficilement testable. Il y a une interface
entre les perceptions et la mémoire sémantique : Comment fait-on pour accéder en mémoire
sémantique ?
Il faut passer d’une stimulation à quelques choses de conscient.
L’unité
de
reconnaissance
garde
une
représentation des percepts connu : exemple :
une image, un visage… Ces informations seraient
liées au réseau sémantique. Ces unités de
reconnaissance seraient des points d’accès à la
mémoire sémantique car elle serait le lient d’un
activation sémantique. Cela permet de passer
d’une information perceptive à une activation qui
permet d’activer la représentation sémantique.
L’activation est un phénomène de Matching ou d’appariement. Le phénomène d’appariement
est le rapport entre ce qui a été stocké et ce qui est perçu. Cette comparaison produit une
activation en fonction de la ressemblance entre les deux représentations.
Chaque unité de reconnaissance doit avoir un seuil, si l’activation est plus basse que le seuil,
alors l’unité de reconnaissance ne renvoie rien, si l’activation est forte est dépasse le seuil,
alors l’unité de reconnaissance va pouvoir activer la mémoire sémantique.
L’unité de production du nom a des unités phonologiques permettant de dire le nom d’un Mr
X ou Y. C’est l’unité de reconnaissance qui nous permet de faire un lien entre ce qui est
connu et ce qui ne l’ais pas.
Pour un stimulus inconnu, le seuil ne sera jamais dépassé. Si le seuil est dépassé, le sujet
est connu. Cela nous donnes des informations sur la familiarité…
Ce modèle est testable. On peut le tester avec des modèles, et demandé au sujet de nous
dire si oui ou non, il reconnaît le visage du sujet, par un système de 3 questions :
Est-ce un visage familier ou pas ? (Familier)
Est-ce un homme politique ou pas ? (Sémantique)
S’appel t’il John ou pas ? (Phonologique)
Si le modèle est juste comment va s’ordonner les temps de réponses ?
TR Familier < TR sémantique < TR phonologique
Hypothèse : le seuil d’unité de reconnaissance est modifiable par apprentissage. A chaque
fois que l’unité de reconnaissance s’active, elle « s’use » et son seuil diminue de manière
permanente. Le seuil diminue par apprentissage. L’effet de fréquence des items : unités de
fréquence dans la vie courante, un item qui a souvent été activé, a un seuil plus facile a
dépasser, donc a atteindre. C’est pour cela que lorsqu’on envoie des items fréquents et
d’autre moins fréquent. Les items fréquents ont un délai de réponse plus courte que les
items non fréquents.
Existe-t-il une unité de réponse pour le visage, le nom ?... Ou alors est-ce tout pareil ? Y a-til une Unité de reconnaissance pour la globalité des éléments ?
On va provoquer artificiellement une baisse de seuil dans la 1er phase (phase d’amorçage).
Amorçage
V1
V2
V3
V4
Test
V1
V2
V3
V4
V5
V6
Réponses
Connu ou inconnu
…
…
…
Comme on a baissé le seuil, on a besoin de moins de stimulation
pour activer. Cette fois on fait baisser le seuil pour le nom et on
test pour le visage. S’il y a qu’une unité de reconnaissance nom
visage, on aurait baissé le seuil nom visage. On devrait trouver les
même résultats qu’a gauche.
Il y a 2 unités de reconnaissance : visage et nom.
L’effet d’amorçage par la répétition, est un effet durable toute la vie.
1.1.5
Amorçage sémantique
L’activation va se propager dans tous les sens. Il y a aura donc une pré activation des autres
catégories, mais pas suffisante pour aller au seuil : exemple quand on-dit Chirac, on ne voit
pas Raffarin☺. Il faut aussi que l’activation soit diffuse, mais aussi temporaire (disparaît avec
le temps).pendant un laps de temps court, il va y avoir une activation des liaisons
périphérique, si on supprime l’image clé : Chirac, mais que l’on montre Raffarin, il y a aura
toujours une faible activation, qui fera diminuer le seuil, ainsi Raffarin sera reconnu plus vite.
On va faire un amorçage sémantique (fonction à très court terme)..
Il y a une condition reliée V1 et V2 ont des informations sémantiques en commun
X ▬▬▬▬▬▬▬▬► V2 (neutre)
V1’▬▬▬▬▬▬▬▬► V2 non relié.
V1’ et V2 n’ont pas d’information sémantique en commun.
Le SOA est de 300ms. On ne demandera une familiarité uniquement sur le second visage et
non sur le 1er.
L’effet d’amorçage sémantique est obtenu quelque soit la
modalité d’amorçage.
Fonctionnement avec un phénomène purement
automatique. Cela est obtenu quelque soit la modalité
d’amorçage