La mémoire à long terme
Transcription
La mémoire à long terme
La mémoire à long terme 1 Différence entre épisodique. mémoire sémantique et mémoire La mémoire à long terme est composée de deux sous systèmes : • Mémoire sémantique • Mémoire épisodique La mémoire sémantique nous permet de comprendre le monde, elle a des représentations symboliques de tout ce que connaît le sujet, c’est elle qui nous permet de dire : : C’est une chaise☺. Elle nous permet de catégoriser les choses : une chaises est un élément du mobilier, elle a 4 pieds, un dossier… Ce stock de représentation est organisé. La mémoire épisodique est la mémoire qui va nous donner la reconnaissance et l’occurrence (est-ce que c’est Mr X qui nous a fait cours de Td de Y). La mémoire épisodique marque des traces qui sont un enregistrement de tous les concepts épisodiques activé. Il y a un encodage élaboratif. La boucle articulatoire aide à maintenir activé certains concepts. C’est l’hippocampe qui assure l’enregistrement de la trace épisodique. L’hippocampe créerait un index des connaissances. 1.1 1.1.1 La mémoire sémantique 1er modèle Landaver Freedman 68 Comment est organisée la mémoire sémantique ? On pense à un modèle assez simple, on pense que cette mémoire est organisée en catégorie. On pense que les catégories sont incluses spatialement. Pour vérifier ce modèle on présentes des phrases et le suet doit répondre soit oui ou non, si c’est possible : Le perroquet peut nager Le perroquet est un oiseau Le perroquet est un chien Le doberman est un chien La VD est le temps mis par le sujet pour répondre : oui ‘’juste ’’. On répond d’autant plus vite que l’on est dans la même sous catégorie. On répond plus vite un doberman est un chien qu’un doberman est un animal. Lauderman pense que lorsqu’on parle des animaux, on regarde toutes les sous catégories jusqu'à ce qu’on trouve le bon : recherche catégorielle autodéterminée. Plus il y a d’éléments dans la catégorie et plus on va mettre de temps pour trouver l’élément. Ce système ne marche pas trop mal pour les réponses OUI, mais il ne fonctionne pas pour les réponses non. On répond plus vite qu’une marguerite n’est pas un minéral qu’une marguerite est un arbre. Les réponses non sont beaucoup plus faciles si les éléments ne se ressemblent pas. Ce modèle a été abandonnée : recherche catégorielle : modèle invalidé sur les réponses non. Ce modèle a été remplacer par : 1.1.2 Le modèle de Smith, shaben et Ripps (1974) Modèle de comparaison de trait. Chaque concept a 2 types de propriétés : • Propriété définissante • Propriété caractéristique Exemple pour un chien, la propriété définissante : être un mammifère, avoir des poils, 4 pattes. Propriété caractéristique : aboyer, animal de compagnie, pouvoir être tenue en laisse. Le Doberman est un chien : on commence donc a regardé si les deux concepts sur leurs propriétés. S’il y a un fort recouvrement (mêmes propriétés) on répondra oui, si le recouvrement est faible on répondra non. Ce résultat explique bien pour les réponses NON. Donc pour la marguerite et le minéral, il n’y a rien en commun, donc on peut dire facilement non. Entre la Marguerite est l’arbre il y a beaucoup de choses en commun, le recouvrement n’est pas parfait, mais cela fonctionne. Donc on va chercher au niveau des propriétés définissante, qui infirme cette fois-ci une marguerite est un arbre. Le gros problème de ce modèle est lié entre les propriétés caractéristiques et définissante. Un chien qui a 3 pattes reste un chien, alors que pour ce modèle non. Ce modèle est très stable, il fonctionne bien pour les réponses non, mais on ne peut rien en faire. 1.1.3 Modèle en réseau sémantique (collins et quilllans 1969) Le tout est de mettre en place une mémoire sémantique propre et efficace pour créer des machines intelligentes. Ce modèle a donné lieu à un nouveau langage informatique. Il a un système hiérarchique, avec plusieurs niveaux de catégorie. Exemple : on a un grand groupe animal, et on va définir les propriétés des animaux : Animal sang Respire Peau Plume Oiseau écaille Poisson Jaune Canari Autruche Chante Chacun des sous niveaux hérite des propriétés ci-dessus : un canari a de la peau, après on fait de l’ontologie. Lorsqu’on compare deux choses, c’est une activation qui se propage, le temps de réponse dépend du nombre de nœud et de lien interposé. Les 1ers résultats nous on donné entière satisfaction. La réponse canari jaune est plus rapide que canari plume et plus rapide que canari peau. Ce modèle a été abandonné, car on va plus vite pour dire canari a des plumes qu’une autruche a des plumes, ou canari oiseau avec autruche oiseau. Pourtant en logique, on devrait mettre le même temps : effet de prototypie. On peut supposer que canarie est plus connu que autruche, le chemin serait mieux connu. Ce qui invalide : Chien est un animal, est plus cours qu’un chien est un mammifère. Cette hiérarchie stricte ne marche pas. 1.1.4 Collins est Loftus On garde l’idée d’une activation, ces liens seront associés, mais sans lien hiérarchique, on supprime donc toutes hiérarchisations, niveaux…. Exemple : Un chien est un animal pourra être plus fort que Le Chien est un mammifère. Si on supprime la hiérarchie, le modèle devient difficilement testable. Il y a une interface entre les perceptions et la mémoire sémantique : Comment fait-on pour accéder en mémoire sémantique ? Il faut passer d’une stimulation à quelques choses de conscient. L’unité de reconnaissance garde une représentation des percepts connu : exemple : une image, un visage… Ces informations seraient liées au réseau sémantique. Ces unités de reconnaissance seraient des points d’accès à la mémoire sémantique car elle serait le lient d’un activation sémantique. Cela permet de passer d’une information perceptive à une activation qui permet d’activer la représentation sémantique. L’activation est un phénomène de Matching ou d’appariement. Le phénomène d’appariement est le rapport entre ce qui a été stocké et ce qui est perçu. Cette comparaison produit une activation en fonction de la ressemblance entre les deux représentations. Chaque unité de reconnaissance doit avoir un seuil, si l’activation est plus basse que le seuil, alors l’unité de reconnaissance ne renvoie rien, si l’activation est forte est dépasse le seuil, alors l’unité de reconnaissance va pouvoir activer la mémoire sémantique. L’unité de production du nom a des unités phonologiques permettant de dire le nom d’un Mr X ou Y. C’est l’unité de reconnaissance qui nous permet de faire un lien entre ce qui est connu et ce qui ne l’ais pas. Pour un stimulus inconnu, le seuil ne sera jamais dépassé. Si le seuil est dépassé, le sujet est connu. Cela nous donnes des informations sur la familiarité… Ce modèle est testable. On peut le tester avec des modèles, et demandé au sujet de nous dire si oui ou non, il reconnaît le visage du sujet, par un système de 3 questions : Est-ce un visage familier ou pas ? (Familier) Est-ce un homme politique ou pas ? (Sémantique) S’appel t’il John ou pas ? (Phonologique) Si le modèle est juste comment va s’ordonner les temps de réponses ? TR Familier < TR sémantique < TR phonologique Hypothèse : le seuil d’unité de reconnaissance est modifiable par apprentissage. A chaque fois que l’unité de reconnaissance s’active, elle « s’use » et son seuil diminue de manière permanente. Le seuil diminue par apprentissage. L’effet de fréquence des items : unités de fréquence dans la vie courante, un item qui a souvent été activé, a un seuil plus facile a dépasser, donc a atteindre. C’est pour cela que lorsqu’on envoie des items fréquents et d’autre moins fréquent. Les items fréquents ont un délai de réponse plus courte que les items non fréquents. Existe-t-il une unité de réponse pour le visage, le nom ?... Ou alors est-ce tout pareil ? Y a-til une Unité de reconnaissance pour la globalité des éléments ? On va provoquer artificiellement une baisse de seuil dans la 1er phase (phase d’amorçage). Amorçage V1 V2 V3 V4 Test V1 V2 V3 V4 V5 V6 Réponses Connu ou inconnu … … … Comme on a baissé le seuil, on a besoin de moins de stimulation pour activer. Cette fois on fait baisser le seuil pour le nom et on test pour le visage. S’il y a qu’une unité de reconnaissance nom visage, on aurait baissé le seuil nom visage. On devrait trouver les même résultats qu’a gauche. Il y a 2 unités de reconnaissance : visage et nom. L’effet d’amorçage par la répétition, est un effet durable toute la vie. 1.1.5 Amorçage sémantique L’activation va se propager dans tous les sens. Il y a aura donc une pré activation des autres catégories, mais pas suffisante pour aller au seuil : exemple quand on-dit Chirac, on ne voit pas Raffarin☺. Il faut aussi que l’activation soit diffuse, mais aussi temporaire (disparaît avec le temps).pendant un laps de temps court, il va y avoir une activation des liaisons périphérique, si on supprime l’image clé : Chirac, mais que l’on montre Raffarin, il y a aura toujours une faible activation, qui fera diminuer le seuil, ainsi Raffarin sera reconnu plus vite. On va faire un amorçage sémantique (fonction à très court terme).. Il y a une condition reliée V1 et V2 ont des informations sémantiques en commun X ▬▬▬▬▬▬▬▬► V2 (neutre) V1’▬▬▬▬▬▬▬▬► V2 non relié. V1’ et V2 n’ont pas d’information sémantique en commun. Le SOA est de 300ms. On ne demandera une familiarité uniquement sur le second visage et non sur le 1er. L’effet d’amorçage sémantique est obtenu quelque soit la modalité d’amorçage. Fonctionnement avec un phénomène purement automatique. Cela est obtenu quelque soit la modalité d’amorçage