Pour commander une régression linéaire multiple dans SPSS, on

Transcription

Pour commander une régression linéaire multiple dans SPSS, on
Pour commander une régression linéaire
multiple dans SPSS, on passe par
‘Analyse’, ‘Régression’, puis ‘Linéaire’.
La variable critère, ici z, est transférée
dans la case ‘Dépendant’ et les variables
prédictrices dans ‘Variables
indépendantes’.
On spécifie aussi la méthode à utiliser;
ici, c’est la méthode ‘Pas à pas’ qui fera
entrer les variables utiles une à une mais
qui pourra aussi en retirer au besoin.
Le bouton ‘Statistiques …’, à droite,
donne accès à diverses boîtes à cocher.
Si vous voulez éviter qu’une variable
entrée dans l’équation y reste même
quand d’autres variables la rendent
moins utile (probabilité entre 0.05 et
0.10), allez dans Option et remplacez le
critère de 0.10 pour exclure une variable
déjà entrée par 0.05001 (ça doit être plus
grand que le p pour entrer dans
l’équation).
Après avoir cliqué sur ‘Poursuivre’ puis
sur ‘OK’, l’analyse est exécutée
.
Un premier tableau rappelle les options, dont le traitement des données manquantes s’il y
a lieu.
Remarques
Résultat obtenu
06-oct.-2009 17:22:30
Commentaires
Entrée
Données
G:\PSY_7105\Psy7105-regmult.sav
Ensemble de données actif
Ensemble_de_données1
Filtrer
<aucune>
Poids
<aucune>
Scinder fichier
<aucune>
N de lignes dans le fichier de travail
Gestion des valeurs manquantes
Définition des valeurs manquantes
200
Les valeurs manquantes définies par l'utilisateur
sont traitées comme manquantes.
Observations prises en compte
Les statistiques sont basées sur des observations
ne contenant aucune valeur manquante pour toute
variable utilisée.
Syntaxe
REGRESSION
/DESCRIPTIVES MEAN STDDEV CORR SIG N
/MISSING LISTWISE
/STATISTICS COEFF OUTS R ANOVA COLLIN
TOL CHANGE ZPP
/CRITERIA=PIN(.05) POUT(.10)
/NOORIGIN
/DEPENDENT z
/METHOD=STEPWISE a b c.
Ressources
Temps de processeur
0:00:00.000
Temps écoulé
0:00:00.031
Mémoire requise
2124 octets
Mémoire supplémentaire requise pour
0 octets
les diagrammes résiduels
Après un tableau des statistiques de base des variables et de leurs corrélations, on a la
séquence de modèles, c’est-à-dire d’étapes pas à pas. C’est généralement le dernier
modèle qu’on accepte, mais c’est prudent d’observer la séquence, surtout quand une
variable d’abord incluse est éliminée, ce qui indique qu’une combinaison des autres
prédicteurs porte maintenant l’essentiel de l’information utile de cette variable
retranchée. Ici, on voit que b est entrée dans l’équation, suivie de c et qu’aucune variable
n’a été retranchée.
Toutefois, cette information est aussi disponible en note dans le tableau récapitulatif qui
suit, qui donne les valeurs de la régression multiple et de son carré, la variance du critère
expliquée dans l’échantillon par l’équation de régression. Le ‘R deux ajusté’enlève le
biais du ‘R deux’ pour l’échantillon, mais surestime encore la variance du critère dans un
nouvel échantillon qu’on expliquerait par la présente équation.
Récapitulatif des modèles
Changement dans les statistiques
R-deux
R-deux
Erreur standard de
ajusté
l'estimation
Sig. Variation
Modèle
R
Variation de R-deux
Variation de F
ddl1
ddl2
de F
1
,882a
,777
,776
20,77661
,777
691,109
1
198
,000
2
,944b
,890
,889
14,62597
,113
202,545
1
197
,000
a. Valeurs prédites : (constantes), b
b. Valeurs prédites : (constantes), b, c
Le tableau d’ANOVA porte sur le modèle entier à chaque pas.
ANOVAc
Modèle
1
Somme des carrés
Régression
Moyenne des carrés
298329,304
1
298329,304
85470,201
198
431,668
Total
383799,506
199
Régression
341657,474
2
170828,737
42142,032
197
213,919
383799,506
199
Résidu
2
ddl
Résidu
Total
a. Valeurs prédites : (constantes), b
b. Valeurs prédites : (constantes), b, c
c. Variable dépendante : z
D
Sig.
691,109
,000a
798,568
,000b
Suit le tableau des coefficients et des différentes corrélations des prédicteurs dans le
modèle avec le critère.
Coefficientsa
Statistiques de
Coefficients
Coefficients non standardisés
standardisés
Corrélations
Sig.
Modèle
1
A
(Constante)
Bêta
-6,896
2,086
,174
,007
84,909
6,616
b
,186
,005
c
-18,553
1,304
b
2
Erreur standard
(Constante)
t
,001
26,289
,000
12,834
,000
,946
39,351
-,342
-14,232
,882
Corrélation
simple
-3,306
colinéarité
Partielle
Partie
Tolérance
,882
,882
,882
1,000
1,000
,000
,882
,942
,929
,965
1,036
,000
-,165
-,712
-,336
,965
1,036
a. Variable dépendante : z
Le tableau des valeurs (encore) exclues à chaque pas nous renseigne aussi sur les
relations entre les variables. Notez comment la corrélation partielle de ‘a’ change du
modèle 1 au modèle 2. Avec ‘b’ et ‘c’ dans le modèle, ‘a’ ne contribue plus
significativement à ‘z’. Cela ne veut pas dire que ‘a’ soit sans rapport avec ‘z’; ceci n’est
vrai que lorsque d’autres variables adéquates, ici ‘b’ et ‘c’, sont déjà prises en compte.
Variables excluesc
Tolérance minimale
Statistiques de colinéarité
Corrélation
Modèle
1
2
Bêta dans
t
Sig.
partielle
VIF
Tolérance
Tolérance
VIF
minimale
a
-,392a
-8,032
,000
-,497
,357
2,800
,357
c
-,342a
-14,232
,000
-,712
,965
1,036
,965
a
,082b
1,359
,176
,097
,151
6,618
,151
a. Valeurs prédites dans le modèle : (constantes), b
b. Valeurs prédites dans le modèle : (constantes), b, c
c. Variable dépendante : z
Le tableau de diagnostic de colinéarité de SPSS est d’une valeur douteuse, parce qu’il
inclut l’hyperdiagonale (le critère est exclu de cette analyse). L’index de conditionnement
est la racine carrée de la première valeur propre sur la valeur propre courante. La partie
de droite du tableau donne la contribution de chaque composante à chacun des
paramètres du modèle, constante incluse. Si on fait une approche ‘Pas à pas, ceci n’est
pas très utile.
Diagnostics de colinéaritéa
Proportions de la variance
Index de
Modèle
Dimension
1
1
1,710
1,000
,14
,14
2
,290
2,428
,86
,86
1
2,620
1,000
,00
,05
,00
2
,367
2,670
,01
,94
,01
3
,012
14,684
,99
,01
,99
2
a. Variable dépendante : z
Valeur propre
conditionnement
(Constante)
b
c