Pour commander une régression linéaire multiple dans SPSS, on
Transcription
Pour commander une régression linéaire multiple dans SPSS, on
Pour commander une régression linéaire multiple dans SPSS, on passe par ‘Analyse’, ‘Régression’, puis ‘Linéaire’. La variable critère, ici z, est transférée dans la case ‘Dépendant’ et les variables prédictrices dans ‘Variables indépendantes’. On spécifie aussi la méthode à utiliser; ici, c’est la méthode ‘Pas à pas’ qui fera entrer les variables utiles une à une mais qui pourra aussi en retirer au besoin. Le bouton ‘Statistiques …’, à droite, donne accès à diverses boîtes à cocher. Si vous voulez éviter qu’une variable entrée dans l’équation y reste même quand d’autres variables la rendent moins utile (probabilité entre 0.05 et 0.10), allez dans Option et remplacez le critère de 0.10 pour exclure une variable déjà entrée par 0.05001 (ça doit être plus grand que le p pour entrer dans l’équation). Après avoir cliqué sur ‘Poursuivre’ puis sur ‘OK’, l’analyse est exécutée . Un premier tableau rappelle les options, dont le traitement des données manquantes s’il y a lieu. Remarques Résultat obtenu 06-oct.-2009 17:22:30 Commentaires Entrée Données G:\PSY_7105\Psy7105-regmult.sav Ensemble de données actif Ensemble_de_données1 Filtrer <aucune> Poids <aucune> Scinder fichier <aucune> N de lignes dans le fichier de travail Gestion des valeurs manquantes Définition des valeurs manquantes 200 Les valeurs manquantes définies par l'utilisateur sont traitées comme manquantes. Observations prises en compte Les statistiques sont basées sur des observations ne contenant aucune valeur manquante pour toute variable utilisée. Syntaxe REGRESSION /DESCRIPTIVES MEAN STDDEV CORR SIG N /MISSING LISTWISE /STATISTICS COEFF OUTS R ANOVA COLLIN TOL CHANGE ZPP /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /DEPENDENT z /METHOD=STEPWISE a b c. Ressources Temps de processeur 0:00:00.000 Temps écoulé 0:00:00.031 Mémoire requise 2124 octets Mémoire supplémentaire requise pour 0 octets les diagrammes résiduels Après un tableau des statistiques de base des variables et de leurs corrélations, on a la séquence de modèles, c’est-à-dire d’étapes pas à pas. C’est généralement le dernier modèle qu’on accepte, mais c’est prudent d’observer la séquence, surtout quand une variable d’abord incluse est éliminée, ce qui indique qu’une combinaison des autres prédicteurs porte maintenant l’essentiel de l’information utile de cette variable retranchée. Ici, on voit que b est entrée dans l’équation, suivie de c et qu’aucune variable n’a été retranchée. Toutefois, cette information est aussi disponible en note dans le tableau récapitulatif qui suit, qui donne les valeurs de la régression multiple et de son carré, la variance du critère expliquée dans l’échantillon par l’équation de régression. Le ‘R deux ajusté’enlève le biais du ‘R deux’ pour l’échantillon, mais surestime encore la variance du critère dans un nouvel échantillon qu’on expliquerait par la présente équation. Récapitulatif des modèles Changement dans les statistiques R-deux R-deux Erreur standard de ajusté l'estimation Sig. Variation Modèle R Variation de R-deux Variation de F ddl1 ddl2 de F 1 ,882a ,777 ,776 20,77661 ,777 691,109 1 198 ,000 2 ,944b ,890 ,889 14,62597 ,113 202,545 1 197 ,000 a. Valeurs prédites : (constantes), b b. Valeurs prédites : (constantes), b, c Le tableau d’ANOVA porte sur le modèle entier à chaque pas. ANOVAc Modèle 1 Somme des carrés Régression Moyenne des carrés 298329,304 1 298329,304 85470,201 198 431,668 Total 383799,506 199 Régression 341657,474 2 170828,737 42142,032 197 213,919 383799,506 199 Résidu 2 ddl Résidu Total a. Valeurs prédites : (constantes), b b. Valeurs prédites : (constantes), b, c c. Variable dépendante : z D Sig. 691,109 ,000a 798,568 ,000b Suit le tableau des coefficients et des différentes corrélations des prédicteurs dans le modèle avec le critère. Coefficientsa Statistiques de Coefficients Coefficients non standardisés standardisés Corrélations Sig. Modèle 1 A (Constante) Bêta -6,896 2,086 ,174 ,007 84,909 6,616 b ,186 ,005 c -18,553 1,304 b 2 Erreur standard (Constante) t ,001 26,289 ,000 12,834 ,000 ,946 39,351 -,342 -14,232 ,882 Corrélation simple -3,306 colinéarité Partielle Partie Tolérance ,882 ,882 ,882 1,000 1,000 ,000 ,882 ,942 ,929 ,965 1,036 ,000 -,165 -,712 -,336 ,965 1,036 a. Variable dépendante : z Le tableau des valeurs (encore) exclues à chaque pas nous renseigne aussi sur les relations entre les variables. Notez comment la corrélation partielle de ‘a’ change du modèle 1 au modèle 2. Avec ‘b’ et ‘c’ dans le modèle, ‘a’ ne contribue plus significativement à ‘z’. Cela ne veut pas dire que ‘a’ soit sans rapport avec ‘z’; ceci n’est vrai que lorsque d’autres variables adéquates, ici ‘b’ et ‘c’, sont déjà prises en compte. Variables excluesc Tolérance minimale Statistiques de colinéarité Corrélation Modèle 1 2 Bêta dans t Sig. partielle VIF Tolérance Tolérance VIF minimale a -,392a -8,032 ,000 -,497 ,357 2,800 ,357 c -,342a -14,232 ,000 -,712 ,965 1,036 ,965 a ,082b 1,359 ,176 ,097 ,151 6,618 ,151 a. Valeurs prédites dans le modèle : (constantes), b b. Valeurs prédites dans le modèle : (constantes), b, c c. Variable dépendante : z Le tableau de diagnostic de colinéarité de SPSS est d’une valeur douteuse, parce qu’il inclut l’hyperdiagonale (le critère est exclu de cette analyse). L’index de conditionnement est la racine carrée de la première valeur propre sur la valeur propre courante. La partie de droite du tableau donne la contribution de chaque composante à chacun des paramètres du modèle, constante incluse. Si on fait une approche ‘Pas à pas, ceci n’est pas très utile. Diagnostics de colinéaritéa Proportions de la variance Index de Modèle Dimension 1 1 1,710 1,000 ,14 ,14 2 ,290 2,428 ,86 ,86 1 2,620 1,000 ,00 ,05 ,00 2 ,367 2,670 ,01 ,94 ,01 3 ,012 14,684 ,99 ,01 ,99 2 a. Variable dépendante : z Valeur propre conditionnement (Constante) b c