Title: Corr
1Corrélation et régression simple
- Objectif étudier l association entre deux
variables. La régression permet la prédiction de
l une par l autre. - Situation s usage
- échantillonnage au hasard
- échantillon appariés ou mesures reliées
- indépendance des scores score du sujet 1 non
corrélé avec score du sujet 2, et ainsi de suite - Calcul de la corrélation r cova xy / sx sy
- covariance ? (X-X)(Y-Y) / n-1
2Corrélation et régression simple
- Postulats
- normalité des distributions pour au moins une des
deux variables - homoscédasticité, i.e. variance constante VI1 aux
niveaux de VI 2 - linéarité de la relation
- absence d auto corrélation entre les résiduels.
Donné par le test de Durbin Watson 1.5 à 2.5. Si
lt1.5 problème. Aussi, coefficient d auto
corrélation des résiduels lt0.3. Obtenu par
régression des résiduels avec une colonne
résiduels n-1
3Utilisation du graphe des résiduels vs prédits
pour le diagnostic Linéarité, Normalité,
Homoscédasticité (LNH)
L N H
Non normal
Hétéroscédasticité
Non linéaire
4Corrélation et régression simple
- La force du lien entre les deux variables est
donné par le r2. Donne le de variance de la V2
expliqué par V1. - La taille de l effet convention (Cohen) donne
- petit r.10
- moyen r.30
- grand r.50
5Corrélation et régression simple
- Facteurs influençant fortement une corrélation
- a) étendue réduite de la distribution des scores
sur une variable - b) utilisation de groupes extrêmes
- c)utilisation de groupes différents combinés dans
la même régression - d) présence de sujet déviants
- e) existence d une relation non linéaire
6a) étendue réduite de la distribution des scores
sur une variable
10 9 8 7 6 5 4 3 2 1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
7b) utilisation de groupes extrêmes
10 9 8 7 6 5 4 3 2 1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
8c) utilisation de groupes différents combinés
dans la même régression
10 9 8 7 6 5 4 3 2 1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
9d) présence de sujet déviants
10 9 8 7 6 5 4 3 2 1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
10e) existence d une relation non linéaire
10 9 8 7 6 5 4 3 2 1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
11Corrélation et régression simple
- Équation de régression
- Y b0 b1 X
- Y variable à prédire
- b0 constante (intercept)
- b1 coefficient bêta (pente) affectant la
variable X. - Le test de significativité vérifie l hypothèse
nulle que bêta 0
12Procédure dans SPSS
Sélectionner  régression , puis  linéaire .
Mettre la Vi et la VD dans les bonnes fenêtre et
peser sur le bouton statistique.
13Procédure dans SPSS
Sélectionner ce qui est coché
Demander 2 graphiques prédit vs résiduel pour
les postulats LNH et prédit vs dépendante pour le
scattergram de la régression
14Output SPSS
R et R carrré, le F et le seuil alpha donné.
Durbin Waston aussi.
Valeur de t et la pente (1,574) sont données.
15Table III. Durbin-Watson (DW) critical
values. Règle empirique valeur DW lt 1,5
problème
Trouver le nombre de variables sur ligne du haut.
Trouver nombre de sujets colonne de
gauche.Choisir .05 ou .01 si vous êtes
masochistes. Si votre valeur DW est lt que D-L
problème dautocorrélation présent. Si DW lt que
D-U, problème probable.
16Analyse de covariance
- BUT permettre de vérifier des différences entre
2 ou plusieurs groupes en extrayant l influence
d une covariable sur la VD. La covariable est
une variable corrélée à la VD et qui peut
obstruer l impact de la VI sur la VD. - Permet d augmenter la puissance d une Anova
simple ou factorielle en réduisant le de
variance non expliqué.
17Analyse de covariance
- Situation d usage
- Une VI Ã 2 niveaux ou plus, ou 2 VI (si
factorielle) à 2 niveaux ou plus. - Une covariable mesurée avant traitement.
- Sujets assignés aléatoirement à un groupe et un
seul
18Analyse de covariance
- POSTULATS
- 1- Indépendance des mesures
- 2- Normalité pour les sujets d un groupe ayant
le même score sur la covariable, la VD doit se
distribuer normalement. Si les scores de la
covariables se distribuent normalement, Ancova
robuste à non normalité de la VD. Se vérifie par
le diagramme des valeurs prédites vs résiduels.
19Analyse de covariance
- POSTULATS
- 3- Homogénéité des variances la variance de la
VD est la même pour tous les groupes et les
niveaux de la covariable. A) homogénéité des
variances inter groupe se vérifie comme dans
Anova simple ou factorielle. Si N égaux, Ancova
robuste. B) variance de la VD est la même aux
différents niveaux de la covariable.
Homoscédasticité. Se vérifie par le diagramme des
valeurs prédites vs résiduels.
20Utilisation du graphe des résiduels vs prédits
pour le diagnostic Linéarité, Normalité,
Homoscédasticité (LNH)
L N H
Non normal
Hétéroscédasticité
Non linéaire
21Analyse de covariance
- POSTULATS
- 4- Linéarité de la régression VD-covariable dans
chaque groupe. Se vérifie par l examen du
diagramme de régression dans chaque groupe ou par
le diagramme des valeurs prédites vs résiduels. - 5- Homogénéité des pentes de régression. Se
vérifie par la non significativité de
l interaction VI par covariable. - 6- Indépendance de la covariable et du
traitement. (Surtout en situation de devis
expérimental).
22Analyse de covariance
- POSTULATS
- 6- Indépendance de la covariable et du
traitement. - En situation quasi-expérimentale, il est légitime
dutiliser la covariable tout de même car cela
réduit l influence de facteurs non désirés.
Cependant, différences entre les groupes sur la
covariable ne doivent pas être dues à une
relation causale avec la VI. - 7- Fidélité de la mesure de la covariable.
23Choix des covariables
- 1) examen des covariables potentielles dans leur
liens avec la VD (régression simple) - 2) examen des covariables potentielles avec la
VI. Sassurer que la covariables ne  mange pas
la VI - 3) Ne garder que celles qui corrèlent avec la VD
ou la VI ou les 2. - 4) Il faut cependant être économe dans le nombre
de covariables. Cela peut amener à du
sur-ajustement.
24Analyse de covariance
25Analyse de covariance
Lorsque les pentes ne sont pas homogènes, il est
préférable de diviser la covariables en groupes
et de faire une Anova factorielle. Idem si la
relation VD covariable n est pas linéaire ou la
corrélation VD covariable est lt.6
26Shéma des postulats
Homogén. des variances et normalité dans chaque
groupe
VI
VD
Homogén. des pentes Se vérifie par linteraction
VIxCovar qui doit être non significative. Vérifi
e que la régression de la covar. sur la VD a la
même pente dans chaque groupe
Normalité et homogen. des variances
homoscédasticité LNH
COVAR
27Analyse de covarianceContrastes et comparaisons
a posteriori
- Les contrastes a priori et les comparaisons a
posteriori doivent se faire sur les moyennes
ajustées. - Dans SPSS utiliser le menu des contrastes ou
alors les comparaisons  main effects dans le
menu option ou les parameter estimates (ces
derniers ne donnent que la comparaison avec le
dernier groupe) Les 2 premiers donnent le p mais
pas de valeur de t ni de F. Le dernier donne une
valeur t. Pas de eta carré.
28Analyse de covarianceContrastes et comparaisons
a posteriori
- Pour obtenir un f et un eta carré
- Dans loutput  contrast results et  pairwise
comparisons , insérez  contrast estimate ou
 difference estimate dans la feuille excel
 calcul de etat carré à partir de SPSS , puis
le  standard error du contraste, puis les
valeurs carré moyen de lerreur anova global,
somme des carrés anova global (corrected) et
somme des carrés de lerreur anova global.
29Type de régression
Covariable VI1 VI2
Covariable VI1 VI2
30Ancova dans SPSS
Sélectionner lanalyse indiquée et mettre les VI,
VD et covariable dans les bonnes fenêtres.
Appuyer sur Model
31Ancova dans SPSS
Si linteraction nest pas significative, Lhomogé
néité des pentes est respectée. Sinon, voir diapo
22. Si postulat rencontré Refaire lanalyse.
Lorsque la boîte model souvre, sélectionner
Custom et entrer la VI et la covariable. Puis,
sélectioner à nouveau la Vi, appuyer sur la
touche  majuscule du clavier, sélectionner la
covariable et mettez le tout dans la boîte de
droite. Cela permettra de tester lhomogénéité
des pentes. Ne sélectionner rien dautre car ceci
est une étape temporaire
32Appuyer sur model. Ressortir les variables Et
cliquer sur Full Factoriel. Appuyer
sur Contraste et sélectionner Selon vos
hypothèses. Appuyer sur Plots et sélectionner la
Vi. Faire Add. Dans options, sélectionner ce
qui est montré ci-contre
33Moyennes
Résultats de lancova
Moyennes ajustées
Toutes les comparaisons
Contrastes
34Provient de lanova global
35Diagramme des prédits vs résiduels et courbe
de La variable indépendante vs dépendante
36Exemple
- Trois médicaments contre langine
- Les patients sont mesurés avant traitement puis
après - Le pré test sert de covariable
- On veut vérifier si après traitement, le
traitement 1 est meilleure que le 2 et si le 2
est meilleur que le 3
37(No Transcript)
38Les postulats sont rencontrés. Le facteur groupe
est significatif (F(2,68),p0000, ) est
significatif et explique 23 (128,55/563,73) de
la variance alors que la covariable en explique
12 (69,616/563,733)
39(No Transcript)
40Conclusion
- Le traitement 1 est meilleure que le traitement 2
(plt0,0002), eta 3,9 alors que le traitement 3
est de loin supérieure au traitement 2(plt0,0000),
eta 22,57. Le traitement 3 est aussi meilleur
que le 1 p0,000 eta carré de 7,97. - Le traitement 3 est celui qui permet un meilleure
résistance à leffort.
41Devoir
- Créer contexte
- Faire hypothèses de recherche
- Énoncer le choix de lanalyse et des comparaisons
reliées aux hypothèses - Vérifier postulat
- Homogénéité des variances
- Existence dune relation linéaire entre la
covariable et la VD - Homogénéité des pentes
- Faire analyse globale, donner F, p et eta carré
- Faire contrastes, donner F,p et eta pour chacun
- interpréter