logo

 

 


 

video-ANOVA-inter-1critere

 

 

Anova inter-sujets

  • A 1 critère
  • A 2 critères
  • A 3 critères
  • Exemples
  • Exercices


Plan d'expérience inter-sujets

Un plan d’expérience inter-sujet à 1 critère de classification est une expérience dans laquelle des sujets différents sont placés dans autant d’échantillons indépendants que la variable explicative A n'a de modalités ou conditions (niveaux fixes).

Exemple : 3 groupes de sujets différents soumis à 3 traitements différents

Nous pouvons rencontrer des plans inter-sujets à 2, 3, ... critères de classification : il s’agira toujours d’échantillons indépendants correspondant à toutes les combinaisons des modalités de 2, 3, ... variables explicatives.

Exemple : Avec une 1ère variable explicative : sexe (M/F) et une 2ème variable explicative : état-civil (Célibataire, Marié, Divorcé, Veuf), nous avons un plan inter-sujets (2x4), soit les 8 échantillons indépendants suivants : Hommes-Célibataires, Hommes-Mariés, Hommes-Divorcés, Hommes-Veufs, Femmes-Célibataires, Femmes-Mariées, Femmes-Divorcées, Femmes-veuves.

ANOVA inter-sujet à 1 critère de classification

Objectif de l'ANOVA

L'ANOVA généralise le test t de Student pour 2 échantillons indépendants à plus de 2 échantillons indépendants. Mais au lieu de comparer 2 à 2 les différentes moyennes, ce qui entraînerait une perte de puissance, nous allons décomposer la variance de la variable dépendante étudiée. C'est pourquoi nous parlons d'analyse de la variance ou ANOVA en anglais (ANalysis Of VAriance).

Types de variable du test

Une variable continue à expliquer, appelée variable dépendante et une variable explicative A mesurée sur une échelle nominale (catégorielle) à plus de 2 modalités, appelée variable indépendante ou critère de classification ou facteur (ce dernier terme étant plutôt réservé à l'analyse factorielle).

Modèle sous-jacent à l'ANOVA

xij = μ + αj + eij

Selon ce modèle chaque score observé xij peut être décomposé en 3 valeurs :

    1. μ : moyenne générale de X calculée sans tenir compte du traitement
    2. αj : effet du traitement j de la variable explicative A sous forme d'un écart positif ou négatif par rapport à μ. Par conséquent si le traitement j a un effet, sa moyenne μj ≠ μ d'où αj = μj - μ
    3. eij : valeur de l'erreur aléatoire pour le score observé i sous le traitement j. L'erreur aléatoire est distribuée normalement avec une moyenne nulle et une variance de σ2e

Si H0 est vraie, les moyennes des j échantillons sont égales entre elles et égale à μ, cela signifie qu'il n'y a pas d'effet de traitement αj=0 et le modèle devient :

xij = μ + eij

Or les moyennes ne sont jamais strictement égales, elles fluctuent du fait de l'erreur standard de la distribution d'échantillonnage. La question est donc : Est-ce que la différence entre les moyennes est suffisante pour qu'elle ne soit pas due au hasard. Si oui, H0 sera rejetée et H1 retenue, nous pourrons conclure que les moyennes sont significativement différente et qu'il existe donc un effet de traitement prévu dans le modèle.

Pour prendre cette décision, nous allons utiliser le test statistique F qui permet de comparer des variances.

Conditions d'application de l'ANOVA

  • Homoscédacité : les variances des J sous-populations d'où sont issus les échantillons sont égales : σ2j=1= ... = σ2j=j= ... = σ2j=J = σ2e
  • Normalité : les scores de rétention pour chacune des J modalités se distribuent normalement. Comme eij représente la variabilité du score de chaque individu autour de la moyenne pour la modalité j, cela revient à dire que l'erreur se distribue normalement dans chacune des J sous-populations d'où sont issus les échantillons. Néanmoins, lorsque l’effectif par modalité est égal ou supérieur à 30, nous avons tendance à être moins exigeant quant à la satisfaction de cette condition d’application
  • Indépendance : les échantillons des J modalités sont aléatoires simples et indépendant les uns des autres

Hypothèses testées

H0 : il n'y a pas d'effet de traitement et les moyennes sont égales
H1 bilatérale : il y a un effet de traitement et au moins une des moyennes diffèrent des autres

Décomposition de la variabilité totale

La variabilité totale de la variable dépendante peut être décomposée en :

    1. variabilité entre les échantillons due à la variable explicative (inter-groupe ou between group)
    2. variabilité au sein de chaque échantillon résultant de tous les autres facteurs non contrôlés (intra-groupe ou within group)

S2between peut avoir 3 origines :

    • l'effet du traitement
    • les différences individuelles
    • l'erreur expérimentale

S2within peut avoir 2 origines :

    • les différences individuelles
    • l'erreur expérimentale

Nous pouvons comparer ces 2 composantes de la variance totale à l'aide du test statistique F :

test-anova-inter1fact1

    • Si H0 est vraie, les moyennes sont égales, cela signifie qu'il n'y a pas d'effet de traitement. Dans ce cas, le numérateur et le dénominateur du rapport F mesure la même variance et F aura une valeur proche de
    • Si H0 est fausse, le rapport F sera supérieur à 1. Plus il est grand, plus l'effet de traitement est important

Test ANOVA

Pour calculer ces différentes variances, nous utilisons les Sommes des Carrés ou SC (en anglais Sum of Square ou SS), les degrés de liberté ou ddl (en anglais Degree of Freedom ou DF) et les Carrés Moyens ou CM (en anglais Mean Square ou MS).

anova-inter-1

Données du test

J : nombre de modalités (traitements) de la variable explicative A
N : nombre total de sujets
xij : score observé du ième individu ayant la modalité j
M : moyenne générale de X sur l'ensemble des observations N
nj : nombre de sujets ayant la modalité j
Mj : moyenne de X sur l'ensemble des nj sujets ayant la modalité j

Calcul des Sommes des Carrés (SC)

Si chaque échantillon a un effectif de même taille n, on démontre que :

SCtotal = SCbetween + SCwithin avec :

  • Somme des carrés des écarts entre chaque score observé et la moyenne générale = mesure de la variabilité totale indépendamment du traitement A :

    test-anova-inter1fact2

  • Somme des carrés des écarts entre la moyenne de chaque groupe de la variable A et la moyenne générale = mesure de la variabilité due au traitement A :

    test-anova-inter1fact3

  • Somme des carrés des écarts entre chaque scores observés et sa moyenne intra-groupe = mesure de la variabilité au sein de chaque groupe

    test-anova-inter1fact4

Calcul des Degrés de liberté (ddl)

N = nombre total de sujets
J = nombre de modalités de la variable explicative A

  • ddltotal = N - 1
  • ddlbetween = J - 1
  • ddlwithin = N - J

Calcul des Carrés Moyens (CM)

Ils sont obtenus en divisant la somme des carrés par le nombre de degrés de liberté.

  • test-anova-inter1fact8
  • test-anova-inter1fact6
  • test-anova-inter1fact7

Remarque : Si SCtotal = SCbetween + SCwithin

Il n'en est pas de même pour la variance : S2total ≠ CMbetween+ CMwithin

Calcul de la statistique de test

Sous H0, le rapport entre les carrés moyens between et within se distribue selon une loi F de Fisher-Snedecor :

test-anova-inter1fact9

S’il n’y a pas d’effet de traitement de la variable explicative A, ces deux estimations seront égales.

Dans le cas contraire, F sera supérieur à 1 et le test statistique précisera alors en fonction du niveau de signification α = 5%, jusqu’où un dépassement de 1 est acceptable.

Au-delà de ce dépassement, H0 sera rejetée au profit de H1 qui pose qu'il y a un effet de traitement de la variable explicative A.

Tableau de synthèse de l'ANOVA

Anova inter-sujet à 1 critère de classification
SC
ddl
CM
F
Niveau de Signification
between
SCbetween= SCA
J - 1
CMbetween= CMA
test-anova-inter1fact11
p =
within
SCwithin= SCe
N - J
CMwithin= CMe
-
-
Total
SCtotal
N - 1
-
-
-


Taille de l'effet

La taille de l'effet est un indice important de l’ANOVA. Il s’agit du pourcentage de variation de la variable dépendante (dont on étudie la moyenne) expliqué par la variable explicative A :

test-anova-inter1fact10

Comparaison des moyennes si H1

Lorsque l’ANOVA rejette H0, elle ne fait qu’indiquer que les moyennes ne sont pas toutes égales entre elles mais sans préciser lesquelles sont différentes. Il faut poursuivre l’analyse pour déterminer quelles sont les différences significatives entre les sous-ensembles de moyennes. Pour faire cela, il y existe 2 méthodes : à postériori ou à priori.

Méthode à postériori

Les chercheurs utilisent fréquemment cette méthode qui consiste à ne pas poser d’hypothèse précise sur la manière dont ces trois (ou plus) moyennes se distinguent.

Les comparaisons à posteriori (post-hoc) sont effectuées après l’analyse de l’ANOVA. Elles porteront sur la comparaison de toutes les moyennes deux à deux. Celles-ci sont basées sur la statistique d’écart studentisée et dépendent du nombre de modalités de la variable indépendante (le nombre total de moyennes). Le test à posteriori utilisé pour comparer les moyennes deux à deux et savoir quelles sont les moyennes qui diffèrent les unes des autres sont le test de Tukey.

Méthode à priori

Cette méthode, moins utilisée dans la littérature, a un grand avantage : elle permet au chercheur de tester une prédiction, une hypothèse particulière, sans devoir tester toutes les comparaisons de moyennes.

L'ANOVA à priori permet de comparer une relation particulière entre moyennes.

ANOVA en cas d'échantillons de taille inégale

L'idéal est que les échantillons aient la même taille n, toutefois les conditions de prélèvement font que parfois certains sujets n'ont pas répondu ou sont écartés car pas conformes.

Dans le cas contraire, il est tout de même possible de réaliser l'ANOVA moyennant certaines modifications dans les calculs afin de prendre en compte les différentes tailles n1, ..., nj, ..., nJ des échantillons.

Vidéo

How To Calculate and Understand Analysis of Variance (ANOVA) F Test


ANOVA inter-sujet à 2 critères de classification

Types de variable du test

Une variable continue à expliquer, appelée variable dépendante et 2 variables explicatives catégorielles A et B, appelées variables indépendantes.

Modèle sous-jacent à l'ANOVA

xijk = μ + αj + βk + αβjk + eijk

Selon ce modèle chaque score observé xijk peut être décomposé en 4 valeurs :

    1. μ : moyenne générale de X
    2. αj : effet du traitement j de la variable explicative A
    3. βk : effet du traitement k de la variable explicative B
    4. αβjk : effet de l'interaction des traitement j et k
    5. eijk : valeur de l'erreur aléatoire pour le score observé i sous les traitements j et k. L'erreur aléatoire est distribuée normalement avec une moyenne nulle et une variance de σe2

Si H0 est vraie pour la 1ère hypothèse, la variable explicative A n'a pas d'effet de traitement et le modèle devient : xijk = μ + Bk + ϒjk + eijk

Si H0 est vraie pour la 2ème hypothèse, la variable explicative B n'a pas d'effet de traitement et le modèle devient : xijk = μ + Aj + ϒjk + eijk

Si H0 est vraie pour la 1ère hypothèse, il n'a pas d'effet d'interaction entre les variables explicatives A et B et le modèle devient : xijk = μ + Aj + Bk+ eijk

Pour prendre ces décisions, nous allons utiliser 3 fois le test statistique F qui permet de comparer des variances.

Conditions d'application de l'ANOVA

  • Homoscédacité : les variances des (J*K) cellules sont égales
  • Normalité : la variable dépendante se distribue normalement dans chacune des sous-populations d'où sont issus les échantillons des cellules (j,k).
  • Indépendance : les échantillons des (J*K) cellules sont aléatoires simples et indépendant les uns des autres

Hypothèses testées

Il faut tester 3 hypothèses différentes :

    1. H0 : il n'y a pas d'effet principal de la variable explicative A
      H1 bilatérale : il y a un effet principal de la variable explicative A
    2. H0 : il n'y a pas d'effet principal de la variable explicative B
      H1 bilatérale : il y a un effet principal de la variable explicative B
    3. H0 : il n'y a pas d'interaction entre les variables explicatives A et B
      H1 bilatérale : il y a une interaction entre les variables explicatives A et B

Test ANOVA

Pour calculer ces différentes variances, nous utilisons les Sommes des Carrés ou SC (en anglais Sum of Square ou SS), les degrés de liberté ou ddl (en anglais Degree of Freedom ou DF) et les Carrés Moyens ou CM (en anglais Mean Square ou MS).

anova-inter-2

Données du test

xijk : ième individu ayant la modalité j de la variable A et la modalité k de la variable B, c-à-d dans la cellule (j,k)
M : moyenne générale de X sur l'ensemble des observations
Mjk : moyenne de X dans la cellule (j,k)
Mj. : moyenne de X sur l'ensemble des cellules ayant la modalité j de la variable A
M.k : moyenne de X sur l'ensemble des cellules ayant la modalité k de la variable B
njk : nombre de sujets dans la cellule (j,k)
n j. : nombre de sujets de l'ensemble des cellules ayant la modalité j de la variable A
n .k : nombre de sujets de l'ensemble des cellules ayant la modalité k de la variable B
N : nombre total de sujets
J : nombre de modalités de la variable A
K : nombre de modalités de la variable B

Calcul des Sommes des Carrés (SC)

Si chaque échantillon a un effectif de même taille n, on démontre que :

SCtotal = SCA + SCB + SCA*B + SCwithin avec :

  • Somme des carrés des écarts entre chaque score observé et la moyenne générale = mesure de la variabilité totale indépendamment des traitements A et B :

test-anova-inter2fact1

  • Somme des carrés des écarts entre la moyenne de chaque groupe de la variable A et la moyenne générale = mesure de la variabilité due au traitement A :

test-anova-inter2fact3

  • Somme des carrés des écarts entre la moyenne de chaque groupe de la variable B et la moyenne générale = mesure de la variabilité due au traitement B :

test-anova-inter2fact4

  • Somme des carrés des écarts entre la moyenne de chaque groupe résultant de la combinaison des modalités des variables A et B et 3 moyennes, celle de chaque groupe de la variable A, celle de chaque groupede la variable B et celle de l'ensemble des scores observés = mesure de la variabilité de l'interaction entre les variables A et B

test-anova-inter2fact5

  • Somme des carrés des écarts entre chaque scores observés et sa moyenne intra-groupe résultant de la combinaison des modalités des variables A et B = mesure de la variabilité au sein de chaque groupe résultant de la combinaison des modalités des variables A et B

test-anova-inter2fact2

Calcul des Degrés de liberté (ddl)

N = nombre total de sujets
J = nombre de modalités de la variable explicative A
K = nombre de modalités de la variable explicative B

  • ddltotal = N - 1
  • ddlA = J - 1
  • ddlB = K - 1
  • ddlA*B = (J - 1)(K - 1)
  • ddlwithin = N - (JK)

Calcul des Carrés Moyens (CM)

Ils sont obtenus en divisant la somme des carrés par le nombre de degrés de liberté.

  • test-anova-inter2fact6
  • test-anova-inter2fact7
  • test-anova-inter2fact8
  • test-anova-inter2fact9
  • test-anova-inter2fact10

Remarque : Si SCtotal = SCA + SCB + SCA*B + SCwithin

Il n'en est pas de même pour la variance : S2total ≠ CMA + CMB + CMA*B + CMwithin

Calcul de la statistique de test

Sous H0, les 3 ratios des carrés moyens A, B et A*B avec le carré moyen within se distribuent selon une loi F de Fisher-Snedecor :

test-anova-inter2fact11

test-anova-inter2fact12

test-anova-inter2fact13

S’il n’y a pas d’effet de traitement A ou B ou d'interaction A*B, F est égal à 1.

Dans le cas contraire, F sera supérieur à 1 et le test statistique précisera alors en fonction du niveau de signification α = 5%, jusqu’où un dépassement de 1 est acceptable.

Au-delà de celui-ci, H0 sera rejetée au profit de H1 qui pose qu'il y a un effet de traitement A et/ou B et/ou une interaction.

Tableau de synthèse de l'ANOVA

Anova inter-sujet à 2 critères de classification
SC
ddl
CM
F
Niveau de Signification
A
SCA
J-1
CMA
test-anova-inter2fact15
p =
B
SCB
K-1
CMB
test-anova-inter2fact16
p =
A*B
SCA*B
(J-1)(K-1)
CMA*B
test-anova-inter2fact14
p =
Erreur
SCe
N-(J*K)
CMe
-
-
Total
SCtotal
N-1
-
-
-


Taille des effets

La taille de l'effet est un indice important de l’ANOVA. Il s’agit du pourcentage de variabilité de la variable dépendante (dont on étudie la moyenne) expliqué par la variable explicative A, B et leur interaction A*B :

test-anova-inter2fact18

test-anova-inter2fact17

test-anova-inter2fact19

Comparaison des moyennes en cas de différence significative

Lorsque l’ANOVA rejette une des 3 hypothèses H0, elle ne fait qu’indiquer que les moyennes ne sont pas toutes égales entre elles mais sans préciser lesquelles sont différentes. Il faut poursuivre l’étude pour isoler les différences entre des sous-ensembles de moyennes. Il y a 2 méthodes possibles à postériori ou à priori.

Méthode à postériori

Les chercheurs utilisent fréquemment cette méthode qui consiste à ne pas poser d’hypothèse précise sur la manière dont ces trois (ou plus) moyennes se distinguent.

Les comparaisons à posteriori (post-hoc) sont effectuées après l’analyse de l’ANOVA. Elles porteront sur la comparaison de toutes les moyennes deux à deux. Celles-ci sont basées sur la statistique d’écart studentisée et dépendent du nombre de modalités de la variable indépendante (le nombre total de moyennes). Le test à posteriori utilisé pour comparer les moyennes deux à deux et savoir quelles sont les moyennes qui diffèrent les unes des autres sont le test de Tukey.

Méthode à priori

Cette méthode, moins utilisée dans la littérature, a un grand avantage : elle permet au chercheur de tester une prédiction, une hypothèse particulière, sans devoir tester toutes les comparaisons de moyennes.

L'ANOVA à priori permet de comparer une relation particulière entre moyennes.


ANOVA inter-sujet à 3 critères de classification

Types de variable du test

Une variable continue à expliquer, appelée variable dépendante et 3 variables explicatives catégorielles A, B et C, appelées variables indépendantes.

Modèle sous-jacent à l'ANOVA

xijkl = μ + αj + βk + γl + αβjk + αγjl + βγkl + αβγjkl + eijkl

Tableau de synthèse de l'ANOVA

Anova inter-sujet à 3 critères de classification
SC
ddl
CM
F
Niveau de Signification
A
SCA
J-1
CMA
test-anova-inter3fact1
p =
B
SCB
K-1
CMB
test-anova-inter3fact2
p =
C
SCC
L-1
CMC
test-anova-inter3fact3
p =
A*B
SCA*B
(J-1)(K-1)
CMA*B
test-anova-inter3fact4
p =
A*C
SCA*C
(J-1)(L-1)
CMA*C
test-anova-inter3fact5
p =
B*C
SCB*C
(K-1)(L-1)
CMB*C
test-anova-inter3fact6
p =
A*B*C
SCA*B*C
(J-1)(K-1)(L-1)
CMA*B*C
test-anova-inter3fact7
p =
Erreur
SCe
N-(J*K*L)
CMe
-
-
Total
SCtotal
N-1
-
-
-

Contenu 4


Ex 1 : Enoncé1
Solution1

Ex 2 : Ennoncé2
Solution2

Ex 3 : Ennoncé3
Solution3

Ex 4 : Ennoncé4
Solution4

Ex 5 : Ennoncé5
Solution5

Ex 6 : Ennoncé6
Solution6

Ex 7 : Ennoncé7
Solution7

Ex 8 : Ennoncé8
Solution8

Ex 9 : Ennoncé9
Solution9

Ex 10 : Ennoncé10
Solution10