logo

 

 


 

Décision suite à un test d'hypothèse

  • Intrduction
  • Tests de comparaison
  • Tests de liaison
  • Risques et conclusion des tests


Dans une étude statistique, après avoir défini sa question de recherche, fait une revue de la littérature, construit son modèle théorique de recherche, collecté, décrit et analysé ses données, un chercheur doit pouvoir tirer des conclusions. Pour cela, il va s'aider de tests statistiques.

Un test statistique fait donc l'objet d'une réflexion scientifique qui vise à poser des hypothèses sur base de faits observés antérieurement. Ces hypothèses seront alors testées et selon les résultats des tests, elles seront soit rejetées, soit acceptées. Ensuite de nouvelles hypothèses pourront être posées et à nouveau testées. Nous pouvons schématiser la recherche empirique comme suit :

modele-recherche-empirique

Nous pouvons décrire les observations recueillies concernant une variable sous forme de :

    1. Paramètres réduisant la distribution : moyenne, pourcentage, variance. Dans ce cas, nous utiliserons des tests paramétriques qui comparent ces paramètres entre eux
    2. Distributions de fréquences des effectifs au moyen de tableaux ou graphiques. Nous utiliserons alors des tests semi- ou non-paramétriques : le test χ2 et les tests de rang qui comparent ces distributions entre elles

Il y a 2 manières d'utiliser les tests statistiques :

    1. Les tests de comparaison entre des séries de données (échantillons)
    2. Les tests de liaison entre 2 variables


Les tests de comparaison sont utilisés, comme leur nom l'indique, pour comparer des séries de données entre elles. Ainsi nous pouvons vouloir comparer :

    • Un échantillon à une population de référence
    • Deux ou plusieurs échantillons entre eux

Le principe d'un test de comparaison est de regarder si la différence que l'on observe est due au hasard, nous dirons dans ce cas que cette différence est non significative ou si au contraire elle est telle qu'il est fort peu probable de l'observer par hasard, nous dirons alors qu'elle est significative.

Etablissement des hypothèses

Nous posons d'abord l'hypothèse nulle H0 qui consiste à dire que les paramètres ou les distributions des populations d'où sont issus les échantillons sont identiques et que la différence observée ne provient que des fluctuations d'échantillonnage.

Nous posons ensuite une hypothèse alternative H1 qui sera retenue au cas où les résultats du test aboutiraient à rejeter l'hypothèse nulle H0. Nous supposerons dans ce cas que les paramètres ou les distributions des populations sont différents.

Il y a 2 types d'hypothèse alternative H1 :

    1. H1 bilatérale : lorsqu'on ne cherche pas à connaître le sens de la différence
    2. H1 unilatérale : lorsqu'on cherche à savoir le sens de la différence, soit si le paramètre 1 > paramètre 2 ou soit, si le paramètre 1 < paramètre 2

Calcul et conclusion du test de comparaison

Ensuite nous calculons la statistique du test choisi exprimant la différence entre les paramètres ou les distributions des populations et comparons cette statistique observée à la valeur critique théorique de la loi de probabilité correspondante au test en question.

Dans le cas d'un test bilatéral, il existe 2 cas de figure comme le montre la figure ci-dessous :

      1. Pour la valeur observée 2 de la statistique de test nous ne rejeterons pas l'hypothèse nulle H0 (NRH0) car elle est située dans l'intervalle [valeur critique 1 ; valeur critique 2] des valeurs assez probables dues aux fluctuations d'échantillonnage et nous conclurons que la différence observée n'est pas significative
      2. Pour les valeurs observées 1 et 3 de la statistique de test nous rejeterons l'hypothèse nulle H0 (RH0) car elles sont situées en dehors de l'intervalle [valeur critique 1 ; valeur critique 2] des valeurs assez probables et nous conclurons que la différence observée est significative

decision-test-bilateral

Dans le cas d'un test unilatéral, il existe également 2 cas de figure comme le montre la figure ci-dessous mais seulement 2 possibilités concernant les valeurs observées de la statistique de test :

      1. Pour la valeur observée 1 de la statistique de test nous ne rejeterons pas l'hypothèse nulle H0 (NRH0) car elle est située en-deça de la valeur critique parmi les valeurs assez probables et nous conclurons que la différence observée n'est pas significative
      2. Pour la valeur observée 2 de la statistique de test nous rejeterons l'hypothèse nulle H0 (RH0) car elle est située au-delà de la valeur critique parmi les valeurs peu probables et nous conclurons que la différence observée est significative

decision-test-unilateral

Principaux tests de comparaison


Les tests de liaison sont utilisés, comme leur nom l'indique, pour déterminer s'il existe une liaison entre deux ou plusieurs variables. Tester l'existence entre 2 variables X et Y, c'est vérifier qu'il existe une relation d'ordre statistique entre ces variables. 2 variables sont liées lorsque la variation de l'une entraîne une variation de l'autre.

Etablissement des hypothèses

Nous posons d'abord l'hypothèse nulle H0 qui consiste à dire qu'il n'existe pas de liaison entre les variables étudiées. Elle suppose donc qu'il y a indépendance entre ces 2 variables.

Nous posons ensuite une hypothèse alternative H1 qui sera retenue au cas où les résultats du test aboutiraient à rejeter l'hypothèse nulle H0. Celle-ci affirme qu'il existe une relation statistique entre les 2 variables, donc qu'il y a une liaison entre elles. Attention, cette liaison n'est qu'une relation statistique, elle n'est pas la preuve d'une relation de causalité.

Principaux tests de liaison


Choix du risque d'erreur

Une notion fondamentale concernant les tests est la probabilité que l'on a de se tromper.

Dans l'idéal on souhaiterait avoir un test qui renvoie toujours le "bon" résultat. Par exemple, un test qui choisisse toujours l'hypothèse nulle lorsque celle ci est vérifiée et qui rejette tout le temps l'hypothèse nulle lorsque celle ci est fausse.

Pourtant, il y a deux façons de « se tromper » lors d'un test statistique :

Tests-risque-alpha-et-beta

Risque α ou risque de 1ère espèce

C'est le risque de conclure à une différence qui n'existe pas. Ce sont les faux positifs : Cela consiste à affirmer, sur la base de la probabilité extrêmement faible observée, qu’un événement ne s’est pas produit au hasard, alors que de fait, un événement extrêmement rare, mais possible, vient de se produire.

α = probabilité de rejeter H0 si H0 est vraie

Lorsqu'on réalise un test statistique nous fixons à priori α, seuil de risque consenti ou niveau de signification , en général α = 5%.

Nous appellons l'intervalle de confiance d'un test, la valeur 1 - α

Il représente : 1 - α = 1 - 5% = 95% des valeurs

Risque β ou risque de 2ème espèce

C'est le risque de ne pas conclure à une différence qui existe pourtant. Ce sont les faux négatifs : Cela consiste à affirmer, sur la base de la probabilité obtenue, qu’un événement a toutes les chances de s’être produit au hasard, alors que de fait, cet événement est le résultat d’un effet expérimental non négligeable.

β = probabilité de ne pas rejeter H0 si H1 est vraie

Nous appellons la puissance d'un test, la valeur 1 - β

Elle est liée notamment à la taille des échantillons, plus la taille augmente et plus la puissance augmente et le risque β diminue.

Lien entre les 2 types d'erreur

Dans l'idéal on aimerait bien que ces deux erreurs soient nulles, mais c'est impossible, en tout cas lorsque l'on ne dispose que d'un nombre fini d'observations. Il faut alors faire un choix sachant qu'une diminution du risque α augmente le risque β pour un échantillon donné.

Idéalement donc, α et β doivent être déterminés par l'expérimentateur avant la recherche, ce qui détermine alors la taille de l'échantillon (n).

Pratiquement, on se donne une limite supérieure du risque de 1ère espèce, le plus souvent α = 0,05 (significatif), 0,01 (très significatif) ou 0,001 (hautement significatif). Cette limite constitue aussi le niveau de signification du test et permet de définir la condition de rejet de l'hypothèse nulle.

Le risque de première espèce étant donné, on peut calculer le risque de 2ème espèce, grâce à la notion de puissance de test 1 - β. Mais ce problème possède rarement une solution simple et l'on perd souvent de vue l'existence même de ce risque.

La puissance d'un test dépend de :

  • la nature du test choisi. En particulier, la nature de l'hypothèse alternative H1. Un test unilatéral est plus puissant qu'un test bilatéral
  • du niveau de signification du test
  • de la taille de l'échantillon
  • et de la vraie valeur du paramètre ou mesure testée.

Aussi, on se contente souvent de préciser l'importance du risque de 1ère espèce, sans se soucier de l'existence d'une seconde possibilité d'erreur.

 
H0 vraie
H1 (H0 fausse)
NRH0 1 - α aussi élevé que possible β aussi faible que possible
RH0 α aussi faible que possible 1 - β aussi élevé que possible

Interprétation finale d'un test

Si NRH0, cela signifie que rien ne permet d'affirmer que les paramètres ou les distributions comparés sont différents mais nous ne pouvons pas affirmer pour autant que H0 est vraie.

Si RH0, cela signifie que nous acceptons H1 et pouvons affirmer :

  • dans le cas d'un test bilatéral que les paramètres ou les distributions comparés sont différents
  • dans le cas d'un test unilatéral que l'un des paramètres comparés est inférieur ou supérieur à l'autre

Le plus souvent, les logiciels de statistique donnent le niveau de signification réel de la statistique observée du test, appelée aussi p valeur. On rejette alors l'hypothèse nulle au niveau de signification nominal choisi (par exemple : α = 0,05) si et seulement si p ≤ α (par exemple : p = 0,003 < 0,05 : RH0).

Le résultat final du test doit être présenté aux normes APA :

Statistique du test (z, t ou F) = ...; p = ... > (ou ≤) .05 ce qui entraîne le rejet (ou le non rejet) de H0