logo

 

 


 

Etude et données statistiques

  • Introduction


Toute méthode scientifique passe par la formulation d’hypothèses à partir de faits observés, puis par des cycles successifs de déduction et de vérification. Les faits sont des observations (données) qui sont considérées comme vraies, alors qu’une hypothèse est une conjecture provisoire concernant le phénomène à l’examen. Des déductions sont faites à partir des hypothèses, au moyen d’arguments logiques qui sont eux-mêmes vérifiés par des méthodes objectives. Le processus de vérification peut déboucher sur de nouvelles hypothèses, déductions et vérifications s’enchaînant dans un long processus au cours duquel émergent des théories, des principes et des lois scientifiques.

Une recherche ou étude statistique se doit d'être :

  • reproductible (validité interne): elle devrait dans les mêmes conditions reproduire les mêmes résultats. Ceci implique un plan de recherche et une méthodologie précise
  • généralisable (validité externe): elle est intéressante si elle permet d'extrapoler les résultats et conclusions à l'ensemble du domaine qui fait l'objet de l'investigation. Il faut donc préciser les limites de la généralisation
  • cumulative : elle doit s'appuyer sur l'ensemble des travaux antérieurs connus que ce soit pour les confirmer, les tester, combler les lacunes ou réconcilier des thèses apparemment contradictoires

Alors que ces conditions sont rigoureusement vérifiées dans le cas de nombreux processus physiques, les phénomènes biologiques sont caractérisés par la variation et l’incertitude. Des expériences répétées dans des conditions similaires ne donnent pas nécessairement les mêmes résultats, car elles sont soumises à des fluctuations dues au hasard. En outre, il est souvent impossible d’observer l’ensemble complet des individus qui forment la population et, dans de telles situations, les déductions doivent être faites sur la base d’un ensemble d’échantillons d’observations. La science des statistiques est utile pour choisir objectivement un échantillon, faire des généralisations valables à partir des observations faites sur l’ensemble d’échantillons, mais aussi pour mesurer le degré d’incertitude, ou la fiabilité, des conclusions tirées.

La collecte des données et leur interprétation sont deux aspects pratiques majeurs des investigations scientifiques. Les données peuvent être obtenues dans le cadre d’une enquête par sondage sur une population existant dans la nature, ou dans le cadre d’un plan d’expérience portant sur une population fictive. Enfin une expérimentation relative à l’état d’un système, faite à l’aide d’un modèle temporel, est appelée simulation.

Les données collectées seront ensuite résumées à l'aide de la statistique descriptive et des informations utiles en sont extraites à l’aide de techniques d’inférence statistique.

Dans tous les cas, afin de permettre leur reproductibilité, une recherche ou étude statistique doit fournir des informations précises sur les données utilisées; exemple : Enquête sur le bétail par Statistique Canada). L'origine et la qualité des données et, partant, la qualité des résultats statistiques obtenus, doivent être vérifiables.

Le processus de toute étude ou recherche scientifique sera le suivant :

  • Définition du problème étudié ou de la question de recherche
  • Revue de la littérature
  • Elaboration du plan d'étude ou de recherche
    • Méthode utilisée (enquête, expérimentation, simulation, ...)
    • Définition de la population et de l'échantillonnage
    • Sources, méthodes de recueil et processus de mesure des données
    • Méthodes d'analyse
  • Collecte et préparation des données brutes
  • Analyse des données
  • Interprétations des résultats
  • Recommandations (sources d'invalidité des résultats : fiabilité, validité, sensiblité)
  • Communication ou publication des résultats