Analyse statistique comparative

En statistique comparative, on distingue :

  • Deux type de comparaison principales :
    • Les comparaisons de proportions : comparaison d’une variable qualitative en fonction d’une autre.
    • Les comparaisons de moyenne (ou de médiane) : comparaison d’une variable quantitative en fonction d’une variable qualitative.
  • Deux types d’échantillons possible :
    • Les échantillons indépendants, dans le cas où les sujets de chacun des groupes sont différents et non liés entre eux (absence d’appariement entre les groupes par exemple).
    • Les échantillons appariés, dans le cas où les sujets comparés sont les mêmes (comparaison avant/après une intervention par exemple) ou liés entre eux (appariement dans les études cas/témoins).
  • Deux façons principales d’effectuer les analyses :
    • Les analyses univariables, dans lesquels les associations sont mesurées entre deux variables uniquement.
    • Les analyses multivariables, dans lesquels les associations sont mesurées en prenant en compte des variables supplémentaires.

1. Analyse univariable

Dans une analyse univariable, on mesure l’association brute entre deux variables, sans prendre en compte les facteurs de confusion potentiels qui peuvent expliquer tout ou partie de l’association mesurée. Pour prendre en compte ces facteurs de confusion potentiels, on devra réaliser des analyses multivariable afin d’obtenir des associations ajustées.
Par exemple, dans une analyse univariable, la mesure d’association entre le cancer du poumon (outcome) et le fait d’avoir un briquet dans sa poche (exposition) a de forte chance de ressortir significative. Si on ajuste cette mesure d’association en prenant en compte le tabagisme en paquet-année (facteur de confusion), l’association briquet-cancer du poumon aura de forte chance de disparaitre au profit de l’association tabac-cancer du poumon.

1.1. Comparaison d’une variable qualitative en fonction d’une autre

Concernant les comparaison de proportions, les conditions d’application concernent les effectifs théoriques, c’est à dire les effectifs attendus en l’absence d’association des deux variables étudiés.

Imaginons une étude dans laquelle on étudie un traitement T sur un outcome M. Dans notre étude :

  • les patients traités sont dans le groupe T+
  • les patients non traités sont dans le groupe T-
  • les patients toujours malades à l’issue de l’étude sont nommés M+
  • les patients guéris à l’issue de l’étude sont nommés M-

Il est ainsi possible de construire deux tableaux de contingence :

Tableaux de contingence observé (gauche) et théorique (droite)
M+ M- M+ M-
T+ a b T+ (M+) x (T+) / Total (M-) x (T+) / Total
T- c d T- (M+) x (T-) / Total (M-) x (T-) / Total

En fonction des effectifs calculés dans le tableau de contingence théorique, on pourra effectuer :

  • Un test du Chi² (Pearson’s Chi-squared test) , si la totalité des effectifs théoriques sous H0 supérieurs ou égaux à 5.
  • Un test du Chi² avec correction de Yates (Pearson’s Chi-squared test with Yates’ continuity correction) , si au moins un des effectifs théoriques sous H0 est inférieur à 5 mais si totalité des effectifs théoriques sous H0 sont supérieurs ou égaux à 3.
  • Un test exact de Fisher (Fisher’s Exact Test), si au moins un des effectifs théoriques sous H0 est inférieur à 3. Le test de Fisher est également utilisé dans le cas des échantillons appariés.

Dans le cas des comparaisons de variables qualitatives, les tests sont les mêmes qu’il y ait deux groupes ou plus.

1.2. Comparaison d’une variable quantitative en fonction d’une variable qualitative

Les tests utilisés pour les comparaisons de moyennes diffèrent en fonction du nombre de groupes de comparaison et du caractère normal ou non de la distribution de la variables quantitative :

  • Cas avec 2 groupes de comparaison :
    • Si la distribution de la variable quantitative est normale dans les groupes, ou si les effectifs sont supérieurs ou égaux à 30 dans les deux groupes, on utilisera :
      • Le test de Student pour variances égales (Two Sample t-test), dans le cas où la variance est égale dans les deux groupes. Une version pour les échantillons appariés est disponible pour ce test (paired t-test).
      • Le test de Student pour variances inégales (Welch Two Sample t-test), dans le cas où la variance est différente dans les deux groupes. Une version pour les échantillons appariés est disponible pour ce test (paired t-test).
    • Si la distribution de la variable quantitative ne suit pas une loi normale dans au moins un des deux groupes, ou si les effectifs sont faibles (inférieurs à 30 dans au moins un des deux groupes), on utilisera le test non paramétrique de Wilcoxon-Mann-Whitney (Wilcoxon rank sum test). Dans le cas d’échantillons non indépendants, on utilisera

L’égalité de la variance entre les groupes est testée par le test de Fisher d’égalité de deux variances (F test to compare two variances).

  • Cas avec plus de 2 groupes de comparaison :
    • Si la distribution de la variable quantitative est normale dans chacun des groupes, ou si les effectifs sont supérieurs ou égaux à 30 dans chacun des groupes, on utilisera la méthode d’analyse de la variance (Analysis of variance ou ANOVA).
    • Si la distribution de la variable ne suit pas une loi normale dans au moins un des groupes, ou si les effectifs sont faibles (inférieurs à 30 dans au moins un des groupes), on utilisera le test non paramétrique de Kruskal-Wallis (Kruskal-Wallis test).

Dans le cas d’une comparaison d’une variable quantitative entre plus de 2 groupes, une analyse post-hoc peut être réalisée afin de déterminer entre quelle paire de groupes on retrouve une différence significative. L’analyse post-hoc la plus courament utilisée est le test de Tukey (Tukey multiple comparisons of means) qui, après une ANOVA dont les résultats sont significatifs, compare 2 à 2 des moyennes entre les différents groupes. Le test de Tukey prend en compte l’inflation du risque alpha générée par ces comparaisons supplémentaires.

2. Analyse multivariable* (ou analyse ajustée)

Dans une analyse multivariable, on appelle :

  • Variable à expliquer la variable dont on cherche à expliquer la valeur (quantitative ou qualitative). Elle est notée y.
  • Variables explicatives l’ensemble des variables qui permettent d’expliquer la valeur de la variable à expliquer. Dans ces variables explicatives, on retrouve la variable d’intérêt principale MAIS AUSSI les facteurs de confusion. Elles se notent xp.

En fonction de la nature quantitative ou qualitative de la variable à expliquer, on distingue deux types de modèles :

  • Le modèle de régression linéaire, dans le cas où la variable à expliquer est une variable quantitative.
  • Le modèle de régression logistique, dans le cas où la variable à expliquer est une variable qualitative.

Les modèles de régression logistique et linéaires classiques s’appliquent dans le cas d’échantillons indépendants. Dans le cas de mesures répétées, des modèles mixtes avec effets aléatoire peuvent être utilisés.

* Note : par abus de langage, on parle souvent d’analyse multivariée pour évoquer les analyses ajustées. L’analyse multivariée telle qu’elle s’entend en statistique est une analyse dans laquelle on cherche à expliquer plusieurs variables y en même temps.

2.1. Régression linéaire

Dans une régression linéaire, la variable à expliquer est une variable quantitative.
Dans les modèle de régression linéaire, les mesures d’associations sont interprétés au travers des β (beta). Ils correspondent à la quantité dont varie la variable à expliquer en fonction de l’évolution d’une variable quantitative ou du fait de se trouver dans une modalité spécifique par rapport à une modalité de référence pour une variable quantitative. Un β est significatif si son intervalle de confiance à 95% ne comprend pas la valeur 0.
Exemple de tableau de régression linéaire
Douleur (EVA sur 100)
N = 174
β [IC95%] p-value
Age (année) 0,036 [-0,125 ; 0,534] 0,648
Sexe
    Homme (ref.)
    Femme      8,370   [5,284 ; 10 ,384] 0,023
Traitement
    Médicamenteux (ref.)
    Chirurgical – 17,648   [-23,497 ; -12,041] < 0,001

Prenons l’exemple d’une étude où l’on cherche à évaluer l’impact d’un traitement chirurgical par rapport à un traitement médicamenteux sur des douleurs chroniques en ajusté sur l’age et le sexe :

  • Ajusté sur le sexe et le traitement, l’âge n’est pas associé à l’intensité de la douleur chronique (IC95% comprenant 0 ; p-value ≥ 0,05).
  • Ajusté sur l’âge et le traitement, le sexe féminin est associé à une douleur plus importante de 8,37 / 100 par rapport au sexe masculin (β > 0 ; IC95% ne comprenant pas 0 ; p-value < 0,05).
  • Ajusté sur l’âge et le sexe, le traitement chirurgical est associé à une réduction dela douleur de 17,648 / 100 par rapport au traitement médicamenteux (β < 0 ; IC95% ne comprenant pas 0 ; p-value < 0,05).

2.2. Régression logistique

Dans une régression logistique, la variable à expliquer est une variable qualitative.
Dans les modèle de régression logistique, les mesures d’associations sont des OR (odds-ratio). Ils mesurent l’importance de l’association entre une variable explicative et la variable à expliquer et sont significatifs si leur intervalle de confiance à 95% ne comprend pas la valeur 1 :

  • OR > 1 : l’association est positive entre la variable explicative et la variable à expliquer (augmentation du risque)
  • OR < 1 : l’association est négative entre la variable explicative et la variable à expliquer (diminution du risque)
Exemple de tableau de régression logistique
Décès
N = 174
OR[IC95%] p-value
Age (année) 1,789 [1,687 ; 1,896] 0,023
Sexe
Homme (ref.)
Femme 0,948 [0,874 ; 1,024] 0,084
Traitement
Médicamenteux (ref.)
Chirurgical 0,687 [0,528 ; 0,874] < 0,001

Prenons l’exemple d’une étude où l’on cherche à évaluer l’impact d’un traitement chirurgical par rapport à un traitement médicamenteux sur le décès ajusté sur l’age et le sexe :

  • Ajusté sur le sexe et le traitement, l’âge est associé à un sur-risque de décès (OR > 1 ; IC95% ne comprenant pas 1 ; p-value < 0,05).
  • Ajusté sur l’âge et le traitement, le sexe féminin n’est pas associé au décès par rapport au sexe masculin (IC95% comprenant 1 ; p-value ≥ 0,05).
  • Ajusté sur l’âge et le sexe, le traitement chirurgical est associé à un sous-risque de décès par rapport au traitement médical (OR < 1 ; IC95% ne comprenant pas 1 ; p-value < 0,05).

3. Analyse de survie

Les analyses de survie permettent de prendre en compte l’effet du temps sur un outcome qualitatif. En effet, la comparaison de deux proportions à un instant t (ici à 5 ans) ne permet pas toujours de montrer une différence qui existe au travers du temps entre deux groupes.
Les tests utilisés dans les analyses de survie sont différents de ceux utilisés en statistique comparative classique. Les probabilités de survie en fonction du temps sont comparées de manière univariable entre les groupes par le test du Log-Rank. De même, il est possible d’ajuster les analyses, notamment en utilisant un modèle de Cox.

4. Interprétation des tests statistiques

Concernant l’interprétation d’un test statistique, elle se fait au regard de la p-value. Le plus souvent, un seuil à 0,05 (ou 5 %) est utilisé :

  • p-value < 0,05 : on rejette l’hypothèse nulle H0 selon laquelle il n’y a pas de différence entre les groupes et on accepte l’hypothèse alternative H1 selon laquelle il y a une différence entre les groupes. On conclue à une différence statistiquement significative, au risque alpha (prédéterminé) de se tromper.
  • p-value ≥ 0,05 : on ne rejette pas l’hypothèse nulle H0, au risque bêta de se tromper. On NE peut PAS conclure à l’absence de différence entre les groupes. En effet, il est possible que l’on ne dispose tout simplement pas d’assez de puissance (1-β) dans cet échantillon pour rejeter H0.

5. Liens utiles

Ci-après deux sites internet permettant de réaliser des analyses statistiques de base sans installer de logiciel spécifique sur votre ordinateur :