ANOVA à un facteur : quand les hypothèses ne sont pas satisfaites

anova avec R

Cet article est le troisième volet dédié à l’analyse de variance à un facteur. Après l’article sur la théorie de l’ANOVA à un facteur, et celui sur la réalisation de cette méthode avec le logiciel R, cet article est dédié aux solutions envisageables lorsque les hypothèses de validité de l’ANOVA à un facteur ne sont pas vérifiées.

Pour rappel, l’ANOVA à un facteur est une méthode statistique extrêmement répandue, qui est employée pour comparer plus de deux moyennes.

1. Les conditions de validité de l’ANOVA à un facteur

Comme expliqué dans le point 7) du premier article, pour que les résultats de l’ANOVA à
un facteur soient valides, trois hypothèses doivent être vérifiées :

  • les réponses observées, pour une modalité donnée du facteur étudié, doivent être indépendantes les unes des autres, et indépendantes des réponses des autres modalités.
  • les résidus doivent être distribués selon une loi Normale, de moyenne 0.
  • les résidus doivent être distribués de façon homogène. Autrement dit, les variances des résidus relatives aux différentes modalités de la variable explicative (ou indépendante) ne doivent pas être trop différentes.

Ces hypothèses sont parfois assemblées sous l’acronyme “iid”, qui veut dire “indépendamment et identiquement distribués”.

2. Que faire lorsque les données ne sont pas indépendantes ?

Deux types de non-indépendance peuvent être rencontrés. Le premier est une non-indépendance des données à l’intérieur d’une modalité du facteur étudié. Par exemple, dans un essai clinique visant à évaluer l’efficacité de trois molécules sur la réduction du cholestérol, on pourrait avoir 10 mesures pour chaque molécule. Si les mesures pour une molécule donnée sont faites sur le même individu, à différents temps par exemple, alors les données ne sont pas indépendantes.

Molécule 1 Molécule 2 Molécule 3
individu 1 individu 2 individu 3
individu 1 individu 2 individu 3
individu 1 individu2 individu 3
individu 1 individu 2 individu 3

Exemple de non-indépendance des données pour cause d’observations réalisées sur un même individu.

Ce genre de non-indépendance peut être mis en évidence par le test de Durbin Watson.

Un deuxième cas de figure, sans doute le plus classique, est celui de la non-indépendance des données entre les modalités. On pourrait rencontrer cette situation si les mesures sont réalisées sur 10 sujets différents, mais que chaque sujet reçoit les trois traitements. On peut résumer ce cas de figure, dans le tableau suivant :

Molécule 1 Molécule 2 Molécule 3
individu 1 individu 1 individu 1
individu 2 individu 2 individu 2
individu 3 individu 3 individu 3
individu n individu n individu n

 

 

De façon générale, la non indépendance des données se juge principalement en prenant connaissance du protocole expérimental.

En cas de non-indépendance, l’ANOVA à un facteur n’est pas adaptée pour comparer les moyennes de k groupes. Dans cette situation, d’autres méthodes, comme des modèles mixtes doivent être employées.

Pour une bonne initiation aux modèles mixtes je vous recommande le Rbook (chpt 19). Si vous travaillez dans le domaine environnemental, le livre de référence est Mixed Effects Models and Extensions in Ecology with R, d’Alain F. Zuur et Elena N. Ieno.

Un autre de livre de référence pour les modèles mixtes et le livre Mixed-Effects Models in S and
S-Plus de Bates et Pinheiro, mais il est assez technique.

 

3. Que faire lorsque les hypothèses de normalité et d’homogénéité des résidus ne sont pas satisfaites ?

L’évaluation de ces hypothèses est décrite dans cet article. Elles sont souvent considérées ensemble car le rejet de l’une ou de l’autre de ces hypothèses conduit, généralement, à appliquer une alternative identique.

Ainsi, si l’hypothèse de normalité et/ou l’hypothèse d’homogénéité des résidus est rejetée, deux solutions simples peuvent être appliquées. La première est l’utilisation d’une ANOVA non paramétrique, aussi appelée test de Kruskall-Wallis. Les comparaisons multiples (toutes les moyennes deux à deux, ou toutes les moyennes vs la moyenne du groupe contrôle) sont alors réalisées avec des tests de Wilcoxon (qui sont des test non paramétriques), et un ajustement des p-values.

L’autre solution envisageable est une ANOVA par un test de permutation. Les comparaisons multiples étant réalisées comme précédemment, à l’aide de tests de Wilcoxon.

Une transformation log de la réponse, ou encore une transformation de type Box-Cox, sont parfois utilisées. Néanmoins, celles-ci conduisent à ne plus travailler sur les données brutes. Dans la mesure où il existe des solutions permettant de conserver les mesures observées, comme l’ANOVA non paramétrique, ou l’ANOVA basée sur les permutations, il me semble préférable de privilégier ces dernières.

Lorsque seule l’hypothèse d’homogénéité est rejetée, il est encore possible d’utiliser une structure de variance, ou encore d’utiliser des estimateurs de type “sandwich”. De mon point de vue, dans le contexte de l’ANOVA à un facteur, ces approches sont inutiles.

Au final, si l’une ou l’autre des hypothèses n’est pas satisfaite, ou même les deux, je vous recommande d’utiliser une ANOVA non paramétrique, ou une ANOVA basée sur un test de permutation (rien n’empêche de faire les deux pour s’assurer que les conclusions sont identiques). Si, ensuite, vous avez besoin de réaliser des comparaisons multiples, utilisez des tests de Wilcoxon.

Je vous montre comment réaliser ces différentes approches avec le logiciel R dans le paragraphe suivant.

4. Réalisation d’une ANOVA non paramétrique (test de Kruskal Wallis)

 

4.1 Visualisation des données

 

 

anova

NB : les losanges noirs représentent les moyennes

Les boxplots de certains groupes étant plus étendus que d’autres, cela laisse penser que les résidus ne seront probablement pas homogènes. De plus, la présence d’outliers dans les groupes cyclin.d.1, cyclin.d.2 et maf, laisse également envisager un défaut de normalité des résidus.

4.2 Réalisation de l’ANOVA paramétrique

 

4.3 Evaluation des hypothèses

4.3.1 Evaluation de l’indépendance

 

La pvalue étant supérieure à 0.05, on ne rejette pas l’hypothèse de l’indépendance des résidus.

 

4.3.2 Evaluation de l’hypothèse de normalité des résidus

anova avec R

 

 

Le QQplot met en évidence un défaut de normalité, tout comme le test de Shapiro Wilk qui rejette l’hypothèse de normalité (la pvalue est < 0.05).

 

4.3.3 Evaluation de l’hypothèse d’homogénéité des résidus

 

anova avec R

 

 

Le plot des résidus standardisés, en fonctions des valeurs prédites par le modèle ANOVA ( cad les moyennes de chaque groupe), montre que les dispersions des résidus sont relativement différentes. L’hypothèse de l’homogénéité des résidus est rejetée par le test de Bartlett, puisque la pvalue est inférieure à 0.05.

 4.4 Réalisation de l’ANOVA non paramétrique (test de Kruskal- Wallis)

Dans cette situation de rejet des hypothèses de normalité et d’homogénéité des résidus, il est possible de comparer les moyennes à l’aide d’une ANOVA non paramétrique, ou test de Kruskal-Wallis

 

La pvalue du test étant inférieure à 0.05, l’hypothèse de l’égalité des moyennes est rejetée. On conclut donc que les moyennes des sept groupes sont globalement différentes. Afin d’évaluer quelles sont les moyennes qui diffèrent entre elles, il est nécessaire de réaliser des comparaisons multiples. Lorsque les hypothèses de normalité et d’homogénéité des résidus sont rejetées, ces comparaisons multiples sont réalisées à l ‘aide de tests de Wilcoxon, qui sont également des tests non-paramétriques. Il existe généralement deux types de comparaisons multiples :

  • celles qui consistent à comparer toutes les moyennes deux à deux, il
    s’agit d’une procédure de Tukey.
  • celles qui consistent à comparer la moyenne de chacun des groupes à
    une même moyenne, celle du groupe contrôle.Il s’agit ici de la
    procédure de Dunnett.

4.4.1 Toutes les comparaisons deux à deux (test de Tukey)

Les comparaisons multiples sont réalisées par des tests de wilcoxon, en employant la fonction <strong>pairwise.wilcox.test</strong>.

 

A partir de ces tests multiples, il est possible d’obtenir facilement la figure suivante. Le code est disponible dans cet article.

anova à un facteur

Les lettres permettent d’indiquer la significativité des différences des moyennes. La convention étant que si deux moyennes partagent une même lettre alors elles ne sont pas significativement différentes, et au contraire, si deux moyennes ne partagent pas une même lettre alors elles sont significativement différentes.

4.4.2 Toutes les comparaisons au témoin (test de Dunnett)

La méthode la plus simple consiste à :

  1. Réaliser toutes les comparaisons deux à deux, sans ajustement
  2. sélectionner les pvalues correspondant à toutes les comparaisons
    avec le groupe contrôle
  3. ajuster ces p-values

Pour illustrer cela, nous allons considérer que le groupe témoin est le groupe “proliferation”

 

 

 

4.5 ANOVA par tests de permutation

Lorsque les hypothèses de normalité et/ou d’homogénéité sont rejetées, une autre solution envisageable est le recours à un test de permutation. Pour plus d’informations sur les tests de permutations, vous pouvez consulter cet article.

 

Là encore, l’ANOVA par permutation met en évidence au moins une différence significative entre les moyennes des différents groupes.

Les comparaisons multiples peuvent se conduire comme expliqué précédemment dans les paragraphes 4.4.1 et 4.4.2.

 

 

J’espère qu’avec cette série d’articles sur l’ANOVA à un facteur, cette approche statistique n’aura plus de secret pour vous et que sa réalisation avec R ne vous posera plus de problèmes.

Et si cet article vous a été utile, partagez-le ;-).

 

Crédit Photo : geralt

 

Retrouvez ici d’autres article en lien avec celui que vous venez de consulter:

Partager l'article
  •  
  •  
  •  
  •  
  •  
    1
    Partage
  • 1
  •  
  •  
  •  
  •  

2 commentaires

  1. jattiot Répondre

    Bonjour,

    merci pour cet article fort utile, car cette situation est souvent rencontrée, sans vraiment avoir d’outils pour y remédier!
    J’ai toutefois une question : ces tests/ méthodes s’appliquent-elles dans le cas d’une anova à > 1 facteurs ? Si oui, qu’en est-il du calcul des moyennes corrigées ?

    Merci!

    • Claire Della Vedova Auteur de l’articleRépondre

      Bonjour,
      merci pour votre commentaire. A ma connaissance, il n’existe pas de méthode non paramétrique alternative à l’ANOVA à deux facteurs. Je pense qu’il doit être possible d’utiliser un test de permutation mais il faut peut être recoder les variables. Sinon, il reste l’utilisation d’une transformation log ou de type box cox…
      Je vais essayer de regarder cela de plus prés et d’écrire un article sur l’ANOVA à deux facteurs dans les prochaines semaines.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *