Le test de Wilcoxon

175px-FrankWilcoxon

\bullet Présentation:

Publié en 1945 par Frank Wilcoxon, le test de Wilcoxon (ou encore test de la somme des rangs ou des rangs signés) est une approche non paramétrique permettant de:

– tester la liaison entre une variable continue ou ordinale X, transformées au préalable en « vecteur de rangs » (dans le cas continue), et une variable binaire Y. L’idée est de comparer les rangs de X|_{g1} par rapport à ceux de X|_{g2}, les sous-échantillons de X restreint aux groupes 1 et 2 de Y, et voir si les rangs de l’un sont regroupés par rapport à ceux de l’autre groupe. Ce test porte parfois le nom de test de la somme des rangs de Wilcoxon.

– tester la liaison entre deux variables continues ou ordinales appariées X ^1, X ^2, transformées au préalable en « vecteur de rangs » (dans le cas continue). Ce test porte parfois le nom de test des rangs signés de Wilcoxon. Il s’agit d’une alternative plus puissante au test du signe.

Le test de Wilcoxon est souvent vu comme l’alternative au test de Student lorsque l’échantillon ne respecte les hypothèses d’utilisation de ce dernier. La version pour données non appariées est également équivalente à celle du test Mann-Whitney (néanmoins la formule diffère) du fait de la relation linéaire existante entre eux.

\bullet Les différentes versions du test: 

Cas pour données non appariées

Hypothèse préliminaire: X continue ou ordinale, Y binaire.

Soit R le vecteur des rangs associé à la variable X, ordonnée par ordre croissant (en supposant le cas continue, dans le cas ordinale R = X). Nous avons donc R|_{g1} et R|_{g1} les rangs de X restreint aux deux groupes de Y.

Définissons les deux quantités: E_W = \frac{n_1 \cdot (n + 1)}{2} et V_W = \frac{n_1 \cdot n_2 \cdot (n + 1 )}{12}.

La statistique du test de la somme des rangs de Wilcoxon est alors:

W = \frac{\sum_{l = 1} ^{n_1} (R|_{g1})_l - E_W}{\sqrt{V_W}}

La statistique du test de la somme des rangs de Wilcoxon suit une loi normale centrée-réduite et l’hypothèse H_0 est: « Les deux groupes sont semblables / P(X|_{g1} < X|_{g2}) = \frac{1}{2}« .

Ci-dessous la table de la loi normale:

add

L’Approximation de Wilcoxon :

Si nous comptons un nombre important d’ex-aequos au sein des rangs de X, alors il convient de procéder à une optimisation V_W * du calcul de V_W:

V_W * = \frac{n_1 \cdot n_2}{12} \cdot (n + 1 - \frac{\sum_{k = 1} ^{ge} \sharp \lbrace groupe_{ge} \rbrace \cdot ((\sharp \lbrace groupe_{ge} \rbrace) ^2 - 1)}{n \cdot (n - 1)})

Avec ge le nombre de groupes d’ex-aequos. Notons que si aucun ex-aequo n’est présent dans l’échantillon, alors nous pouvons voir les observations comme autant de groupe d’un élément et alors, avec ge = n et \forall ge, \sharp \lbrace groupe_{ge} \rbrace = 1, V_W * = V_W.

Le U de Mann-Whitney:

Publié en 1947 suite aux travaux de Henry Berthold Mann et Donald Ransom Whitney, le test de Mann-Whitney également appelé U-test ou test de Wilcoxon-Mann-Whitney est un test donnant des résultats strictement équivalent au test de Wilcoxon. En effet, une relation linéaire peut-être mise en évidence entre les deux statistiques de test, néanmoins le test de Wilcoxon reste relativement le plus populaire et le plus utilisé par les praticiens.

Le calcul du U de Mann-Whitney est:

U = \sum_{i_1 = 1} ^{n_1} \sum_{i_2 = 1} ^{n_2} 1_{(X|_{g1})_{i_1} > (X|_{g2})_{i_2}}

Si n_1, n_2 < 12 alors il faut considérer U comme la statistique de test de Mann-Whitney et la comparer à la table de Mann-Whitney. Sinon, il faut considérer comme statistique de test l’objet suivant:

Z = \frac{U - \mu_U}{\sigma_U}

Avec,

\mu_U = \frac{n_1 \cdot n_2}{2},

\sigma_U = \sqrt{\frac{n_1\cdot n_2 \cdot (n_1 + n_2 + 1)}{12}}.

Et comparer la statistique de test Z à la table de la loi normale centrée-réduite. L’hypothèse H_0 reste la même que pour le test de Wilcoxon.

Tendance pour rejeter H_0:

Plus W \longrightarrow \infty et plus nous avons de chance de rejeter H_0.Ce cas se présente soit quand la variance de W est très faible, étant donné qu’elle est basée sur n_1, n_2, n cette situation n’est pas concrètement possible. Soit si \sum_{i = 1} ^{n_1} (R|_{g1})_l s’éloigne fortement de E_W autrement dit l’espérance de W qui est la statistique construite en relation avec l’hypothèse H_0.

Ainsi, une localisation des (R|_{g1})_l chez les plus bas ou plus haut rangs de R permet d’avoir une somme soit très faible, soit très forte par rapport à E_W.

Cas pour données appariées

Hypothèse préliminaire: X ^1, X^2 continues ou ordinales.

La première étape du calcul de la statistique de test des rangs signés de Wilcoxon est de déterminer D le vecteur des différences des paires X ^1, X^2 tel que \forall i \in [1, \cdots, n],

D_i = | X_i ^1 - X_i ^2 |

Ainsi que S, le vecteur des signes,  tel que \forall i \in [1, \cdots, n],

S_i = sign(X_i ^1 - X_i ^2)

La seconde étape consiste à éliminer de D les D_i = 0, nous nous retrouvons alors avec un vecteur de taille n* \leq n. De ce vecteur, sera déterminé celui des rangs associés R.

Dés lors deux formes différentes vont être utilisées afin de calculer la statistique des rangs signés de Wilcoxon, le cas sans ex-aequos:

T = \sum_{i / S_i > 0} R_i

, et le cas avec ex-aequos:

T* = \frac{\sum_{i = 1} ^{n*} S_i \times R_i}{\sqrt{\sum_{i = 1} ^{n*} (S_i \times R_i) ^2}}

– Si nous considérons T, la statistique du test des rangs signés de Wilcoxon est:

Z = \frac{T - E_T}{\sqrt{V_T}}

Avec E_T = \frac{n* \cdot (n* + 1)}{4} et V_T = \frac{n* \cdot (n* + 1) \cdot (2 n* + 1)}{24}.

Pour n* \leq 20, la statistique de test suit une loi de Wilcoxon signé à n* degrés de liberté. Dans le cas où nous avons n* > 20, alors elle suit une loi normale de paramètres \mu = E_T et \sigma = \sqrt{V_T}.

– Si nous considérons T*, la statistique de test est directement assimilée à une loi normale de paramètres \mu = E_T = \frac{n* \cdot (n* - 1)}{4} et \sigma = V_T = \frac{n* \cdot (n* + 1) \cdot (2 n* + 1)}{24}

Enfin, l’hypothèse H_0 testée quelque soit les conditions d’application du test des rangs signés de Wilcoxon est: « Aucune différence de population / Median(D) = 0« .

Ci-dessous la table de la loi de Wilcoxon signé:

add

Le test des signes:

Le test des signes, qu’il est possible de trouver également sous l’appellation de test du signe, est un concurrent au test des rangs signés de Wilcoxon. Néanmoins ce dernier demeure plus puissant et donc plus souvent utilisé car tenant compte de la variance contrairement au test des signes. Il a été publié en 1710 par John Arbuthnott puis étendu par Nicholas Bernouilli en 1713.

Considérons l’ensemble des paires appariées (X_1 ^1, X_2 ^2), \cdots, (X_n ^1, X_n ^2). La statistique du test des signes est alors:

T = \sum_{i = 1} ^n 1_{X_i ^1 < X_i ^2}

Elle suit une loi binomiale de paramètres (m, \frac{1}{2})m désigne le nombre de paires non égales. L’hypothèse H_0 est: « Les médianes sont égales pour les deux échantillons appariés / P(X ^1 < X ^2) = P(X ^1 > X ^2)« .

Si m > 20, alors nous pouvons nous reporter la statistique de test,

Z = \frac{T - \frac{m}{2}}{\frac{\sqrt{m}}{2}}

, à la table de la loi normale centrée-réduite.

Tendance pour rejeter H_0:

Plus T, T* \longrightarrow \infty ou 0 (en fait pour ce dernier cas de figure il faudrait plus raisonner en terme de fortes différences avec E_T, ce cas représentant celui où aucune d_i n’est strictement positif, soit X_i ^1 > X_i ^2 \forall i) et plus nous avons de chance de rejeter H_0.

En effet, plus nous comptons de différences positives et plus ces différences sont importantes (traduit par un rang important), plus T, T* sont forts. Pour en revenir au cas où T, T* \longrightarrow 0, le test des rangs signés est symétrique puisque si ces deux statistiques vont dans ce sens, il suffirait de considérer la différence inverse (ex: ne plus considérer X_i ^1 > X_i ^2 mais X_i ^2 > X_i ^1) pour se retrouver dans la situation T, T* \longrightarrow \infty.

\bullet Tendance lorsque n \longrightarrow \infty:

Le test de Wilcoxon est fortement influencé par n. Que ce soit dans sa version appariée ou non, il faut s’attendre à ce que plus n \longrightarrow \infty plus le test perd en fiabilité. 

De plus, outre le fait que E_T, E_W, V_T, V_W vont rapidement tendre vers \infty, la somme des rangs va également exploser à cause de la taille de l’échantillon.

Nous proposons de simuler plusieurs échantillons selon 6 tailles différentes: N = 10, 100, 1000, 10000, 100000, 1000000 et d’observer l’évolution des p-valeurs.

Dans un premier temps, nous menons l’expérience dans le cas où R|_{g1}, R|_{g2} sont relativement bien ordonnés pour des données non appariées et appariées. Le tableau ci-dessous résume la situation:

add

Quelque soit la taille de l’échantillon et le type de données, nous rejetons H_0 au seuil de 5%, nous obtenons bien la conclusion attendue.

Nous menons désormais l’expérience dans le cas où R|_{g1}, R|_{g2} sont mal ordonnés, au sens statistique, pour des données non appariées et appariées. Le tableau ci-dessous résume la situation:

add

A partir de n = 1000 nous voyons que le test de Wilcoxon accepte H_0 au seuil de 5% en adéquation avec l’hypothèse initiale. Même pour n = 1000 l’écart-type des p-valeurs montrent que nous restons dans la conclusion attendue de temps en temps. Néanmoins, à partir de cette taille-là d’échantillon nous rejetons systématiquement l’hypothèse nulle. Par conséquent nous en déduisons bien que le test de Wilcoxon est affecté par la taille de l’échantillon.

\bullet Annexe théorique: 

\bullet Calcul de E_W, V_W dans le cadre de la version non appariée du test de Wilcoxon:

La statistique W peut être vue comme la somme de n variables de Bernouilli indépendantes Z_i valant 1 si X_i est en ième position, 0 sinon. Sur ce constat là nous pouvons calculer facilement E_W, V_W.

E_W = E[W] = E(\sum_{i = 1} ^n i \cdot Z_i) = E[Z_i] \cdot \sum_{i = 1} ^n i = \frac{n_1}{n} \times \frac{n \cdot (n + 1)}{2} = \frac{n_1 \cdot (n + 1)}{2}

V_W = V(W) = V(\sum_{i = 1} ^n i \cdot Z_i) = V(Z_i) \cdot \sum_{i = 1} ^n i ^2

= \frac{n_1 \cdot n_2}{2 \cdot n \cdot (2 n + 1)} \times \frac{n \cdot (n + 1) \cdot (2 n + 1)}{6}

= \frac{n_1 \cdot n_2 \cdot (n + 1)}{12}

\bullet Similitude entre la statistique W et le U de Mann-Whitney:

La statistique de Mann-Whitney est: U = \sum_{i_1 = 1} ^{n_1} \sum_{i_2 = 1} ^{n_2} 1_{(X|_{g1})_{i_1} > (X|_{g2})_{i_2}} et plus particulièrement:

– U_{X|_{g1}} = \sum_{i_1 = 1} ^{n_1} \sum_{i_2 = 1} ^{n_2} (1_{(X|_{g1})_{i_1} > (X|_{g2})_{i_2}} + \frac{1}{2} \times 1_{((X|_{g1})_{i_1} = (X|_{g2})_{i_1})})

U_{X|_{g2}} = \sum_{i_1 = 1} ^{n_1} \sum_{i_2 = 1} ^{n_2} (1_{((X|_{g1})_{i_1} < (X|_{g2})_{i_2})} + \frac{1}{2} \times 1_{(X|_{g1})_{i_1} = (X|_{g2})_{i_1}})

Il faut voir le calcul de la somme des rangs de manière inverse, c’est-à-dire qu’il faut comprendre que \forall l, (R|_{g1})_l est égal au \sharp \lbrace X|_{g2} < X|_{g1} \mbox{ a partir de l'indice } l \rbrace , remarquons que nous appliquons un décalage de l’indice l à chaque calcul de  (R|_{g1})_l. Dés lors nous avons que:

\sum_{l = 1} ^{n_1} (R|_{g1})_l = \sum_{i_1 = 1} ^{n_1} \sum_{i_2 = 1} ^{n_2} (1_{(X|_{g1})_{i_1} < (X|_{g2})_{i_2}} + \frac{1}{2} \times 1_{(X|_{g1})_{i_1} = (X|_{g2})_{i_2}}) + \sum_{l = 1} ^n l
= U_{X|_{g2}} + \frac{n \cdot (n + 1)}{2}

Or, U_{X|_{g1}} + U_{X|_{g2}} = \sum_{i_1 = 1} ^{n_1} \sum_{i_2 = 1} ^{n_2} (1_{(X|_{g1})_{i_1} > (X|_{g2})_{i_2}} + \frac{1}{2} \times 1_{(X|_{g1})_{i_1} = (X|_{g2})_{i_1}}) + \sum_{i_1 = 1} ^{n_1} \sum_{i_2 = 1} ^{n_2} (1_{(X|_{g1})_{i_1} < (X|_{g2})_{i_2}} + \frac{1}{2} \times 1_{(X|_{g1})_{i_1} = (X|_{g2})_{i_1}})

= \sum_{i_1 = 1} ^{n_1} \sum_{i_2 = 1} ^{n_2} (1_{(X|_{g1})_{i_1} > (X|_{g2})_{i_2}} + 1_{X|_{g1})_{i_1} > (X|_{g2})_{i_2}} + 1_{(X|_{g1})_{i_1} = X|_{g2})_{i_2}}) = n_1 \times n_2

Puisque 1_{(X|_{g1})_{i_1} > (X|_{g2})_{i_2}} + 1_{(X|_{g1})_{i_1} > (X|_{g2})_{i_2}} + 1_{(X|_{g1})_{i_1} = X|_{g2})_{i_2}} = 1.

Par conséquent, \sum_{l = 1} ^{n_1} (R|_{g1})_l = U_{X|_{g2}} + \frac{n \cdot (n + 1)}{2} = n_1 \cdot n_2 - U_{X|_{g2}} + \frac{n \cdot (n + 1)}{2} et comme \sum_{l = 1} ^{n_1} (R|_{g1})_l est la somme des rangs provenant du test de Wilcoxon, le lien entre les deux statistiques est fait.

\bullet Calcul de E_T, V_T dans le cadre de la version appariée du test de Wilcoxon:

La statistique T peut être vue comme la somme de n variables de Bernouilli indépendantes Z_i conditionnellement aux rangs. Sur ce constat là nous pouvons calculer facilement E_W, V_W à partir de E[Z_i] = \frac{1}{2} et V(Z_i) = \frac{1}{4}.

E(W / R) = \sum_{i = 1} ^n R_i \cdot E[Z_i] = E[Z_i] \cdot \sum_{i = 1} ^n R_i = \frac{1}{2} \times \frac{n \cdot (n + 1)}{2} = \frac{n \cdot (n + 1)}{4}

V(W / R) = \sum_{i = 1} ^n R_i ^2 \cdot V[Z_i] = V[Z_i] \cdot \sum_{i = 1} ^n R_i ^2

 = \frac{1}{4} \times \frac{n \cdot (n + 1) \cdot (2n + 1)}{6} = \frac{n \cdot (n + 1) \cdot (2n + 1)}{24}

\bullet Exemple:

Cas pour données non appariées

Soit l’échantillon X,

add

Ci-dessous, le boxplot des distributions de [latexX|_{g1}[/latex] (en vert) et X|_{g2} (en rouge) permet de voir que visuellement les rangs intermédiaires correspondent au groupe 1 quand ceux les plus bas et les plus haut correspondent au groupe 2.

add

Si nous ordonnons le vecteur X nous obtenons pour les observations associées au groupe 1:

add

Nous avons pour notre exemple n_1 = n_2 = 10, alors:
\sum_{l = 1} ^{10} R_l = 6 + 7 + 8 + 9 + 10 + 11 + 12 + 13 + 14 + 15 = 105
E = \frac{10 \times (10 + 10 + 1)}{2} = 105
V = \frac{10 \times 10 \times ( 10 + 10 + 1 )}{12} = 175 (formule utilisée car pas d’ex-aequos)

La statistique de test vaut alors:

W= \frac{105 - 105}{\sqrt{175}} = 0

En se rapportant à la table de la loi normale centrée-réduite pour 0 nous trouvons une p-value = 1 qui n’est donc pas significative au seuil de 5%. Nous acceptons donc H_0 au risque de 5% et concluons que les rangs moyens, respectivement aux deux groupes, sont égaux.

Cas pour données appariées

Soit les deux échantillons appariés X ^1, X^2,

add110

Ci-dessous, le nuage de points construit à partir de (X ^1, X ^2).

add210

Nous calculons le vecteur D des valeurs absolues des  différences, 

D = (2.2131, 2.0059, \cdots, 9.9102, 9.8110

Nous pouvons déterminer à partir de D, le vecteur des rangs:

R = (5, 4, 3, 8, 1, 2, 6, 11, 7, 9, 18, 16, 17, 10, 12, 13, 19, 20, 15, 14)

Ainsi que le vecteur des signes associés,

S = (+, +, +, +, +, -, -, -, -, -, -, -, -, -, -, -, -, -, -, -)

Aucun ex-aequo et aucune valeur D_i ne valant 0 n’est à relever, par conséquent n* = n = 20.  Nous calculons ensuite T en fonction du cas de figure décrit juste avant,

T = \sum_{i / S_i > 0} R_i = 5 + 4 + 3 + 8 + 1 = 21

Avant de pouvoir calculer enfin notre statistique de test, nous devons calculer les deux valeurs suivantes:

E_T = \frac{20 \times (20 + 1)}{4} = 105

V_T = \frac{20 \times (20 + 1) \times (2 \times 20 + 1)}{24} = 717.5

Nous avons alors:

E = \frac{21 - 105}{\sqrt{717.5}} = -2.762618

Si nous nous referrons à la table de Wilcoxon signé pour n* = n = 20 degrés de liberté, nous avons alors une p-valeur = 0.001713. Nous rejetons H_0 au risque de 5% et concluons que les deux variables appariées ne sont pas semblables.

\bullet Application informatique:

Procédure SAS: http://support.sas.com/documentation/cdl/en/statug/63033/HTML/default/viewer.htm#statug_npar1way_sect022.htm (cas non appariés), http://support.sas.com/documentation/cdl/en/procstat/63104/HTML/default/viewer.htm#procstat_univariate_sect068.htm (cas appariés)

Package et fonction R: http://stat.ethz.ch/R-manual/R-patched/library/stats/html/wilcox.test.html

\bullet Bibliographie:

– Individual comparisons by ranking methods de Franck Wilcoxon

– Statistique, dictionnaire encyclopédique de Yadolah Dodge

– Probabilité, analyse de données et statistique de Gilbert Saporta

– le page web http://www.univ-orleans.fr/deg/masters/ESA/GC/sources/STATISTIQUE%20NON%20PARAMETRIQUE%20-%20Partie%202.pdf

– la page web http://r2math.enfa.fr/wp-content/uploads/2012/10/21-5-mann-whitney.pdf