Les lois de probabilité


add.png

La loi de distribution (ou loi de probabilité) d’une variable aléatoire X est un modèle représentant au mieux la fréquence des valeurs que peut prendre X

Définition: On appelle loi de probabilité de X la mesure image P par X et on la note P_X

La loi de distribution de X s’identifie au travers de la fonction de répartition:

F(X) = P(X \leq x)

La fonction de répartition F de densité f possède les propriétés suivantes:

\bullet F croissante

\bullet F continue à droite

\bullet lim_{x \rightarrow -\infty} F(x) = 0

\bullet lim_{x \rightarrow +\infty} F(x) = 1

Plusieurs caractéristiques de la loi de distribution sont d’intérêt, nous nous attarderons sur quatre d’entre eux:

– l’espérance mathématiques E[X], qui représente la moyenne pondérée des valeurs de X

– la variance \sigma, qui symbolise la mesure de dispersion de X

– le coefficient d’asymétrie (ou skewness ou \beta_1 de Pearson) de formule,

\gamma_1 = \frac{E[(X - E[X]) ^3]}{\sigma ^3}

qui correspond à la qualité de symétrie de la distribution de X.

– le coefficient d’aplatissement normalisé (ou kurtosis ou \beta_2 de Pearson) de formule,

\gamma_2 = \gamma_2 ' - 3 = \frac{E[(X - E[X]) ^4]}{\sigma ^4} - 3

qui mesure le comportement des « queues » de la distribution de X.

Deux cas sont alors à distinguer, celui ou X est continue ou discret.

X continue

Dans le cas continue, en définissant f la densité de X,  nous avons les formules générales suivantes: 

P_X (I) = \int_I f(x) dx

E[X] = \int_I x \cdot f(x) dx

var (X) = E[X ^2] - E[X ^2] = \int_I (x - E[X])^2 f(x) dx

♦ loi uniforme continue sur [ a ; b ]

La particularité de la loi uniforme continue est l’équi-probabilité de ses évènements. Ainsi, \forall x \in [a, \cdots, b], P(X = x) = \frac{1}{b - a}

fonction de densité:

f(X) = \frac{1}{b - a} si x \in [ a, \cdots, b ]

f(X) = 0 sinon

Un exemple de fonction de densité d’une loi uniforme continue (source wikipédia):

add1fonction de répartition:

F(X) = P(X \leq x) = \frac{x - a}{b - a} si x \in [ a, \cdots, b [

si x < a, F(X) = 0

si x \geq b, F(X) = 1

démonstration de la fonction de répartition de la loi uniforme continue:

3 cas sont donc à distinguer:

– Si x < a alors, par définition de la densité,

F(X) = P(X \leq x) = \int_{-\infty} ^x f(x) dx = \int_{-\infty} ^x 0 \cdot dx = 0

– Si x \in [a, \cdots, b[ alors,

F(X) = \int_{- \infty} ^a f(x) dx + \int_a ^x f(x) dx = \int_{- \infty} ^x 0 \cdot dx + \int_a ^x \frac{1}{b - a} dx = [\frac{x}{b - a}]_a ^x = \frac{x - a}{b - a}

– Si x > b alors,

F(X) = \int_{-\infty} ^a f(x) dx + \int_a ^b f(x) dx + \int_b ^x f(x) dx = \int_a ^b \frac{1}{b - a} dx = [\frac{x}{b - a}]_a ^b = 1

Un exemple de fonction de répartition d’une loi uniforme continue (source wikipédia):

add2espérance mathématique: E(X) = \frac{b + a}{2}

démonstration de l’espérance de la loi uniforme continue: 

E[X] = \int_I x \cdot f(x) dx = \int_a ^b \frac{x}{b - a} dx = [\frac{1}{2} \cdot \frac{x ^2}{b - a}]_a ^b = \frac{1}{2} \cdot ( \frac{b ^2 - a ^2}{b - a}) = \frac{b + a}{2}

variance: V(X) = \frac{(a - b) ^2}{12}

démonstration de la variance de la loi uniforme continue:

V(X) = E[X ^2] - E ^2[X] = E[X ^2] - \frac{(b + a) ^2}{4}

Déterminons le terme E[X ^2]. Nous avons donc:

E[X ^2] = \int_I x ^2 \cdot f(x) dx = \int_a ^b \frac{x ^2}{b - a} dx = [\frac{1}{3} \cdot \frac{x ^3}{b - a}]_a ^b = \frac{1}{3} \cdot \frac{b ^3 - a ^3}{b - a}

La formule de l’identité remarquable nous permet de développer le numérateur:

b ^3 - a ^3 = (a - b) \cdot (a ^2 + a \cdot b + b ^2)

Nous avons donc: E[X ^2] = \frac{1}{3} \cdot (a ^2 + a \cdot b + b ^2)

Alors,

V(X) = \frac{1}{3} \cdot (a ^2 + a \cdot b + b ^2) - \frac{(b + a) ^2}{4} = \frac{4 a ^2 + ab + 4 b ^2 - 3 b ^2 - 6 ab - 3 a ^2}{12} = \frac{a ^2 - 2 ab + b ^2}{12} = \frac{(a - b) ^2}{12}

coefficient d’asymétrie: \gamma_1 = 0

démonstration du coefficient d’asymétrie de la loi uniforme continue:

\gamma_1 = \frac{E[(X - E[X]) ^3]}{\sigma ^3} = \frac{1}{\sigma ^3} \dot \int_I (x - E[X]) ^3 \cdot f(x) dx

= \frac{1}{\sigma ^3} \cdot \int_a ^b (x ^3 - 3 \cdot E[X] \cdot x ^2 + 3 \cdot E[X] ^2 \cdot x - E[X] ^3) \cdot f(x) dx

= \frac{1}{\sigma ^3} \cdot (\int_a ^b x ^3 \cdot f(x) dx - 3 \cdot E[X] \cdot \int_a ^b x ^2 \cdot f(x) dx + 3 \cdot E[X] ^2 \cdot \int_a ^b x \cdot f(x) dx - E[X] ^3 \cdot \int_a ^b f(x) dx)

= \frac{1}{\sigma ^3} \cdot (\frac{1}{4} \cdot \frac{b ^4 - a ^4}{b - a} - 3 \cdot \frac{b + a}{2} \cdot \frac{1}{3} \cdot \frac{b ^3 - a ^3}{b - a} + 3 \cdot \frac{(b + a) ^2}{4} \cdot \frac{1}{2} \cdot \frac{b ^2 - a ^2}{b - a} - \frac{(b + a) ^3}{8} \cdot \frac{b - a}{b - a})

Notons l’identité remarquable suivante:

b ^4 - a ^4 = (b - a) (a ^3 + a ^2 b + a b ^2 + b ^3)

Nous avons alors, après simplification:

\gamma_1 = \frac{1}{\sigma ^3} \cdot \frac{1}{8} \cdot ( 2 (a ^3 + a ^2 b + a b ^2 + b ^3) - 4 (b + a) \cdot (a ^2 + a \cdot b + b ^2) + 2 \cdot (b + a) ^3)

= \frac{1}{\sigma ^3} \cdot \frac{1}{8} [2 a^3 + 2 a^2 b + 2 a b^2 + 2 b^3 - 8 b a^2 - 8 a b^2 - 4 b^3 - 4 a^3 + 2 a ^2 + 6 a^2 b + 6 a b^2 + 2 b ^3]

= \frac{1}{\sigma ^3} \cdot \frac{1}{8} \times 0 = 0

coefficient d’aplatissement normalisé: \gamma_2 = - \frac{6}{5}

démonstration du coefficient d’aplatissement de la loi uniforme continue: 

\gamma_2 ' = \frac{E[(X - E[X])^4]}{\sigma ^4}

= \frac{1}{V ^2} \cdot [\int_a ^b X^4 f(X) dX - 4 E[X] \int_a ^b X^3 f(X) dX + 6 E[X]^2 \int_a ^b X^2 f(X) dX - 4 E[X]^3 \int_a ^b X f(X) dX + E[X]^4 \int_a ^b f(X) dX]

Or \int_a ^b \frac{X^4}{b - a} dX = [\frac{1}{5} \frac{X^5}{b - a}]_a ^b = \frac{1}{5} \cdot \frac{b^5 - a^5}{b - a}

Nous avons alors:

\gamma_2 ' = \frac{144}{(b - a) ^4} \cdot [\frac{1}{5} \cdot \frac{b^5 - a^5}{b - a} - 4 \cdot \frac{b + a}{2} \cdot \frac{1}{4} \cdot \frac{b^4 - a^4}{b - a} + 6 \cdot \frac{(b + a) ^2}{2 ^2} \cdot \frac{1}{3} \cdot {b ^3 - a ^3}{b - a} - 4 \cdot \frac{(b + a) ^3}{2 ^3} \cdot \frac{1}{2} \cdot \frac{b ^2 - a ^2}{b - a} + \frac{(b + a) ^4}{2 ^4} \cdot \frac{b - a}{b - a}

Notons l’identité remarquable suivante:

b^5 - a^5 = (b - a) (b^4 + a b^3 + a^2 b^2 + a^3 b + a^4)

Nous avons alors, après simplifications:

\gamma_2 ' = \frac{144}{(b - a) ^4} \cdot [\frac{1}{5} \cdot (b^4 + a b^3 + a^2 b^2 + a^3 b + a^4) - \frac{1}{2} \cdot (b + a) \cdot (b^3 + a b^2 + a^2 b + a^3) + \frac{1}{2} \cdot (b + a)^2 \cdot (b^2 + ab + a^2) - \frac{1}{4} \cdot (b + a)^3 \cdot (b + a) + \frac{1}{16} \cdot (b + a)^4]

 = \frac{9}{10} \cdot \frac{1}{(b - a)^4} \cdot [32 \cdot (b^4 + a b^3 + a^2 b^2 + a^3 b + a^4) - 80 \cdot (b + a) \cdot (b^3 + a b^2 + a^2 b + a^3) + 80 \cdot (b + a)^2 \cdot (b^2 + a b + a^2) - 30 \cdot (b + a)^4

En développant l’expression entre [], nous trouvons finalement:

\gamma_2 ' = \frac{9}{5} \frac{1}{(b - a) ^4} \cdot (b^4 + a^4 - 4 a b^3 + 6 a^2 b ^2 - 4 a^3 b)

Or b^4 + a^4 - 4 a b^3 + 6 a^2 b ^2 - 4 a^3 b = (b - a) ^4.

Ainsi, 

\gamma_2 ' = \frac{9}{5} \cdot \frac{1}{(b - a) ^4} \cdot ((b - a) ^4 = \frac{9}{5}

Nous concluons: \gamma = \frac{9}{5} - 3 = - \frac{6}{5}

– utilisation la plus répandue: Erreur d’arrondis, tirage aléatoire pour n’importe quel loi de distribution

 loi exponentielle de paramètre p

Soit X > 0.

fonction de densité: f(X) = \lambda \cdot e ^{- \lambda \cdot X}

Un exemple de fonction de densité d’une loi exponentielle (source wikipédia):

addfonction de répartition: F(X) = 1 - e ^{- \lambda \cdot X}

démonstration de la fonction de répartition de la loi exponentielle:

F(X) = P(X \geq x) = \int_0 ^x \lambda \cdot e ^{- \lambda \cdot x} dx = [ - \cdot e ^{- \lambda \cdot x} ]_0 ^x = - e ^{- \lambda \cdot x} + 1

Un exemple de fonction de répartition d’une loi exponentielle (source wikipédia):

addespérance mathématique: E[X] = \frac{1}{\lambda}

démonstration de l’espérance de la loi exponentielle: 

E[X] = \int_0 ^{\infty} x \cdot \lambda \cdot e ^{- \lambda \cdot x} dx

En procédant par intégration par parties avec:

u = x \Rightarrow u' = 1

v' = \lambda \cdot e ^{- \lambda \cdot x} \Rightarrow v = - e ^{- \lambda \cdot x}

Nous obtenons:

E[X] = [ - x \cdot e ^{- \lambda \cdot x} ]_0 ^{\infty} + \int_0 ^{\infty} e ^{- \lambda \cdot x} dx

Or [ - x \cdot e ^{- \lambda \cdot x} ]_0 ^{\infty} \rightarrow 0 car e ^{- \lambda \cdot x} \rightarrow 0 quand x \rightarrow + \infty.

Nous avons donc,

E[X] = \int_0 ^{\infty} e ^{- \lambda \cdot x} dx = [- \frac{1}{\lambda} e ^{- \lambda \cdot x}]_0 ^\infty = \frac{1}{\lambda}

variance: V(X) = \frac{1}{\lambda ^2}

démonstration de la variance de la loi exponentielle:

V(X) = E[X ^2] - E ^2 [X] = E[X ^2] - \frac{1}{\lambda ^2}

Déterminons le terme E[X ^2],

E[X ^2] = \int_0 ^{\infty} x ^2 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx

En procédant par intégration par parties avec:

u = x ^2 \Rightarrow u' = 2 x

v' = \lambda \cdot e ^{- \lambda \cdot x} \Rightarrow v = - e ^{- \lambda \cdot x}

Nous obtenons:

E[X ^2] = [ - x ^2 \cdot e ^{- \lambda \cdot x} ]_0 ^{\infty} + \int_0 ^{\infty} 2 x \cdot e ^{- \lambda \cdot x} dx = 2 \int_0 ^{\infty} x \cdot e ^{- \lambda \cdot x} dx

Car [ - x^2 \cdot e ^{- \lambda \cdot x} ]_0 ^{\infty} \rightarrow puisque e ^{- \lambda \cdot x} \rightarrow 0 quand x \rightarrow + \infty.

Nous avons enfin, par une dernière intégration par partie en posant:

u = x \Rightarrow u' = 1

v' = e ^{- \lambda \cdot x} \Rightarrow v = - \frac{1}{\lambda} \cdot e ^{- \lambda \cdot x}

Alors,

E[X ^2] = 2 \times ([- \frac{x}{\lambda} \cdot e ^{- \lambda \cdot x}]_0 ^{\infty} + \int_0 ^{\infty} \frac{1}{\lambda} \cdot e ^{- \lambda \cdot x} dx) = \frac{2}{\lambda} [ - \frac{1}{\lambda} \cdot e ^{- \lambda \cdot x}]_0 ^{\infty} = \frac{2}{\lambda} \times \frac{1}{\lambda} = \frac{2}{\lambda ^2}

Et donc, V(X) = \frac{2}{\lambda ^2} - \frac{1}{\lambda ^2}

coefficient d’asymétrie\gamma_1 = 2

démonstration du coefficient d’asymétrie de la loi exponentielle:

\gamma_1 = \frac{1}{\sigma ^3} \cdot E[X - E[X]] ^3

= \frac{1}{\sigma ^3} \times [ \int_0 ^{\infty} x^3 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx - 3 E[X] \cdot \int_0 ^{\infty} x^2 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx + 3 E ^2 [X] \cdot \int_0 ^{\infty} x \cdot \lambda \cdot e ^{- \lambda \cdot x} dx - E ^3 [X] \cdot \int_0 ^{\infty} \lambda \cdot e ^{- \lambda \cdot x} dx

Nous allons calculer en aparté les différentes intégrales:

\int_0 ^{\infty} \lambda \cdot e ^{- \lambda \cdot x} dx = 1, car f(x) = \lambda \cdot e ^{- \lambda \cdot x} fonction de densité de notre variable aléatoire X définie sur ]0; + \infty[

\int_0 ^{\infty} x \cdot \lambda \cdot e ^{- \lambda \cdot x} dx = E[X] = \frac{1}{\lambda}, cas vu lors de la démonstration de l’espérance

\int_0 ^{\infty} x ^2 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx = E[X ^2] = \frac{2}{\lambda ^2}, cas vu lors de la démonstration de la variance

\int_0 ^{\infty} x ^3 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx = E[X ^3]

Détaillons ce dernier cas que nous n’avons pas encore rencontré:

Nous allons devoir procéder à 3 intégrations par partie, pour la première, posons:

u = x ^3 \Rightarrow u' = 3 x ^2

v' = \lambda \cdot e ^{- \lambda \cdot x} \Rightarrow v = - \cdot e ^{- \lambda \cdot x}

Alors,

E[X ^3] = [- x ^3 \cdot e ^{- \lambda \cdot x}]_0 ^{\infty} + 3 \int_0 ^{\infty} x^2 \cdot e ^{- \lambda \cdot x} dx = 3 \int_0 ^{\infty} x^2 \cdot e ^{- \lambda \cdot x} dx

Car [ - x^3 \cdot e ^{- \lambda \cdot x} ]_0 ^{\infty} \rightarrow 0 puisque e ^{- \lambda \cdot x} \rightarrow 0 quand x \rightarrow + \infty.

Nous procédons à la seconde intégration par partie en posant:

u = x ^2 \Rightarrow u' = 2 x

v' = e ^{- \lambda \cdot x} \Rightarrow v = - \frac{1}{\lambda} \cdot e ^{- \lambda \cdot x}

Ainsi,

E[X ^3] = 3 [- \frac{1}{\lambda} \cdot x ^2 \cdot e ^{- \lambda \cdot x}]_0 ^{\infty} + \frac{6}{\lambda} \int_0 ^{\infty}x \cdot e ^{- \lambda \cdot x} dx = \frac{6}{\lambda} \int_0 ^{\infty}x \cdot e ^{- \lambda \cdot x} dx

Enfin, nous exécutons la dernière intégration par partie:

u = x \Rightarrow u' = 1

v' = e ^{- \lambda \cdot x} \Rightarrow v = - \frac{1}{\lambda} \cdot e ^{- \lambda \cdot x}

Et obtenons:

E[X ^3] = \frac{6}{\lambda} \cdot [- \frac{1}{\lambda} \cdot x \cdot e ^{- \lambda \cdot x}]_0 ^{\infty} + \frac{6}{\lambda ^2} \cdot \int_0 ^{\infty}e ^{- \lambda \cdot x} dx

= \frac{6}{\lambda ^2} \cdot \int_0 ^{\infty}e ^{- \lambda \cdot x} dx

= \frac{6}{\lambda} \cdot [- \frac{1}{\lambda} \cdot e ^{- \lambda \cdot x} ]_0 ^{\infty}

= \frac{6}{\lambda ^3}.

Nous avons donc les formes simplifiées des différentes termes de \gamma_1, nous en déduisons que:

\gamma_1 = \frac{1}{(V(X)^{\frac{1}{2}})^3} \times [\frac{6}{\lambda ^3} - 3 \cdot \frac{1}{\lambda} \cdot \frac{2}{\lambda ^2} + 3 \cdot \frac{1}{\lambda ^2} \cdot \frac{1}{\lambda} - \frac{1}{\lambda ^3} \cdot 1] = \lambda ^3 \times [\frac{1}{\lambda ^3} \cdot (6 - 6 + 3 - 1)] = 2

coefficient d’aplatissement normalisé: \gamma_2 = 6

démonstration du coefficient d’aplatissement de la loi exponentielle: 

Rappelons que \gamma_2 = \gamma_2 ' - 3. Nous allons commencer par le calcul de \gamma_2 '

Ainsi nous avons, \gamma_2 ' = \frac{1}{\sigma ^4} \cdot (E[x - E[X]) ^4

= \frac{1}{\sigma ^4} \times [ \int_0 ^{\infty} x^4 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx - 4 E[X] \cdot \int_0 ^{\infty} x^3 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx + 6 E ^3 [X] \cdot \int_0 ^{\infty} x ^2 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx - 4 E ^3 [X] \cdot \int_0 ^{\infty} x \cdot \lambda \cdot e ^{- \lambda \cdot x} dx + E ^4 [X] \cdot [ \int_0 ^{\infty} \lambda \cdot e ^{- \lambda \cdot x} dx

Nous allons calculer en aparté les différentes intégrales:

\int_0 ^{\infty} \lambda \cdot e ^{- \lambda \cdot x} dx = 1, car f(x) = \lambda \cdot e ^{- \lambda \cdot x} fonction de densité de notre variable aléatoire X définie sur ]0; + \infty[

\int_0 ^{\infty} x \cdot \lambda \cdot e ^{- \lambda \cdot x} dx = E[X] = \frac{1}{\lambda}, cas vu lors de la démonstration de l’espérance

\int_0 ^{\infty} x ^2 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx = E[X ^2] = \frac{2}{\lambda ^2}, cas vu lors de la démonstration de la variance

\int_0 ^{\infty} x ^3 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx = E[X ^3] = \frac{6}{\lambda ^3}, cas vu lors de la démonstration de \gamma_1

\int_0 ^{\infty} x ^4 \cdot \lambda \cdot e ^{- \lambda \cdot x} dx = E[X ^4]

Détaillons ce dernier cas que nous n’avons pas encore rencontré. Mais tout d’abord, afin de simplifier automatiquement les calculs, rappelons que [ - x^k \cdot C \cdot e ^{- \lambda \cdot x} ]_0 ^{\infty} \rightarrow (C constante) car e ^{- \lambda \cdot x} \rightarrow 0 quand x \rightarrow + \infty.

Ce résultat nous permettra, lors de la série d’intégrations par partie que nous allons déployer, de nous débarrasser automatiquement du terme intégré et de travailler uniquement sur celui simplifié à intégrer.

Nous allons devoir procéder à 4 intégrations par partie, pour la première, posons:

u = x ^4 \Rightarrow u' = 4 x ^3

v' = \lambda \cdot e ^{- \lambda \cdot x} \Rightarrow v = - \cdot e ^{- \lambda \cdot x}

v' = \lambda \cdot e ^{- \lambda \cdot x} \rightarrow v = - \frac{1}{\lambda} e ^{- \lambda \cdot x}

Alors, E[X ^4] = 4 \int_0 ^{\infty} x^3 \cdot e ^{- \lambda \cdot x} dx

Nous procédons à la seconde intégration par partie en posant:

u = x ^3 \Rightarrow u' = 3 x

v' = e ^{- \lambda \cdot x} \Rightarrow v = - \frac{1}{\lambda} \cdot e ^{- \lambda \cdot x}

Ainsi, E[X ^4] = \frac{12}{\lambda} \int_0 ^{\infty} x ^2 \cdot e ^{- \lambda \cdot x} dx

Ensuite, nous exécutons la troisième intégration par partie:

u = x ^2 \Rightarrow u' = 2 x

v' = e ^{- \lambda \cdot x} \Rightarrow v = - \frac{1}{\lambda} \cdot e ^{- \lambda \cdot x}

Par conséquent, E[X ^4] = \frac{24}{\lambda ^2} \cdot \int_0 ^{\infty} x e ^{- \lambda \cdot x} dx

Enfin, nous exécutons la dernière intégration par partie:

u = x \Rightarrow u' = 1

v' = e ^{- \lambda \cdot x} \Rightarrow v = - \frac{1}{\lambda} \cdot e ^{- \lambda \cdot x}

Et obtenons:

E[X ^4] = \frac{24}{\lambda ^3} \cdot \int_0 ^{\infty}e ^{- \lambda \cdot x} dx = \frac{24}{\lambda ^3} \cdot [- \frac{1}{\lambda} \cdot e ^{- \lambda \cdot x} ]_0 ^{\infty} = \frac{24}{\lambda ^4}

Nous avons donc les formes simplifiées des différentes termes de \gamma_2 ', nous en déduisons que:

\gamma_2 ' = \frac{1}{(V(X) ^{\frac{1}{2}}) ^4} \times [\frac{24}{\lambda ^4} - 4 \cdot \frac{1}{\lambda} \cdot \frac{6}{\lambda ^3} + 6 \cdot \frac{2}{\lambda ^2} \cdot \frac{2}{\lambda ^2} - 4 \cdot \frac{1}{\lambda ^3} \cdot \frac{1}{\lambda} + \frac{1}{\lambda ^4}]

 = \lambda ^4 \times [\frac{1}{\lambda ^4} \cdot (24 - 24 + 12 - 4 + 1)] = 9

Enfin, \gamma_2 = 9 - 3 = 6

– utilisation la plus répandue: durée de vie d’un composant électronique (par exemple)

♦ loi d’Erlang de paramètres \lambda > 0, k \geq 1

Soit x \geq 0.

fonction de densité: f(x) = \frac{\lambda ^k x ^{k - 1} e ^{-\lambda x}}{(k - 1) !}

Un exemple de fonction de densité d’une loi d’Erlang (source wikipédia):


add

fonction de répartition: F(X) = 1 - \sum_{n = 1} ^{k - 1} \frac{e ^{- \lambda x} (\lambda x) ^n}{n!}

démonstration de la fonction de répartition de la loi d’Erlang:

F(X) = \int_0 ^x \frac{\lambda ^k x ^{k - 1}}{(k - 1)!} e ^{- \lambda x} dx = \frac{\lambda ^{k - 1}}{(k - 1)!} \int_0 ^x \lambda x ^{k - 1} e ^{- \lambda x} dx

On procède à l’intégration par parties suivante:

u = x ^{k - 1} \Rightarrow u ' = (k - 1) x ^{k - 2}

v ' = \lambda e ^{- \lambda x} \Rightarrow v = - e ^{- \lambda x}

On a,

F(X) = \frac{\lambda ^{k - 1}}{(k - 1)!} [- x ^{k - 1} e ^{- \lambda x}]_0 ^x + \frac{\lambda ^{k - 1}}{(k - 1)!} \int_0 ^x (k - 1) x ^{k - 2} e ^{- \lambda x} dx

= \frac{\lambda ^{k - 1}}{(k - 1)!} (- x ^{k - 1} e ^{- \lambda x}) + \frac{\lambda ^{k - 2} (k - 1)}{(k - 1)!} \int_0 ^x \lambda x ^{k - 2} e ^{- \lambda x} dx

On procède au même type d’intégration par parties, avec:

u = x ^{k - 2} \Rightarrow u ' = (k - 2) x ^{k - 3}

v ' = \lambda e ^{- \lambda x} \Rightarrow v = - e ^{- \lambda x}

On a,

F(X) = \frac{\lambda ^{k - 1}}{(k - 1)!} (- x ^{k - 1} e ^{- \lambda x}) + \frac{\lambda ^{k - 2} (k - 1)}{(k - 1)!} (- x ^{k - 2} e ^{- \lambda x}) + \frac{\lambda ^{k - 3} (k - 1) (k - 2)}{(k - 1)!} \int_0 ^x \lambda (k - 1) x ^{k - 2} e ^{- \lambda x} dx

Et en continuant ainsi, avec le même processus d’intégrations par partie on finit par obtenir:

F(X) = \frac{\lambda ^{k - 1}}{(k - 1)!} (- x ^{k - 1} e ^{- \lambda x}) + \frac{\lambda ^{k - 2}}{(k - 1)!} (- x ^{k - 2} e ^{- \lambda x}) + \frac{\lambda ^{k - 3} (k - 1) (k - 2)}{(k - 1)!} (- x ^{k - 3} e ^{- \lambda x}) + \frac{(k - 1) !}{(k - 1) !} \cdots \int_0 ^x \lambda e ^{- \lambda x}

= 1 - \sum_{n = 0} ^{k - 1} \frac{\lambda ^n x ^n}{n!} e ^{- \lambda x}, puisque  = \int_0 ^x \lambda e ^{- \lambda x} = [- e ^{- \lambda x}]_0 ^x = - e ^{- \lambda x} + 1

Un exemple de fonction de répartition d’une loi d’Erlang (source wikipédia):


add1.png

espérance mathématique: E[X] = \frac{k}{\lambda}

démonstration de l’espérance de la loi d’Erlang: 

E[X] = \int_0 ^{+ \infty} x \frac{\lambda ^k x ^{k-1}}{(k-1)!} e ^{- \lambda x} dx = \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^k e ^{-\lambda x} dx

On procède à l’intégration par parties suivante:

u = x ^k \Rightarrow u ' = k x ^{k - 1}

v ' = \lambda e ^{- \lambda x} \Rightarrow v = - e ^{- \lambda x}

On a,

E[X] = \frac{\lambda ^{k-1}}{(k-1)!} [-x ^k e ^{- \lambda x}]_0 ^{+ \infty} - \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} (-k x ^{k-1} e^{-\lambda x}) dx

= \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} k x ^{k-1} e^{-\lambda x} dx, puisque lim_{x \rightarrow + \infty} x ^k e ^{-\lambda x} = 0

= \frac{\lambda ^{k-2} k}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^{k-1} e^{-\lambda x} dx

On procède à la même intégration par parties que précédemment:

u = x ^{k-1} \Rightarrow u ' = (k-1) x ^{k - 2}

v ' = \lambda e ^{- \lambda x} \Rightarrow v = - e ^{- \lambda x}

On a,

E[X] = \frac{\lambda ^{k-2} k}{(k-1)!} [-x ^{k-1} e ^{- \lambda x}]_0 ^{+ \infty} - \frac{\lambda ^{k-2} k }{(k-1)!} \int_0 ^{+ \infty} (-(k-1) x ^{k-2} e^{-\lambda x}) dx

= \frac{\lambda ^{k-2} k}{(k-1)!} \int_0 ^{+ \infty} (k-1) x ^{k-2} e^{-\lambda x} dx, puisque lim_{x \rightarrow + \infty} x ^{k-1} e ^{-\lambda x} = 0

= \frac{\lambda ^{k-3} k (k-1)}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^{k-2} e^{-\lambda x} dx

En continuant ainsi on obtient,

E[X] = \frac{k!}{(k-1)!} \int_0 ^{+ \infty} e ^{-\lambda x} dx

= k \int_0 ^{+ \infty} e ^{-\lambda x} dx

= k [- \frac{1}{\lambda} e^{-\lambda x}]_0 ^{+ \infty}

= - \frac{k}{\lambda} (lim_{x \rightarrow + \infty} e ^{- \lambda x} - e ^0)

= \frac{k}{\lambda}

variance: V(X) = \frac{k}{\lambda ^2}

démonstration de la variance de la loi d’Erlang:

V(X) = E[X ^2] - E ^2[X] = E[X ^2] - \frac{k ^2}{\lambda ^2}

Et,

E[X ^2] = \int_0 ^{+ \infty} x ^2 \frac{\lambda ^k x ^{k-1}}{(k-1)!} e ^{- \lambda x} dx = \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^{k+1} e ^{-\lambda x} dx

On procède à l’intégration par parties suivante:

u = x ^{k+1} \Rightarrow u ' = (k+1) x ^k

v ' = \lambda e ^{- \lambda x} \Rightarrow v = - e ^{- \lambda x}

On a,

E[X ^2] = \frac{\lambda ^{k-1}}{(k-1)!} [-x ^{k+1} e ^{- \lambda x}]_0 ^{+ \infty} - \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} (-(k+1) x ^k e^{-\lambda x}) dx

= \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} (k+1) x ^k e^{-\lambda x} dx, puisque lim_{x \rightarrow + \infty} x ^{k+1} e ^{-\lambda x} = 0

= \frac{\lambda ^{k-2} (k+1)}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^k e^{-\lambda x} dx

On procède à la même intégration par parties que précédemment:

u = x ^k \Rightarrow u ' = k x ^{k - 1}

v ' = \lambda e ^{- \lambda x} \Rightarrow v = - e ^{- \lambda x}

On a,

E[X ^2] = \frac{\lambda ^{k-2} (k+1)}{(k-1)!} [-x ^k e ^{- \lambda x}]_0 ^{+ \infty} - \frac{\lambda ^{k-2} (k+1)}{(k-1)!} \int_0 ^{+ \infty} (-k x ^{k-1} e^{-\lambda x}) dx

= \frac{\lambda ^{k-2} (k+1)}{(k-1)!} \int_0 ^{+ \infty} k x ^{k-1} e^{-\lambda x} dx, puisque lim_{x \rightarrow + \infty} x ^{k-1} e ^{-\lambda x} = 0

= \frac{\lambda ^{k-3} (k+1) k}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^{k-1} e^{-\lambda x} dx

En continuant ainsi on obtient,

E[X ^2] = \frac{(k+1) \times \cdots \times 2}{(k-1)!} \int_0 ^{+ \infty} x e ^{-\lambda x} dx

E[X ^2] = \frac{(k+1)!}{\lambda (k-1)!} \int_0 ^{+ \infty} e ^{-\lambda x} dx, en appliquant toujours la même intégration par parties

= \frac{(k+1) k}{\lambda} \int_0 ^{+ \infty} e ^{-\lambda x} dx

= \frac{(k+1) k}{\lambda} [- \frac{1}{\lambda} e^{-\lambda x}]_0 ^{+ \infty}

= - \frac{(k+1) k}{\lambda ^2} (lim_{x \rightarrow + \infty} e ^{- \lambda x} - e ^0)

= \frac{(k+1) k}{\lambda ^2}

D’où,

V(X) = \frac{(k+1) k}{\lambda ^2} - \frac{k ^2}{\lambda ^2} = \frac{k ^2 + k - k ^2}{\lambda ^2} = \frac{k}{\lambda ^2}

coefficient d’asymétrie\gamma_1 = \frac{2}{\sqrt{k}}

démonstration du coefficient d’asymétrie de la loi d’Erlang:

\gamma_1 = \frac{1}{V(X) ^{\frac{3}{2}}} (E[X ^3] - 3 E [X ^2] E[X] + 2 E ^3[X])

= \frac{\lambda ^3}{k ^{\frac{3}{2}}} (E[X ^3] - 3 \frac{k ^2 (k + 1)}{\lambda ^3} + 2 \frac{k ^3}{\lambda ^3})

= \frac{\lambda ^3}{k ^{\frac{3}{2}}} (E[X ^3] - \frac{k ^3 + 3 k ^2}{\lambda ^3})

Et,

E[X ^3] = \int_0 ^{+ \infty} x ^3 \frac{\lambda ^k x ^{k-1}}{(k-1)!} e ^{- \lambda x} dx = \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^{k+2} e ^{-\lambda x} dx

On procède à l’intégration par parties suivante:

u = x ^{k+2} \Rightarrow u ' = (k+2) x ^{k+1}

v ' = \lambda e ^{- \lambda x} \Rightarrow v = - e ^{- \lambda x}

On a,

E[X ^3] = \frac{\lambda ^{k-1}}{(k-1)!} [-x ^{k+2} e ^{- \lambda x}]_0 ^{+ \infty} - \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} (-(k+2) x ^{k+1} e^{-\lambda x}) dx

= \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} (k+2) x ^{k+1} e^{-\lambda x} dx, puisque lim_{x \rightarrow + \infty} x ^{k+2} e ^{-\lambda x} = 0

= \frac{\lambda ^{k-2} (k+2)}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^{k+1} e^{-\lambda x} dx

On procède à la même intégration par parties que précédemment:

u = x ^{k+1} \Rightarrow u ' = (k+1) x ^k

v ' = \lambda e ^{- \lambda x} \Rightarrow v = - e ^{- \lambda x}

On a,

E[X ^3] = \frac{\lambda ^{k-2} (k+2)}{(k-1)!} [-x ^{k+1} e ^{- \lambda x}]_0 ^{+ \infty} - \frac{\lambda ^{k-2} (k+2)}{(k-1)!} \int_0 ^{+ \infty} (-(k+1) x ^k e^{-\lambda x}) dx

= \frac{\lambda ^{k-2} (k+2)}{(k-1)!} \int_0 ^{+ \infty} (k+1) x ^k e^{-\lambda x} dx, puisque lim_{x \rightarrow + \infty} x ^{k+1} e ^{-\lambda x} = 0

= \frac{\lambda ^{k-3} (k+2) (k+1)}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^k e^{-\lambda x} dx

En continuant ainsi on obtient,

E[X ^3] = \frac{(k+2) \times \cdots \times 3}{(k-1)!} \int_0 ^{+ \infty} x ^2 e ^{-\lambda x} dx

= \frac{(k+2) \times \cdots \times 2}{\lambda (k-1)!} \int_0 ^{+ \infty} x e ^{-\lambda x} dx, en appliquant toujours la même intégration par parties

= \frac{(k+2)!}{\lambda ^2 (k-1)!} \int_0 ^{+ \infty} e ^{-\lambda x} dx, en appliquant toujours la même intégration par parties

= \frac{(k+2) (k+1) k}{\lambda ^2} \int_0 ^{+ \infty} e ^{-\lambda x} dx

= \frac{(k+2) (k+1) k}{\lambda ^2} [- \frac{1}{\lambda} e^{-\lambda x}]_0 ^{+ \infty}

= - \frac{(k+2) (k+1) k}{\lambda ^3} (lim_{x \rightarrow + \infty} e ^{- \lambda x} - e ^0)

= \frac{(k+2) (k+1) k}{\lambda ^3}

D’où,

\gamma_1 = \frac{\lambda ^3}{k ^{\frac{3}{2}}} (\frac{(k+2) (k+1) k}{\lambda ^3} - \frac{k ^3 + 3 k ^2}{\lambda ^3}) = \frac{k ^3 + 3 k ^2 + 2 k - k ^3 - 3 k ^2}{k ^{\frac{3}{2}}} = \frac{2}{\sqrt{k}}

coefficient d’aplatissement normalisé: \gamma_2 = \frac{6}{k}

démonstration du coefficient d’aplatissement de la loi d’Erlang: 

\gamma_2 = \gamma_2 ' - 3

Avec,

\gamma_2 ' = \frac{1}{V(X) ^2} (E[X ^4] - 4 E [X ^3] E[X] + 6 E[X ^2] E ^2[X] - 4 E ^4 [X])

= \frac{\lambda ^4}{k ^2} (E[X ^4] - 4 \frac{k ^2 (k+1) (k+2)}{\lambda ^4} + 6 \frac{k ^3 (k+1)}{\lambda ^4} - 3 \frac{k ^4}{\lambda ^4})

= \frac{\lambda ^4}{k ^2} (E[X ^4] - \frac{k ^4 + 6 k ^3 + 8 k ^2}{\lambda ^4})

Et,

E[X ^4] = \int_0 ^{+ \infty} x ^4 \frac{\lambda ^k x ^{k-1}}{(k-1)!} e ^{- \lambda x} dx = \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^{k+3} e ^{-\lambda x} dx

On procède à l’intégration par parties suivante:

u = x ^{k+3} \Rightarrow u ' = (k+3) x ^{k+2}

v ' = \lambda e ^{- \lambda x} \Rightarrow v = - e ^{- \lambda x}

On a,

E[X ^4] = \frac{\lambda ^{k-1}}{(k-1)!} [-x ^{k+3} e ^{- \lambda x}]_0 ^{+ \infty} - \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} (-(k+3) x ^{k+2} e^{-\lambda x}) dx

= \frac{\lambda ^{k-1}}{(k-1)!} \int_0 ^{+ \infty} (k+3) x ^{k+2} e^{-\lambda x} dx, puisque lim_{x \rightarrow + \infty} x ^{k+3} e ^{-\lambda x} = 0

= \frac{\lambda ^{k-2} (k+3)}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^{k+2} e^{-\lambda x} dx

On procède à la même intégration par parties que précédemment:

u = x ^{k+2} \Rightarrow u ' = (k+2) x ^{k+1}

v ' = \lambda e ^{- \lambda x} \Rightarrow v = - e ^{- \lambda x}

On a,

E[X ^4] = \frac{\lambda ^{k-2} (k+3)}{(k-1)!} [-x ^{k+2} e ^{- \lambda x}]_0 ^{+ \infty} - \frac{\lambda ^{k-2} (k+3)}{(k-1)!} \int_0 ^{+ \infty} (-(k+2) x ^{k+1} e^{-\lambda x}) dx

= \frac{\lambda ^{k-2} (k+3)}{(k-1)!} \int_0 ^{+ \infty} (k+2) x ^{k+1} e^{-\lambda x} dx, puisque lim_{x \rightarrow + \infty} x ^{k+2} e ^{-\lambda x} = 0

= \frac{\lambda ^{k-3} (k+3) (k+2)}{(k-1)!} \int_0 ^{+ \infty} \lambda x ^{k+1} e^{-\lambda x} dx

En continuant ainsi on obtient,

E[X ^4] = \frac{(k+3) \times \cdots \times 4}{(k-1)!} \int_0 ^{+ \infty} x ^3 e ^{-\lambda x} dx

= \frac{(k+3) \times \cdots \times 3}{\lambda (k-1)!} \int_0 ^{+ \infty} x ^2 e ^{-\lambda x} dx, en appliquant toujours la même intégration par parties

= \frac{(k+3) \times \cdots \times 2}{\lambda ^2 (k-1)!} \int_0 ^{+ \infty} x e ^{-\lambda x} dx, en appliquant toujours la même intégration par parties

= \frac{(k+3)!}{\lambda ^3 (k-1)!} \int_0 ^{+ \infty} e ^{-\lambda x} dx, en appliquant toujours la même intégration par parties

= \frac{(k+3) (k+2) (k+1) k}{\lambda ^3} \int_0 ^{+ \infty} e ^{-\lambda x} dx

= \frac{(k+3) (k+2) (k+1) k}{\lambda ^3} [- \frac{1}{\lambda} e^{-\lambda x}]_0 ^{+ \infty}

= - \frac{(k+3) (k+2) (k+1) k}{\lambda ^4} (lim_{x \rightarrow + \infty} e ^{- \lambda x} - e ^0)

= \frac{(k+3) (k+2) (k+1) k}{\lambda ^4}

D’où,

\gamma_2 ' = \frac{\lambda ^4}{k ^2} (\frac{(k+3) (k+2) (k+1) k}{\lambda ^4} - \frac{k ^4 + 6 k ^3 + 8 k ^2}{\lambda ^4})

= \frac{k ^4 + 6 k ^3 + 11 k ^2 + 6 k - k ^4 - 6 k ^3 - 8 k ^2}{k ^2}

= \frac{3 k + 6}{k}

\Rightarrow \gamma_2 = \frac{3 k + 6}{k} - 3 = \frac{3 k + 6 - 3 k}{k} = \frac{6}{k}

– utilisation la plus répandue: modélisation du nombre d’appels téléphoniques simultanés

 loi normale standard de paramètres \mu, \sigma

Les moments d’ordre k de la loi normale standard possèdent deux formules particulières en fonction de leur parité. Ces résultats sont pratiques car ils permettent de démontrer plus rapidement les résultats à venir.

\mu_{2k} = \int_R t ^{2 \cdot k} \cdot e ^{-\frac{t ^2}{2}} dt = \prod_{k = 1} ^{\frac{n}{2}} (2 k - 1) \sqrt{2 \pi}

En effet, en procédant à l’intégration par parties en posant:

u = t ^{2k - 1} \Rightarrow u' = (2k - 1) \cdot t ^{2k - 2}

v' = t \cdot e ^{-\frac{t ^2}{2}} \Rightarrow v = - e ^{\frac{- t ^2}{2}}

Nous avons,

\int_R t ^{2 \cdot k} \cdot e ^{-\frac{t ^2}{2}} dt = [- t ^{2 k - 1} \cdot e ^{\frac{- t ^2}{2}}]_R + \int_R (2 k - 1) \cdot t ^{2 k - 1} \cdot e ^{-\frac{t ^2}{2}} dt

= (2 k - 1) \cdot \int_R \cdot t ^{2 k - 1} \cdot e ^{-\frac{t ^2}{2}} dt

Car le terme de gauche tend vers 0 quand t tend vers \infty. De plus, en procédant à une nouvelle intégration par parties analogue à la première nous avons, en posant,

u = t ^{2k - 3} \Rightarrow u' = (2k - 3) \cdot t ^{2k - 4}

v' = t \cdot e ^{-\frac{t ^2}{2}} \Rightarrow v = - e ^{\frac{- t ^2}{2}}

\int_R t ^{2 \cdot k} \cdot e ^{-\frac{t ^2}{2}} dt = (2 k - 1)\cdot (2 k - 3) \cdot \int_R t ^{2 k - 4} \cdot e ^{-\frac{t ^2}{2}} dt

Car, un fois de plus, le terme de gauche s’annule. En continuant à simplifier en procédant à \frac{n}{2} (n pair donc) intégration par parties, nous avons au final,

\int_R t ^{2 \cdot k} \cdot e ^{-\frac{t ^2}{2}} dt = (2 k - 1) \times (2 k - 3) \cdots \times 3 \times 1 \times \int_R e ^{-\frac{t ^2}{2}} dt = \prod_{k = 1} ^{\frac{n}{2}} (2 k - 1) \sqrt{2 \pi}

Car \int_R e ^{-\frac{t ^2}{2}} dt = \sqrt{2 \pi} puisqu’en procédant au changement de variable t = \frac{X - \mu}{\sigma} \Rightarrow dt = \frac{1}{\sigma} dx nous retrouvons la fonction de répartition de la loi normale à \sqrt{2 \pi} prés.

\mu_{2k + 1} = \int_R t ^{2 \cdot k + 1} \cdot e ^{-\frac{t ^2}{2}} dt = 0

En effet, en effectuant le changement de variable suivant:

u = t ^{2 k} \Rightarrow u' = 2 k \cdot t ^{2k - 1}

v' = t \cdot e ^{-\frac{t ^2}{2}} \Rightarrow v = - e ^{- \frac{t ^2}{2}}

Alors,

\int_R t ^{2 \cdot k + 1} \cdot e ^{-\frac{t ^2}{2}} dt = [- t ^{2 k} \cdot e ^{- \frac{t ^2}{2}}]_R + \int_R 2k \cdot t ^{2k - 1} \cdot e ^{- \frac{t ^2}{2}} dt = \int_R 2k \cdot t ^{2k - 1} \cdot e ^{- \frac{t ^2}{2}} dt

Car le terme de gauche tend vers 0 quand t tend vers \infty. De plus, en procédant à une nouvelle intégration par parties analogue à la première nous avons, en posant,

u = t ^{2k - 2} \Rightarrow u' = (2k - 2) \cdot t ^{2k - 3}

v' = t \cdot e ^{-\frac{t ^2}{2}} \Rightarrow v = - e ^{\frac{- t ^2}{2}}

\int_R 2k \cdot t ^{2k - 1} \cdot e ^{- \frac{t ^2}{2}} dt = 2 k \cdot (2 k - 2) \cdot \int_R t ^{2 k - 3} \cdot e ^{-\frac{t ^2}{2}} dt

Car, un fois de plus, le terme de gauche s’annule. En continuant à simplifier en procédant à d’autres intégration par parties, nous avons au final,

\int_R 2k \cdot t ^{2k - 1} \cdot e ^{- \frac{t ^2}{2}} dt = 2 k \times (2 k - 2) \cdots \times 4 \times 2 \times \times \int_R t e ^{-\frac{t ^2}{2}} dt = 0

Car \int_R t e ^{-\frac{t ^2}{2}} dt = 0 puisqu’en procédant au changement de variable u = \frac{t ^2}{2} \Rightarrow 2 \cdot du = 2 \cdot t \cdot dt nous retrouvons l’intégrale \int_R e ^{- u} du = [- e ^{-u}]_R qui converge vers 0 puisque t ^2 > 0, \forall t et donc u > 0, \forall u.

fonction de densité: f(X) = \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot e ^{-\frac{1}{2} \cdot (\frac{X - \mu}{\sigma}) ^2}

Un exemple de fonction de densité d’une loi normale standard (source wikipédia):

addfonction de répartition: F(X) = \frac{1}{2} \cdot (1 + erf(\frac{X - \mu}{\sigma \cdot \sqrt{2}})), où erf(x) = \frac{2}{\pi} \cdot \int_0 ^x e ^{-t ^2} dt désigne la fonction erreur de Gauss

démonstration de la fonction de répartition de la loi normale standard:

F(X) = P(X \leq x) = \int_{- \infty} ^x \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot e ^{- \frac{1}{2} \cdot (\frac{x - \mu}{\sigma}) ^2} dx

= \int_{- \infty} ^0 \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot e ^{- \frac{1}{2} \cdot (\frac{x - \mu}{\sigma}) ^2} dx + \int_0 ^x \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot e ^{- \frac{1}{2} \cdot (\frac{x - \mu}{\sigma}) ^2} dx

Or, comme F(X) fonction de répartition, nous avons que:

\int_{- \infty} ^0 \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot e ^{- \frac{1}{2} \cdot (\frac{x - \mu}{\sigma}) ^2} dx = \frac{1}{2}

Pour simplifier le terme de droite, nous allons devoir procéder au changement de variable suivant:

t = \frac{x - \mu}{\sigma \cdot \sqrt{2}} \Rightarrow x = t \cdot \sigma \sqrt{2} + \mu \Rightarrow dx = \sqrt{2} \cdot \sigma dt

Nous avons donc,

\int_0 ^x \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot e ^{- \frac{1}{2} \cdot (\frac{x - \mu}{\sigma}) ^2} dx = \int_0 ^x \frac{1}{\sigma \cdot \sqrt{2}} \cdot \sqrt{2} \cdot \sigma e ^{-t ^2} dt

= \frac{1}{\sqrt{\pi}} \cdot \int_0 ^x e ^{-t ^2} dt

Nous reconnaissons là directement la fonction de la fonction erreur (divisée par 2).  Ainsi,

F(X) = \frac{1}{2} + \frac{1}{2} \cdot erf(t) = \frac{1}{2} \times (1 + erf(\frac{X - \mu}{\sigma \cdot \sqrt{2}}))

Un exemple de fonction de répartition d’une loi normale standard (source wikipédia):

addespérance mathématique: E[X] = \mu

démonstration de l’espérance de la loi normale standard: 

E[X] = \int_R x \cdot f(x) dx = \frac{2}{\sigma \sqrt{2 \pi}} \cdot \int_0 ^{ +\infty} x \cdot e ^{- \frac{1}{2} \cdot (\frac{x - \mu}{\sigma}) ^2} dx, par symétrie de la densité de la loi normale.

En procédant au changement de variable t = \frac{X - \mu}{\sigma} \Rightarrow t \cdot \sigma + \mu = X \Rightarrow dx = \sigma \cdot dt, nous obtenons:

E[X] = \frac{2}{\sigma \cdot \sqrt{2 \pi}} \cdot \int_0 ^{+\infty} (t \cdot \sigma + \mu) \cdot e ^{-\frac{t ^2}{2}} \cdot \sigma \cdot dt

= \frac{2 \sigma}{\sqrt{2 \pi}} \cdot \int_0 ^{+\infty} t \cdot e ^{-\frac{t ^2}{2}} dt + \frac{2 \mu}{\sqrt{2 \pi}} \cdot \int_0 ^{+\infty} e ^{- \frac{t ^2}{2}} dt

Nous retrouvons la fonction de répartition de la loi normale et \int_0 ^{+\infty} e ^{-\frac{t ^2}{2}} dt = \frac{\sqrt{2 \pi}}{2} par propriété (nous rappelons que la fonction de répartition sur R vaut 1.

Pour le terme de gauche, nous nous reportons aux équations générales des moments d’ordre kk = 1 donc impair, ainsi \int_0 ^{+\infty} t \cdot e ^{-\frac{t ^2}{2}} dt = 0.

Nous avons donc,

E[X] = \frac{2 \sigma}{\sqrt{2 \pi}} \times 0 + \frac{2 \mu}{\sqrt{2 \pi}} \times \frac{\sqrt{2 \pi}}{2} = \mu

variance: V(X) = \sigma ^2

démonstration de la variance de la loi normale standard:

V(X) = E[X ^2] - E ^2 [X] = E[X ^2] - \mu ^2

Déterminons E[X ^2] = \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot \int_R x ^2 e ^{- \frac{1}{2} \cdot (\frac{x - \mu}{\sigma}) ^2} dx

En procédant au changement de variable t = \frac{X - \mu}{\sigma} \Rightarrow t \cdot \sigma + \mu = X \Rightarrow dx = \sigma \cdot dt, nous obtenons:

E[X ^2] = \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot \int_R (t \cdot \sigma + \mu) ^2 e ^{- \frac{t ^2}{2}} \cdot \sigma dt

= \frac{1}{\sqrt{2 \pi}} \times [\sigma ^2 \cdot \int_R t ^2 e ^{-\frac{t ^2}{2}} dt + 2 \mu \cdot \sigma \cdot \int_R t e ^{-\frac{t ^2}{2}} dt + \mu ^2 \cdot \int_R e ^{- \frac{t ^2}{2}} dt]

Or, \int_R e ^{- \frac{t ^2}{2}} = \sqrt{2 \pi} puisque nous reconnaissons la fonction de répartition d’une loi normale à \sqrt{2 \pi} prés.

Le terme \int_R t e ^{-\frac{t ^2}{2}} dt = 0 si nous nous reportons à la forme générale que nous avons présenté en introduction, k = 1 étant donc impair.

Enfin, de manière analogue pour le terme \int_R t ^2 e ^{-\frac{t ^2}{2}} = \sqrt{2 \pi} avec k = 2 pair.

Nous avons donc,

E[X ^2] = \frac{1}{\sqrt{2 \pi}} \times [\sigma ^2 \times \sqrt{2 \pi} + 2 \mu \cdot \sigma \times 0 + \mu ^2 \times \sqrt{2 \pi}] = \sigma ^2 + \mu ^2

Finalement,

V(X) = E[X ^2] - E ^2 [X] = \sigma ^2 + \mu ^2 - \mu ^2 = \sigma ^2

coefficient d’asymétrie\gamma_1 = 0

démonstration du coefficient d’asymétrie de la loi normale standard:

\gamma_1 = \frac{1}{\sigma ^3} \cdot E[X - E[X]] ^3 = \frac{1}{\sigma ^3} \cdot (E[X ^3] - 3 E[X] \cdot E[X ^2] + 3 E ^2[X] \cdot E[X] - E[X] ^3 \cdot E[1])

Avec E[X] = \mu.

Nous présentons ci-dessous la simplification des différentes termes:

E[1] = 1 car il s’agit de la formule de la fonction de répartition, qui vaut 1 sur R

E[X ^2] = \sigma ^2 + \mu ^2, voir démonstration de la variance

E[X ^3] = \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot \int_R x ^3 \cdot e ^{- \frac{1}{2} \cdot (\frac{x - \mu}{\sigma}) ^2} dx

Nous pouvons simplifier ce terme en effectuant le changement de variable t = \frac{X - \mu}{\sigma} \Rightarrow t \cdot \sigma + \mu = X \Rightarrow dx = \sigma \cdot dt, nous obtenons alors:

E[X ^3] = \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot (\int_R (t \cdot \sigma) ^3 e ^{-\frac{t ^2}{2}} \cdot \sigma dt + 3 \int_R (t \cdot \sigma) ^2 \cdot \mu e ^{-\frac{t ^2}{2}} \cdot \sigma dt + 3 \int_R t \cdot \sigma \cdot \mu ^2 e ^{-\frac{t ^2}{2}} \cdot \sigma dt

= \frac{\sigma ^4}{\sigma \cdot \sqrt{2 \pi}} \times \int_R t ^3 e ^{- \frac{t ^2}{2}} dt + 3 \frac{\sigma ^3 \mu}{\sigma \cdot \sqrt{2 \pi}} \times \int_R t ^2 e ^{- \frac{t ^2}{2}} dt + 3 \frac{\sigma ^2 \mu ^2}{\sigma \cdot \sqrt{2 \pi}} \times \int_R t e ^{- \frac{t ^2}{2}} dt + \frac{\mu ^3 \sigma}{\sigma \cdot \sqrt{2 \pi}} \times \int_R e ^{- \frac{t ^2}{2}} dt

= \frac{\sigma ^4}{\sigma \cdot \sqrt{2 \pi}} \times 0 - 3 \frac{\sigma ^3 \mu}{\sigma \cdot \sqrt{2 \pi}} \times \sqrt{2 \pi} + 3 \frac{\sigma ^2 \mu ^2}{\sigma \cdot \sqrt{2 \pi}} \times 0 - \frac{\mu ^3 \sigma}{\sigma \cdot \sqrt{2 \pi}} \times \sqrt{2 \pi} dt

= 3 \sigma ^2 \mu + \mu ^3

Soit E [X ^3] = 3 \sigma ^2 \mu + \mu ^3, si nous insérons ce résultat dans le calcul de \gamma_1, nous avons:

\gamma_1 = \frac{1}{\sigma ^3} \cdot E[X - E[X]] ^3 = \frac{1}{\sigma ^3} \cdot (E[X ^3] - 3 E[X] \cdot E[X ^2] + 3 E ^2[X] \cdot E[X] - E[X] ^3 \cdot E[1])

= \frac{1}{\sigma ^3} \times (3 \sigma ^2 \mu + \mu ^3 - 3 \mu \cdot (\sigma ^2 + \mu ^2) + 3 \mu ^2 \cdot \mu - \mu ^3)

= 0

coefficient d’aplatissement normalisé: \gamma_2 = 0

démonstration du coefficient d’aplatissement de la loi normale standard:

Nous avons \gamma_2 = \gamma_2 ' - 3. Calculons dans un premier temps le terme \gamma_2 '.

\gamma_2 ' = \frac{1}{\sigma ^4} \cdot E[X - E[X]] ^4

= \frac{1}{\sigma ^4} \cdot (E[X^4] - 4 E[X] \cdot E[X ^3] + 6 E ^2[X] \cdot E[X ^2] - 4 E ^3 [X] \cdot E[X] + E ^4 [X])

Calculons chacun des termes à part:

E[X] = \mu

E[X ^2] = \sigma ^2 + \mu ^2, voir démonstration de la variance

E[X ^3] = 3 \sigma ^2 \mu + \mu ^3, voir démonstration de \gamma_1

Il nous reste plus qu’à calculer la forme simplifier de E[X ^4] = \frac{1}{\sigma \sqrt{2 \pi}} \cdot \int_R x ^4 e ^{- \frac{1}{2} \cdot (\frac{x - \mu}{\sigma}) ^2} dx.

En effectuant le changement de variable t = \frac{X - \mu}{\sigma} \Rightarrow t \cdot \sigma + \mu = X \Rightarrow dx = \sigma \cdot dt, nous obtenons que:

E[X ^4] = \frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot \sigma \cdot [\int_R (t \sigma) ^4 e ^{- \frac{t ^2}{2}} dt + 4 \int_R \mu \cdot (t \sigma) ^3 e ^{- \frac{t ^2}{2}} dt + 6 \int_R \mu ^2 \cdot (t \sigma) ^2 e ^{- \frac{t ^2}{2}} dt + 4 \int_R \mu ^3 \cdot t \sigma e ^{- \frac{t ^2}{2}} dt + \int_R \mu ^4 e ^{- \frac{t ^2}{2}} dt]

En nous reportant aux formes générales de \int_R t ^k e ^{- \frac{t ^2}{2}} dt en fonction de la parité de k, nous pouvons simplifier:

E[X ^4] = \frac{\sigma ^4}{\sqrt{2 \pi}} \times 3 \sqrt{2 \pi} + \frac{4 \mu \sigma ^3}{\sqrt{2 \pi}} \times 0 + \frac{6 \mu ^2 \sigma ^2}{\sqrt{2 \pi}} \times \sqrt{2 \pi} + \frac{4 \mu ^3 \sigma ^4}{\sqrt{2 \pi}} \times 0 + \frac{\mu ^4}{\sqrt{2 \pi}} \times \sqrt{2 \pi}

= 3 \sigma ^4 + 6 \mu ^2 \sigma ^2 + \mu ^4

Nous avons,

\gamma_2 ' = \frac{1}{\sigma ^4} \cdot [3 \sigma ^4 + 6 \mu ^2 \sigma ^2 + \mu ^4 - 4 \mu \times (3 \sigma ^2 \mu + \mu ^3) + 6 \mu ^2 \times (\sigma ^2 + \mu ^2) - 4 \mu ^3 \times \mu + \mu ^4] = 3

Ainsi, \gamma_2 = \gamma_2 ' - 3 = 3 - 3 = 0

– utilisation la plus répandue: modèle principal utilisation dans un très grand nombre de domaines ainsi que dans la distribution de nombreux tests statistiques

 loi log-normale standard de paramètres \mu, \sigma

fonction de densité: f(X) = \frac{1}{x \sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} définie pour x > 0

Un exemple de fonction de densité d’une loi log-normale standard (source wikipédia):

fonction de répartition: F(X) = \frac{1}{2} + \frac{1}{2} erf(\frac{ln(x) - \mu}{\sigma \sqrt{2}}), où erf(x) = \frac{2}{\pi} \cdot \int_0 ^x e ^{-t ^2} dt désigne la fonction erreur de Gauss

démonstration de la fonction de répartition de la loi log-normale standard:

F(X) = P(X \leq x) = \int_0 ^x \frac{1}{x \sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx

= \int_0 ^{\mu} \frac{1}{x \sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx  + \int_{\mu} ^x \frac{1}{x \sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx

= \frac{1}{2} + \int_{\mu} ^x \frac{1}{x \sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx, par symétrie de la loi log-normale en \mu

On pose le changement de variable suivant:

t = \frac{[ln(x) - \mu] ^2}{2 \sigma ^2} \Rightarrow x = ^{t \sigma \sqrt{2} + \mu} \Rightarrow dx = \sigma \sqrt{2} e ^{t \sigma \sqrt{2} + \mu}

On obtient ainsi,

F(X) = \frac{1}{2} + \int_{\mu} ^x \frac{1}{e ^{t \sigma \sqrt{2} + \mu} \sigma \sqrt{2 \pi}} e ^{-t ^2} \sigma \sqrt{2} e ^{t \sigma \sqrt{2} + \mu} dt

= \frac{1}{2} + \frac{1}{\sqrt{\pi}} \int_{\mu} ^x e ^{-t ^2} dt

= \frac{1}{2} + \frac{1}{2} erf (\frac{ln(x) - \mu}{\sigma \sqrt{2}}), puisque l’on reconnait la formule de la fonction erreur de Gauss

Un exemple de fonction de répartition d’une loi log-normale standard (source wikipédia):

espérance mathématique: E[X] = e ^{\mu + \frac{\sigma ^2}{2}}

démonstration de l’espérance de la loi log-normale standard: 

E[X] =  \int_0 ^{+ \infty} x \frac{1}{x \sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx = \int_0 ^x \frac{1}{\sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx

On pose le changement de variable suivant:

t = \frac{[ln(x) - \mu] ^2}{2 \sigma ^2} \Rightarrow x = ^{t \sigma \sqrt{2} + \mu} \Rightarrow dx = \sigma \sqrt{2} e ^{t \sigma \sqrt{2} + \mu}

On obtient ainsi,

E[X] = \int_0 ^{+ \infty} \frac{1}{\sigma \sqrt{2 \pi}} e ^{-t^2} \sigma \sqrt{2} e ^{t \sigma \sqrt{2} + \mu} dt = \frac{1}{\sqrt{\pi}} \int_0 ^{+ \infty} e ^{- t ^2 + t \sigma \sqrt{2} + \mu} dt

Afin de poursuivre on va devoir se servir de la formule suivante:

\int_0 ^{+ \infty} e ^{- (a x^2 + b x + c)} dx = \frac{\sqrt{\pi}}{a} e ^{\frac{b ^4 - 4 a c}{4 a}}

On a alors pour a = 1, b = - \sigma \sqrt{2}, c = - \mu,

E[X] = \frac{1}{\sqrt{\pi}} \cdot \frac{\sqrt{\pi}}{1} \cdot e ^{\frac{(-\sigma \sqrt{2}) ^2 - 4 \cdot 1 \cdot (- \mu)}{4 \cdot 1}} = e ^{\frac{\sigma ^2}{2} + \mu}

variance: V(X) = (e ^{\sigma ^2} - 1) e ^{2 \mu + \sigma ^2}

démonstration de la variance de la loi log-normale standard:

V(X) = E[X ^2] - E ^2[X] = E[X ^2] - e ^{\sigma ^2 + 2 \mu}

Concernant E[X ^2],

E[X ^2] =  \int_0 ^{+ \infty} x ^2 \frac{1}{x \sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx = \int_0 ^x x \frac{1}{\sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx

On pose le changement de variable suivant:

t = \frac{[ln(x) - \mu] ^2}{2 \sigma ^2} \Rightarrow x = ^{t \sigma \sqrt{2} + \mu} \Rightarrow dx = \sigma \sqrt{2} e ^{t \sigma \sqrt{2} + \mu}

On obtient ainsi,

E[X ^2] = \int_0 ^{+ \infty} \frac{e ^{t \sigma \sqrt{2} + \mu}}{\sigma \sqrt{2 \pi}} e ^{-t^2} \sigma \sqrt{2} e ^{t \sigma \sqrt{2} + \mu} dt = \frac{1}{\sqrt{\pi}} \int_0 ^{+ \infty} e ^{- t ^2 + 2 t \sigma \sqrt{2} + 2 \mu} dt

Afin de poursuivre on va devoir se servir de la formule suivante:

\int_0 ^{+ \infty} e ^{- (a x^2 + b x + c)} dx = \frac{\sqrt{\pi}}{a} e ^{\frac{b ^4 - 4 a c}{4 a}}

On a alors pour a = 1, b = - 2 \sigma \sqrt{2}, c = - 2 \mu,

E[X ^2] = \frac{1}{\sqrt{\pi}} \cdot \frac{\sqrt{\pi}}{1} \cdot e ^{\frac{(-2 \sigma \sqrt{2}) ^2 - 4 \cdot 1 \cdot (- 2 \mu)}{4 \cdot 1}} = e ^{2 \sigma ^2 + 2 \mu}

D’où,

V(X) = e ^{2 \sigma ^2 + 2 \mu} - e ^{\sigma ^2 + 2 \mu} = e ^{\sigma ^2} e ^{\sigma ^2 + \mu} - e ^{\sigma ^2 + 2 \mu} = e ^{\sigma ^2 + 2 \mu} (e ^{\sigma ^2} - 1)

coefficient d’asymétrie\gamma_1 = (e ^{\sigma ^2} + 2) \sqrt{e ^{\sigma ^2} - 1}

démonstration du coefficient d’asymétrie de la loi log-normale standard:

\gamma_1 = \frac{1}{V(X) ^{\frac{3}{2}}} \cdot (E[X ^3] - 3 E ^2[X] E[X] + 2 E ^3 [X])

= \frac{1}{e ^{\frac{3}{2}\sigma ^2 + 3 \mu} (e ^{\sigma ^2} - 1) ^{\frac{3}{2}}} (E [X ^3] - 3 \cdot e ^{\frac{5}{2} \sigma ^2 + 3 \mu} + 2 \cdot e ^{\frac{3}{2} \sigma ^2 + 3 \mu})

Concernant E[X ^3],

E[X ^3] =  \int_0 ^{+ \infty} x ^3 \frac{1}{x \sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx = \int_0 ^x x ^2 \frac{1}{\sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx

On pose le changement de variable suivant:

t = \frac{[ln(x) - \mu] ^2}{2 \sigma ^2} \Rightarrow x = ^{t \sigma \sqrt{2} + \mu} \Rightarrow dx = \sigma \sqrt{2} e ^{t \sigma \sqrt{2} + \mu}

On obtient ainsi,

E[X ^3] = \int_0 ^{+ \infty} \frac{e ^{2 t \sigma \sqrt{2} + 2 \mu}}{\sigma \sqrt{2 \pi}} e ^{-t^2} \sigma \sqrt{2} e ^{t \sigma \sqrt{2} + \mu} dt = \frac{1}{\sqrt{\pi}} \int_0 ^{+ \infty} e ^{- t ^2 + 3 t \sigma \sqrt{2} + 3 \mu} dt

Afin de poursuivre on va devoir se servir de la formule suivante:

\int_0 ^{+ \infty} e ^{- (a x^2 + b x + c} dx = \frac{\sqrt{\pi}}{a} e ^{\frac{b ^4 - 4 a c}{4 a}}

On a alors pour a = 1, b = - 3 \sigma \sqrt{2}, c = - 3 \mu,

E[X ^3] = \frac{1}{\sqrt{\pi}} \cdot \frac{\sqrt{\pi}}{1} \cdot e ^{\frac{(-3 \sigma \sqrt{2}) ^2 - 4 \cdot 1 \cdot (- 3 \mu)}{4 \cdot 1}} = e ^{\frac{9}{2} \sigma ^2 + 3 \mu}

D’où,

\gamma_1 = \frac{1}{e ^{\frac{3}{2} \sigma ^2 + 3 \mu} (e ^{\sigma ^2} - 1) ^{\frac{3}{2}}} (e ^{\frac{9}{2} \sigma ^2 + 3 \mu}- 3 \cdot e ^{\frac{5}{2} \sigma ^2 + 3 \mu} + 2 \cdot e ^{\frac{3}{2} \sigma ^2 + 3 \mu})

= \frac{1}{(e ^{\sigma ^2} - 1) ^{\frac{3}{2}}} (e ^{3 \sigma ^2} - 3 e ^{\sigma ^2} + 2), après division par e ^{\frac{3}{2}\sigma ^2 + 3 \mu}

= \frac{1}{(e ^{\sigma ^2} - 1) ^{\frac{3}{2}}} (e ^{3 \sigma ^2} - 2 e ^{2 \sigma ^2}) + e ^{\sigma ^2} + 2 e ^{2 \sigma ^2} - 4 e ^{\sigma ^2} + 2)

= \frac{1}{(e ^{\sigma ^2} - 1) ^{\frac{3}{2}}} (e ^{\sigma ^2} - 1) ^2 (e ^{\sigma ^2} + 2)

= (e ^{\sigma ^2} + 2) \sqrt{e ^{\sigma ^2} - 1)}

coefficient d’aplatissement normalisé: \gamma_2 = e ^{4 \sigma ^2} + 2 e ^{3 \sigma ^2} + 3 e ^{2 \sigma ^2} - 6

démonstration du coefficient d’aplatissement de la loi normale standard:

\gamma_2 = \gamma_2 ' - 3

Or,

\gamma_2 ' = \frac{1}{V(X) ^2} \cdot (E[X ^4] - 4 E ^3[X] E[X] + 6 E[X ^3] E ^2[X] - 2 E ^3 [X])

= \frac{1}{e ^{2 \sigma ^2 + 4 \mu} (e ^{\sigma ^2} - 1) ^2} (E [X ^4] - 4 \cdot e ^{5 \sigma ^2 + 4 \mu} + 6 \cdot e ^{3 \sigma ^2 + 4 \mu} - 3 \cdot e ^{2 \sigma ^2 + 4 \mu})

Concernant E[X ^4],

E[X ^4] =  \int_0 ^{+ \infty} x ^4 \frac{1}{x \sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx = \int_0 ^x x ^3 \frac{1}{\sigma \sqrt{2 \pi}} \cdot e ^{-\frac{[ln(x) - \mu] ^2}{2 \sigma ^2}} dx

On pose le changement de variable suivant:

t = \frac{[ln(x) - \mu] ^2}{2 \sigma ^2} \Rightarrow x = ^{t \sigma \sqrt{2} + \mu} \Rightarrow dx = \sigma \sqrt{2} e ^{t \sigma \sqrt{2} + \mu}

On obtient ainsi,

E[X ^4] = \int_0 ^{+ \infty} \frac{e ^{3 t \sigma \sqrt{2} + 3 \mu}}{\sigma \sqrt{2 \pi}} e ^{-t^2} \sigma \sqrt{2} e ^{t \sigma \sqrt{2} + \mu} dt

= \frac{1}{\sqrt{\pi}} \int_0 ^{+ \infty} e ^{- t ^2 + 4 t \sigma \sqrt{2} + 4 \mu} dt

Afin de poursuivre on va devoir se servir de la formule suivante:

\int_0 ^{+ \infty} e ^{- (a x^2 + b x + c} dx = \frac{\sqrt{\pi}}{a} e ^{\frac{b ^4 - 4 a c}{4 a}}

On a alors pour a = 1, b = - 4 \sigma \sqrt{2}, c = - 4 \mu,

E[X ^4] = \frac{1}{\sqrt{\pi}} \cdot \frac{\sqrt{\pi}}{1} \cdot e ^{\frac{(-4 \sigma \sqrt{2}) ^2 - 4 \cdot 1 \cdot (- 4 \mu)}{4 \cdot 1}} = e ^{8 \sigma ^2 + 4 \mu}

D’où,

\gamma_2 ' = \frac{1}{e ^{2 \sigma ^2 + 4 \mu} (e ^{\sigma ^2} - 1) ^2} (e ^{8 \sigma ^2 + 4 \mu} - 4 \cdot e ^{5 \sigma ^2 + 4 \mu} + 6 \cdot e ^{3 \sigma ^2 + 4 \mu} - 3 \cdot e ^{2 \sigma ^2 + 4 \mu})

= \frac{1}{(e ^{\sigma ^2} - 1) ^2} (e ^{6 \sigma ^2} - 4 \cdot e ^{5 \sigma ^2} + 6 \cdot e ^{3 \sigma ^2} - 3), après division par e ^{2 \sigma ^2 + 4 \mu}

= \frac{1}{(e ^{\sigma ^2} - 1) ^2} (e ^{6 \sigma ^2} - 2 \cdot e ^{5 \sigma ^2} + e ^{4 \sigma ^2} + 2 \cdot e ^{5 \sigma ^2} - 4 \cdot e ^{4 \sigma ^2} + 2 \cdot e ^{3 \sigma ^2} + 3 \cdot e ^{4 \sigma ^2} - 6 \cdot e ^{3 \sigma ^2} + 3 \cdot e ^{2 \sigma ^2} - 3 \cdot e ^{2 \sigma ^2} + 6 \cdot e ^{\sigma ^2} - 3)

= \frac{1}{(e ^{\sigma ^2} - 1) ^2} (e ^{4 \sigma ^2} + 2 \cdot e ^{3 \sigma ^2} + 3 \cdot e ^{2 \sigma ^2} - 3) (e ^{2 \sigma ^2} - 2  \cdot e ^{\sigma ^2} + 1)

= \frac{1}{(e ^{\sigma ^2} - 1) ^2} (e ^{4 \sigma ^2} + 2 \cdot e ^{3 \sigma ^2} + 3 \cdot e ^{2 \sigma ^2} - 3) (e ^{\sigma ^2} - 1) ^2

= e ^{4 \sigma ^2} + 2 \cdot e ^{3 \sigma ^2} + 3 \cdot e ^{2 \sigma ^2} - 3

D’où,

\gamma_2 = e ^{4 \sigma ^2} + 2 e ^{3 \sigma ^2} + 3 e ^{2 \sigma ^2} - 3 - 3 = e ^{4 \sigma ^2} + 2 e ^{3 \sigma ^2} + 3 e ^{2 \sigma ^2} - 6

– utilisation la plus répandue: modélisation d’une variable aléatoire pouvant être vue comme la multiplication d’un grands nombres de facteurs indépendants.

 loi \Gamma de paramètres \alpha, \beta

La loi \Gamma est défini pour \alpha, \beta > 0 et x \in [0, + \infty[. Elle se base sur la fonction \Gamma suivante:

\Gamma (\alpha) = \int_0 ^{\infty} e ^{-t} t ^{\alpha - 1} dt = (\alpha - 1) \cdot \Gamma (\alpha - 1) = \alpha !

démonstration de la fonction \Gamma:

En intégrant par partie la forme de base de la fonction \Gamma en posant,

u = t ^{\alpha - 1} \Rightarrow u' = (\alpha - 1) \cdot t ^{\alpha - 2}

v' = e ^{-t} \Rightarrow v = - e ^{-t}

Nous obtenons alors:

\Gamma (\alpha) = \int_0 ^{\infty} e ^{-t} t ^{\alpha - 1} dt = [- t ^{\alpha - 1} e ^{-t}]_0 ^{\infty} + \int_0 ^{\infty} (\alpha - 1) e ^{-t} t ^{\alpha - 2} dt = (\alpha - 1) \Gamma (\alpha - 1)

Puisque le premier terme tend vers 0 quand t \rightarrow \infty. En effet, l’exponentielle au dénominateur tend plus vite que le numérateur.

En continuant par intégration par parties successives analogues à la première, nous retrouvons bien que \Gamma (\alpha) = \alpha !

– fonction de densitéf(X) = \frac{\beta ^{\alpha}}{\Gamma(\alpha)} x ^{\alpha - 1} e ^{-\beta \cdot x}

Un exemple de fonction de densité d’une loi \Gamma (source wikipédia, k = \alpha, \theta = \frac{1}{\beta}):

add1– fonction de répartitionF(X) = e ^{- \beta \cdot x} \sum_{k = \alpha} ^{\infty} \frac{(\beta \cdot x) ^k}{k !}

démonstration de la fonction de répartition de la loi \Gamma:

P(X \leq x) = \int_0 ^x \frac{\beta ^{\alpha}}{\Gamma (\alpha)} x ^{\alpha - 1} e ^{-\beta \cdot x} dx

Procédant à un première intégration par partie:

u = x ^{\alpha - 1} \Rightarrow u' = (\alpha - 1) \cdot x ^{\alpha - 2}

v' = e ^{- \beta \cdot x} \Rightarrow v = -\frac{1}{\beta} e ^{- \beta \cdot x}

Nous obtenons alors,

F(X) = \frac{\beta ^{\alpha}}{(\alpha - 1)!} \times ([- \frac{x ^{\alpha - 1}}{\beta} e ^{- \beta \cdot x}]_0 ^x + \int_0 ^x \frac{\alpha - 1}{\beta} e ^{-\beta \cdot x} x ^{\alpha - 2} dx) 

= -\frac{\beta ^{\alpha - 1}}{(\alpha - 1)!} \times x ^{\alpha - 1} e ^{-\beta \cdot x} + \frac{\beta ^{\alpha - 1}}{(\alpha - 2)!} \times \int_0 ^x e ^{-\beta \cdot x} x ^{\alpha - 2} dx

Une seconde intégration par partie, en posant:

u = x ^{\alpha - 2} \Rightarrow u' = (\alpha - 2) \cdot x ^{\alpha - 3}

v' = e ^{- \beta \cdot x} \Rightarrow v = -\frac{1}{\beta} e ^{- \beta \cdot x}

Nous pouvons donc écrire,

F(X) = -\frac{\beta ^{\alpha - 1}}{(\alpha - 1)!} x ^{\alpha - 1} e ^{-\beta \cdot x} + \frac{\beta ^{\alpha - 1}}{(\alpha - 2)!} \times ([-\frac{x ^{\alpha - 2}}{\beta} e ^{-\beta \cdot x}]_0 ^x + \int_0 ^x \frac{\alpha - 2}{\beta} x ^{\alpha - 3} e ^{-\beta \cdot x} dx)

= -\frac{\beta ^{\alpha - 1}}{(\alpha - 1)!} x ^{\alpha - 1} e ^{-\beta \cdot x} - \frac{\beta ^{\alpha - 2}}{(\alpha - 2)!} x ^{\alpha - 2} e ^{-\beta \cdot x} + \frac{\beta ^{\alpha - 2}}{(\alpha - 3)!} \times \int_0 ^x e ^{-\beta \cdot x} x ^{\alpha - 3} dx)

En continuant à procédé par intégration par parties successive analogue à la première (et donc à la seconde), nous arrivons à simplifier la fonction de répartition en:

F(X) = - \sum_{k = 2} ^{\alpha - 1} \frac{\beta ^k}{k !} x ^k e^{- \beta \cdot x} + \int_0 ^{\infty} \beta e ^{- \beta \cdot x} dx

Or, \int_0 ^{\infty} \beta e ^{- \beta \cdot x} dx = [- e ^{\beta \cdot x}]_0 ^x = - e ^{- \beta \cdot x} + 1

Nous en déduisons donc que,

F(X) = 1 - \sum_{k = 1} ^{\alpha - 1} \frac{\beta ^k}{k !} x ^k e ^{-\beta \cdot x} = 1 - P(X > x) = P(X \leq x) = \sum_{k = \alpha} ^{+ \infty} \frac{\beta ^k}{k !} x ^k e ^{-\beta \cdot x}

Puisque F(X) est la fonction de répartition.

Un exemple de fonction de répartition d’une loi \Gamma (source wikipédia, k = \alpha, \theta = \frac{1}{\beta}):

add2– espérance mathématique: E(X) = \frac{\alpha}{\beta}

démonstration de l’espérance de la loi \Gamma:

E[X] = \int_0 ^{+\infty} x \cdot f(x) dx = \int_0 ^{+ \infty} x \frac{\beta ^{\alpha}}{\Gamma (\alpha)} x ^{\alpha - 1} e ^{- \beta \cdot x} dx = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \int_0 ^{+ \infty} x ^{\alpha} e ^{-\beta \cdot x} dx

En posant le changement de variable:

u = x ^{\alpha} \Rightarrow u' = \alpha x ^{\alpha - 1}

v' = e ^{-\beta \cdot x} \Rightarrow v = - \frac{1}{\beta} e ^{- \beta \cdot x}

Nous avons alors,

E[X] = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} [(-\frac{1}{\beta}) x ^{\alpha} e ^{- \beta \cdot x}]_0 ^{\infty} - \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \int_0 ^{\infty} (- \frac{1}{\beta}) \alpha x ^{\alpha - 1} e ^{- \beta \cdot x} dx

= \frac{\beta ^{\alpha - 1}}{\Gamma (\alpha)} \alpha \int_0 ^{\infty} x ^{\alpha - 1} e ^{- \beta \cdot x} dx

Puisque le premier terme converge vers 0.

Nous procédons à une seconde intégration par parties en posant:

u = x ^{\alpha - 1} \Rightarrow u' = (\alpha - 1) x ^{\alpha - 2}

v' = e ^{-\beta \cdot x} \Rightarrow v = - \frac{1}{\beta} e ^{-\beta \cdot x}

Nous avons,

E[X] = \frac{\beta ^{\alpha - 1}}{\Gamma (\alpha)} \alpha [(- \frac{1}{\beta}) e ^{- \beta \cdot x} x ^{\alpha - 1}]_0 ^{\infty} - \frac{\beta ^{\alpha - 1}}{\Gamma (\alpha)} \alpha \int_0 ^{\infty} (- \frac{\alpha - 1}{\beta}) (\alpha - 2) x ^{\alpha - 1} e ^{- \beta \cdot x} dx

= \frac{\beta ^{\alpha - 2}}{\Gamma (\alpha)} \alpha (\alpha - 1) \int_0 ^{\infty} x ^{\alpha - 1} e ^{- \beta \cdot x} dx

, puisque le premier terme converge vers 0.

En procédant par intégration par partie analogue à la première, et donc à la seconde, nous obtenons:

E[X] = 1 \times 2 \times \cdots \times \alpha \times \frac{1}{\Gamma (\alpha)} \times \frac{1}{\beta} = \frac{\alpha !}{(\alpha - 1)} \times \frac{1}{\beta} = \frac{\alpha}{\beta}

– variance: V(X) = \frac{\alpha}{\beta ^2}

démonstration de la variance de la loi \Gamma:

V(X) = E[X ^2] - E ^2[X] = E[X ^2] - \frac{\alpha ^2}{\beta ^2}

Calculons le terme de droite, 

E[X ^2] = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \int_0 ^{\infty} x ^2 x ^{\alpha - 1} e ^{- \beta \cdot x} dx = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \int_0 ^{\infty} x ^{\alpha + 1} e ^{- \beta \cdot x} dx

Effectuant l’intégration par parties en posant,

u = x ^{\alpha + 1} \Rightarrow u' = (\alpha + 1) x ^{\alpha}

v' = e ^{-\beta \cdot x} \Rightarrow v = - \frac{1}{\beta} e ^{-\beta \cdot x}

Nous avons alors,

E[X ^2] = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} [ - \frac{x ^{\alpha + 1}}{\beta} e ^{- \beta \cdot x}] + \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \cdot \frac{\alpha + 1}{\beta} \int_0 ^{\infty} x ^{\alpha} e ^{- \beta \cdot x} dx = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \cdot \frac{\alpha + 1}{\beta} \int_0 ^{\infty} x ^{\alpha} e ^{- \beta \cdot x} dx

, puisque le premier terme tend vers 0.

En procédant à une série d’intégration par parties analogue à la première, nous obtenons que:

E[X ^2] = \frac{\beta ^{\alpha}}{(\alpha - 1)!} \times \frac{1 \times \cdots \times \alpha \times (\alpha + 1)}{\beta ^{\alpha + 2}} = \frac{\alpha \cdot (\alpha + 1)}{\beta ^2}

Ainsi, 

V(X) = \frac{\alpha \cdot (\alpha + 1)}{\beta ^2} - \frac{\alpha ^2}{\beta ^2} = \frac{\alpha ^2 + \alpha - \alpha ^2}{\beta ^2} = \frac{\alpha}{\beta ^2}

 coefficient d’asymétrie: \gamma_1 = \frac{2}{\sqrt{\alpha}}

démonstration du coefficient d’asymétrie de la loi \Gamma:

\gamma_1 = \frac{1}{\sigma ^3} \cdot E[X - E[X]] ^3 = \frac{\beta ^3}{\alpha ^{\frac{3}{2}}} \cdot (E[X ^3] - 3 E[X] \cdot E[X ^2] + 3 E ^2 [X] \cdot E[X] - E ^3 [X])

Or, E[X] = \frac{\alpha}{\beta} et E[X ^2] = \frac{\alpha \cdot (\alpha - 1)}{\beta ^2} (voir démonstration de la variance).

Reste plus qu’à déterminer E[X ^3],

E[X ^3] = \int_0 ^{\infty} x ^3 \frac{\beta ^{\alpha}}{\Gamma (\alpha)} x ^{\alpha - 1} e ^{-\beta \cdot x} dx = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \int_0 ^{\infty} x ^{\alpha + 2} e ^{-\beta \cdot x} dx

En procédant par intégration par parties en posant,

u = x ^{\alpha + 2} \Rightarrow u' = (\alpha + 2) x ^{\alpha + 1}

v' = e ^{- \beta \cdot x} \Rightarrow v = - \frac{1}{\beta} e ^{- \beta \dot x}

Nous avons,

E[X ^3] = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \times ([(- \frac{1}{\beta}) e ^{- \beta \cdot x} x ^{\alpha + 2}]_0 ^{\infty} + \int_0 ^{\infty} \frac{\alpha + 2}{\beta} x ^{\alpha + 1} e ^{- \beta \cdot x} dx) = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \times \frac{\alpha + 2}{\beta} \int_0 ^{\infty} x ^{\alpha + 1} e ^{-\beta \cdot x} dx

, puisque le premier terme converge vers 0.

En poursuivant en appliquant une série d’intégration par parties analogue à la première, nous trouvons:

E[X ^3] = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \times \frac{1 \times 2 \times \cdots \times \alpha \times (\alpha + 1) \times (\alpha + 2)}{\beta ^{\alpha + 3}} = \frac{\alpha \times (\alpha + 1) \times (\alpha + 2)}{\beta ^3}

Nous pouvons désormais calculer une forme simplifier du coefficient \gamma_1,

\gamma_1 = \frac{\beta ^3}{\alpha ^{\frac{3}{2}}} \cdot (\frac{(\alpha + 2) (\alpha + 1) \alpha}{\beta ^3} - 3 \frac{\alpha}{\beta} \cdot \frac{\alpha (\alpha + 1)}{\beta ^2} + 3 \frac{\alpha ^2}{\beta ^2} \cdot \frac{\alpha}{\beta} - \frac{\alpha ^3}{\beta ^3}) = \frac{2}{\sqrt{\alpha}}

– coefficient d’aplatissement normalisé: \gamma_2 = \frac{6}{\alpha}

démonstration du coefficient d’aplatissement de la loi \Gamma:

\gamma_2 = \gamma_2 ' - 3

Calculons \gamma_2 ',

\gamma_2 ' = \frac{1}{\sigma ^4} \cdot E[X - E[X]] ^4

= \frac{\beta ^4}{\alpha ^4} \times (E[X ^4] - 4 E[X] \cdot E[X ^3] + 6 E ^2[X] \cdot E[X ^2] - 4 E ^3[X] \cdot E[X] + E ^4 [X])

Nous avons:

E[X] = \frac{\alpha}{\beta}

– E[X ^2] = \frac{\alpha \cdot (\alpha - 1)}{\beta ^2}, voir démonstration de la variance

E[X ^3] = \frac{\alpha \times (\alpha + 1) \times (\alpha + 2)}{\beta ^3}, voir démonstration du coefficient \gamma_1

Reste plus qu’à déterminer E[X ^4],

E[X ^4] = \int_0 ^{\infty} x ^4 \frac{\beta ^{\alpha}}{\Gamma (\alpha)} x ^{\alpha - 1} e ^{-\beta \cdot x} dx = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} x ^{\alpha + 3} \int_0 ^{\infty} e^{-\beta \cdot x} dx

En procédant par intégration par parties en posant,

u = x ^{\alpha + 3} \Rightarrow u' = (\alpha + 3) x ^{\alpha + 2}

v' = e ^{- \beta \cdot x} \Rightarrow v = - \frac{1}{\beta} e ^{- \beta \dot x}

Nous avons,

E[X ^4] = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \times ([(- \frac{1}{\beta}) e ^{- \beta \cdot x} x ^{\alpha + 3}]_0 ^{\infty} + \int_0 ^{\infty} \frac{\alpha + 3}{\beta} x ^{\alpha + 2} e ^{- \beta \cdot x} dx) = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \times \frac{\alpha + 3}{\beta} \int_0 ^{\infty} x ^{\alpha + 2} e ^{-\beta \cdot x} dx

, puisque le premier terme converge vers 0.

En poursuivant en appliquant une série d’intégration par parties analogue à la première, nous trouvons:

E[X ^4] = \frac{\beta ^{\alpha}}{\Gamma (\alpha)} \times \frac{1 \times 2 \times \cdots \times \alpha \times (\alpha + 1) \times (\alpha + 2) \times (\alpha + 3)}{\beta ^{\alpha + 4}} = \frac{\alpha \times (\alpha + 1) \times (\alpha + 2) \times (\alpha + 3)}{\beta ^4}

Nous pouvons désormais calculer une forme simplifiée du coefficient \gamma_2 ',

\gamma_2 ' = \frac{\beta ^4}{\alpha ^4} \times [\frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2) \cdot (\alpha + 3)}{\beta ^4} - 4 \frac{1}{\beta} \cdot \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2)}{\beta ^3} + 6 \frac{\alpha ^2}{\beta ^2} \cdot \frac{\alpha \cdot (\alpha + 1)}{\beta ^2} - 4 \frac{\alpha ^3}{\beta ^3} + \frac{\alpha ^4}{\beta ^4}] = \frac{3 \alpha + 6}{\alpha}

Nous trouvons ainsi, 

\gamma_2 = \frac{3 \alpha + 6}{\alpha} - 3 = \frac{6}{\alpha}

– utilisation la plus répandue: temps d’attente avant la production d’un certains nombres d’évènements aléatoires

 loi inverse-\Gamma de paramètres \alpha > 0, \beta > 0, x \in ]0; +\infty[

– fonction de densitéf(X) = \frac{\beta ^{\alpha}}{\Gamma(\alpha)} x ^{-\alpha-1} e^{- \frac{\beta}{x}}

Un exemple de fonction de densité d’une loi \Gamma (source Wikipédia):

add

– fonction de répartitionF(X) = \frac{\Gamma(\alpha,\frac{\beta}{x})}{\Gamma(\alpha)}

démonstration de la fonction de répartition de la loi inverse-\Gamma:

F(X) = P(X \leq x) = \int_0 ^x \frac{\beta ^{\alpha}}{\Gamma(\alpha)} x ^{-\alpha-1} e ^{-\frac{\beta}{x}} dx = \frac{1}{\Gamma(\alpha)} \int_0 ^x \beta ^{\alpha} x ^{-\alpha-1} e ^{-\frac{\beta}{x}} dx

On effectue le changement de variable suivant:

t = \frac{\beta}{t} \Rightarrow t = \frac{\beta}{x} \Rightarrow dt = - \frac{\beta}{t ^2} dt

On a alors,

F(X) = \frac{1}{\Gamma(\alpha)} \int_0 ^{\frac{\beta}{x}} \beta ^{\alpha} \frac{\beta ^{-\alpha-1}}{t ^{-\alpha-1}} e ^{-t} (-\frac{\beta}{t ^2}) dt

= - \frac{1}{\alpha} \int_0 ^<span style="font:400 16px/19.2px 'Noto Serif', Georgia, 'Times New Roman', Times, serif;text-align:left;text-transform:none;text-indent:0;letter-spacing:normal;text-decoration:none;word-spacing:0;display:inline !important;white-space:normal;cursor:text;orphans:2;float:none;background-color:transparent;">{\frac{\beta}{x}}</span> t ^{-\alpha-1} e ^{-t} dt

= \frac{1}{\alpha} \int_</span>{\frac{\beta}{x}} ^{\infty}<span style="font:400 16px/19.2px 'Noto Serif', Georgia, 'Times New Roman', Times, serif;text-align:left;text-transform:none;text-indent:0;letter-spacing:normal;text-decoration:none;word-spacing:0;display:inline !important;white-space:normal;cursor:text;orphans:2;float:none;background-color:transparent;"> t ^{-\alpha-1} e ^{-t} dt

On reconnait alors la fonction gamma incomplète de forme générale,

\Gamma(a,b) = \int_b ^{\infty} t^{a-1} e ^{-t} dt, avec a = \alpha et b = \frac{\beta}{x}

D’où,

F(X) = \frac{\Gamma(\alpha,\frac{\beta}{x}}{\Gamma(\alpha)}

Un exemple de fonction de répartition d’une loi \Gamma (source wikipédia):

add

– espérance mathématique: E(X) = \frac{\beta}{\alpha - 1}, \alpha > 1

démonstration de l’espérance de la loi inverse-\Gamma:

E[X] = \frac{\beta ^{\alpha}}{\gamma(\alpha)} \int_0 ^{\infty} x \cdot x ^{-\alpha-1} e ^{-\frac{\beta}{x}} dx

On effectue le changement de variable suivant:

t = \frac{\beta}{t} \Rightarrow t = \frac{\beta}{x} \Rightarrow dt = - \frac{\beta}{t ^2} dt

On a,

E[X] = \frac{\beta ^{\alpha}}{\Gamma(\alpha)} \int_0 ^{\infty} (\frac{\beta}{t}) ^{-\alpha} e ^{-t} \frac{\beta}{t ^2} dt= \frac{\beta}{\Gamma(\alpha)} \int_0 ^{\infty} t ^{\alpha-2} e ^{-t} dt= \beta \frac{\Gamma(\alpha-1)}{Gamma(\alpha)}= \frac{\beta}{\alpha-1}

– variance: V(X) = \frac{\beta ^2}{(\alpha-2) (\alpha-1)^2}, \alpha > 2

démonstration de la variance de la loi \Gamma:

V(X) = E[X ^2] - E ^2[X] = E[X^2] - \frac{\beta ^2}{(\alpha-1) ^2}

On a,

E[X ^2] = \frac{\beta ^{\alpha}}{\gamma(\alpha)} \int_0 ^{\infty} x ^2 \cdot x ^{-\alpha-1} e ^{-\frac{\beta}{x}} dx

On effectue le changement de variable suivant:

t = \frac{\beta}{t} \Rightarrow t = \frac{\beta}{x} \Rightarrow dt = - \frac{\beta}{t ^2} dt

On a,

E[X ^2] = \frac{\beta ^{\alpha}}{\Gamma(\alpha)} \int_0 ^{\infty} (\frac{\beta}{t}) ^{-\alpha + 1} e ^{-t} \frac{\beta}{t ^2} dt= \frac{\beta ^2}{\Gamma(\alpha)} \int_0 ^{\infty} t ^{\alpha-3} e ^{-t} dt= \beta ^2 \frac{\Gamma(\alpha-2)}{Gamma(\alpha)}= \frac{\beta ^2}{(\alpha-2) (\alpha-1)}

D’où,

V(X) = \frac{\beta ^2}{<span style="display:inline !important;float:none;background-color:transparent;color:#2b2d2f;cursor:text;font-family:'Noto Serif', Georgia, 'Times New Roman', Times, serif;font-size:16px;font-style:normal;font-variant:normal;font-weight:400;letter-spacing:normal;line-height:19.2px;orphans:2;text-align:left;text-decoration:none;text-indent:0;text-transform:none;white-space:normal;word-spacing:0;">(\alpha-2) (\alpha-1)</span>} - <span style="display:inline !important;float:none;background-color:transparent;color:#2b2d2f;cursor:text;font-family:'Noto Serif', Georgia, 'Times New Roman', Times, serif;font-size:16px;font-style:normal;font-variant:normal;font-weight:400;letter-spacing:normal;line-height:19.2px;orphans:2;text-align:left;text-decoration:none;text-indent:0;text-transform:none;white-space:normal;word-spacing:0;">\frac{\beta ^2}{(\alpha-1) ^2}</span>= \frac{1}{(\alpha-2) (\alpha-1) ^2} (\beta^2 (\alpha-1) ^2 - \beta ^2 (\alpha-2))= \frac{<span style="display:inline !important;float:none;background-color:transparent;color:#2b2d2f;cursor:text;font-family:'Noto Serif', Georgia, 'Times New Roman', Times, serif;font-size:16px;font-style:normal;font-variant:normal;font-weight:400;letter-spacing:normal;line-height:19.2px;orphans:2;text-align:left;text-decoration:none;text-indent:0;text-transform:none;white-space:normal;word-spacing:0;">\beta ^2</span>}{<span style="display:inline !important;float:none;background-color:transparent;color:#2b2d2f;cursor:text;font-family:'Noto Serif', Georgia, 'Times New Roman', Times, serif;font-size:16px;font-style:normal;font-variant:normal;font-weight:400;letter-spacing:normal;line-height:19.2px;orphans:2;text-align:left;text-decoration:none;text-indent:0;text-transform:none;white-space:normal;word-spacing:0;">(\alpha-2) (\alpha-1) ^2</span>}

 coefficient d’asymétrie: \gamma_1 = \frac{4 \sqrt{\alpha-2}}{\alpha-3}}, \alpha > 3

démonstration du coefficient d’asymétrie de la loi \Gamma:

\gamma_1 = \frac{1}{\sigma ^3} \cdot E[X - E[X]] ^3 =

– coefficient d’aplatissement normalisé: \gamma_2 =

démonstration du coefficient d’aplatissement de la loi \Gamma:

\gamma_2 = \gamma_2 ' - 3

Calculons \gamma_2 ',

\gamma_2 ' = \frac{1}{\sigma ^4} \cdot E[X - E[X]] ^4

= \frac{\beta ^4}{\alpha ^4} \times (E[X ^4] - 4 E[X] \cdot E[X ^3] + 6 E ^2[X] \cdot E[X ^2] - 4 E ^3[X] \cdot E[X] + E ^4 [X])

Nous avons:

– utilisation la plus répandue: nd

♦ loi \beta type I de paramètres \alpha, \beta

La loi \beta de type I se base sur la fonction B définit comme suit,

B(\alpha, \beta) = \frac{\Gamma (\alpha + \beta)}{\Gamma (\alpha) \cdot \Gamma (\beta)}

Cette loi est ainsi définie pour 0 \leq X \leq 1 et \alpha, beta > 0.

– fonction de densitéf(X) = \frac{x ^{\alpha - 1} \cdot (1 - x) ^{\beta - 1}}{B(\alpha,\beta)}

Un exemple de fonction de densité d’une loi \beta I (source wikipédia):

add1– fonction de répartitionF(X) = \frac{B_x (\alpha, \beta)}{B(\alpha, \beta)}

démonstration de la fonction de répartition de la loi \beta I:

F(X) = P(X \leq x) = \int_0 ^x \frac{1}{B (\alpha, \beta)} \cdot x ^{\alpha - 1} \cdot (1 - x) ^{\beta - 1} dx

= \frac{1}{B (\alpha, \beta)} \cdot \int_0 ^x x ^{\alpha - 1} \cdot (1 - x) ^{\beta - 1} dx

Nous allons montrer que \int_0 ^x x ^{\alpha - 1} \cdot (1 - x) ^{\beta - 1} dx = B_x (\alpha, \beta).

Dans un premier temps, rappelons que,

\Gamma (p) = \int_0 ^{\infty} e ^{-t} t ^{p - 1} dt = 2 \int_0 ^{\infty} e ^{- u ^2} u ^{2 p - 1} du

, en posant le changement de variables t = u ^2.

Nous avons ainsi,

\Gamma (p) \cdot \Gamma (q) = 4 \int_0 ^{\infty} \int_0 ^{\infty} e ^{- u ^2} u ^{2 p - 1} du \cdot e ^{- v ^2} v ^{2q - 1} dv = 4 \int_0 ^{\infty} \int_0 ^{\infty} e ^{-(u ^2 + v ^2)} u ^{2 p - 1} v ^{2 q - 1} du \cdot dv

Le passage en coordonnées polaires en effectuant le changement de variables: u = p \cdot cos (\theta), v = p \cdot sin (\theta), permet de développer en,

\Gamma (p) \cdot \Gamma (q) = 4 \int_{p = 0} ^{\infty} \int_{\theta = 0} ^{\frac{\pi}{2}} e ^{- p ^2} p ^{2 p - 1 + 2 q - 1} (cos (\theta)) ^{2 p - 1} (sin (\theta)) ^{2 q - 1} p \cdot dp \cdot d\theta

= 4 \int_0 ^{\infty} e ^{- p ^2} p ^{2 (p + q) - 1} dp \cdot \int_{\theta = 0} ^{\frac{\pi}{2}} (cos (\theta)) ^{2 p - 1} (sin (\theta)) ^{2 q - 1} d\theta

= \Gamma (p + q) \cdot \int_{\theta = 0} ^{\frac{\pi}{2}} (cos(\theta)) ^{2 p - 1} (sim (\theta)) ^{2 q - 1} d\theta

Et comme,

B(p, q) = \frac{\Gamma (p + q)}{\Gamma (p) \cdot \Gamma (q)} \Rightarrow B(p, q) = 2 \int_0 ^{\frac{\pi}{2}} (cos (\theta)) ^{2 p - 1} \cdot (sin (\theta)) ^{2 q - 1} d\theta

En repassant en coordonnées cartésiennes par le changement de variables: cos ^2 (\theta) = t et cos ^2 (\theta) + sin ^2 (\theta) = 1 \Rightarrow sin ^2 (\theta) = 1 - cos ^2 (\theta) = 1 - t (par formule trigonométrique), nous obtenons que:

B(p, q) = \int_0 ^1 t ^{p - 1} \cdot (1 - t) ^{q - 1} dt

Et plus particulièrement,

B_x (p, q) = \int_0 ^x t ^{p - 1} \cdot (1 - t) ^{q - 1} dt

Ainsi, nous avons:

F(X) = \frac{1}{B (\alpha, \beta)} \cdot \int_0 ^x x ^{\alpha - 1} \cdot (1 - x) ^{\beta - 1} dx = \frac{B_x (\alpha, \beta)}{B (\alpha, \beta)}

Un exemple de fonction de répartition d’une loi uniforme discrète (source wikipédia):

add2– espérance mathématique: E(X) = \frac{\alpha}{\alpha + \beta}

démonstration de l’espérance de la loi \beta I:

E[X] = \int_0 ^1 \frac{1}{B(\alpha, \beta)} x \cdot x ^{\alpha - 1} \cdot (1 - x) ^{\beta - 1} dx

= \frac{B(\alpha + 1, \beta)}{B(\alpha, \beta)} \cdot \int_0 ^1 \frac{1}{B(\alpha + 1, \beta)} x ^{\alpha} \cdot (1 - x) ^{\beta - 1} dx

= \frac{B(\alpha + 1, \beta)}{B(\alpha, \beta)}

Car \frac{1}{B(A, \beta)} x ^{A - 1} \cdot (1 - x) ^{\beta - 1} = f(X) densité de probabilité, avec A = \alpha + 1, valant 1 lorsqu’elle est intégrée sur l’intervalle de définition.

Nous avons donc,

E[X] = \frac{B(\alpha + 1, \beta)}{B(\alpha, \beta)} = \frac{\Gamma (\alpha + 1) \cdot \Gamma (\beta)}{\Gamma (\alpha + \beta + 1)} \times \frac{\Gamma (\alpha + \beta)}{\Gamma (\alpha) \cdot \Gamma (\beta)} = \frac{\alpha ! \times (\alpha + \beta - 1) !}{(\alpha - 1) ! \times (\alpha + \beta) !} = \frac{\alpha}{\alpha + \beta}

 variance: V(X) = \frac{\alpha \cdot \beta}{(\alpha + \beta) ^2 \cdot (\alpha + \beta + 1)}

démonstration de la variance de la loi \beta I:

V(X) = E[X ^2] - E ^2[X] = E[X ^2] - \frac{\alpha ^2}{(\alpha + \beta) ^2}

Calculons le terme E[X ^2],

E[X ^2] = \int_0 ^1 \frac{1}{B(\alpha, \beta)} x ^2 \cdot x ^{\alpha - 1} (1 - x) ^{\beta - 1} dx

= \frac{B(\alpha + 2, \beta)}{B(\alpha, \beta)} \cdot \int_0 ^1 \frac{1}{B(\alpha + 2, \beta)} x ^{\alpha + 1} \cdot (1 - x) ^{\beta - 1} dx

= \frac{B(\alpha + 2, \beta)}{B(\alpha, \beta)}

Car \frac{1}{B(A, \beta)} x ^{A - 1} \cdot (1 - x) ^{\beta - 1} = f(X) densité de probabilité, avec A = \alpha + 2, valant 1 lorsqu’elle est intégrée sur l’intervalle de définition.

Nous avons donc,

E[X ^2] = \frac{B(\alpha + 2, \beta)}{B(\alpha, \beta)} = \frac{\Gamma (\alpha + 2) \cdot \Gamma (\beta)}{\Gamma (\alpha + \beta + 2)} \times \frac{\Gamma (\alpha + \beta)}{\Gamma (\alpha) \cdot \Gamma (\beta)} = \frac{(\alpha + 1) ! \times (\alpha + \beta - 1) !}{(\alpha - 1)! \times (\alpha + \beta + 1) !} = \frac{\alpha \cdot (\alpha + 1)}{(\alpha + \beta) \cdot (\alpha + \beta + 1)}

Ainsi,

V(X) = \frac{\alpha \cdot (\alpha + 1)}{(\alpha + \beta) \cdot (\alpha + \beta + 1)} - \frac{\alpha ^2}{(\alpha + \beta) ^2} = \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + \beta) - \alpha ^2 \cdot (\alpha + \beta + 1)}{(\alpha + \beta) ^2 (\alpha + \beta + 1)} = \frac{\alpha \cdot \beta}{(\alpha + \beta) ^2 (\alpha + \beta + 1)}

 coefficient d’asymétrie: \gamma_1 = 2 \frac{(\beta - \alpha) \sqrt{\alpha + \beta + 1}}{(\alpha + \beta + 2) \sqrt{\alpha \cdot \beta}}

démonstration du coefficient d’asymétrie de la loi \beta I:

\gamma_1 = \frac{1}{\sigma ^3} E[X - E[X]] ^3

= \frac{(\alpha + \beta) ^3 (\alpha + \beta + 1) ^{\frac{3}{2}}}{(\alpha \cdot \beta) ^{\frac{3}{2}}} \times (E[X ^3] - 3 E[X] \cdot E[X ^2] + 3 E ^2[X] \cdot E[X] - E ^3[X])

Or, E[X] = \frac{\alpha}{\alpha + \beta} et E[X ^2] = \frac{\alpha \cdot (\alpha + 1)}{(\alpha + \beta) (\alpha + \beta + 1)} (voir démonstration de la variance).

Il nous reste plus qu’à déterminer le terme E[X ^3],

E[X ^3] = \int_0 ^1 \frac{1}{B(\alpha, \beta)} x ^3 \cdot X ^{\alpha - 1} (1 - x) ^{\beta - 1} dx

= \frac{B(\alpha + 3, \beta)}{B(\alpha, \beta)} \cdot \int_0 ^1 \frac{1}{B(\alpha + 3, \beta)} x ^{\alpha + 2} \cdot (1 - x) ^{\beta - 1} dx

= \frac{B(\alpha + 3, \beta)}{B(\alpha, \beta)}

Car \frac{1}{B(A, \beta)} x ^{A - 1} \cdot (1 - x) ^{\beta - 1} = f(X) densité de probabilité, avec A = \alpha + 3, valant 1 lorsqu’elle est intégrée sur l’intervalle de définition.

Nous avons donc,

E[X ^3] = \frac{B(\alpha + 3, \beta)}{B(\alpha, \beta)} = \frac{\Gamma (\alpha + 3) \cdot \Gamma (\beta)}{\Gamma (\alpha + \beta + 3)} \times \frac{\Gamma (\alpha + \beta)}{\Gamma (\alpha) \cdot \Gamma (\beta)} = \frac{(\alpha + 2) ! \times (\alpha + \beta - 1) !}{(\alpha - 1)! \times (\alpha + \beta + 2) !} = \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2)}{(\alpha + \beta) \cdot (\alpha + \beta + 1) \cdot (\alpha + \beta + 2)}

Ainsi,

\gamma_1 = \frac{(\alpha + \beta) ^3 (\alpha + \beta + 1) ^{\frac{3}{2}}}{(\alpha \cdot \beta) ^{\frac{3}{2}}} \times (\frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2)}{(\alpha + \beta) \cdot (\alpha + \beta + 1) \cdot (\alpha + \beta + 2)} - 3 \frac{\alpha}{\alpha + \beta} \cdot \frac{\alpha \cdot (\alpha + 1)}{(\alpha + \beta) (\alpha + \beta + 1)} + 3 (\frac{\alpha}{\alpha + \beta}) ^2 \cdot \frac{\alpha}{\alpha + \beta} - (\frac{\alpha}{\alpha + \beta}) ^3)

= \frac{\sqrt{\alpha + \beta + 1}}{(\alpha + \beta + 2) \sqrt{\alpha \cdot \beta}} \times \frac{1}{\alpha \cdot \beta} \times (\alpha (\alpha + 1) (\alpha + 2) (\alpha + \beta) ^2 - 3 \alpha ^2 (\alpha + 1) (\alpha + \beta) (\alpha + \beta + 2) + 2 \alpha ^3 (\alpha + \beta + 1) (\alpha + \beta + 2))

= \frac{\sqrt{\alpha + \beta + 1}}{(\alpha + \beta + 2) \sqrt{\alpha \cdot \beta}} \times \frac{1}{\alpha \cdot \beta} \times 2 (\alpha \cdot \beta) \cdot (\beta - \alpha)

= 2 \frac{(\beta - \alpha) \sqrt{\alpha + \beta + 1}}{(\alpha + \beta + 2) \sqrt{\alpha \cdot \beta)}}

– coefficient d’aplatissement normalisé: \gamma_2 = 6 \frac{(\beta - \alpha) ^2 (\alpha + \beta + 1) - \alpha \cdot \beta \cdot (\alpha + \beta + 2)}{\alpha \cdot \beta \cdot (\alpha + \beta + 2) \cdot (\alpha + \beta + 3)}

démonstration du coefficient d’aplatissement de la loi \beta I:

\gamma_2 = \gamma_2 ' - 3

Calculons dans un premier temps \gamma_2 ',

\gamma_2 ' = \frac{1}{\sigma ^4} E[X - E[X]] ^4

= \frac{(\alpha + \beta) ^4 (\alpha + \beta + 1) ^2}{(\alpha \cdot \beta) ^2} \times (E[X ^4] - 4 E[X] \cdot E[X ^3] + 6 E ^2[X] \cdot E[X] - 4 E ^3[X] \cdot E[X] + E ^4[X])

Or, E[X] = \frac{\alpha}{\alpha + \beta}, E[X ^2] = \frac{\alpha \cdot (\alpha + 1)}{(\alpha + \beta) (\alpha + \beta + 1)} (voir démonstration de la variance) et E[X ^3] = \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2)}{(\alpha + \beta) \cdot (\alpha + \beta + 1) \cdot (\alpha + \beta + 2)} (voir démonstration de \gamma_1).

Il nous reste plus qu’à déterminer le terme E[X ^4],

E[X ^4] = \int_0 ^1 \frac{1}{B(\alpha, \beta)} x ^4 \cdot X ^{\alpha - 1} (1 - x) ^{\beta - 1} dx

= \frac{B(\alpha + 4, \beta)}{B(\alpha, \beta)} \cdot \int_0 ^1 \frac{1}{B(\alpha + 4, \beta)} x ^{\alpha + 3} \cdot (1 - x) ^{\beta - 1} dx

= \frac{B(\alpha + 4, \beta)}{B(\alpha, \beta)}

Car \frac{1}{B(A, \beta)} x ^{A - 1} \cdot (1 - x) ^{\beta - 1} = f(X) densité de probabilité, avec A = \alpha + 4, valant 1 lorsqu’elle est intégrée sur l’intervalle de définition.

Nous avons donc,

E[X ^4] = \frac{B(\alpha + 4, \beta)}{B(\alpha, \beta)} = \frac{\Gamma (\alpha + 4) \cdot \Gamma (\beta)}{\Gamma (\alpha + \beta + 4)} \times \frac{\Gamma (\alpha + \beta)}{\Gamma (\alpha) \cdot \Gamma (\beta)} = \frac{(\alpha + 3) ! \times (\alpha + \beta - 1) !}{(\alpha - 1)! \times (\alpha + \beta + 3) !} = \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2) \cdot (\alpha + 3)}{(\alpha + \beta) \cdot (\alpha + \beta + 1) \cdot (\alpha + \beta + 2) \cdot (\alpha + \beta + 3)}

Ainsi,

\gamma_2 ' = \frac{(\alpha + \beta) ^4 (\alpha + \beta + 1) ^2}{(\alpha \cdot \beta) ^2} \times (\frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2) \cdot (\alpha + 3)}{(\alpha + \beta) \cdot (\alpha + \beta + 1) \cdot (\alpha + \beta + 2) \cdot (\alpha + \beta + 3)} - 4 \frac{\alpha}{\alpha + \beta} \cdot \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2)}{(\alpha + \beta) \cdot (\alpha + \beta + 1) \cdot (\alpha + \beta + 2)} + 6 (\frac{\alpha}{\alpha + \beta}) ^2 \cdot \frac{\alpha \cdot (\alpha + 1)}{(\alpha + \beta) \cdot (\alpha + \beta + 1)} - 4 (\frac{\alpha}{\alpha + \beta}) ^3 \cdot \frac{\alpha}{\alpha + \beta} + \frac{\alpha}{\alpha + \beta}) ^4)

= \frac{\alpha + \beta + 1}{(\alpha \cdot \beta) ^2} \times \frac{1}{(\alpha + \beta + 2) \cdot (\alpha + \beta + 3)} \times (\alpha \cdot (\alpha + 1) \cdot (\alpha + 2) \cdot (\alpha + 3) \cdot (\alpha + \beta) ^3) - 4 \alpha ^2 (\alpha + \beta) ^2 (\alpha + \beta) \cdot (\alpha + \beta + 2) \cdot (\alpha + \beta + 3) - 3 (\alpha + \beta + 1) \cdot (\alpha + \beta + 2) \cdot (\alpha + \beta + 3) \cdot \alpha ^4)

=\frac{6 \beta ^3 + 6 \beta ^2 + 6 \alpha ^3 + 6 \alpha ^2 - 32 \alpha \cdot \beta - 6 (\alpha \cdot \beta) ^2 - 22 \beta \cdot \alpha ^2 - 22 \alpha \cdot \beta ^2 - 3 \beta \cdot \alpha ^3 - 3 \beta ^3 \cdot \alpha}{\alpha \cdot \beta \cdot (\alpha + \beta + 2) \cdot (\alpha + \beta + 3)}

Ainsi,

\gamma_2 = \gamma_2 ' - 3

= \frac{6 \beta ^3 + 6 \beta ^2 + 6 \alpha ^3 + 6 \alpha ^2 - 32 \alpha \cdot \beta - 6 (\alpha \cdot \beta) ^2 - 22 \beta \cdot \alpha ^2 - 22 \alpha \cdot \beta ^2 - 3 \beta \cdot \alpha ^3 - 3 \beta ^3 \cdot \alpha}{\alpha \cdot \beta \cdot (\alpha + \beta + 2) \cdot (\alpha + \beta + 3)} - 3

= 6 \frac{(\beta - \alpha) ^2 (\alpha + \beta + 1) - \alpha \cdot \beta \cdot (\alpha + \beta + 2)}{\alpha \cdot \beta \cdot (\alpha + \beta + 2) \cdot (\alpha + \beta + 3)}

– utilisation la plus répandue: en statistique bayésienne pour estimer la distrubition à priori de la probabilité d’un évènement.

♦ loi \beta type II de paramètres \alpha, \beta

La loi \beta de type II se base sur la fonction B définit comme suit,

B(\alpha, \beta) = \frac{\Gamma (\alpha + \beta)}{\Gamma (\alpha) \cdot \Gamma (\beta)}

Cette loi est ainsi définie pour X \in ]0; + \infty[ et \alpha, beta > 0.

– fonction de densitéf(X) = \frac{x ^{\alpha - 1} \cdot (1 + x) ^{- \alpha - \beta}}{B(\alpha,\beta)}

Un exemple de fonction de densité d’une loi \beta II (source wikipédia):

add

– fonction de répartitionF(X) = I_{\frac{x}{1 + x}} (\alpha, \beta)I_{\frac{x}{1 + x}} est la fonction bêta incomplète

démonstration de la fonction de répartition de la loi \beta II:

F(X) = P(X \leq x) = \int_0 ^x \frac{x ^{\alpha - 1} (1 + x) ^{- \alpha - \beta}}{B(\alpha, \beta)} dx = \frac{1}{B(\alpha, \beta)} \int_0 ^x x ^{\alpha - 1} (1 + x) ^{-\alpha - \beta} dx

Montrons que \int_0 ^x x ^{\alpha - 1} (1 + x) ^{-\alpha - \beta} dx = B(\frac{x}{1 + x}; \alpha, \beta)

Procédons au changement de variable suivant:

u = \frac{x}{1 + x} \Rightarrow u + u \cdot x = x \Rightarrow u \cdot x - x = - u \Rightarrow x \cdot (u - 1) = - u \Rightarrow x = \frac{u}{1 - u}

\Rightarrow dx = \frac{1}{(1 - u) ^2} du

Par conséquent,

F(X) = \frac{1}{B(\alpha, \beta)} \int_0 ^u (\frac{u}{1 - u}) ^{\alpha - 1} (1 - \frac{u}{1 - u}) ^{\beta - 1} [\frac{(1 + \frac{u}{1 - u}) ^{- \alpha - \beta}}{(1 - \frac{u}{1 - u}) ^{\beta - 1}}] \frac{1}{(1 - u) ^2} du

 = \frac{1}{B(\alpha, \beta)} \int_0 ^u (\frac{1 - 2 u}{1 - u}) ^{\beta - 1} [\frac{(\frac{1}{1 - u}) ^{- \alpha - \beta}}{(\frac{1 - 2u}{1 - u}) ^{\beta - 1}}] \frac{1}{(1 - u) ^2} du

 = \frac{1}{B(\alpha , \beta)} \int_0 ^u u ^{\alpha - 1} \frac{1}{(1 - u) ^{-\beta - 1}} \cdot \frac{1}{(1 - u) ^2} du

 = \frac{1}{B(\alpha, \beta)} \int_0 ^u u ^{\alpha - 1} (1 - u) ^{\beta - 1}

 = \frac{1}{B(\alpha, \beta)} \cdot B(u; \alpha, \beta)

 = \frac{B(\frac{x}{1 + x}; \alpha, \beta)}{B(\alpha, \beta)}

 = I_{\frac{x}{1 + x}}

Un exemple de fonction de répartition d’une loi \beta II (source wikipédia):

add

– espérance mathématique: E(X) = \frac{\alpha}{\beta - 1} avec \beta > 1

démonstration de l’espérance de la loi \beta II:

E[X] = \int_0 ^{\infty} x \cdot \frac{x ^{\alpha - 1} (1 + x) ^{- \alpha - \beta}}{B(\alpha, \beta)} dx = \frac{1}{B(\alpha, \beta)} \cdot B(\alpha + 1, \beta - 1) \int_0 ^{\infty} \frac{x ^{\alpha} (1 + x) ^{- \alpha - \beta}}{B(\alpha + 1, \beta - 1)} dx

Or, \int_0 ^{\infty} \frac{x ^{\alpha} (1 + x) ^{- \alpha - \beta}} dx = B(\alpha + 1, \beta - 1)

Par conséquent,

E[X] = \frac{1}{B(\alpha, \beta)} \cdot B(\alpha + 1, \beta - 1) = \frac{\frac{\Gamma (\alpha + 1) \cdot \Gamma (\beta - 1)}{\Gamma (\alpha + \beta)}}{\frac{\Gamma(\alpha) \cdot \Gamma (\beta)}{\Gamma (\alpha + \beta)}} = \frac{\Gamma (\alpha + 1) \cdot \Gamma (\beta - 1)}{\Gamma (\alpha) \cdot \Gamma (\beta)} = \frac{\alpha}{\beta - 1}

variance: V(X) = \frac{\alpha \cdot (\alpha + \beta - 1)}{(\beta - 2) \cdot (\beta - 1)} avec \beta > 2

démonstration de la variance de la loi \beta II:

V(X) = E[X ^2] - E ^2 [X] = E[X ^2] - \frac{\alpha ^2}{(\beta - 1) ^2}

Or,

E[X ^2] = \int_0 ^{\infty} \frac{1}{B(\alpha, \beta)} \cdot x ^2 \cdot x ^{\alpha - 1} (1 + x) ^{- \alpha - \beta} dx

= \frac{1}{B(\alpha, \beta)} \cdot B(\alpha + 2, \beta - 2) \int_0 ^{\infty} \frac{1}{B(\alpha + 2, \alpha - 2)} \cdot x ^{\alpha + 1} (1 + x) ^{- \alpha - \beta} dx

Comme \int_0 ^{\infty} \frac{x ^{\alpha + 1} (1 + x) ^{- \alpha - \beta}} dx = B(\alpha + 2, \beta - 2) on a,

E[X ^2] = \frac{B(\alpha + 2, \alpha - 2)}{B(\alpha, \beta)} = \frac{\frac{\Gamma (\alpha + 2) \cdot \Gamma (\beta - 2)}{\Gamma (\alpha + \beta)}}{\frac{\Gamma(\alpha) \cdot \Gamma (\beta)}{\Gamma (\alpha + \beta)}} = \frac{\Gamma (\alpha + 2) \cdot \Gamma (\beta - 2)}{\Gamma (\alpha) \cdot \Gamma (\beta)} = \frac{\alpha \cdot (\alpha + 1)}{(\beta - 1) \cdot (\beta - 2)}

Par conséquent,

V(X) = \frac{\alpha \cdot (\alpha + 1)}{(\beta - 1) \cdot (\beta - 2)} - \frac{\alpha ^2}{(\beta - 1) ^2} = \frac{\alpha \cdot (\alpha + 1) \cdot (\beta - 1) - \alpha ^2 (\beta - 2)}{(\beta - 2) \cdot (\beta - 1) ^2} = \frac{\alpha \cdot \beta + \alpha ^2 - \alpha}{(\beta - 2) \cdot (\beta - 1) ^2} = \frac{\alpha \cdot (\beta + \alpha - 1)}{(\beta - 2) \cdot (\beta - 1) ^2}

 coefficient d’asymétrie: \gamma_1 = 2 \frac{(2 \alpha + \beta - 1)}{\beta - 3} avec \beta > 2

démonstration du coefficient d’asymétrie de la loi \beta II:

\gamma_1 = \frac{1}{\sigma ^3} E[X - E[X]] ^3

 = \frac{(\beta - 2) ^{\frac{3}{2}} (\beta - 1) ^3}{\alpha ^{\frac{3}{2}} (\beta + \alpha - 1) ^{\frac{3}{2}}} \cdot [E[X ^3] - 3 E[X] \cdot E[X ^2] + 3 E ^2[X] E[X] - E ^3[X]]

Or,

E[X] = \frac{\alpha}{\beta - 1}

E[X ^2] = \frac{\alpha \cdot (\alpha + \beta - 1)}{(\beta - 2) \cdot (\beta - 1)}

Et,

E[X ^3] = \int_0 ^{\infty} \frac{1}{B(\alpha, \beta)} x ^3 x ^{\alpha - 1} (1 + x) ^{- \alpha - \beta} dx

 = \frac{1}{B(\alpha, \beta)} \cdot B(\alpha + 3, \beta - 3) \int_0 ^{\infty} x ^{\alpha + 2} (1 + x) ^{- \alpha - \beta} dx

Comme \int_0 ^{\infty} \frac{x ^{\alpha + 2} (1 + x) ^{- \alpha - \beta}} dx = B(\alpha + 3, \beta - 3) on a,

E[X ^3] = \frac{B(\alpha + 3, \alpha - 3)}{B(\alpha, \beta)} = \frac{\frac{\Gamma (\alpha + 3) \cdot \Gamma (\beta - 3)}{\Gamma (\alpha + \beta)}}{\frac{\Gamma(\alpha) \cdot \Gamma (\beta)}{\Gamma (\alpha + \beta)}} = \frac{\Gamma (\alpha + 3) \cdot \Gamma (\beta - 3)}{\Gamma (\alpha) \cdot \Gamma (\beta)} = \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2)}{(\beta - 1) \cdot (\beta - 2) \cdot (\beta - 3)}

On a donc,

\gamma_1 = \frac{(\beta - 2) ^{\frac{3}{2}} (\beta - 1) ^3}{\alpha ^{\frac{3}{2}} (\beta + \alpha - 1) ^{\frac{3}{2}}} \cdot [\frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2)}{(\beta - 1) \cdot (\beta - 2) \cdot (\beta - 3)} - 3 \frac{\alpha}{\beta - 1} \cdot \frac{\alpha \cdot (\alpha + 1)}{(\beta - 2) \cdot (\beta - 1)} + 2 \frac{\alpha ^3}{(\beta - 1) ^3}]

 = \frac{(\beta - 2) ^{\frac{3}{2}} (\beta - 1) ^3}{\alpha ^{\frac{3}{2}} (\beta + \alpha - 1) ^{\frac{3}{2}}} \cdot \frac{\alpha \cdot [(\alpha + 1) \cdot (\alpha + 2) \cdot (\beta - 1) ^2 - 3 \alpha ^2 (\alpha + 1) \cdot (\beta - 1) \cdot (\beta - 3) + 2 \alpha ^2 (\beta - 1) \cdot (\beta - 2)]}{(\beta - 1) ^3 (\beta - 2) \cdot (\beta - 3)}

 = \sqrt{\frac{\beta - 2}{\alpha \cdot (\alpha + \beta - 1)}} \cdot \frac{1}{\beta - 3} \cdot \frac{1}{\alpha + \beta - 1} \cdot [4 \alpha ^2 + 6 \alpha \cdot \beta - 6 \alpha + 2 \beta ^2 - 4 \beta + 2]

En remarquant que,

4 \alpha ^2 + 6 \alpha \cdot \beta - 6 \alpha + 2 \beta ^2 - 4 \beta + 2 = 2 (\alpha + \beta + 1) \cdot (2 \alpha + \beta - 1))

On a,

\gamma_1 = \sqrt{\frac{\beta - 2}{\alpha \cdot (\alpha + \beta - 1)}} \cdot \frac{1}{\beta - 3} \cdot \frac{1}{\alpha + \beta - 1} \cdot 2 (\alpha + \beta + 1) \cdot (2 \alpha + \beta - 1) = \sqrt{\frac{\beta - 2}{\alpha \cdot (\alpha + \beta - 1)}} \cdot \frac{2 (2 \alpha + \beta - 1)}{\beta - 3}

– coefficient d’aplatissement normalisé:

\gamma_2 = \frac{3 \alpha ^3 \beta ^2 + 69 \alpha ^3 \beta - 30 \alpha ^3 + 6 \alpha ^2 \beta ^3 + 12 \alpha ^2 \beta ^2 - 78 \alpha ^2 \beta + 60 \alpha ^2 + 3 \alpha \cdot \beta ^4 + 9 \alpha \cdot \beta ^3 - 69 \alpha \cdot \beta ^2 + 99 \alpha \cdot \beta - 42 \alpha + 6 \beta ^4 - 30 \beta ^3 + 54 \beta ^2 - 42 \beta + 12}{(\alpha + \beta - 1) \cdot (\beta - 3) \cdot (\beta - 4)}

démonstration du coefficient d’aplatissement de la loi \beta II:

\gamma_2 = \gamma_2 ' - 3

Avec,

\gamma_2 ' = \frac{1}{\sigma ^4} E[X - E[X]] ^4

 = \frac{(\beta - 2) ^2 (\beta - 1) ^2}{\alpha ^2 (\alpha + \beta - 1) ^2} [E[X ^4] - 4 E[X ^3] \cdot E[X] + 6 E[X ^2] \cdot E ^2 [X] - 4 E[X] \cdot E ^3 [X] + E ^4[X]]

Or,

E[X] = \frac{\alpha}{\beta - 1}

E[X ^2] = \frac{\alpha \cdot (\alpha + \beta - 1)}{(\beta - 2) \cdot (\beta - 1)}

E[X ^3] = \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2)}{(\beta - 1) \cdot (\beta - 2) \cdot (\beta - 3)}

Et,

E[X ^4] = \int_0 ^{\infty} \frac{1}{B(\alpha, \beta)} x ^4 x ^{\alpha - 1} (1 + x) ^{- \alpha - \beta} dx

 = \frac{1}{B(\alpha, \beta)} \cdot B(\alpha + 4, \beta - 4) \int_0 ^{\infty} x ^{\alpha + 3} (1 + x) ^{- \alpha - \beta} dx

Comme \int_0 ^{\infty} \frac{x ^{\alpha + 3} (1 + x) ^{- \alpha - \beta}} dx = B(\alpha + 4, \beta - 4) on a,

E[X ^4] = \frac{B(\alpha + 4, \alpha - 4}{B(\alpha, \beta)} = \frac{\frac{\Gamma (\alpha + 4) \cdot \Gamma (\beta - 4)}{\Gamma (\alpha + \beta)}}{\frac{\Gamma(\alpha) \cdot \Gamma (\beta)}{\Gamma (\alpha + \beta)}} = \frac{\Gamma (\alpha + 4) \cdot \Gamma (\beta - 4)}{\Gamma (\alpha) \cdot \Gamma (\beta)} = \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2) \cdot (\alpha + 3)}{(\beta - 1) \cdot (\beta - 2) \cdot (\beta - 3) \cdot (\beta - 4)}

On a donc,

E[X ^4] - 4 E[X ^3] \cdot E[X] + 6 E[X ^2] \cdot E ^2 [X] - 4 E[X] \cdot E ^3 [X] + E ^4[X]

 = \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2) \cdot (\alpha + 3)}{(\beta - 1) \cdot (\beta - 2) \cdot (\beta - 3) \cdot (\beta - 4)} - 4 \frac{\alpha \cdot (\alpha + 1) \cdot (\alpha + 2)}{(\beta - 3) \cdot (\beta - 2) \cdot (\beta - 1)} \cdot \frac{\alpha}{\beta - 1} + 6 \frac{\alpha \cdot (\alpha + 1)}{(\beta - 1) \cdot (\beta - 2)} \cdot \frac{\alpha ^2}{(\beta - 1) ^2} - 3 \frac{\alpha ^4}{(\beta - 1) ^4}

 = \frac{1}{(\beta - 4)} \cdot (\beta - 3) \cdot (\beta - 2) \cdot (\beta - 1) ^4 \cdot [\alpha \cdot (\alpha + 1) \cdot (\alpha + 2) \cdot (\alpha + 3) \cdot (\beta - 1) ^3 - 4 \alpha ^2 (\alpha + 1) \cdot (\alpha + 2) \cdot (\beta - 4) \cdot (\beta - 1) ^2 + 6 \alpha ^3 (\alpha + 1) \cdot (\beta - 1) \cdot (\beta - 3) \cdot (\beta - 4) - 3 \alpha ^4 (\beta - 4) \cdot (\beta - 2) \cdot (\beta - 3)]

Par conséquent,

\gamma_2 ' = \frac{1}{\sigma ^4} E[X - E[X]] ^4

 = \frac{(\beta - 2) ^2 (\beta - 1) ^2}{\alpha ^2 (\alpha + \beta - 1) ^2} \cdot \frac{1}{(\beta - 4) \cdot (\beta - 3) \cdot (\beta - 2) \cdot (\beta - 1) ^4} \cdot [\alpha \cdot (\alpha + 1) \cdot (\alpha + 2) \cdot (\alpha + 3) \cdot (\beta - 1) ^3 - 4 \alpha ^2 (\alpha + 1) \cdot (\alpha + 2) \cdot (\beta - 4) \cdot (\beta - 1) ^2 + 6 \alpha ^3 (\alpha + 1) \cdot (\beta - 1) \cdot (\beta - 3) \cdot (\beta - 4) - 3 \alpha ^4 (\beta - 4) \cdot (\beta - 2) \cdot (\beta - 3)]

 = \frac{1}{(\alpha + \beta - 1) \cdot (\beta - 3) \cdot (\beta - 4)} \cdot \frac{\beta - 2}{\alpha \cdot (\alpha + \beta - 1) \cdot (\beta - 1) ^2} \cdot \frac{1}{(\beta - 4) \cdot (\beta - 3) \cdot (\beta - 2) \cdot (\beta - 1) ^4} \cdot [(\alpha + 1) \cdot (\alpha + 2) \cdot (\alpha + 3) \cdot (\beta - 1) ^3 - 4 \alpha ^2 (\alpha + 1) \cdot (\alpha + 2) \cdot (\beta - 4) \cdot (\beta - 1) ^2 + 6 \alpha ^3 (\alpha + 1) \cdot (\beta - 1) \cdot (\beta - 3) \cdot (\beta - 4) - 3 \alpha ^4 (\beta - 4) \cdot (\beta - 2) \cdot (\beta - 3)]

En poursuivant les calculs qui deviennent de plus en plus fastidieux, on retrouve la valeur attendue de \gamma_2.

– utilisation la plus répandue: en statistique bayésienne pour estimer la distrubition à priori de la probabilité d’un évènement.

♦ loi de Weibull

fonction de densité:

f(X) = \frac{\alpha}{\beta} \cdot (\frac{X}{\beta}) ^{\alpha - 1} e ^{- (\frac{X}{\beta}) ^{\alpha}}

\alpha, \beta > 0 et X \in [0; + \infty[.

Un exemple de fonction de densité d’une loi de Weibull (source wikipédia, k = \beta):

addfonction de répartition:

F(X) = 1 - e ^{- (\frac{X}{\beta}) ^{\alpha}}

démonstration de la fonction de répartition de la loi de Weibull:

F(X) = P(X \leq x) = \int_0 ^x \frac{\alpha}{\beta} \cdot (\frac{x}{\beta}) ^{\alpha - 1} \cdot e ^{- (\frac{x}{\beta}) ^{\alpha}} dx

 = -[e ^{-(\frac{x}{\beta}) ^{\alpha}}]_0 ^x = 1 - e ^{- (\frac{x}{\beta}) ^{\alpha}}

Un exemple de fonction de répartition d’une loi de Weibull (source wikipédia, k = \beta):

add

espérance mathématique: E(X) = \beta \cdot \Gamma (1 + \frac{1}{\alpha})

démonstration de l’espérance de la loi de Weibull:

E[X] = \int_0 ^{\infty} x \cdot \frac{\alpha}{\beta} \cdot (\frac{x}{\beta}) ^{\alpha - 1} e ^{-(\frac{x}{\beta}) ^{\alpha}} dx

Procédons au changement de variable suivant:

u = (\frac{x}{\beta}) ^{\alpha} \Rightarrow \beta \cdot u ^{\frac{1}{\alpha}} = x \Rightarrow dx = \frac{\beta}{\alpha} \cdot u ^{\frac{1 - \alpha}{\alpha}} du

Par conséquent,

E[X] = \int_0 ^{\infty} \beta \cdot u ^{\frac{1}{\alpha}} \cdot \frac{\alpha}{\beta} \cdot (\frac{\beta \cdot u ^{\frac{1}{\alpha}}}{\beta}) ^{\alpha - 1} \cdot e ^{- u} \cdot \frac{\beta}{\alpha} \cdot u ^{\frac{1 - \alpha}{\alpha}} du

 = \beta \int_0 ^{\infty} u ^{\frac{1}{\alpha}} e ^{- u} du

Or, \int_0 ^{\infty} u ^{\frac{1}{\alpha}} \cdot e ^{- u} du = \Gamma (1 + \frac{1}{\alpha})

D’où, E[X] = \beta \cdot \Gamma (1 + \frac{1}{\alpha})

variance: V(X) = \beta ^2 \gamma (1 + \frac{2}{\alpha}) - \mu ^2 avec \mu = E[X]

démonstration de la variance de la loi de Weibull:

V(X) = E[X ^2] - E ^2 [X] = E[X ^2] - \beta ^2 \cdot (\Gamma (1 + \frac{1}{\alpha})) ^2

Or, E[X ^2] = \int_0 ^{\infty} x^2 \frac{\alpha}{\beta} \cdot (\frac{x}{\beta}) ^{\alpha - 1} e ^{-(\frac{x}{\beta}) ^{\alpha}} dx

En posant le changement de variable suivant:

u = (\frac{x}{\beta}) ^{\alpha} \Rightarrow \beta \cdot u ^{\frac{1}{\alpha}} = x \Rightarrow x^2 = \beta ^2 \cdot u ^{\frac{2}{\alpha}} \Rightarrow 2 x \cdot dx = 2 \frac{\beta ^2}{\alpha} \cdot u ^{\frac{2 - \alpha}{\alpha}} du

\Rightarrow dx = \frac{\beta}{\alpha} \cdot u ^{\frac{1 - \alpha}{\alpha}} du

Par conséquent, E[X ^2] = \int_0 ^{\infty} \beta ^2 u ^{\frac{2}{\alpha}} \cdot \frac{\alpha}{\beta} \cdot (\frac{\beta \cdot u^{\frac{1}{\alpha}}}{\beta}) ^{\alpha - 1} e ^{- u} \cdot 2 \frac{\beta ^2}{\alpha} \cdot u ^{\frac{2 - \alpha}{\alpha}} du

 = \beta ^2 \int_0 ^{\infty} u ^{\frac{2}{\alpha}} e ^{- u} du

 = \beta ^2 \cdot \Gamma (1 + \frac{2}{\alpha})

On a alors, V(X) = \beta ^2 \cdot \Gamma (1 + \frac{2}{\alpha}) - \beta ^2 \cdot (\Gamma (1 + \frac{2}{\alpha})) ^2

coefficient d’asymétrie: \gamma_1 = \frac{\beta ^3 \cdot \Gamma(1 + \frac{3}{\alpha}) - 3 \mu \cdot \sigma ^2 - \mu ^3}{\sigma ^3} avec \mu = E[X] et [\sigma ^2 = V(X)[/latex]

démonstration du coefficient d’asymétrie de la loi de Weibull:

\gamma_1 = \frac{1}{\sigma ^3} E[X - E[X]] ^3 = \frac{1}{\sigma ^3} (E[X ^3] - 3 \mu \cdot E[X ^2] + 3 \mu ^2 \cdot E[X] - \mu ^3)

Or, E[X ^3] = \int_0 ^{\infty} x ^3 \frac{\alpha}{\beta} \cdot (\frac{x}{\beta}) ^{\alpha - 1} e ^{-(\frac{x}{\beta}) ^\alpha} dx

En posant le changement de variable suivant:

u = (\frac{x}{\beta}) ^{\alpha} \Rightarrow x = \beta \cdot u ^{\frac{1}{\alpha}} \Rightarrow x ^3 = \beta ^3 u ^{\frac{3}{\alpha}} \Rightarrow 3 x ^2 dx = \frac{3 \beta ^3}{\alpha} \cdot u ^{\frac{3 - \alpha}{\alpha}} du

\Rightarrow dx = \frac{\beta}{\alpha} \cdot u ^{\frac{3 - \alpha}{\alpha}} du

Par conséquent, E[X ^3] = \int_0 ^{\infty} \beta ^3 u ^{\frac{3}{\alpha}} \frac{\alpha}{\beta} \cdot (\frac{\beta \cdot u ^{\frac{1}{\alpha}}}{\beta}) ^{\alpha - 1} \cdot e ^{- u} \cdot \frac{\beta}{\alpha} \cdot u ^{\frac{1 - \alpha}{\alpha}} du

 = \beta ^3 \int_0 ^{\infty} u ^{\frac{3}{\alpha}} e ^{- u} du

 = \beta ^3 \cdot \Gamma(1 + \frac{3}{\alpha})

On a alors,

\gamma_1 = \frac{1}{\sigma ^3} \cdot [\beta ^3 \cdot \Gamma (1 + \frac{3}{\alpha}) - 3 E[X] \cdot E[X ^2] + 3 E ^2[X] \cdot E[X] - E ^3[X]]

 = \frac{1}{\sigma ^3} \cdot [\beta ^3 \gamma (1 + \frac{3}{\alpha}) - 3 E[X] \cdot (E[X ^2] - E ^2[X] - E^3 [X])

 = \frac{1}{\sigma ^3} [\beta ^3 \Gamma(1 + \frac{3}{\alpha} - 3 E[X] \cdot \sigma ^2 - E ^3[X]]

coefficient d’aplatissement normalisé: \gamma_2 = \frac{\beta ^4 \cdot \Gamma(1 + \frac{4}{\alpha}) - 4 \mu \cdot \sigma ^3 \Gamma_1 - 3 \sigma ^4 - 6 \mu ^2 \sigma ^2 ( \mu ^4}{\sigma ^4} avec \mu = E[X] et \sigma ^2 = V(X)

démonstration du coefficient d’aplatissement de la loi de Weibull:

\gamma_2 = \gamma_2 ' - 3

Avec, \gamma_2 ' = \frac{1}{\sigma ^4} E[X - E[X]] ^4

 = \frac{1}{\sigma ^4} [E[X ^4] - 4 E[X] \cdot E[X ^3] + 6 E ^2 [X] \cdot E[X ^2] - 4 E ^3 [X] \cdot E[X] + E ^4[X]]

Or, E[X ^4] = \int_0 ^{\infty} x ^4 \frac{\alpha}{\beta} \cdot (\frac{x}{\beta}) ^{\alpha - 1} e ^{- (\frac{x}{\beta}) ^{\alpha}} dx

En procédant au changement de variable suivant:

u = (\frac{x}{\beta}) ^{\alpha} \Rightarrow x = \beta \cdot u ^{\frac{1}{\alpha}} \Rightarrow x^4 = \beta ^4 u ^{\frac{4}{\alpha}} \Rightarrow 4 x ^3 dx = \frac{4 \beta ^4}{\alpha} u ^{\frac{4 - \alpha}{\alpha}} du

\Rightarrow dx = \frac{\beta}{\alpha} \cdot u ^{\frac{4 - \alpha}{\alpha}} du

On a alors, E[X ^4] = \int_0 ^{\infty} \beta ^4 u ^{\frac{4}{\alpha}} \frac{\alpha}{\beta} \cdot (\frac{\beta \cdot u ^{\frac{1}{\alpha}}}{\beta}) ^{\alpha - 1} e ^{- u} \frac{\beta}{\alpha} u ^{\frac{4 - \alpha}{\alpha}} du

 = \beta ^4 \int_0 ^{\infty} u ^{\frac{4}{\alpha}} e ^{-u} du = \beta ^4 \cdot \Gamma (1 + \frac{4}{\alpha})

Ainsi,

\gamma_2 ' = \frac{1}{\sigma ^4} [\beta ^4 \Gamma (1 + \frac{4}{\alpha}) - 4 E[X] \cdot \beta ^3 \Gamma(1 + \frac{3}{\alpha}) + 6 E^2 [X] \cdot E[X ^2] - 3 E^4 [X]]

 = \frac{1}{\sigma ^4} [\beta ^4 \Gamma(1 + \frac{4}{\alpha}) - 4 \mu \cdot \beta ^3 \Gamma (1 + \frac{3}{\alpha}) + 6 \mu ^2 \cdot (\sigma ^2 + \mu ^2) - 2 \mu ^4

 = \frac{1}{\sigma ^4} [\beta ^4 \Gamma (1 + \frac{4}{\alpha}) - 4 \mu \cdot (\beta ^3 \Gamma(1 + \frac{3}{\alpha}) - 3 \mu \cdot \sigma ^2 - \mu ^3) - 6 \mu ^2 \sigma ^2 - \mu ^4]

Et donc, \gamma_2 = \gamma_2 ' - 3 = \frac{\beta ^4 \Gamma (1 + \frac{4}{\alpha}) - 4 \mu \cdot \sigma ^3 \Gamma_1 - 3 \mu \cdot \sigma ^2 - \mu ^3 - 6 \mu ^2 \sigma ^2 - \mu ^4 - 3 \sigma ^4}{\sigma ^4}

utilisation la plus répandue: contrôle de fiabilité.

♦ loi de Fréchet

fonction de densité:

f(X) = \frac{\alpha}{s} \cdot (\frac{X - m}{s}) ^{-1 - \alpha} e ^{- (\frac{X - m}{s}) ^{- \alpha}}

Avec \alpha \in ]0; + \infty[s \in ]0; + \infty[,  m \in R et X > m > 0 .

Un exemple de fonction de densité d’une loi de Fréchet (source wikipédia):

add

fonction de répartition:

F(X) = P(X \leq x) = e ^{- (\frac{X - m}{s}) ^{- \alpha}}

démonstration de la fonction de répartition de la loi de Fréchet:

F(X) = P(X \leq x) = \int_m ^x \frac{\alpha}{s} \cdot (\frac{x - m}{s}) ^{-1 - \alpha} e ^{- (\frac{x - m}{s}) ^{- \alpha}} dx

 = [e ^{- (\frac{x - m}{s}) ^{ - \alpha}}]_m ^x

 = e ^{- (\frac{x - m}{s}) ^{- \alpha}} - e ^{- 0 ^{- \alpha}}

 = e ^{- (\frac{x - m}{s}) ^{- \alpha}}

En effet, e ^{- 0 ^{- \alpha}} = e ^{- \frac{1}{0 ^{\alpha}}} \rightarrow 0 car \frac{1}{0} \rightarrow \infty

Un exemple de fonction de répartition d’une loi de Fréchet (source wikipédia):

addespérance mathématique: E(X) = m + s \cdot \Gamma (1 - \frac{1}{\alpha}) pour \alpha > 1, \infty sinon.

démonstration de l’espérance de la loi de Fréchet:

E[X] = \int_m ^{\infty} x \cdot \frac{\alpha}{s} \cdot (\frac{x - m}{s}) ^{- \alpha - 1} e ^{- (\frac{x - m}{s}) ^{- \alpha}} dx

En procédant au changement de variable suivant:

 u = (\frac{x - m}{s}) ^{-\alpha} \Rightarrow (\frac{x - m}{s}) ^{\alpha} = \frac{1}{u} \Rightarrow x = s \cdot u ^{-\frac{1}{\alpha}} + m \Rightarrow dx = - \frac{s}{\alpha} \cdot u ^{- \frac{1}{\alpha} - 1} du

A noter que lorsque X \in [m; +\infty[ on a u \in ]- \infty; 0].

Alors,

E[X] = \int_{- \infty} ^{0} [s \cdot u ^{-\frac{1}{\alpha}} + m] \cdot \frac{\alpha}{s} \cdot u ^{1 + \frac{1}{\alpha}} e ^{-u} \cdot (-\frac{s}{\alpha}) \cdot u ^{- \frac{1}{\alpha} - 1} du

 = - \int_0 ^{\infty} [s \cdot u ^{-\frac{1}{\alpha}} + m] \cdot \frac{\alpha}{s} \cdot u ^{1 + \frac{1}{\alpha}} e ^{-u} \cdot (-\frac{s}{\alpha}) \cdot u ^{- \frac{1}{\alpha} - 1} du

 = s \int_0 ^{\infty} u ^{-\frac{1}{\alpha}} e ^{-u} du + m \int_0 ^{\infty} e ^{-u} du

Or,

\int_0 ^{\infty} u ^{-\frac{1}{\alpha}} e ^{-u} du = \Gamma (1 - \frac{1}{\alpha})

 \int_0 ^{\infty} e ^{-u} du = 1

D’où, E[X] = m + s \cdot \Gamma (1 - \frac{1}{\alpha})

variance: V(X) = s ^2 \cdot (\Gamma (1 - \frac{2}{\alpha})) - (\Gamma (1 - \frac{1}{\alpha}) ^2 pour \alpha > 2, \infty sinon.

démonstration de la variance de la loi de Fréchet:

V(X) = E[X ^2] - E ^2[X] = E[X ^2] - [s ^2 (\Gamma (1 - \frac{1}{\alpha})) ^2 + 2 s \cdot m \cdot \Gamma (1 - \frac{1}{\alpha}) + m ^2]

Or,

E[X ^2] = \int_m ^{\infty} x ^2 \frac{\alpha}{s} \cdot (\frac{x - m}{s}) ^{-1 - \alpha} e ^{- (\frac{x - m}{s}) ^{- \alpha}} dx

En procédant au changement de variable suivant:

 u = (\frac{x - m}{s}) ^{-\alpha} \Rightarrow (\frac{x - m}{s}) ^{\alpha} = \frac{1}{u} \Rightarrow x = s \cdot u ^{-\frac{1}{\alpha}} + m \Rightarrow dx = - \frac{s}{\alpha} \cdot u ^{- \frac{1}{\alpha} - 1} du

A noter que lorsque X \in [m; +\infty[ on a u \in ]- \infty; 0].

Alors,

E[X ^2] = \int_{- \infty} ^{0} (s \cdot u ^{- \frac{1}{\alpha}} + m) ^2 \frac{\alpha}{s} \cdot u ^{1 + \frac{1}{\alpha}} e ^{ - u} ( - \frac{s}{\alpha}) u ^{- \frac{1}{\alpha} - 1} du

 = - \int_0 ^{\infty} (s \cdot u ^{- \frac{1}{\alpha}} + m) ^2 \frac{\alpha}{s} \cdot u ^{1 + \frac{1}{\alpha}} e ^{- u} (- \frac{s}{\alpha}) u ^{- \frac{1}{\alpha} - 1} du

 = \int_0 ^{\infty} (s ^2 u ^{- \frac{2}{\alpha}} + 2 m \cdot s \cdot u ^{- \frac{1}{\alpha}} + m ^2) \cdot e ^{- u} du

Or,

 \int_0 ^{\infty} u ^{-\frac{2}{\alpha}} e ^{- u} du = \Gamma (1 - \frac{2}{\alpha})

 \int_0 ^{\infty} u ^{-\frac{1}{\alpha}} e ^{- u} du = \Gamma (1 - \frac{1}{\alpha})

 \int_0 ^{\infty} e ^{-u} du = 1

Par conséquent,

E[X ^2] = s ^2 \Gamma (1 - \frac{2}{\alpha}) + 2 m \cdot s \cdot \Gamma (1 - \frac{1}{\alpha}) + m ^2

 Et donc,

V(X) = s ^2 \Gamma (1 - \frac{2}{\alpha}) + 2 m \cdot s \cdot \Gamma (1 - \frac{1}{\alpha}) + m ^2 - s ^2 (\Gamma ( 1 - \frac{1}{\alpha})) ^2 - 2 s \cdot m \cdot \Gamma (1 - \frac{1}{\alpha}) - m ^2

= s^2 [\Gamma (1 - \frac{2}{\alpha}) - (\Gamma ( 1 - \frac{1}{\alpha}) ^2]

coefficient d’asymétrie: \frac{\Gamma (1 - \frac{3}{\alpha}) - 3 \Gamma (1 - \frac{2}{\alpha}) \cdot \Gamma (1 - \frac{1}{\alpha}) + 2 (\Gamma (1 - \frac{1}{\alpha})) ^3}{\sqrt{(\Gamma (1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{1}{\alpha}) ^2) ^3}} pour \alpha > 3 , \infty sinon.

démonstration du coefficient d’asymétrie de la loi de Fréchet:

\gamma_1 = \frac{1}{\sigma ^3} E[X - E[X]] ^3

 = \frac{1}{s ^3 [\Gamma (1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{1}{\alpha})) ^2] ^{\frac{3}{2}}} \cdot [E[X ^3] - 3 E[X] E[X ^2] + 3 E ^2[X] E[X] - E ^3[X]]

Or, E[X ^3] = \int_0 ^{\infty} x ^3 \frac{\alpha}{s} \cdot (\frac{x - m}{s}) ^{-1 - \alpha} e ^{- (\frac{x - m}{s}) ^{- \alpha}} dx

En procédant au changement de variable suivant:

 u = (\frac{x - m}{s}) ^{-\alpha} \Rightarrow (\frac{x - m}{s}) ^{\alpha} = \frac{1}{u} \Rightarrow x = s \cdot u ^{-\frac{1}{\alpha}} + m \Rightarrow dx = - \frac{s}{\alpha} \cdot u ^{- \frac{1}{\alpha} - 1} du

A noter que lorsque X \in [m; +\infty[ on a u \in ]- \infty; 0].

Alors,

E[X ^3] = \int_0 ^{\infty} (s \cdot u ^{-\frac{1}{\alpha}} + m) ^3 \frac{\alpha}{s} \cdot u ^{1 + \frac{1}{\alpha}} e ^{- u} (- \frac{s}{\alpha}) \cdot u ^{- 1 - \frac{1}{\alpha}} du

 = \int_0 ^{\infty} (s \cdot u ^{-\frac{1}{\alpha}} + m) ^3 \frac{\alpha}{s} \cdot u ^{1 + \frac{1}{\alpha}} e ^{- u} (- \frac{s}{\alpha}) \cdot u ^{- 1 - \frac{1}{\alpha}} du

 = \int_0 ^{\infty} (s ^3 u ^{-\frac{3}{\alpha}} + 3 m \cdot s ^2 u ^{- \frac{2}{\alpha}} + 3 m ^2 s \cdot u ^{-\frac{1}{\alpha}} + m ^3) e ^{- u} du

 = s ^3 \int_0 ^{\infty} u ^{-\frac{3}{\alpha}} e ^{- u} du + 3 m \cdot s ^2 \int_0 ^{\infty} u ^{-\frac{2}{\alpha}} e ^{- u} du + 3 m ^2 s \int_0 ^{\infty} u ^{-\frac{1}{\alpha}} e ^{- u} du + m ^3 \int_0 ^{\infty} e ^{- u} du

Or,

 \int_0 ^{\infty} u ^{-\frac{3}{\alpha}} e ^{-u} du = \Gamma (1 - \frac{3}{\alpha})

 \int_0 ^{\infty} u ^{-\frac{2}{\alpha}} e ^{-u} du = \Gamma (1 - \frac{2}{\alpha})

 \int_0 ^{\infty} u ^{-\frac{1}{\alpha}} e ^{-u} du = \Gamma (1 - \frac{1}{\alpha})

 \int_0 ^{\infty} e ^{- u} du = 1

Par conséquent,

E[X ^3] = s ^3 \Gamma (1 - \frac{3}{\alpha}) + m \cdot s ^2 \Gamma (1 - \frac{2}{\alpha}) + 3 m ^2 s \Gamma (1 - \frac{1}{\alpha} + m ^3

On alors,

E[X ^3] - 3 E[X] E[X ^2] + 3 E ^2[X] E[X] - E ^3[X]

 = s ^3 \Gamma (1 - \frac{3}{\alpha}) + 3 m \cdot s ^2 \Gamma (1 - \frac{2}{\alpha}) + 3 m ^2 s \Gamma (1 - \frac{1}{\alpha}) + m ^3 - 3 (m - s \cdot \Gamma (1 - \frac{1}{\alpha}) \cdot (s ^2 \Gamma (1 - \frac{2}{\alpha}) + 2 m \cdot s \Gamma (1 - \frac{1}{\alpha}) + m ^2) + 2 (m + s \cdot \Gamma (1 - \frac{1}{\alpha})) ^3

 = s ^3 \Gamma (1 - \frac{3}{\alpha}) - 3 s ^3 \Gamma (1 - \frac{2}{\alpha}) \cdot \Gamma (1 - \frac{1}{\alpha}) + 2 s ^3 (\Gamma (1 - \frac{1}{\alpha})) ^2

Ainsi,

\gamma_1 = \frac{1}{s ^3 [\Gamma(1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{1}{\alpha}) ^2] ^{\frac{3}{2}}} \cdot s ^3 \cdot [\Gamma (1 - \frac{3}{\alpha}) - 3 \Gamma(1 - \frac{2}{\alpha}) \cdot \Gamma (1 - \frac{1}{\alpha}) + 2 (\Gamma (1 - \frac{1}{\alpha})) ^2]

 = \frac{1}{[\Gamma(1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{1}{\alpha}) ^2] ^{\frac{3}{2}}} \cdot [\Gamma (1 - \frac{3}{\alpha}) - 3 \Gamma(1 - \frac{2}{\alpha}) \cdot \Gamma (1 - \frac{1}{\alpha}) + 2 (\Gamma (1 - \frac{1}{\alpha})) ^2]

coefficient d’aplatissement normalisé: \gamma_2 = - 6 + \frac{\Gamma (1 - \frac{4}{\alpha}) - 4 \Gamma (1 - \frac{3}{\alpha}) \cdot \Gamma (1 - \frac{1}{\alpha}) + 3 (\Gamma (1 - \frac{2}{\alpha})) ^2}{[\Gamma (1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{1}{\alpha})) ^2] ^2} pour \alpha > 4 , \infty sinon.

démonstration du coefficient d’aplatissement de la loi  de Fréchet:

\gamma_2 = \gamma_2 ' - 3

Avec,

\gamma_2 ' = \frac{1}{\sigma ^4} E[X - E[X]] ^4

 = \frac{[E[X ^4] - 4 E[X] \cdot E[X ^3] + 6 E ^2 [X] \cdot E [X ^2] - 4 E ^3 [X] \cdot E [X] + E ^4 [X]]}{s ^4 [\Gamma (1 + \frac{2}{\alpha}) - (\Gamma (1 - \frac{1}{\alpha})) ^2] ^2}

Or, E[X ^4] = \int_0 ^{\infty} x ^4 \frac{\alpha}{s} \cdot (\frac{x - m}{s}) ^{-1 - \alpha} e ^{- (\frac{x - m}{s}) ^{- \alpha}} dx

En procédant au changement de variable suivant:

 u = (\frac{x - m}{s}) ^{-\alpha} \Rightarrow (\frac{x - m}{s}) ^{\alpha} = \frac{1}{u} \Rightarrow x = s \cdot u ^{-\frac{1}{\alpha}} + m \Rightarrow dx = - \frac{s}{\alpha} \cdot u ^{- \frac{1}{\alpha} - 1} du

A noter que lorsque X \in [m; +\infty[ on a u \in ]- \infty; 0].

Alors,

E[X ^4] = \int_{- \infty} ^{0} (s \cdot u ^{- \frac{1}{\alpha}} + m) ^4 \frac{\alpha}{s} \cdot u ^{1 + \frac{1}{\alpha}} e ^{- u} (- \frac{s}{\alpha}) \cdot u ^{- 1 - \frac{1}{\alpha}} du

E[X ^4] = - \int_0 ^{\infty} (s \cdot u ^{- \frac{1}{\alpha}} + m) ^4 \frac{\alpha}{s} \cdot u ^{1 + \frac{1}{\alpha}} e ^{- u} (- \frac{s}{\alpha}) \cdot u ^{- 1 - \frac{1}{\alpha}} du

 = \int_0 ^{\infty} (s ^4 u ^{-\frac{4}{\alpha}} + 4 m \cdot s ^3 u ^{- \frac{3}{\alpha}} + 6 m ^2 s ^2 u ^{-\frac{2}{\alpha}}+ 4 m ^3 s \cdot u ^{- \frac{1}{\alpha}} + m ^4) e ^{- u} du

 = s ^4 \int_0 ^{\infty} u ^{- \frac{4}{\alpha}} e ^{- u} du + 4 m \cdot s ^3 \int_0 ^{\infty} u ^{- \frac{3}{\alpha}} e ^{- u} du + 6 m ^2 s ^2 \int_0 ^{\infty} u ^{-\frac{2}{\alpha}} e ^{- u} du + 4 m ^3 s \cdot u ^{-\frac{1}{\alpha}} + m ^4 \int_0 ^{\infty} e ^{- u} du

Or,

 \int_0 ^{\infty} u ^{-\frac{4}{\alpha}} e ^{- u} du = \Gamma (1 - \frac{4}{\alpha})

 \int_0 ^{\infty} u ^{-\frac{3}{\alpha}} e ^{- u} du = \Gamma (1 - \frac{3}{\alpha})

 \int_0 ^{\infty} u ^{-\frac{2}{\alpha}} e ^{- u} du = \Gamma (1 - \frac{2}{\alpha})

 \int_0 ^{\infty} u ^{-\frac{1}{\alpha}} e ^{- u} du = \Gamma (1 - \frac{1}{\alpha})

 \int_0 ^{\infty} e ^{-u} du = 1

Par conséquent,

E[X ^4] = s ^4 \Gamma (1 - \frac{4}{\alpha}) + 4 m \cdot s ^2 \Gamma (1 - \frac{3}{\alpha}) + 6 m ^2 s ^2 \Gamma (1 - \frac{2}{\alpha}) + 4 m ^3 s \cdot \Gamma (1 - \frac{2}{\alpha}) + m ^4

On a alors,

E[X ^4] - 4 E[X] \cdot E[X ^3] + 6 E ^2 [X] \cdot E [X ^2] - 4 E ^3 [X] \cdot E [X] + E ^4 [X]

 = s ^4 \Gamma (1 - \frac{4}{\alpha}) + 4 m \cdot s ^3 \Gamma (1 - \frac{3}{\alpha}) + 6 m ^2 s ^2 \Gamma (1 - \frac{2}{\alpha}) + 4 m ^3 s \Gamma (1 - \frac{1}{\alpha}) + m ^4 - 4 (m + s \cdot \Gamma(1 - \frac{1}{\alpha}) \cdot (s ^3 (\Gamma (1 - \frac{3}{\alpha}) + 3 m \cdot s ^2 \Gamma (1 - \frac{2}{\alpha}) + 3 m ^2 s \cdot \Gamma (1 - \frac{1}{\alpha}) + m ^3) + 6 (m + s \cdot \Gamma (1 - \frac{1}{\alpha})) ^2 \cdot (s ^2 \Gamma (1 - \frac{2}{\alpha}) + 2 m \cdot s \cdot \Gamma (1 - \frac{1}{\alpha}) + m ^2) - 3 (m + s \cdot \Gamma (1 - \frac{1}{\alpha}) ^4)

 = s ^4 \Gamma (1 - \frac{4}{\alpha}) + 6 s ^4 \Gamma (2 - \frac{2}{\alpha}) \cdot (\Gamma(1 - \frac{1}{\alpha})) ^2 - 4 s ^4 \Gamma (1 - \frac{3}{\alpha}) \cdot \Gamma (1 - \frac{1}{\alpha}) - 3 s ^4 (\Gamma (1 - \frac{1}{\alpha})) ^4

Ainsi,

\gamma_2 ' = \frac{s ^4 \cdot [\Gamma (1 - \frac{4}{\alpha} + 6 s ^4 \Gamma (1 - \frac{2}{\alpha}) \cdot (\Gamma (1 - \frac{1}{\alpha})) ^2 - 4 s ^4 \Gamma (1 - \frac{3}{\alpha} \cdot \Gamma (1 - \frac{1}{\alpha}) - 3 s ^4 (\Gamma (1 - \frac{1}{\alpha})) ^4]}{s ^4 [\Gamma (1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{1}{\alpha})) ^2] ^2}

 = \frac{[\Gamma (1 - \frac{4}{\alpha} + 6 \Gamma (1 - \frac{2}{\alpha}) \cdot (\Gamma (1 - \frac{1}{\alpha})) ^2 - 4 \Gamma (1 - \frac{3}{\alpha} \cdot \Gamma (1 - \frac{1}{\alpha}) - 3 (\Gamma (1 - \frac{1}{\alpha})) ^4]}{[\Gamma (1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{1}{\alpha}) ^2}

Comme,

6 \Gamma (1 - \frac{2}{\alpha}) \cdot (\Gamma (1 - \frac{1}{\alpha})) ^2 - 3 (\Gamma (1 - \frac{1}{\alpha}) ^4

 = -3 \cdot [-2 \Gamma (1 - \frac{2}{\alpha}) \cdot (\Gamma (1 - \frac{1}{\alpha})) ^2 + (\Gamma (1 - \frac{1}{\alpha})) ^4]

 = - 3 [( \Gamma (1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{1}{\alpha})) ^2) ^2 - \Gamma (1 - \frac{2}{\alpha}) ^2]

D’où,

\gamma_2 = \gamma_2 ' - 3

 = \frac{\Gamma(1 - \frac{4}{\alpha} - 4 \Gamma (1 - \frac{3}{\alpha}) \cdot \Gamma (1 - \frac{1}{\alpha}) + 3 (\Gamma (1 - \frac{2}{\alpha})) ^2}{(\gamma (1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{2}{\alpha})) ^2} - \frac{3 (\Gamma (1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{2}{\alpha})) ^2}{(\Gamma (1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{2}{\alpha})) ^2} - 3

 = \frac{\Gamma(1 - \frac{4}{\alpha}) - 4 \Gamma (1 - \frac{3}{\alpha}) \cdot \Gamma (1 - \frac{1}{\alpha}) + 3 (\Gamma (1 - \frac{2}{\alpha})) ^2}{(\Gamma (1 - \frac{2}{\alpha}) - (\Gamma (1 - \frac{2}{\alpha})) ^2} - 6

– utilisation la plus répandue: contrôle de fiabilité.

loi du \chi à k degrés de liberté

fonction de densité: f(X) = \frac{1}{\Gamma(\frac{k}{2})}2 ^{1 - \frac{k}{2}} x ^{k - 1} e ^{- \frac{x ^2}{2}} avec x \in [0, + \infty[

Un exemple de fonction de densité d’une loi du \chi (source wikipédia):

add

fonction de répartition: F(X) = P(X \leq x) = P(\frac{k}{2},\frac{x^2}{2}), avec P(.,.) fonction gamma incomplète

démonstration de la fonction de répartition de la loi du \chi:

F(X) = P(X \leq x) = \int_0 ^x \frac{1}{\Gamma(\frac{k}{2})}2 ^{1 - \frac{k}{2}} x ^{k - 1} e ^{- \frac{x ^2}{2}}

La formule de la fonction gamma incomplète est: P (\alpha, x) = \frac{1}{\Gamma (\alpha)} \int_0 ^x e ^{-t} t ^{\alpha - 1} dt

En procédant au changement de variable suivant:

t = \frac{x ^2}{2} \Rightarrow x = \sqrt{2t} \Rightarrow dx = \frac{\sqrt{2}}{2 \sqrt{t}}

On obtient:

F(X) = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^x  2 ^{1 - \frac{k}{2}} (\sqrt{2t}) ^{k - 1} e ^{-t} \frac{\sqrt{2}}{2 \sqrt{t}} dt = \frac{2 ^{1 - \frac{k}{2} + \frac{k}{2} - \frac{1}{2} + \frac{1}{2} - 1}}{\Gamma (\frac{k}{2})} \int_0 ^x t ^{\frac{k}{2} - \frac{1}{2} - \frac{1}{2}} e ^{-t} dt = \frac{1}{\Gamma (\frac{k}{2})} \int_0 ^x t ^{k - 1} e ^{-t} dt

On reconnait alors la fonction gamma incomplète généralisée de paramètres (\frac{k}{2},\frac{x ^2}{2}) et on a,

F(X) = P(\frac{k}{2},\frac{x ^2}{2})

Un exemple de fonction de répartition d’une loi du \chi (source wikipédia):

add2

espérance mathématique: E(X) = \sqrt{2} \frac{\Gamma (\frac{k + 1}{2})}{\Gamma (\frac{k}{2})}

démonstration de l’espérance de la loi du \chi:

E(X) = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} x \cdot 2 ^{1 - \frac{k}{2}} x ^{k - 1} e ^{- \frac{x ^2}{2}} dx = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} 2 ^{1 - \frac{k}{2}} x ^k e ^{- \frac{x ^2}{2}} dx

On pose le changement de variable suivant:

t = \frac{x ^2}{2} \Rightarrow x = \sqrt{2 t} \Rightarrow dx = \frac{\sqrt{2}}{2 \sqrt{t}} dt

Par conséquent,

E[X] = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} 2 ^{1 - \frac{k}{2}} (\sqrt{2 t}) ^k e ^{- t} \frac{\sqrt{2}}{2 \sqrt{t}} dt

= \frac{2 ^{1 - \frac{k}{2} + \frac{k}{2} + \frac{1}{2} - 1}}{\Gamma (\frac{k}{2})} \int_0 ^{+ \infty} t ^{\frac{k}{2} - \frac{1}{2}} e ^{- t} dt

= \frac{2 ^{\frac{1}{2}}}{\Gamma (\frac{k}{2})} \int_0 ^{+ \infty} t ^{\frac{k + 1}{2} - 1} e ^{-t} dt

= \sqrt{2} \frac{\Gamma (\frac{k  + 1}{2})}{\Gamma (\frac{k}{2})}

= \mu

variance: V(X) = k - \mu  ^2

démonstration de la variance de la loi du \chi:

V(X) = E[X ^2] - E ^2 [X] = E[X ^2] - \mu ^2

Or,

E[X ^2] = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} x ^2 2 ^{1 - \frac{k}{2}} x ^{k - 1} e ^{- \frac{x ^2}{2}} dx = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} 2 ^{1 - \frac{k}{2}} x ^{k + 1} e ^{- \frac{x ^2}{2}} dx

On pose le changement de variable suivant:

t = \frac{x ^2}{2} \Rightarrow x = \sqrt{2 t} \Rightarrow dx = \frac{\sqrt{2}}{2 \sqrt{t}} dt

Par conséquent,

E[X ^2] = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} 2 ^{1 - \frac{k}{2}} (\sqrt{2 t}) ^{k + 1} e ^{- t} \frac{\sqrt{2}}{2 \sqrt{t}} dt

= \frac{2 ^{1 - \frac{k}{2} + \frac{k}{2} + \frac{1}{2} + \frac{1}{2} - 1}}{\Gamma (\frac{k}{2})} \int_0 ^{+ \infty} t ^{\frac{k}{2} + \frac{1}{2} - \frac{1}{2}} e ^{- t} dt

= \frac{2}{\Gamma (\frac{k}{2})} \int_0 ^{+ \infty} t ^{(\frac{k}{2} + 1) - 1} e ^{-t} dt

= 2  \frac{\Gamma (\frac{k}{2} + 1)}{\Gamma (\frac{k}{2})}

On pose n = \frac{k}{2} et on utilise les propriétés de la fonction \gamma: \frac{\Gamma (n + 1)}{\Gamma (n)} = n = \frac{k}{2}

D’où,

E[X ^2] = 2 \frac{k}{2} = k

On a alors,

V(X) = k - \mu ^2

coefficient d’asymétrie: \gamma_1 = \frac{\mu}{\sigma ^3} (1 - 2 \sigma ^2)

démonstration du coefficient d’asymétrie de la loi du \chi:

\gamma_1 = \frac{1}{\sigma ^3} (E[X ^3] - 3 E[X ^2] \cdot E[X] + 3 E[X] \cdot E ^2[X] - E ^3 [X])

= \frac{1}{\sigma ^3} (E [X ^3] - 3 k \mu + 2 \mu ^3)

Or,

E[X ^3] = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} x ^3 2 ^{1 - \frac{k}{2}} x ^{k - 1} e ^{- \frac{x ^2}{2}} dx = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} 2 ^{1 - \frac{k}{2}} x ^{k + 2} e ^{- \frac{x ^2}{2}} dx

On pose le changement de variable suivant:

t = \frac{x ^2}{2} \Rightarrow x = \sqrt{2 t} \Rightarrow dx = \frac{\sqrt{2}}{2 \sqrt{t}} dt

Par conséquent,

E[X ^3] = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} 2 ^{1 - \frac{k}{2}} (\sqrt{2 t}) ^{k + 2} e ^{- t} \frac{\sqrt{2}}{2 \sqrt{t}} dt

= \frac{2 ^{1 - \frac{k}{2} + \frac{k}{2} + \frac{2}{2} + \frac{1}{2} - 1}}{\Gamma (\frac{k}{2})} \int_0 ^{+ \infty} t ^{\frac{k}{2} + \frac{2}{2} - \frac{1}{2}} e ^{- t} dt

= \frac{2 ^{\frac{3}{2}}}{\Gamma (\frac{k}{2})} \int_0 ^{+ \infty} t ^{\frac{k + 3}{2} - 1} e ^{-t} dt

= 2 ^{\frac{3}{2}}  \frac{\Gamma (\frac{k + 3}{2})}{\Gamma (\frac{k}{2})}

On pose n = \frac{k + 1}{2} afin de profiter des propriétés de la fonction \gamma et on remarque que,

\Gamma(\frac{k  + 3}{2}) = \Gamma(\frac{k  + 1}{3} + 1) = \Gamma(n + 1) = n! = n \cdot (n - 1) ! = (\frac{k  + 1}{2})  \Gamma(\frac{k + 1}{2})

Ainsi,

E[X ^3] = \frac{(k  + 1)}{2} 2 \sqrt{2}  \frac{\Gamma (\frac{k + 1}{2})}{\Gamma (\frac{k}{2})} = (k  + 1) \mu

Maintenant on peut boucler nos calculs,

\gamma_1 = \frac{\mu (1 + k) - 3 k \mu + 2 \mu ^3}{\sigma ^3} = \frac{\mu (1 - 2 (k - \mu ^2))}{\sigma ^3} = \frac{\mu (1 - 2 \sigma ^2)}{\sigma ^3}

coefficient d’aplatissement normalisé: \gamma_2 = \frac{2}{\sigma ^2} (1 - \mu \sigma \gamma_1 - \sigma ^2)

démonstration du coefficient d’aplatissement de la loi du \chi:

\gamma_2 = \gamma_2 ' - 3

Or,

\gamma_2 ' = \frac{1}{\sigma ^4} (E[X ^4] - 4 E[X ^3] \cdot E[X] + 6 E[X ^2] \cdot E ^2[X] - 4 E [X] \cdot E ^3 [X] + E ^4 [X])

 = \frac{1}{\sigma ^4} (E [X ^4] - 4 \mu ^2 k - 4 \mu ^2 + 6 k \mu ^2 - 3 \mu ^4)

Or,

E[X ^4] = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} x ^4 2 ^{1 - \frac{k}{2}} x ^{k - 1} e ^{- \frac{x ^2}{2}} dx = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} 2 ^{1 - \frac{k}{2}} x ^{k + 3} e ^{- \frac{x ^2}{2}} dx

On pose le changement de variable suivant:

t = \frac{x ^2}{2} \Rightarrow x = \sqrt{2 t} \Rightarrow dx = \frac{\sqrt{2}}{2 \sqrt{t}} dt

Par conséquent,

E[X ^4] = \frac{1}{\Gamma(\frac{k}{2})} \int_0 ^{+ \infty} 2 ^{1 - \frac{k}{2}} (\sqrt{2 t}) ^{k + 3} e ^{- t} \frac{\sqrt{2}}{2 \sqrt{t}} dt

= \frac{2 ^{1 - \frac{k}{2} + \frac{k}{2} + \frac{3}{2} + \frac{1}{2} - 1}}{\Gamma (\frac{k}{2})} \int_0 ^{+ \infty} t ^{\frac{k}{2} + \frac{3}{2} - \frac{1}{2}} e ^{- t} dt

= \frac{2 ^2}{\Gamma (\frac{k}{2})} \int_0 ^{+ \infty} t ^{(\frac{k}{2} + 2) - 1} e ^{-t} dt

= 4  \frac{\Gamma (\frac{k}{2} + 2)}{\Gamma (\frac{k}{2})}

On pose n = \frac{k}{2} afin de profiter des propriétés de la fonction \Gamma et on a,

4  \frac{\Gamma (n + 2)}{\Gamma (n)} = 4 n (n + 1) = 4 \frac{k}{2} (\frac{k}{2} + 1) = k (k + 2)

Ainsi,

E[X ^4] = k (k  + 2)

Maintenant on peut poursuivre nos calculs,

\gamma_2 ' = \frac{k ^2 + 2 k - 4 \mu ^2 k - 4 \mu ^2 + 6 k \mu ^2 - 3 \mu ^4}{\sigma ^4} = \frac{k ^2 + 2 k - 4 \mu ^2 + 2 k \mu ^2 - 3 \mu ^4}{\sigma ^4}

Et comme l’idée est de se compliquer la tâche pour arriver à une formule faisant intervenir \sigma ^2 et \gamma_1 alors on va devoir développer,

\gamma_2 ' = \frac{1}{\sigma ^4} (2k - 2 \mu ^2 - 2 \mu ^2 + 4 \mu ^2 k - 4 \mu ^4 + k ^2 - 2 \mu ^2 k + \mu ^4)

= \frac{1}{\sigma ^4} (2 \sigma ^2 - 2 \mu ^2 + 4 \mu ^2 \sigma^2 + \sigma ^4), puisque \sigma ^2 = k - \mu ^2

 = \frac{1}{\sigma ^4} (2 \sigma ^2 - 2 \mu ^2 + 4 \mu ^2 \sigma^2 - 2 \sigma ^4) + 3

= \frac{1}{\sigma ^4} [2 (\sigma ^2 - \mu \mu \frac{\sigma ^3}{\sigma ^3} (1 - 2 \sigma ^2) - \sigma ^4)] + 3

= \frac{2}{\sigma ^4} (\sigma ^2 - \mu \sigma \gamma_1 \sigma ^2 - \sigma ^4) + 3, puisque \gamma_1 = \frac{\mu}{\sigma ^3} (1 - 2 \sigma ^2)

= \frac{2}{\sigma ^2} (1 - \mu \sigma \gamma_1 - \sigma ^2) + 3

D’où,

\gamma_2 = \gamma_2 ' - 3 = \frac{2}{\sigma ^2} (1 - \mu \sigma \gamma_1 - \sigma ^2)

utilisation la plus répandue: loi de Maxwell.

♦ loi du \chi ^2

fonction de densité:

f(X) = \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} x ^{\frac{k}{2} - 1} e ^{- \frac{x}{2}} avec x \in [0, + \infty[

Un exemple de fonction de densité d’une loi du \chi ^2 (source wikipédia):

add

fonction de répartition:

F(X) = P(X \leq x) = \frac{1}{\Gamma (\frac{k}{2})} \gamma (\frac{k}{2}, \frac{x}{2})

Notons que \gamma (\frac{k}{2}, \frac{x}{2}) représente la fonction gamma incomplète. 

démonstration de la fonction de répartition de la loi du \chi ^2:

F(X) = P(X \leq x) = \int_0 ^x \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} x ^{\frac{k}{2} - 1} e ^{- \frac{x}{2}} dx = \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} \int_0 ^x x ^{\frac{k}{2} - 1} e ^{- \frac{x}{2}} dx

La formule de la fonction gamma incomplète est: \gamma (a, x) = \int_0 ^x e ^{-t} t ^{a - 1} dt

En procédant au changement de variable suivant:

t = \frac{x}{2} \Rightarrow x = 2 \cdot t \Rightarrow dx = 2 \cdot dt et a = \frac{k}{2}

On obtient: \gamma (\frac{k}{2}, \frac{x}{2}) = \int_0 ^x e ^{\frac{x}{2}} (2 \cdot x) ^{\frac{k}{2} - 1} 2 dx = \int_0 ^x e ^{- \frac{x}{2}} x ^{\frac{k}{2} - 1} 2 ^{\frac{k}{2}} dx

Par conséquent,

F(X) = \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} 2 ^{\frac{k}{2}} \int_0 ^x e ^{- \frac{x}{2}} x ^{\frac{k}{2} - 1} dx = \frac{1}{\Gamma (\frac{k}{2})} \int_0 ^x e ^{- \frac{x}{2}} x ^{\frac{k}{2} - 1} dx = \frac{\gamma (\frac{k}{2}, \frac{x}{2})}{\Gamma (\frac{k}{2})}

Un exemple de fonction de répartition d’une loi du \chi ^2 (source wikipédia):

add

espérance mathématique: E(X) = k

démonstration de l’espérance de la loi du \chi ^2:

E(X) = \int_0 ^{\infty} x \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} x ^{\frac{k}{2} - 1} e ^{- \frac{x}{2}} dx = \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} \int_0 ^{\infty} x ^{\frac{k}{2}} e ^{- \frac{x}{2}} dx

Or,

 \Gamma (x) = \int_0 ^x t ^{x - 1} e ^{-t} dt \Rightarrow \Gamma (\frac{k}{2}) = \int_0 ^x t ^{\frac{k}{2} - 1} e^{-t} dt

En posant t = \frac{x}{2} \Rightarrow x = 2 \cdot t \Rightarrow dx = 2 \cdot dt \Rightarrow dt = \frac{1}{2} dx

Par conséquent,

\Gamma (\frac{k}{2} = \int_0 ^x (\frac{x}{2} ^{\frac{k}{2} - 1}) e ^{- \frac{x}{2}} \frac{1}{2} dx \Rightarrow 2 ^{\frac{k}{2}} \Gamma (\frac{k}{2}) = \int_0 ^x x ^{\frac{k}{2} - 1} e ^{- \frac{x}{2}} dx

On a alors E[X] = \frac{\int_0 ^{\infty} x ^{\frac{k}{2}} e ^{- \frac{x}{2}} dx}{\int_0 ^{\infty} x ^{\frac{k}{2} - 1} e ^{- \frac{x}{2}} dx}

En procédant par intégration par parties pour le terme au numérateur via:

u = x ^{\frac{k}{2}} \Rightarrow u' = \frac{k}{2} \cdot x ^{\frac{k}{2} - 1}

v' = e ^{- \frac{x}{2}} \Rightarrow v = -2 e ^{-\frac{x}{2}}

On obtient,

\int_0 ^{\infty} x ^{\frac{k}{2}} e ^{- \frac{x}{2}} dx = [-2 x ^{\frac{k}{2}} e ^{-\frac{x}{2}}]_0 ^{\infty} - \int_0 ^{\infty} \frac{k}{2} \cdot x ^{\frac{k}{2} - 1} (-2) e ^{- \frac{x}{2}} dx = k \cdot \int_0 ^{\infty} x ^{\frac{k}{2} - 1} e ^{-\frac{x}{2}} dx

Ainsi E[X] = \frac{k \cdot \int_0 ^{\infty} x ^{\frac{k}{2} - 1} e ^{-\frac{x}{2}} dx}{\int_0 ^{\infty} x ^{\frac{k}{2} - 1} e ^{-\frac{x}{2}} dx} = k

variance: V(X) = 2 k

démonstration de la variance de la loi du \chi ^2:

V(X) = E[X ^2] - E ^2 [X] = E[X ^2] - k ^2

Or,

E[X ^2] = \int_0 ^{\infty} \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} x ^2 x ^{\frac{k}{2} - 1} e ^{- \frac{x}{2}} dx = \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} \int_0 ^{\infty} x ^{\frac{k}{2} + 1} e ^{- \frac{x}{2}} dx

En remarquant que: 2 ^{\frac{k}{2}} \Gamma (\frac{k}{2}) = \int_0 ^{\infty} x ^{\frac{k}{2} - 1} e ^{- \frac{k}{2}} dx

On a alors E[X ^2] = \frac{\int_0 ^{\infty} x ^{\frac{k}{2} + 1} e ^{- \frac{k}{2}} dx}{\int_0 ^{\infty} x ^{\frac{k}{2} - 1} e ^{- \frac{k}{2}} dx}

En procédant par intégration par parties pour le terme au numérateur via:

u = x ^{\frac{k}{2} + 1} \Rightarrow u' = (\frac{k}{2} + 1) \cdot x ^{\frac{k}{2} }

v' = e ^{- \frac{x}{2}} \Rightarrow v = -2 e ^{-\frac{x}{2}}

On obtient,

\int_0 ^{\infty} x ^{\frac{k}{2} + 1} e ^{- \frac{k}{2}} dx = [-2 \cdot e ^{- \frac{x}{2}} x ^{\frac{k}{2} + 1}]_0 ^{\infty} - \int_0 ^{\infty} (- 2) e ^{- \frac{x}{2}} (\frac{k}{2} + 1) \cdot x ^{\frac{k}{2}} dx

 = (k + 2) \int_0 ^{\infty} e ^{- \frac{x}{2}} x ^{\frac{k}{2}} dx

Une seconde intégration par parties est recquise afin de pouvoir simplifier la forme de E[X ^2] à ce moment-là du développement:

u = x ^{\frac{k}{2}} \Rightarrow u' = \frac{k}{2} \cdot x ^{\frac{k}{2} - 1}

v' = e ^{- \frac{x}{2}} \Rightarrow v = -2 e ^{-\frac{x}{2}}

De fait,

\int_0 ^{\infty} x ^{\frac{k}{2} + 1} e ^{- \frac{x}{2}} dx = (k + 2) \lbrace [-2 \cdot e ^{- \frac{x}{2}} x ^{\frac{k}{2}}]_0 ^{\infty} - \int_0 ^{\infty} (-2) e ^{-\frac{x}{2}} \frac{k}{2} x ^{\frac{k}{2} - 1} \rbrace

 = (k + 2) \cdot k \cdot \int_0 ^{\infty} e ^{-\frac{x}{2}} x ^{\frac{k}{2}} dx

Par conséquent,

E[X ^2] = k ^2 + 2 \cdot k \Rightarrow V(X) = k ^2 + 2 \cdot k - k ^2 = 2 \cdot k

coefficient d’asymétrie: \gamma_1 = \sqrt{\frac{8}{k}}

démonstration du coefficient d’asymétrie de la loi du \chi ^2:

\gamma_1 = \frac{1}{V ^{\frac{3}{2}}} [E[X ^3] - 3 E[X ^2] \cdot E[X] + 3 E[X] \cdot E ^2[X] - E ^3 [X]]

 = \frac{1}{(2 k) ^{\frac{3}{2}}} [E [X ^3] - 3 (k ^2 + 2 k) \cdot k + 2 k \cdot k ^2]

Developpons l’unique terme qui nous est encore inconnu:

E[X ^3] = \int_0 ^{\infty} \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} x ^3 x ^{\frac{k}{2} - 1} e ^{- \frac{x}{2}} dx = \int_0 ^{\infty} \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} x ^{\frac{k}{2} + 2} e ^{- \frac{x}{2}} dx

Or 2 ^{\frac{k}{2}} \Gamma (\frac{k}{2}) = \int_0 ^{\infty} x ^{\frac{k}{2} - 1} e ^{- \frac{k}{2}} dx

On a alors E[X ^3] = \frac{\int_0 ^{\infty} x ^{\frac{k}{2} + 2} e ^{- \frac{k}{2}} dx}{\int_0 ^{\infty} x ^{\frac{k}{2} - 1} e ^{- \frac{k}{2}} dx}

En procédant par intégration par parties pour le terme au numérateur via:

u = x ^{\frac{k}{2} + 2} \Rightarrow u' = (\frac{k}{2} + 2) \cdot x ^{\frac{k}{2} + 1}

v' = e ^{- \frac{x}{2}} \Rightarrow v = -2 e ^{-\frac{x}{2}}

On obtient,

\int_0 ^{\infty} x ^{\frac{k}{2} + 2} e ^{- \frac{k}{2}} dx = [-2 \cdot e ^{- \frac{x}{2}} x ^{\frac{k}{2} + 2}]_0 ^{\infty} - \int_0 ^{\infty} (- 2) e ^{- \frac{x}{2}} (\frac{k}{2} + 2) \cdot x ^{\frac{k}{2} + 1} dx

= (k + 4) \int_0 ^{\infty} e ^{- \frac{x}{2} + 1} x ^{\frac{k}{2}} dx

Une seconde intégration par parties est recquise afin de pouvoir simplifier la forme de E[X ^3] à ce moment-là du développement:

u = x ^{\frac{k}{2} + 1} \Rightarrow u' = (\frac{k}{2} + 1) \cdot x ^{\frac{k}{2}}

v' = e ^{- \frac{x}{2}} \Rightarrow v = -2 e ^{-\frac{x}{2}}

De fait,

\int_0 ^{\infty} x ^{\frac{k}{2} + 2} e ^{- \frac{x}{2}} dx = (k + 4) \lbrace [-2 \cdot e ^{- \frac{x}{2}} x ^{\frac{k}{2} + 1}]_0 ^{\infty} - \int_0 ^{\infty} (-2) e ^{-\frac{x}{2}} (\frac{k}{2} + 1) x ^{\frac{k}{2}} \rbrace = (k + 4) \cdot (k + 2) \cdot \int_0 ^{\infty} e ^{-\frac{x}{2}} x ^{\frac{k}{2}} dx

Enfin, une troisième et dernière intégration par parties est recquise:

u = x ^{\frac{k}{2}} \Rightarrow u' = \frac{k}{2} \cdot x ^{\frac{k}{2} - 1}

v' = e ^{- \frac{x}{2}} \Rightarrow v = -2 e ^{-\frac{x}{2}}

De fait,

\int_0 ^{\infty} x ^{\frac{k}{2} + 2} e ^{- \frac{x}{2}} dx = (k + 4) \cdot (k + 2) \cdot \lbrace [-2 \cdot e ^{- \frac{x}{2}} x ^{\frac{k}{2} - 1}]_0 ^{\infty} - \int_0 ^{\infty} (-2) e ^{-\frac{x}{2}} \frac{k}{2} x ^{\frac{k}{2} - 1} \rbrace

 = (k + 4) \cdot (k + 2) \cdot k \cdot \int_0 ^{\infty} e ^{-\frac{x}{2}} x ^{\frac{k}{2} - 1} dx

Par conséquent E[X ^3] = \frac{(k + 4) \cdot (k + 2) \dot k \cdot \int_0 ^{\infty} e ^{- \frac{x}{2}} x ^{\frac{k}{2} - 1} dx}{\int_0 ^{\infty} e ^{- \frac{x}{2}} x ^{\frac{k}{2} - 1} dx}

Enfin,

\gamma_1 = \frac{1}{(2 k) ^{\frac{3}{2}}} [(k + 4) \cdot (k + 2) \cdot k - 3 (k ^2 + 2 k) \cdot k + 2 k \cdot k ^2]

 = \frac{1}{(2 k) ^{\frac{3}{2}}} [k ^3 + 6 k ^2 + 8 k - 3 k ^3 - 6 k ^2 + 2 k ^3]

 = \frac{8 k}{(2 k) ^{\frac{3}{2}}}

 = \frac{4}{\sqrt{2 k}}

Seulement cette forme semble plus exotique et donc moins conventionnelle. Pour retrouver le résultat universel il faut complexifier la chose en remarquant que:

 8 k = 2 \times 2 \times 2 \times k = \sqrt{4} \times (\sqrt{2} \times \sqrt{2}) \times 2 k = \sqrt{8} \times \sqrt{2} \times 2 k = \sqrt{8} \cdot 2 ^{\frac{3}{2}} k

D’où la forme: \gamma_1 = \frac{8 k}{(2k) ^{\frac{3}{2}}} = \frac{2 ^{\frac{3}{2}} k \sqrt{8}}{2 ^{\frac{3}{2}} k ^{\frac{3}{2}}} = \sqrt{\frac{8}{k}}

coefficient d’aplatissement normalisé: \gamma_2 = \frac{12}{k}

démonstration du coefficient d’aplatissement de la loi du \chi ^2:

\gamma_2 = \gamma_2 ' - 3

Or,

\gamma_2 ' = \frac{1}{V ^2} [E[X ^4] - 4 E[X ^3] \cdot E[X] + 6 E[X ^2] \cdot E ^2[X] - 4 E [X] \cdot E ^3 [X] + E ^4 [X]]

 = \frac{1}{(2 k) ^2} [E [X ^4] - 4 (k + 4) \cdot (k + 2) \cdot k + 6 (k + 2) \cdot k \cdot k ^2 - 4 k \cdot k ^3 + k ^4]

Developpons l’unique terme qui nous est encore inconnu:

E[X ^4] = \int_0 ^{\infty} \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} x ^4 x ^{\frac{k}{2} - 1} e ^{- \frac{x}{2}} dx = \int_0 ^{\infty} \frac{1}{2 ^{\frac{k}{2}} \Gamma (\frac{k}{2})} x ^{\frac{k}{2} + 3} e ^{- \frac{x}{2}} dx

Or 2 ^{\frac{k}{2}} \Gamma (\frac{k}{2}) = \int_0 ^{\infty} x ^{\frac{k}{2} - 1} e ^{- \frac{k}{2}} dx

On a alors,

E[X ^4] = \frac{\int_0 ^{\infty} x ^{\frac{k}{2} + 3} e ^{- \frac{k}{2}} dx}{\int_0 ^{\infty} x ^{\frac{k}{2} - 1} e ^{- \frac{k}{2}} dx}

En procédant par intégration par parties pour le terme au numérateur via:

u = x ^{\frac{k}{2} + 3} \Rightarrow u' = (\frac{k}{2} + 3) \cdot x ^{\frac{k}{2} + 2}

v' = e ^{- \frac{x}{2}} \Rightarrow v = -2 e ^{-\frac{x}{2}}

On obtient,

\int_0 ^{\infty} x ^{\frac{k}{2} + 3} e ^{- \frac{k}{2}} dx = [-2 \cdot e ^{- \frac{x}{2}} x ^{\frac{k}{2} + 3}]_0 ^{\infty} - \int_0 ^{\infty} (-2) e ^{\frac{x}{2}} (\frac{k}{2} + 3) \cdot x ^{\frac{k}{2} + 2} dx

 = (k + 6) \cdot \int_0 ^{\infty} e ^{- \frac{x}{2}} x ^{\frac{k}{2} + 2} dx

Une seconde intégration par parties est recquise afin de pouvoir simplifier la forme de E[X ^4] à ce moment-là du développement:

u = x ^{\frac{k}{2} + 2} \Rightarrow u' = (\frac{k}{2} + 2) \cdot x ^{\frac{k}{2} + 1}

v' = e ^{- \frac{x}{2}} \Rightarrow v = -2 e ^{-\frac{x}{2}}

De fait,

\int_0 ^{\infty} x ^{\frac{k}{2} + 3} e ^{- \frac{x}{2}} dx = (k + 6) \lbrace [-2 \cdot e ^{- \frac{x}{2}} x ^{\frac{k}{2} + 2}]_0 ^{\infty} - \int_0 ^{\infty} (-2) e ^{-\frac{x}{2}} (\frac{k}{2} + 2) x ^{\frac{k}{2} + 1} \rbrace

 = (k + 6) \cdot (k + 4) \cdot \int_0 ^{\infty} e ^{-\frac{x}{2}} x ^{\frac{k}{2} + 1} dx

Ensuite, une troisième intégration par parties est recquise:

u = x ^{\frac{k}{2} + 1} \Rightarrow u' = (\frac{k}{2} + 1) \cdot x ^{\frac{k}{2}}

v' = e ^{- \frac{x}{2}} \Rightarrow v = -2 e ^{-\frac{x}{2}}

De fait,

\int_0 ^{\infty} x ^{\frac{k}{2} + 3} e ^{- \frac{x}{2}} dx = (k + 6) \cdot (k + 4) \cdot \lbrace [-2 \cdot e ^{- \frac{x}{2}} x ^{\frac{k}{2} + 1}]_0 ^{\infty} - \int_0 ^{\infty} (-2) e ^{-\frac{x}{2}} (\frac{k}{2} + 1) x ^{\frac{k}{2}} \rbrace

 = (k + 6) \cdot (k + 4) \cdot (k + 2) \cdot \int_0 ^{\infty} e ^{-\frac{x}{2}} x ^{\frac{k}{2}} dx

Enfin, une quatrième et dernière intégration par parties est recquise:

u = x ^{\frac{k}{2}} \Rightarrow u' = (\frac{k}{2}) \cdot x ^{\frac{k}{2} - 1}

v' = e ^{- \frac{x}{2}} \Rightarrow v = -2 e ^{-\frac{x}{2}}

De fait,

\int_0 ^{\infty} x ^{\frac{k}{2} + 3} e ^{- \frac{x}{2}} dx = (k + 6) \cdot (k + 4) \cdot (k + 2) \cdot \lbrace [-2 \cdot e ^{- \frac{x}{2}} x ^{\frac{k}{2}}]_0 ^{\infty} - \int_0 ^{\infty} (-2) e ^{-\frac{x}{2}} \frac{k}{2} x ^{\frac{k}{2} - 1} \rbrace

 = (k + 6) \cdot (k + 4) \cdot (k + 2) \cdot k \cdot \int_0 ^{\infty} e ^{-\frac{x}{2}} x ^{\frac{k}{2} - 1} dx

Par conséquent,

E[X ^4] = \frac{(k + 6) \cdot (k + 4) \cdot (k + 2) \cdot k \cdot \int_0 ^{\infty} e ^{- \frac{x}{2}} x ^{\frac{k}{2} - 1} dx}{\int_0 ^{\infty} e ^{- \frac{x}{2}} x ^{\frac{k}{2} - 1} dx} = (k + 6) \cdot (k + 4) \cdot (k + 2) \cdot k

Nous avons alors,

\gamma_2 ' = \frac{1}{(2 k) ^2} [(k + 6) \cdot (k + 4) \cdot (k + 2) \cdot k - 4 (k + 4) \cdot (k + 2) \cdot k + 6 (k + 2) \cdot k \cdot k ^2 - 4 k \cdot k ^3 + k ^4]

 = \frac{1}{(2 k) ^2} [k ^4 + 2 k ^3 + 10 k ^3 + 20 k ^2 + 24 k ^2 + 48 k - 4 k ^4 - 24 k ^3 - 32 k ^2 + 6 k ^4 + 12 k ^3 - 4 k ^4 + k ^4]

 = \frac{1}{(2 k) ^2} \cdot [48 k + 12 k ^2]

 = \frac{1}{k} \cdot [12 + 3 k]

Enfin,

\gamma_2 = \gamma_2 ' - 3 = \frac{12 + 3k}{k} - 3 = \frac{12}{k}

utilisation la plus répandue: tests statistiques

 loi de Student de paramètre n

La loi de Student peut s’écrire comme le ratio d’une variable suivant une loi normale centrée-réduite et d’une variable suivant une loi du \chi ^2 à n degrés de liberté.

– fonction de densité: f(X) = \frac{1}{\sqrt{n \pi}} \frac{\Gamma(\frac{n+1}{2})}{\Gamma(\frac{n}{2})} (1 + \frac{x ^2}{n}) ^{-(\frac{n + 1}{2})} avec x \in R, n entier > 0

Un exemple de fonction de densité d’une loi de Student (source wikipédia):

Cette image a un attribut alt vide ; son nom de fichier est add1-1.png

– fonction de répartitionF(X) non défiinie

Un exemple de fonction de répartition d’une loi de Student (source wikipédia):

Cette image a un attribut alt vide ; son nom de fichier est add2-1.png

– espérance mathématique: E(X) = 0 pour n \geq 2

démonstration de l’espérance de la loi de Student:

Par définition, on a: E[X] = E[\sqrt{n} \frac{Z}{\sqrt{Y}}] = \sqrt{n} E[Z] E[\frac{1}{\sqrt{Y}}]. Or Z suit une loi normale centrée-réduite \Rightarrow E[Z] = 0 et Y suit une loi du \chi ^2 d’où,

E[\frac{1}{\sqrt{Y}}] = \int_0 ^{+\infty} \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \frac{1}{\sqrt{y}} y ^{\frac{n}{2} - 1} e ^{-\frac{y}{2}} dy = \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} y ^{(\frac{n}{2} - \frac{1}{2}) - 1} e ^{-\frac{y}{2}} dy

On pose le changement de variable suivant: u = \frac{y}{2} \Rightarrow y = 2 u \Rightarrow dy = 2 du et on obtient,

E[\frac{1}{\sqrt{Y}}] = \frac{2 ^{\frac{n}{2} - \frac{1}{2} - 1} 2}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} u ^{(\frac{n}{2} - \frac{1}{2}) - 1} e ^{-u} du= \frac{1}{2 ^{\frac{1}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} u ^{(\frac{n}{2} - \frac{1}{2}) - 1} e ^{-u} du= \frac{1}{2 ^{\frac{1}{2}}} \frac{\Gamma(\frac{n-1}{2})}{\Gamma(\frac{n}{2})}

Par propriété de la fonction \Gamma(.) on en déduit que E[X] est définie pour n \geq 2.

variance: V(X) = \frac{n}{n-2} pour n \geq 3

démonstration de la variance de la loi de Student:

V(X) = E[X ^2] - E ^2[X] = E[X ^2] - 0 ^2 = E[X ^2].

Par définition on a: E[X ^2] = E[(\sqrt{n} \frac{Z}{\sqrt{Y}}) ^2] = n E[Z ^2] E[\frac{1}{Y}]

Comme Z suit une loi normale centrée-réduite \Rightarrow E[Z ^2] = 1 et Y suit une loi du \chi ^2 d’où,

E[\frac{1}{Y}] = \int_0 ^{+\infty} \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \frac{1}{y} y ^{\frac{n}{2} - 1} e ^{-\frac{y}{2}} dy = \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} y ^{(\frac{n}{2} - 1) - 1} e ^{-\frac{y}{2}} dy

On pose le changement de variable suivant: u = \frac{y}{2} \Rightarrow y = 2 u \Rightarrow dy = 2 du et on obtient,

E[\frac{1}{Y}] = \frac{2 ^{\frac{n}{2}-2} 2}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} u ^{(\frac{n}{2} - 1) - 1} e ^{-u} du= \frac{1}{2 ^{\frac{1}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} u ^{(\frac{n}{2} - 1) - 1} e ^{-u} du = \frac{1}{2} \frac{\Gamma(\frac{n}{2} - 1)}{\Gamma(\frac{n}{2})}

Afin d’utiliser plus simplement le développement de la fonction \Gamma(.) on pose désormais K = \frac{n}{2} et en utilisant ses propriétés on a,

E[\frac{1}{Y}] = \frac{1}{2} \frac{\Gamma(K - 1)}{\Gamma(K)} = \frac{1}{2} \frac{1}{K - 1} = \frac{1}{2} \frac{1}{\frac{n}{2} - 1} = \frac{1}{2 \frac{1}{2} (n - 2)} = \frac{1}{n - 2}

D’où E[X ^2] = n . \frac{1}{n - 2} et V(X) = \frac{n}{n - 2} qui est définie si n \geq 3

 coefficient d’asymétrie: \gamma_1 = 0 défini pour n \geq 5

démonstration du coefficient d’asymétrie de la loi de Student:

\gamma_1 = \frac{1}{V(X) ^{\frac{3}{2}}} [E[X] - X] ^3

= \frac{1}{V (X) ^{\frac{3}{2}}} (E [X ^3] - 3 E[X ^2] E[X] + 2 E^3[X])

= \frac{E[X ^3] - 3 . \frac{n}{n-2} . 0 + 2 . 0}{V (X) ^{\frac{3}{2}}}

=\frac{E[X ^3]}{V(X) ^{\frac{3}{2}}}

Par définition on a: E[X ^3] = E[(\sqrt{n} \frac{Z}{\sqrt{Y}}) ^3] = n ^{\frac{3}{2}} E[Z ^3] E[\frac{1}{Y ^{\frac{3}{2}}}]

Comme Z suit une loi normale centrée-réduite \Rightarrow E[Z ^3] = 0 et par conséquent \gamma_1 = 0.

Reste à démontrer le domaine de définition de \gamma_1. Y suit une loi du \chi ^2 d’où,

E[\frac{1}{Y ^{\frac{3}{2}}}] = \int_0 ^{+\infty} \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \frac{1}{y ^{\frac{3}{2}}} y ^{\frac{n}{2} - 1} e ^{-\frac{y}{2}} dy= \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} y ^{\frac{n - 3}{2} - 1} e ^{-\frac{y}{2}} dy

On pose le changement de variable suivant: u = \frac{y}{2} \Rightarrow y = 2 u \Rightarrow dy = 2 du et on obtient,

E[\frac{1}{Y ^{\frac{3}{2}}}] = \frac{2 ^{\frac{n-3}{2}-1} 2}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} u ^{\frac{n-3}{2} - 1} e ^{-u} du= \frac{1}{2 ^{\frac{3}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} u ^{\frac{n - 3}{2} - 1} e ^{-u} du= \frac{1}{2 ^{\frac{3}{2}}} \frac{\Gamma(\frac{n-3}{2})}{\Gamma(\frac{n}{2})}

Et par propriété de la fonction \Gamma(.) on en déduit que \gamma_1 est définie pour n \geq 4.

– coefficient d’aplatissement normalisé: \gamma_2 = \frac{6}{n - 4} défini pour n \geq 5

démonstration du coefficient d’aplatissement de la loi de Student:

On a \gamma_2 = \gamma_2 ' - 3, avec,

\gamma_2 ' = \frac{1}{V(X) ^2} [E[X] - X] ^4

= \frac{1}{V (X) ^2} (E [X ^4] - 4 E[X ^3] E[X] + 6 E[X ^2] E ^2[X] - 3 E ^4[X])

= \frac{E[X ^4] - 4 . 0 . 0 + 6 . \frac{n}{n - 2} . 0 ^2 - 3 . 0 ^4}{V(X) ^2}

= \frac{E[X ^4]}{V ^2(X)}

Par définition on a: E[X ^4] = E[(\sqrt{n} \frac{Z}{\sqrt{Y}}) ^4] = n ^2 E[Z ^4] E[\frac{1}{Y ^2}]. Comme Z suit une loi normale centrée-réduite  \Rightarrow E[Z ^4] = 3 et Y suit une loi du \chi ^2 d’où,

E[\frac{1}{Y ^2}] = \int_0 ^{+\infty} \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \frac{1}{y ^2} y ^{\frac{n}{2} - 1} e ^{-\frac{y}{2}} dy= \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} y ^{(\frac{n}{2} - 2) - 1} e ^{-\frac{y}{2}} dy

On pose le changement de variable suivant: u = \frac{y}{2} \Rightarrow y = 2 u \Rightarrow dy = 2 du et on obtient,

E[\frac{1}{Y ^2}] = \frac{2 ^{\frac{n}{2}-3} 2}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+\infty} u ^{(\frac{n}{2} - 2) - 1} e ^{-u} du= \frac{1}{2 ^2 \Gamma(\frac{n}{2})} \int_0 ^{+\infty} u ^{(\frac{n}{2} - 2) - 1} e ^{-u} du= \frac{1}{4} \frac{\Gamma(\frac{n}{2} - 2)}{\Gamma(\frac{n}{2})}

Afin d’utiliser plus simplement le développement de la fonction \Gamma(.) on pose désormais K = \frac{n}{2} et en utilisant ses propriétés on a,

E[\frac{1}{Y ^2}] = \frac{1}{4} \frac{\Gamma(K - 2)}{\Gamma(K)} = \frac{1}{4} \frac{1}{(K - 2)(K - 1)} = \frac{1}{4} \frac{1}{(\frac{n}{2} - 2) (\frac{n}{2} - 1)} = \frac{1}{4 \frac{1}{2} . \frac{1}{2} (n - 4) (n - 2)} = \frac{1}{(n - 4) (n - 2)}

D’où E[X ^4] = n ^2 . 3 . \frac{1}{(n - 4) (n - 2)} = \frac{3 n ^2}{(n - 4) (n - 2)}. Il nous reste plus qu’à injecter cet objet dans le numérateur. On obtient ainsi,

\gamma_2 ' = \frac{E [X ^4]}{V ^2(X)} = \frac{\frac{3 n^2}{(n - 4)(n - 2)}}{(\frac{n}{n - 2}) ^2} = \frac{3 n ^2 (n - 2) ^2}{n ^2 (n - 4) (n - 2)} = \frac{3 (n - 2)}{n - 4}

On conclut en calculant \gamma_2 = \gamma_2 ' - 3= \frac{3 (n - 2)}{(n - 4)} - 3 = \frac{3 n - 6 - 3 n + 12}{n - 4} = \frac{6}{n - 4}

– utilisation la plus répandue: test T de Student.

 loi de de Fisher-Snedecor à (d_1,d_2) degrés de liberté

La loi de Fisher-Snedecor peut s’écrire comme le ratio de deux variables qui suivent chacune une loi du \chi ^2 à, respectivement, d_1,d_2 degrés de liberté.

– fonction de densité: f(X) = \frac{1}{x B(\frac{d_1}{2},\frac{d_2}{2})} . (\frac{d_1 . x}{d_1 . x + d_2})^{\frac{d_1}{2}} . (1 - \frac{d_1 . x}{d_1 . x + d_2}) ^{\frac{d_2}{2}} avec x \in [0;+\infty[, d_1, d_2 entiers > 0 et B fonction bêta

Un exemple de fonction de densité d’une loi de Fisher-Snedecor (source wikipédia):

– fonction de répartition: F(X) = I_{\frac{d_1 . x}{d_1 . x + d_2}} (\frac{d_1}{2},\frac{d_2}{2}) avec I fonction bêta incomplète régularisée

démonstration de fonction de répartition de la loi de Fisher-Snedecor:

Un exemple de fonction de répartition d’une loi de Student (source wikipédia):

démonstration de la fonction de répartition de la loi de Fisher-Snedecor:

On rappel dans un premier temps que la fonction B(x;a,b) = \int_0 ^x t ^{a - 1} (1 - t) ^{b - 1} dt.

On a F(X) = \int_0 ^x \frac{1}{x B(\frac{d_1}{2},\frac{d_2}{2})} . (\frac{d_1 . x}{d_1 . x + d_2})^{\frac{d_1}{2}} . (1 - \frac{d_1 . x}{d_1 . x + d_2}) ^{\frac{d_2}{2}} dx

On pose le changement de variable:

t = \frac{d_1 . x}{d_1 . x + d_2} \Rightarrow x . t . d_1 + d_2 = d_1 . x \Rightarrow x . (d_1 - t . d_2) = t . d_2 \Rightarrow x = \frac{t. d_2}{d_1 . (1 - t) ^2}

\Rightarrow dx = \frac{d_2}{d_1} . \frac{1 - t + t}{(1 - t) ^2} = \frac{d_2}{d_1 . (1 - t) ^2}

Par conséquent,

F(X) = \frac{1}{B(\frac{d_1}{2},\frac{d_2}{2})} \int_0 ^t \frac{1}{\frac{t. d_2}{d_1 . (1 - t) ^2}} . t^{\frac{d_1}{2}} . (1 - t) ^{\frac{d_2}{2}} \frac{d_2}{d_1 . (1 - t) ^2} dt

= \frac{1}{B(\frac{d_1}{2},\frac{d_2}{2})} \int_0 ^t t^{\frac{d_1}{2} - 1} . (1 - t) ^{\frac{d_2}{2} - 1} dt

Or on reconnait \int_0 ^t t^{\frac{d_1}{2} - 1} . (1 - t) ^{\frac{d_2}{2} - 1} dt = B(t; \frac{d_1}{2}, \frac{d_2}{2}) = B(\frac{d_1 . x}{d_1 . x + d_2}; \frac{d_1}{2}, \frac{d_2}{2})

D’où F(X) = \frac{B(\frac{d_1 . x}{d_1 . x + d_2}; \frac{d_1}{2}, \frac{d_2}{2})}{B(\frac{d_1}{2}, \frac{d_2}{2})}, qui n’est autre que la formule de la fonction bêta incomplête régularisé. Ainsi, F(X) = I_{\frac{d_1 . x}{d_1 . x + d_2}} (\frac{d_1}{2},\frac{d_2}{2}).

– espérance mathématique: E(X) = \frac{d_2}{d_2 - 2} définie pour d_2 > 2

démonstration de l’espérance de la loi de Fisher-Snedecor:

Par définition: E[X] = E[\frac{\frac{U_1}{d_1}}{\frac{U_2}{d_2}}] = \frac{d_2}{d_1} E[U_1] . E[\frac{1}{U_2}] avec U_1, U_2 variables aléatoires qui suivent des lois du \chi ^2 à, respectivement, d_1 et d_2 degrés de liberté.

On a donc E[U_1] = d_1. Et concernant le second terme,

E[\frac{1}{U_2}] = E[\frac{1}{Y}] = \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} \frac{1}{y} . y ^{\frac{n}{2} - 1} e ^{- \frac{y}{2}} dy = \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} y ^{(\frac{n}{2} - 1) - 1} e ^{- \frac{y}{2}} dy

On pose alors le changement de variable:

u = \frac{y}{2} \Rightarrow y = 2 . u \Rightarrow dy = 2 . du

D’où, E[\frac{1}{Y}] = \frac{2 ^{\frac{n}{2} - 2} . 2}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} u ^{(\frac{n}{2} - 1) - 1} e ^{- u} du = \frac{\Gamma(\frac{n}{2} - 1)}{2 . \Gamma(\frac{n}{2})}

Afin de bénéficier des propriétés de la fonction \Gamma(.) on pose le changement de variable K = \frac{n}{2}.

On obtient, E[\frac{1}{Y}] = \frac{\Gamma(K - 1)}{2 . \Gamma(K)} = \frac{1}{2 . (K-1)} = \frac{1}{2 . (\frac{n}{2} - 1)} = \frac{1}{n - 2}

Ce qui implique que E[\frac{1}{U_2}] = \frac{1}{(d_2 - 2)} et E[X] = \frac{d_2}{d_1} . d_1 . \frac{1}{d_2 - 2} = \frac{d_2}{d_2 - 2} définie pour d_2 > 2.

variance: V(X) = \frac{2 d_2 ^2 . (d_1 + d_2)}{d_1 . (d_2 - 2) ^2 . (d_2 - 4)} définie pour d_2 > 4

démonstration de la variance de la loi de Fisher-Snedecor:

V(X) = E[X ^2] - E ^2[X] = E[X ^2] - (\frac{d_2}{d_2 - 2}) ^2.

Par définition on a: E[X ^2] = E[(\frac{\frac{U_1}{d_1}}{\frac{U_2}{d_2}}) ^2] = \frac{d_2 ^2}{d_1 ^2} . E[U_1 ^2] . E[\frac{1}{U_2 ^2}] avec U_1, U_2 variables aléatoires qui suivent des lois du \chi ^2 à, respectivement, d_1 et d_2 degrés de liberté.

On a donc E[U_1 ^2] = d_1 . (d_1 + 2). Et concernant le second terme,

E[\frac{1}{U_2 ^2}] = E[\frac{1}{Y ^2}] = \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} \frac{1}{y ^2} . y ^{\frac{n}{2} - 1} e ^{- \frac{y}{2}} dy = \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} y ^{(\frac{n}{2} - 2) - 1} e ^{- \frac{y}{2}} dy

On pose alors le changement de variable:

u = \frac{y}{2} \Rightarrow y = 2 . u \Rightarrow dy = 2 . du

D’où, E[\frac{1}{Y ^2}] = \frac{2 ^{\frac{n}{2} - 3} . 2}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} u ^{(\frac{n}{2} - 2) - 1} e ^{- u} du = \frac{\Gamma(\frac{n}{2} - 2)}{4 . \Gamma(\frac{n}{2})}

Afin de bénéficier des propriétés de la fonction \Gamma(.) on pose le changement de variable K = \frac{n}{2}.

On obtient, E[\frac{1}{Y ^2}] = \frac{\Gamma(K - 2)}{2 . \Gamma(K)} = \frac{1}{4 . (K-1) . (K-2)} = \frac{1}{4 . (\frac{n}{2} - 1) . (\frac{n}{2} - 2)} = \frac{1}{(n - 2) . (n - 4)}

Ce qui implique que E[\frac{1}{U_2 ^2}] = \frac{1}{(d_2 - 2) . (d_2 - 4)} et,

E[X ^2] = \frac{d_2 ^2}{d_1 ^2} . d_1 . (d_1 + 2) . \frac{1}{(d_2 - 2) . (d_2 - 4)} = \frac{d_2 ^2 (d_1 + 2)}{d_1 . (d_ - 2) . (d_2 - 4)}

On a donc,

V(X) = \frac{d_2 ^2 (d_1 + 2)}{d_1 . (d_ - 2) . (d_2 - 4)} - \frac{d_2 ^2}{(d_2 - 2) ^2}

= \frac{d_2 ^2 (d_1 + 2) (d_2 - 2) - d_2 ^2 d_1 (d_2 - 4)}{d_1 (d_2 - 2) ^2 (d_2 - 4)}

=  \frac{d_2 ^2 (d_1 . d_2 - 2 d_1 + 2 d_2 - 4 - d_1 . d_2 + 4 d_1)}{d_1 . (d_2 - 2) ^2 (d_2 - 4)}

= \frac{2 d_2 ^2 (d_1 + d_2 - 2)}{d_1 . (d_2 - 2) ^2 (d_2 - 4)} définie pour d_2 > 4

 coefficient d’asymétrie: \gamma_1 = \frac{(2 d_1 + d_2 - 2) \sqrt{8 . (d_2 - 4)}}{(d_2 - 6) . \sqrt{d_1 . (d_1 + d_2 - 2)}} défini pour d_2 > 6

démonstration du coefficient d’asymétrie de la loi de Fisher-Snedecor:

\gamma_1 = \frac{1}{V(X) ^{\frac{3}{2}}} [E[X] - X] ^3

= \frac{1}{V (X) ^{\frac{3}{2}}} (E [X ^3] - 3 E[X ^2] E[X] + 2 E^3[X])

= \frac{E[X ^3] - 3 . \frac{d_2  ^2 . (d_2 + 1)}{d_1 . (d_2 - 2) . (d_2 - 4)} . \frac{d_2}{d_2 - 2} + 2 . (\frac{d_2}{d_2 - 2}) ^3}{V (X) ^{\frac{3}{2}}}

Par définition on a: E[X ^3] = E[(\frac{\frac{U_1}{d_1}}{\frac{U_2}{d_2}}) ^3] = \frac{d_2 ^3}{d_1 ^3} . E[U_1 ^3] . E[\frac{1}{U_2 ^3}] avec U_1, U_2 variables aléatoires qui suivent des lois du \chi ^2 à, respectivement, d_1 et d_2 degrés de liberté.

On a donc E[U_1 ^3] = d_1 . (d_1 + 2) . (d_1 + 4). Et concernant le second terme,

E[\frac{1}{U_2 ^3}] = E[\frac{1}{Y ^3}] = \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} \frac{1}{y ^3} . y ^{\frac{n}{2} - 1} e ^{- \frac{y}{2}} dy = \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} y ^{(\frac{n}{2} - 3) - 1} e ^{- \frac{y}{2}} dy

On pose alors le changement de variable:

u = \frac{y}{2} \Rightarrow y = 2 . u \Rightarrow dy = 2 . du

D’où, E[\frac{1}{Y ^3}] = \frac{2 ^{\frac{n}{2} - 4} . 2}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} u ^{(\frac{n}{2} - 3) - 1} e ^{- u} du = \frac{\Gamma(\frac{n}{2} - 3)}{8 . \Gamma(\frac{n}{2})}

Afin de bénéficier des propriétés de la fonction \Gamma(.) on pose le changement de variable K = \frac{n}{2}.

On obtient,

E[\frac{1}{Y ^3}] = \frac{\Gamma(K - 3)}{8 . \Gamma(K)} = \frac{1}{8 . (K-1) . (K-2) . (K-3)} = \frac{1}{8 . (\frac{n}{2} - 1) . (\frac{n}{2} - 2) . (\frac{n}{2} - 3)} = \frac{1}{(n - 2) . (n - 4) . (n - 6)}

Ce qui implique que E[\frac{1}{U_2 ^3}] = \frac{1}{(d_2 - 2) . (d_2 - 4) . (d_2 - 6)} et,

E[X ^3] = \frac{d_2 ^3}{d_1 ^3} . d_1 . (d_1 + 2) . (d_1 + 4) . \frac{1}{(d_2 - 2) . (d_2 - 4) . (d_2 - 6)} = \frac{d_2 ^3 (d_1 + 2) . (d_1 + 4)}{d_1 ^2 . (d_ - 2) . (d_2 - 4) . (d_2 - 6)}

On a donc,

\gamma_1 = \frac{\frac{d_2 ^3 (d_1 + 2) . (d_1 + 4)}{d_1 ^2 . (d_ - 2) . (d_2 - 4) . (d_2 - 6)} - 3 . \frac{d_2  ^2 . (d_2 + 1)}{d_1 . (d_2 - 2) . (d_2 - 4)} . \frac{d_2}{d_2 - 2} + 2 . (\frac{d_2}{d_2 - 2}) ^3}{(\frac{2 d_2 ^2 (d_1 + d_2 - 2)}{d_1 . (d_2 - 2) ^2 (d_2 - 4)}) ^{\frac{3}{2}}}

Autant y aller désormais étape par étape. Dans un premier temps nous allors mettre chacun des termes sur le même dénominateur: d_1 ^2 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6). Terme à terme cela nous donne:

1) \frac{[d_2 ^3 (d_1 + 2) . (d_1 + 4)] \times [(d_2 - 2) ^2]}{d ^2 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6)} = \frac{d_2 ^3 . (d_1 ^2 d_2 ^2 - 4 d_1 ^2 d_2 + 4 d_1 ^2 + 6 d_1 d_2 ^2 - 24 d_1 d_2 + 24 d_1 + 8d_2 ^2 - 32 d_2 + 32)}{d ^2 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6)}

2) \frac{[(-3) . d_2  ^2 . (d_2 + 1)] \times [d_2 . d_1 . (d_2 - 2) . (d_2 - 6)]}{d_1 ^2 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6)} = \frac{d_2 ^3 . (-3 d_1 ^2 d_2 ^2 + 24 d_1 ^2 d_2 - 36 d_1 ^2 - 6 d_1 d_2 ^2 + 48 d_1 d_2 - 72 d_1)}{d ^2 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6)}

3) \frac{[2 . (d_2) ^3] \times [d_1 ^2 . (d_2 - 4) . (d_2 - 6)]}{d_1 ^2 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6)} = \frac{d_2 ^3 . (2 d_1 ^2 d_2 ^2 - 20 d_1 ^2 d_2 + 48 d_1 ^2)}{d ^2 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6)}

Par conséquent,

\gamma_1 = (16 d_1 ^2 + 24 d_1 d_2 - 48 d_1 + 8 d_2 ^2 - 32 d_2 + 32) .  \frac{1}{d_1 ^2 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6)} . \frac{d_1 ^{\frac{3}{2}} . (d_2 - 2) ^3 (d_2 - 4) ^{\frac{3}{2}}}{2 ^{\frac{3}{2}} d_2 ^3 (d_1 + d_2 - 2) ^{\frac{3}{2}}}

= 8 . (2 d_1 ^2 + 3 d_1 d_2 - 6 d_1 + d_2 ^2 - 4 d_2 + 4) . \frac{\sqrt{d_2 - 4}}{\sqrt{8} . \sqrt{d_1 . (d_1 + d_2 - 2)} . (d_1 + d_2 - 2) (d_2 - 6))}

Or, 2 d_1 ^2 + 3 d_1 d_2 - 6 d_1 + d_2 ^2 - 4 d_2 + 4 = (2 d_1 + d_2 - 2) . (d_1 + d_2 - 2)

On a donc,

\gamma_1 = \frac{\sqrt{8 (d_2 - 4)} (2 d_1 + d_2 - 2) . (d_1 + d_2 - 2)}{\sqrt{d_1 ( d_1 + d_2 - 2)} . (d_2 - 6) . (d_1 + d_2 - 2)} = \frac{(2 d_1 + d_2 - 2) . \sqrt{8 . (d_2 - 4)}}{(d_2 - 6) . \sqrt{d_1 . (d_1 + d_2 - 2)}}

, défini pour d_2 > 6.

– coefficient d’aplatissement normalisé:

\gamma_2 = 12 \frac{d_1 . (5 - 22 . d_2) . (d_1 + d_2 - 2) + (d_4 - 4) . (d_2 - 2) ^2}{d_1 . (d_2 - 6) . (d_2 - 8) . (d_1 + d_2 - 2)} défini pour d_2 \geq 8

démonstration du coefficient d’aplatissement de la loi de Fisher-Snedecor:

On a \gamma_2 = \gamma_2 ' - 3, avec,

\gamma_2 ' = \frac{1}{V(X) ^2} [E[X] - X] ^4

= \frac{1}{V (X) ^2} (E [X ^4] - 4 E[X ^3] E[X] + 6 E[X ^2] E ^2[X] - 3 E ^4[X])

= \frac{E[X ^4] - 4 . \frac{d_2 ^3 (d_1 + 2) . (d_1 + 4)}{d_1 ^2 . (d_ - 2) . (d_2 - 4) . (d_2 - 6)} . \frac{d_2}{d_2 - 2} + 6 . \frac{d_2  ^2 . (d_2 + 1)}{d_1 . (d_2 - 2) . (d_2 - 4)} .(\frac{d_2}{d_2 - 2}) ^2 - 3 . (\frac{d_2}{d_2 - 2}) ^4}{V(X) ^2}

Par définition on a: E[X ^4] = E[(\frac{\frac{U_1}{d_1}}{\frac{U_2}{d_2}}) ^4] = \frac{d_2 ^4}{d_1 ^4} . E[U_1 ^4] . E[\frac{1}{U_2 ^4}] avec U_1, U_2 variables aléatoires qui suivent des lois du \chi ^2 à, respectivement, d_1 et d_2 degrés de liberté.

On a donc E[U_1 ^4] = d_1 . (d_1 + 2) . (d_1 + 4) . (d_1 + 6). Et concernant le second terme,

E[\frac{1}{U_2 ^4}] = E[\frac{1}{Y ^4}] = \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} \frac{1}{y ^4} . y ^{\frac{n}{2} - 1} e ^{- \frac{y}{2}} dy = \frac{1}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} y ^{(\frac{n}{2} - 4) - 1} e ^{- \frac{y}{2}} dy

On pose alors le changement de variable:

u = \frac{y}{2} \Rightarrow y = 2 . u \Rightarrow dy = 2 . du

D’où, E[\frac{1}{Y ^4}] = \frac{2 ^{\frac{n}{2} - 5} . 2}{2 ^{\frac{n}{2}} \Gamma(\frac{n}{2})} \int_0 ^{+ \infty} u ^{(\frac{n}{2} - 4) - 1} e ^{- u} du = \frac{\Gamma(\frac{n}{2} - 4)}{16 . \Gamma(\frac{n}{2})}

Afin de bénéficier des propriétés de la fonction \Gamma(.) on pose le changement de variable K = \frac{n}{2}.

On obtient,

E[\frac{1}{Y ^4}] = \frac{\Gamma(K - 4)}{16 . \Gamma(K)}

= \frac{1}{16 . (K-1) . (K-2) . (K-3) . (K-4)}

= \frac{1}{16 . (\frac{n}{2} - 1) . (\frac{n}{2} - 2) . (\frac{n}{2} - 3) . (\frac{n}{2} - 4)}

= \frac{1}{(n - 2) . (n - 4) . (n - 6) . (n - 8)}

Ce qui implique que E[\frac{1}{U_2 ^4}] = \frac{1}{(d_2 - 2) . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)} et,

E[X ^4] = \frac{d_2 ^4}{d_1 ^4} . d_1 . (d_1 + 2) . (d_1 + 4) . (d_1 + 6) . \frac{1}{(d_2 - 2) . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)} = \frac{d_2 ^4 (d_1 + 2) . (d_1 + 4) . (d_1 + 6)}{d_1 ^3 . (d_1 - 2) . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)}

Avant de passer aux méandres des calculs suivants, on va simplifier vis-à-vis de la variance,

\gamma_2 ' = \frac{1}{(\frac{2 d_2 ^2 (d_1 + d_2 - 2)}{d_1 . (d_2 - 2) ^2 (d_2 - 4)}) ^2} . [\frac{d_2 ^4 (d_1 + 2) . (d_1 + 4) . (d_1 + 6)}{d_1 ^3 . (d_1 - 2) . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)} - 4 . \frac{d_2 ^3 (d_1 + 2) . (d_1 + 4)}{d_1 ^2 . (d_ - 2) . (d_2 - 4) . (d_2 - 6)} . \frac{d_2}{d_2 - 2} + 6 . \frac{d_2  ^2 . (d_2 + 1)}{d_1 . (d_2 - 2) . (d_2 - 4)} .(\frac{d_2}{d_2 - 2}) ^2 - 3 . (\frac{d_2}{d_2 - 2}) ^4]

= \frac{d_1 ^2 (d_2 - 2) ^3 (d_2 - 4) ^2}{4 (d_1 + d_2 - 2) ^2} . [\frac{(d_1 + 2) . (d_1 + 4) . (d_1 + 6)}{d_1 ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)} - 4 . \frac{(d_1 + 2) . (d_1 + 4)}{d_1 ^2 . (d_ - 2) . (d_2 - 4) . (d_2 - 6)} + 6 . \frac{d_2 + 1}{d_1 . (d_2 - 2) ^2 . (d_2 - 4)} - 3 . \frac{1}{(d_2 - 2}) ^3)]

Autant y aller désormais encore plus étape par étape. Dans un premier temps nous allors mettre chacun des termes sur le même dénominateur: d_1 ^3 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8). Terme à terme cela nous donne:

1) \frac{[(d_1 + 2) . (d_1 + 4) . (d_1 + 6)] \times [(d_2 - 2) ^3]}{d_1 ^3 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)}

= \frac{d_1 ^3 d_2 ^3 + 12 d_1 ^2 d_2 ^3 + 44 d_1 d_2 ^3 - 6 d_1 ^3 d_2 ^2 - 72 d_1 ^2 d_2 ^2 - 264 d_1 d_2 ^2 - 288 d_2 ^2 + 12 d_1 ^3 d_2 + 144 d_1 ^2 d_2 + 528 d_1 d_2 + 576 d_2 - 8 d_1 ^3 - 96 d_1 ^2 - 352 d_1 - 384}{d_1 ^3 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)}

2) \frac{[-4 (d_1 + 2) . (d_1 + 4)] \times [d_1 . (d_2 - 2) ^2 (d_2 - 8)]}{d_1 ^3 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)}

= \frac{-4 d_1 ^3 d_2 ^3 + 48 d_1 ^3 d_2 ^2 - 24 d_1 ^2 d_2 ^3 + 288 d_1 ^2 d_2 ^2 -32 d_1 d_2 ^3 +384 d_1 d_2 ^2 -144 d_1 ^3 d_2 -864 d_1 ^2 d_2 - 1152 d_1 d_2 + 128 d_1 ^3 + 768 d_1 ^2 +1024 d_1}{d_1 ^3 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)}

3) \frac{[6 (d_1 + 2)] \times [d_1 ^2 . (d_2 - 2) . (d_2 - 6) . (d_2 - 8)]}{d_1 ^3 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)}

= \frac{6d_1 ^3 d_2 ^3 - 96 d_1 ^3 d_2 ^2 + 456 d_1 ^3 d_2 - 576 d_1 ^3 + 12 d_1 ^2 d_2 ^3 - 192 d_1 ^2 d_2 ^2 +912 d_1 ^2 d_2 - 1152 d_1 ^2}{d_1 ^3 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)}

4) \frac{[-3] \times [d_1 ^3. (d_2 - 4) . (d_2 - 6) . (d_2 - 8)]}{d_1 ^3 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)} = \frac{-3 d_1 ^3 d_2 ^3 + 54 d_1 ^3 d_2 ^2 - 312 d_1 ^3 d_2 + 576 d_1 ^3}{d_1 ^3 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)}

Par conséquent,

\gamma_2 ' = (12 d_1^3 d_2 + 120 d_1 ^3 + 24 d_1 ^2 d_2 ^3 + 192 d_1 ^2 d_2 - 480 d_1 ^2 + 12 d_1 d_2 ^3 + 120 d_1 d_2 ^2 - 624 d_1 d_2 + 672 d_1 + 48 d_2 ^3 - 288 d_2 ^2 + 576 d_2 - 384) .  \frac{1}{d_1 ^3 . (d_2 - 2) ^3 . (d_2 - 4) . (d_2 - 6) . (d_2 - 8)} . \frac{d_1 ^2 . (d_2 - 2) ^3 (d_2 - 4) ^2 }{4 (d_1 + d_2 - 2 ) ^2}

= 12 . (d_2 - 4) . (d_1 ^3 d_2 + 10 d_1 ^3 + 2 d_1 ^2 d_2 ^2 + 16 d_1 ^2 d_2 - 40 d_1 ^2 + d_1 d_2 ^3 + 10 d_1 d_2 ^2 - 52 d_1 d_2 + 56 d_1 + 4 d_2 ^3 - 24 d_2 ^2 + 48 d_2 -32) . \frac{1}{4 d_1 . (d_2 - 6) . (d_2 - 8) . (d1 + d_2 - 2) ^2}

= 12 . (d_1 ^3 d_2 ^2 + 6 d_1 ^3 d_2 - 40 d_1 ^3 + 2 d_1 ^2 d_2 ^3 + 8 d_1 ^2 d_2 ^2 - 104 d_1 ^2 d_2 + 160 d_1 ^2 + 6 d_1 d_2 ^3 - 92 d_1 d_2 ^2 + 264 d_1 d_2 - 224 d_1 - 40 d_2 ^3 + 144 d_2 ^2 - 224 d_2 + d_1 d_2 ^4 + 4 d_2 ^4 + 128) . \frac{1}{4 d_1 . (d_2 - 6) . (d_2 - 8) . (d1 + d_2 - 2) ^2}

Maintenant, calculons \gamma_2 = \gamma_2 ' - 3

= \gamma_2 ' - 3 \times 4 (d_1 + d_2 - 2) ^2 d_1 (d_2 - 6) (d_2 - 8) . \frac{1}{4 d_1 . (d_2 - 6) . (d_2 - 8) . (d1 + d_2 - 2) ^2}

= \gamma_2 ' - 12 \frac{d_1 ^3 d_2 ^2 - 14 d_1 ^3 d_2 + 48 d_1 ^3 + 2d_1 ^2 d_2 ^3 - 32 d_1 ^2 d_2 ^2 + 152 d_1 ^2 d_2 - 192 d_1 ^2 + d_1 d_2 ^4 - 18 d_1 d_2 ^3 + 108 d_1 d_2 ^2 - 248 d_1 d_2 + 192 d_1}{4 d_1 . (d_2 - 6) . (d_2 - 8) . (d1 + d_2 - 2) ^2}

En reprenant la formule trouvée de \gamma_2 ', on obtient que la différence donne,

\gamma_2 = \frac{12}{4 d_1 (d_2 - 6) (d_2 - 8) (d_1 + d_2 - 2) ^2} . (20 d_1 ^3 d_2 - 88 d_1 ^3 + 40 d_1 ^2 d_2 ^2 - 256 d_1 ^2 d_2 + 352 d_1 ^2 + 24 d_1 d_2 ^3 - 200 d_1 d_2 ^2 + 512 d_1 d_2 - 416 d_1 + 4 d_2 ^4 - 40 d_2 ^3 + 144 d_2 ^2 - 224 d_2 + 128)

= \frac{12}{d_1 (d_2 - 6) (d_2 - 8) (d_1 + d_2 - 2) ^2} . (5d_1 ^3 d_2 - 22 d_1 ^3 + 10 d_1 ^2 d_2 ^2 - 64 d_1 ^2 d_2 + 88 d_1 ^2 + 6 d_1 d_2 ^3 - 50 d_1 d_2 ^2 + 128 d_1 d_2 - 104 d_1 + d_2 ^4 - 10 d_2 ^3 + 36 d_2 ^2 - 56 d_2 + 32)

On va devoir séparer les termes maintenant pour pouvoir retomber sur une formule plus agréable et simple à utiliser,

\gamma_2 = \frac{12}{(d_1 (d_2 - 6) (d_2 - 8) (d_1 + d_2 - 2) ^2} . [(5 d_1 ^3 d_2 + 10 d_1 ^2 d_2 ^2 - 64 d_1 ^2 d_2 - 42 d_1 d_2 ^2 + 5 d_1 d_2 ^3 + 108 d_1 d_2 - 22 d_1 ^3 + 88 d_1 ^2 - 88 d_1) + (- 8 d_1 d_2 ^2 + d_1 d_2 ^3 + 20 d_1 d_2 - 16 d_1 + d_2 ^4 - 10 d_2 ^3 + 36 d_2 ^2 - 56 d_2 + 32)]

Il se trouve que le membre de gauche:

(5 d_1 ^3 d_2 + 10 d_1 ^2 d_2 ^2 - 64 d_1 ^2 d_2 - 42 d_1 d_2 ^2 + 5 d_1 d_2 ^3 + 108 d_1 d_2 - 22 d_1 ^3 + 88 d_1 ^2 - 88 d_1) = d_1 . (5 d_2 - 22) . (d_1 + d_2 - 2) ^2

, et celui de droite:

(-8 d_1 d_2 ^2 + d_1 d_2 ^3 + 20 d_1 d_2 - 16 d_1 + d_2 ^4 - 10 d_2 ^3 + 36 d_2 ^2 - 56 d_2 + 32) = - (d_2 - 4) . (d_2 - 2) ^2 (d_1 + d_2 - 2)

D’où,

\gamma_2 = 12 . \frac{d_1 . (5 d_2 - 22) . (d_1 + d_2 - 2) ^2 - (d_2 - 4) . (d_2 - 2) ^2 (d_1 + d_2 - 2))}{(d_1 (d_2 - 6) (d_2 - 8) (d_1 + d_2 - 2) ^2}

= 12 . \frac{d_1 . (5 d_2 - 22) . (d_1 + d_2 - 2) - (d_2 - 4) . (d_2 - 2) ^2}{(d_1 (d_2 - 6) (d_2 - 8) (d_1 + d_2 - 2)}

, défini pour d_2 > 8.

– utilisation la plus répandue: test F de Fisher-Snedecor.

♦ loi de Irwin-Hall

La loi de Irwin-Hall est une loi de probabilité définie comme la somme de variables aléatoires indépendantes U_k et de loi uniforme sur [a; b] tel que: X = \sum_{k = 1} ^n U_k. Cette propriété sera nettement mise à contribution lors des démonstrations à venir.

fonction de densité:

f(X) = \frac{1}{(n - 1)!} \sum_{k = 0} ^{\lfloor x \rfloor} (- 1) ^k C_n ^k (x - k) ^n pour n \in N, x \in [0; n]

Un exemple de fonction de densité d’une loi de Irwin-Hall (source wikipédia):

add

fonction de répartition:

F(X) = P(X \leq x) = \frac{1}{n!} \sum_{k = 0} ^{\lfloor x \rfloor} (- 1) ^k C_n ^k (x - k) ^n

démonstration de la fonction de répartition de la loi de Irwin-Hall:

F(X) = \int_0 ^x \frac{1}{(n - 1)!} \sum_{k = 0} ^{\lfloor x \rfloor} (- 1) ^k C_n ^k (x - k) ^{n - 1} dx

 = \frac{1}{(n - 1)!} \sum_{k = 0} ^{\lfloor x \rfloor} C_n ^k \cdot \int_k ^x (x - k) ^{n - 1} dx

 = \frac{1}{(n - 1)!} \sum_{k = 0} ^{\lfloor x \rfloor} C_n ^k \cdot [\frac{1}{n} \cdot (x - k) ^n]_k ^x

 = \frac{1}{(n - 1)!} \sum_{k = 0} ^{\lfloor x \rfloor} C_n ^k \cdot \frac{1}{n} \cdot ((x - k) ^n - (k - k) ^n)

 = \frac{1}{n!} \sum_{k = 0} ^{\lfloor x \rfloor} C_n ^k (x - k) ^n

Un exemple de fonction de répartition d’une loi de Irwin-Hall (source wikipédia):

add

espérance mathématique: E(X) = \frac{n}{2}

démonstration de l’espérance de la loi de Irwin-Hall:

E[X] = E[\sum_{k = 1} ^n U_k] où les U_k sont des variables aléatoires indépendantes et qui suivent une loi uniforme sur [0; 1].

Ainsi E[X] = \sum_{k = 1} ^n E[U_k] = \sum_{k = 1} ^n \frac{1}{2} = \frac{n}{2}

variance: V(X) = \frac{n}{12}

démonstration de la variance de la loi de Irwin-Hall:

V(X) = V(\sum_{k = 1} ^n U_k) où les U_k sont des variables aléatoires indépendantes et qui suivent une loi uniforme sur [0; 1].

Ainsi V(X) = \sum_{k = 1} ^n V(U_k) = \sum_{k = 1} ^n \frac{1}{12} = \frac{n}{12}

coefficient d’asymétrie: \gamma_1 = 0

démonstration du coefficient d’asymétrie de la loi de Irwin-Hall:

\gamma_1 = \frac{1}{V (X) ^{\frac{3}{2}}} [E[X] - X] ^3 = \frac{\gamma_1 (U_k)}{\sqrt{n}} par propriété d’additivité des cumulants du fait que X peut s’écrire comme la somme de variables aléatoires indépendantes U_k suivant une loi uniforme sur [0; 1].

Ainsi \gamma_1 = \frac{\gamma_1 (U_k)}{\sqrt{n}} = \frac{0}{\sqrt{n}} = 0

coefficient d’aplatissement normalisé: \gamma_2 = - \frac{6}{5 \cdot n}

démonstration du coefficient d’aplatissement de la loi de Irwin-Hall:

\gamma_2 = \frac{1}{V (X) ^2} [E[X] - X] ^4 = \frac{\gamma_2 (U_k)}{n} par propriété d’additivité des cumulants du fait que X peut s’écrire comme la somme de variables aléatoires indépendantes U_k suivant une loi uniforme sur [0; 1].

Ainsi \gamma_2 = \frac{\gamma_2 (U_k)}{n} = \frac{- \frac{6}{5}}{n} = - \frac{6}{5 n}

utilisation la plus répandue: Génération de nombres pseudo-aléatoires ayant une loi approximativement normale.

♦ loi de Cauchy

fonction de densité:

f(X) = \frac{1}{a \cdot \pi \cdot [1 + (\frac{x - x_0}{a}) ^2]} pour x, x_0 \in R, a > 0

Un exemple de fonction de densité d’une loi de Cauchy (source wikipédia):

add

fonction de répartition:

F(X) = P(X \leq x) = \frac{1}{\pi} arctg (\frac{x - x_0}{a}) + \frac{1}{2}

démonstration de la fonction de répartition de la loi de Cauchy:

F(X) = \int_{- \infty} ^x \frac{1}{a \cdot \pi \cdot [1 + (\frac{x - x_0}{a}) ^2]} dx = \frac{1}{\pi} \int_{- \infty} ^x \frac{1}{a \cdot [1 + (\frac{x - x_0}{a}) ^2]} dx

Or arctg (z) dz = \frac{1}{1 + z ^2}, ainsi en posant le changement de variable suivant:

z = \frac{x - x_0}{a} \Rightarrow dz = \frac{1}{a} \cdot dx

, on obtient:

F(X) = \frac{1}{\pi} \int_{- \infty} ^x \frac{1}{a \cdot [1 + (\frac{x - x_0}{a}) ^2]} dx

 = \frac{1}{\pi} \cdot [arctg(\frac{x - x_0}{a})]_{- \infty} ^x

 = \frac{1}{\pi} arctg(\frac{x - x_0}{a}) - \frac{1}{\pi} \cdot lim_{x \rightarrow - \infty} [arctg(\frac{x - x_0}{a})] \rightarrow \frac{1}{\pi} arctg(\frac{x - x_0}{a}) - \frac{1}{\pi} \cdot (- \frac{\pi}{2})

 = \frac{1}{\pi} arctg(\frac{x - x_0}{a}) + \frac{1}{2}

Un exemple de fonction de répartition d’une loi de Cauchy (source wikipédia):

addespérance mathématique: E(X) = \mbox{non definie}

démonstration de l’espérance de la loi de Cauchy:

En effet, l’espérance est non définie du fait que les moments d’ordre \geq 1 n’existe pas.

On observe ainsi que,

E[X] = \int_R \frac{x}{a \cdot \pi \cdot (1 + (\frac{x - x_0}{a}) ^2)} dx = \frac{a}{\pi} \cdot \int_ R \frac{x}{a ^2 + (x - x_0) ^2} dx

Or,

|\frac{x}{a ^2 + (x - x_0) ^2}| s’approche par |\frac{1}{x}| \rightarrow \infty quand x \rightarrow 0

, ce qui signifie que cet objet n’est pas intégrable au sens de Lebesgue et donc que l’espérance E[X] est non définie.

variance: V(X) = \mbox{non definie}

démonstration de la variance de la loi de Cauchy:

La variance pouvant s’écrire selon la formule: V(X) = E[X ^2] - E ^2[X] qui dépend de l’espérance E[X] et qui est non définie, par conséquence la variance V(X) est également non définie.

coefficient d’asymétrie: \gamma_1 = \mbox{non defini}

démonstration du coefficient d’asymétrie de la loi de Cauchy:

La coefficient d’asymétrie pouvant s’écrire selon la formule:

\gamma_1 = \frac{1}{V (X) ^{\frac{3}{2}}} \cdot [E[X ^3] - 3 E[X ^2] \cdot E[X] + 3 E[X] \cdot E ^2 [X] - E ^3 [X]]

, qui dépend de l’espérance E[X] et qui est non définie, par conséquence le coefficient d’asymétrie \gamma_1 est également non défini.

coefficient d’aplatissement normalisé: \gamma_2 = \mbox{non defini}

démonstration du coefficient d’aplatissement de la loi de Cauchy:

La coefficient d’aplatissement pouvant s’écrire selon la formule:

\gamma_2 = \frac{1}{V (X) ^2} \cdot [E[X ^4] - 4 E[X ^3] \cdot E[X] + 6 E[X ^2] \cdot E ^2 [X] - 4 E ^3 [X] \cdot E[X] + E ^4[X]] - 3

, qui dépend de l’espérance E[X] et qui est non définie, par conséquence le coefficient d’aplatissement \gamma_2 est également non défini.

utilisation la plus répandue: sans prétendre que ça soit son domaine le plus pratiqué, la modélisation de la distribution des points d’impact de particules émises en faisceau, à partir d’un point source.

♦ loi de Lévy

fonction de densité:

f(X) = \sqrt{\frac{c}{2 \pi}} \cdot \frac{1}{(x - \mu) ^{\frac{3}{2}}} \cdot e ^{- \frac{c}{2 (x - \mu)}} pour \mu \in R, c > 0, x \in ]\mu; + \infty[

Un exemple de fonction de densité d’une loi de Lévy (source wikipédia):

add

fonction de répartition:

F(X) = P(X \leq x) = erfc (\sqrt{\frac{c}{1 (x - \mu)}})

erfc(.) représente la fonction erreur complémentaire et de formule:

erfc(x) = 1 - \frac{2}{\sqrt{\pi}} \int_0 ^x e ^{- t ^2} dt

démonstration de la fonction de répartition de la loi de Lévy:

F(X) = \int_{\mu} ^x \sqrt{\frac{c}{2 \pi}} \cdot \frac{1}{(x - \mu) ^{\frac{3}{2}}} e ^{- \frac{c}{2 (x - \mu)}} dx

On procède au changement de variable suivant:

t ^2 = \frac{c}{2 (x - \mu)} \Rightarrow t = \sqrt{\frac{c}{2 (x - \mu)}} \Rightarrow dt = \sqrt{c} \cdot (\frac{1}{2}) \cdot 2 \cdot \frac{1}{[2 (x - \mu)] ^{\frac{3}{2}}} = \frac{\sqrt{c}}{2 ^{\frac{3}{2}}} \cdot \frac{1}{[2 (x - \mu)] ^{\frac{3}{2}}} dx

Ainsi,

F(X) = \int_{\mu} ^t 2 \cdot \frac{1}{\sqrt{2 \pi}} \cdot \sqrt{2} \cdot e ^{t ^2} dt = 1 - \int_t ^{\infty} \frac{2}{\sqrt{\pi}} e ^{t ^2} dt = erfc(\sqrt{c}{2 (x - \mu)})

Un exemple de fonction de répartition d’une loi de Lévy (source wikipédia):

add

espérance mathématique: E(X) = \mbox{non definie}

démonstration de l’espérance de la loi de Lévy:

En effet, l’espérance est non définie du fait que les moments d’ordre \geq 1 n’existe pas.

Ainsi on a,

E[X] = \int_{\mu} ^{\infty} x \cdot \sqrt{\frac{c}{2 \pi}} \cdot \frac{1}{(x - \mu) ^{\frac{3}{2}}} e ^{- \frac{c}{2 (x - \mu)}} dx

Or,

|\frac{x}{(x - \mu) ^{\frac{3}{2}}} \cdot e ^{- \frac{c}{2 (x - \mu)}}| s’approche par |\frac{}{\sqrt{x}} \cdot \frac{1}{e ^{\frac{1}{x}}}| \rightarrow \infty quand x \rightarrow 0

, ce qui signifie que cet objet n’est pas intégrable au sens de Lebesgue et donc que l’espérance E[X] est non définie.

variance: V(X) = \mbox{non definie}

démonstration de la variance de la loi de Lévy:

La variance pouvant s’écrire selon la formule: V(X) = E[X ^2] - E ^2[X] qui dépend de l’espérance E[X] et qui est non définie, par conséquence la variance V(X) est également non définie.

coefficient d’asymétrie: \gamma_1 = \mbox{non defini}

démonstration du coefficient d’asymétrie de la loi de Lévy:

La coefficient d’asymétrie pouvant s’écrire selon la formule:

\gamma_1 = \frac{1}{V (X) ^{\frac{3}{2}}} \cdot [E[X ^3] - 3 E[X ^2] \cdot E[X] + 3 E[X] \cdot E ^2 [X] - E ^3 [X]]

, qui dépend de l’espérance E[X] et qui est non définie, par conséquence le coefficient d’asymétrie \gamma_1 est également non défini.

coefficient d’aplatissement normalisé: \gamma_2 = \mbox{non defini}

démonstration du coefficient d’aplatissement de la loi de Lévy:

La coefficient d’aplatissement pouvant s’écrire selon la formule:

\gamma_2 = \frac{1}{V (X) ^2} \cdot [E[X ^4] - 4 E[X ^3] \cdot E[X] + 6 E[X ^2] \cdot E ^2 [X] - 4 E ^3 [X] \cdot E[X] + E ^4[X]] - 3

, qui dépend de l’espérance E[X] et qui est non définie, par conséquence le coefficient d’aplatissement \gamma_2 est également non défini.

utilisation la plus répandue: en physique, description de certaines raies spectrales.

♦ loi arc-sinus

fonction de densité:

f(X) = \frac{1}{\pi \cdot \sqrt{x \cdot (1 - x)}} pour x \in [0; 1][

Un exemple de fonction de densité d’une loi arc-sinus (source wikipédia):

add

fonction de répartition:

F(X) = P(X \leq x) = \frac{2}{\pi} \cdot arcsin(\sqrt{x})

démonstration de la fonction de répartition de la loi arc-sinus:

F(X) = \int_0 ^x \frac{1}{\pi \cdot \sqrt{x \cdot (1 - x)}} dx = \frac{1}{\pi} \int_0 ^x \frac{1}{\sqrt{x \cdot (1 - x)}}

Or,

arcsin(x) dx = \frac{1}{\sqrt{1 - x}} \Rightarrow arcsin(\sqrt{x}) = \frac{1}{2 \sqrt{x}} \cdot \frac{1}{\sqrt{1 - x}} = \frac{1}{2} \cdot \frac{1}{\sqrt{x \cdot (1 - x)}}

\Rightarrow \frac{1}{\sqrt{x \cdot (1 - x)}} = 2 \cdot arcsin(\sqrt{x}) dx

Par conséquent,

F(X) = [\frac{2}{\pi} \cdot arcsin(\sqrt{x})]_0 ^x = \frac{2}{\pi} \cdot arcsin(\sqrt{x})

Un exemple de fonction de répartition d’une loi arc-sinus (source wikipédia):

add

espérance mathématique: E(X) = \frac{1}{2}

démonstration de l’espérance de la loi arc-sinus:

E[X] = \int_0 ^1 x \cdot \frac{1}{\pi} \cdot \frac{1}{\sqrt{x \cdot (1 - x)}} dx

Posons le changement de variable suivant:

\theta = arcsin(\sqrt{x}) \Rightarrow d \theta = \frac{1}{\sqrt{x \cdot (1 - x)}} \cdot \frac{1}{2} dx et x = sin ^2 \theta

Ainsi,

E[X] = \int_0 ^{\frac{\pi}{2}} 2 \frac{sin ^2 \theta}{\pi} d \theta = \frac{2}{\pi} \int_0 ^{\frac{\pi}{2}} sin ^2 \theta d \theta

On peut reconnaître ici la forme d’une intégrale de Wallis pour n = 2 et qui vaut,

\int_0 ^{\frac{\pi}{2}} sin ^2 \theta d \theta = W_2 = \frac{\pi}{4}

Et donc,

E[X] = \frac{2}{\pi} \cdot W_2 = \frac{2}{\pi} \cdot \frac{\pi}{4} = \frac{1}{2}

variance: V(X) = \frac{1}{8}

démonstration de la variance de la loi arc-sinus:

V(X) = E[X ^2] - E ^2 [X] = E[X ^2] - \frac{1}{4}

Or,

E[X ^2] = \int_0 ^1 x ^2 \cdot \frac{1}{\pi} \cdot \frac{1}{\sqrt{x \cdot (1 - x)}} dx

Posons le changement de variable suivant:

\theta = arcsin(\sqrt{x}) \Rightarrow d \theta = \frac{1}{\sqrt{x \cdot (1 - x)}} \cdot \frac{1}{2} dx et x = sin ^2 \theta

Ainsi,

E[X ^2] = \int_0 ^{\frac{\pi}{2}} 2 \frac{(sin ^2 \theta) ^2}{\pi} d \theta = \frac{2}{\pi} \int_0 ^{\frac{\pi}{2}} sin ^4 \theta d \theta

On peut reconnaître ici la forme d’une intégrale de Wallis pour n = 4 et qui vaut,

\int_0 ^{\frac{\pi}{2}} sin ^4 \theta d \theta = W_4 = \frac{3 \pi}{16}

Et donc,

E[X ^2] = \frac{2}{\pi} \cdot W_4 = \frac{2}{\pi} \cdot \frac{3 \pi}{16} = \frac{3}{8}

Par conséquent,

V(X) = \frac{3}{8} - \frac{1}{4} = \frac{1}{8}

coefficient d’asymétrie: \gamma_1 = 0

démonstration du coefficient d’asymétrie de la loi arc-sinus:

\gamma_1 = \frac{1}{V ^{\frac{3}{2}}} \cdot [E[X ^3] - 3 E ^2 [X] \cdot E[X] + 3 E[X] \cdot E ^2 [X] - E ^3 [X]]

 = \frac{1}{V ^{\frac{3}{2}}} \cdot [E[X ^3] - 3 \cdot \frac{3}{8} \cdot \frac{1}{2} + 3 \cdot \frac{1}{2} \cdot \frac{1}{4} - \frac{1}{8}]

 = \frac{1}{16 \cdot V ^{\frac{3}{2}}} \cdot [16 \cdot E[X ^3] - 5]

Or,

E[X ^3] = \int_0 ^1 x ^3 \cdot \frac{1}{\pi} \cdot \frac{1}{\sqrt{x \cdot (1 - x)}} dx

Posons le changement de variable suivant:

\theta = arcsin(\sqrt{x}) \Rightarrow d \theta = \frac{1}{\sqrt{x \cdot (1 - x)}} \cdot \frac{1}{2} dx et x = sin ^2 \theta

Ainsi,

E[X ^3] = \int_0 ^{\frac{\pi}{2}} 2 \frac{(sin ^2 \theta) ^3}{\pi} d \theta = \frac{2}{\pi} \int_0 ^{\frac{\pi}{2}} sin ^6 \theta d \theta

On peut reconnaître ici la forme d’une intégrale de Wallis pour n = 6 et qui vaut,

\int_0 ^{\frac{\pi}{2}} sin ^6 \theta d \theta = W_6 = \frac{5 \pi}{32}

Et donc,

E[X ^3] = \frac{2}{\pi} \cdot W_6 = \frac{2}{\pi} \cdot \frac{5 \pi}{32} = \frac{5}{16}

Par conséquent,

\gamma_1 = \frac{1}{16 \cdot V ^{\frac{3}{2}}} \cdot [16 \cdot \frac{5}{16} - 5] = 0

coefficient d’aplatissement normalisé: \gamma_2 = - \frac{3}{2}

démonstration du coefficient d’aplatissement de la loi arc-sinus:

\gamma_2 = \gamma_2 ' - 3

Calculons le terme \gamma_2 ',

\gamma_2 ' = \frac{1}{V ^2} \cdot [E[X ^4] - 4 E [X ^3] \cdot E[X] + 6 E [X ^2] \cdot E ^2 [X] - 4 E [X] \cdot E ^3 [X] + E ^4 [X]]

 = \frac{1}{(\frac{1}{8}) ^2} \cdot [E[X ^4] - 4 \cdot \frac{5}{16} \cdot \frac{1}{2} + 6 \cdot \frac{3}{8} \cdot \frac{1}{4} - 4 \cdot \frac{1}{2} \cdot \frac{1}{8} + \frac{1}{16}]

 = 16 \cdot [4 E [X ^4] - 1]

Or,

E[X ^4] = \int_0 ^1 x ^4 \cdot \frac{1}{\pi} \cdot \frac{1}{\sqrt{x \cdot (1 - x)}} dx

Posons le changement de variable suivant:

\theta = arcsin(\sqrt{x}) \Rightarrow d \theta = \frac{1}{\sqrt{x \cdot (1 - x)}} \cdot \frac{1}{2} dx et x = sin ^2 \theta

Ainsi,

E[X ^4] = \int_0 ^{\frac{\pi}{2}} 2 \frac{(sin ^2 \theta) ^4}{\pi} d \theta = \frac{2}{\pi} \int_0 ^{\frac{\pi}{2}} sin ^8 \theta d \theta

On peut reconnaître ici la forme d’une intégrale de Wallis pour n = 8 et qui vaut,

\int_0 ^{\frac{\pi}{2}} sin ^8 \theta d \theta = W_8 = \frac{35 \pi}{256}

Et donc,

E[X ^4] = \frac{2}{\pi} \cdot W_8 = \frac{2}{\pi} \cdot \frac{35 \pi}{256} = \frac{35}{128}

Par conséquent,

\gamma_2 ' = 16 \cdot [4 \cdot \frac{32}{128} - 1] = 16 \cdot \frac{3}{32} = \frac{3}{2}

Finalement,

\gamma_2 = \gamma_2 ' - 3 = \frac{3}{2} - 3 = - \frac{3}{2}

utilisation la plus répandue: Persistance du temps en météorologie.

♦ loi de Laplace

fonction de densité:

f(X) = \frac{1}{2 b} e ^{- \frac{| x - \mu |}{b}} si x \in R et avec \mu \in R, b > 0

Un exemple de fonction de densité d’une loi de Laplace (source wikipédia):

add

fonction de répartition:

F(X) = P(X \leq x) =\frac{1}{2} \cdot [1 + sign(x - \mu) \cdot (1 - e ^{- \frac{| x - \mu |}{b}})]

démonstration de la fonction de répartition de la loi de Laplace:

F(X) = P(X \leq x) = \int_{- \infty} ^x \frac{1}{2 b} e ^{- \frac{| x - \mu |}{b}} dx

\bullet Si x \geq \mu \Rightarrow \frac{x - \mu}{b} \geq 0

On a alors,

F(X) = 1 - \int_x ^{+ \infty} \frac{1}{2 b} \cdot e ^{- \frac{x - \mu}{b}} dx

= 1 - \frac{1}{2 b} \cdot [ - b \cdot e ^{- \frac{x - \mu}{b}}]_{- \infty} ^x

 = 1 + \frac{1}{2} \cdot [e ^{- \frac{x - \mu}{b}}]_x ^{+ \infty}

= \frac{1}{2} \cdot [2 + lim_{x \rightarrow + \infty} e ^{- \frac{x - \mu}{b}} - e ^{- \frac{x - \mu}{b}}]

= \frac{1}{2} \cdot [2 - e ^{- \frac{x - \mu}{b}}]

= \frac{1}{2} \cdot [1 + (1 - e ^{- \frac{x - \mu}{b}})]

\bullet Si x < \mu \Rightarrow \frac{x - \mu}{b} < 0

On a alors,

F(X) =\int_{- \infty} ^x \frac{1}{2 b} \cdot e ^{- \frac{\mu - x}{b}} dx

= \frac{1}{2} \cdot [e ^{- \frac{\mu - x}{b}}]_{- \infty} ^x

= \frac{1}{2} \cdot [e ^{- \frac{\mu - x}{b}} - lim_{x \rightarrow - \infty} e ^{- \frac{\mu - x}{b}}]

= \frac{1}{2} \cdot e ^{- \frac{\mu - x}{b}}

= \frac{1}{2} \cdot [1 - (1 - e ^{- \frac{\mu - x}{b}})]

Ce résultat peut se généraliser en fonction de sign(x - \mu) en:

F(X) = \frac{1}{2} \cdot [1 + sign(x - \mu) \cdot (1 - e ^{- \frac{| x - \mu |}{b}})]

Un exemple de fonction de répartition d’une loi de Laplace (source wikipédia):

add

espérance mathématique: E[X] = \mu

démonstration de l’espérance de la loi de Laplace: 

E[X] = \int_R \frac{x}{2 b} e ^{- \frac{| x - \mu |}{b}} dx = \frac{1}{2 b} \cdot \int_{\mu} ^{+ \infty} x \cdot e ^{- \frac{x - \mu}{b}} dx + \frac{1}{2 b} \cdot \int_{- \infty} ^{\mu} x \cdot e ^{- \frac{\mu - x}{b}} dx

En procédant aux intégrations par partie suivantes pour chacune des deux intégrales:

u = x \Rightarrow u' = 1 et v_1 ' = e ^{- \frac{x - \mu}{b}} \Rightarrow v_1 = - b \cdot e ^{- \frac{x - \mu}{b}}

u = x \Rightarrow u' = 1 et v_2 ' = e ^{- \frac{\mu - x}{b}} \Rightarrow v_2 = - b \cdot e ^{- \frac{\mu - x}{b}}

On obtient,

E[X] = - \frac{1}{2 b} \cdot b \cdot [x \cdot e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} + \frac{1}{2 b} \cdot b \cdot \int_{\mu} ^{+ \infty} e ^{- \frac{x - \mu}{b}} dx + \frac{1}{2 b} \cdot b \cdot [x \cdot e ^{- \frac{\mu - x}{b}}]_{- \infty} ^{\mu} - \frac{1}{2 b} \cdot b \cdot \int_{- \infty} ^{\mu} e ^{- \frac{\mu - x}{b}} dx

= \frac{\mu}{2} - \frac{b}{2} \cdot [e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} + \frac{\mu}{2} - \frac{b}{2} \cdot [e ^{- \frac{\mu - x}{b}}]_{- \infty} ^{\mu}

= \mu + \frac{b}{2} - \frac{b}{2}

= \mu

variance: V(X) = 2 \cdot b ^2

démonstration de la variance de la loi de Laplace:

V(X) = E[X ^2] - E ^2 [X] = E[X ^2] - \mu ^2

Développons le terme E[X ^2],

E[X ^2] = \int_R \frac{x ^2}{2 b} e ^{- \frac{| x - \mu |}{b}} dx = \int_{\mu} ^{+ \infty} \frac{x ^2}{2 b} e ^{- \frac{x - \mu}{b}} dx + \int_{- \infty} ^{\mu} \frac{x ^2}{2 b} e ^{- \frac{\mu - x}{b}} dx

En procédant aux intégrations par partie suivantes pour chacune des deux intégrales:

u = x ^2 \Rightarrow u' = 2 x et v_1 ' = e ^{- \frac{x - \mu}{b}} \Rightarrow v_1 = - b \cdot e ^{- \frac{x - \mu}{b}}

u = x ^2 \Rightarrow u' = 2 x et v_2 ' = e ^{- \frac{\mu - x}{b}} \Rightarrow v_2 = - b \cdot e ^{- \frac{\mu - x}{b}}

On obtient,

E[X ^2] = - \frac{1}{2} \cdot [x ^2 e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} + \int_{\mu} ^{+ \infty} x \cdot e ^{- \frac{x - \mu}{b}} dx + \frac{1}{2} \cdot [x ^2 e ^{- \frac{\mu - x}{b}}] - \int_{- \infty} ^{\mu} x \cdot e ^{- \frac{\mu - x}{b}} dx)

= \frac{\mu ^2}{2} + \int_{\mu} ^{+ \infty} x \cdot e ^{- \frac{x - \mu}{b}} dx + \frac{\mu ^2}{2} - \int_{- \infty} ^{\mu} x \cdot e ^{- \frac{\mu - x}{b}} dx

En procédant aux intégrations par partie suivantes pour chacune des deux intégrales restantes:

u = x \Rightarrow u' = 1 et v_1 ' = e ^{- \frac{x - \mu}{b}} \Rightarrow v_1 = - b \cdot e ^{- \frac{x - \mu}{b}}

u = x \Rightarrow u' = 1 et v_2 ' = e ^{- \frac{\mu - x}{b}} \Rightarrow v_2 = - b \cdot e ^{- \frac{\mu - x}{b}}

On obtient,

E[X ^2] = \mu ^2 + [- b \cdot x \cdot e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} + \int_{\mu} ^{+ \infty} b \cdot e ^{- \frac{x - \mu}{b}} dx - [b \cdot x \cdot e ^{- \frac{\mu - x}{b}}]_{- \infty} ^{\mu} + \int_{- \infty} ^{\mu} b \cdot e ^{- \frac{- \mu - x}{b}} dx

= \mu ^2 + b \cdot \mu - b \cdot \mu - b ^2 \cdot [e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} + b ^2 \cdot [e ^{- \frac{\mu - x}{b}}]_{-\infty} ^{\mu}

= \mu ^2 + b ^2 + b ^2 = \mu ^2 + 2 b ^2

Par conséquent,

V(X) = \mu ^2 + 2 b ^2 - \mu ^2 = 2 b ^2

coefficient d’asymétrie: \gamma_1 = 0

démonstration du coefficient d’asymétrie de la loi de Laplace:

\gamma_1 = \frac{1}{\sigma ^3} E[X - E[X]] ^3

= \frac{1}{\sigma ^3} \cdot [E[X ^3] - 3 E[X] \cdot E[X ^2] + 3 E ^2[X] \cdot E[X] - E ^3[X])

= \frac{1}{\sigma ^3} \cdot [E[X ^3] - 3 \mu \cdot (\mu ^2 + 2 b ^2) + 3 \mu ^2 \cdot \mu - \mu ^3]

= \frac{1}{\sigma ^3} \cdot [E[X ^3] - \mu ^3 - 6 \mu \cdot b ^2]

Développons le terme E[X ^3],

E[X ^3] = \int_{R} x ^3 \cdot \frac{1}{2 b} \cdot e ^{- \frac{| x - \mu |}{b}} dx = \int_{\mu} ^{+ \infty} x ^3 \cdot \frac{1}{2 b} \cdot e ^{- \frac{x - \mu}{b}} dx + \int_{- \infty} ^{\mu} x ^3 \cdot \frac{1}{2 b} \cdot e ^{- \frac{\mu - x}{b}} dx

En procédant aux intégrations par partie suivante pour chacune des deux intégrales:

u = x ^3 \Rightarrow u' = 3 \cdot x ^2 et v_1 ' = e ^{- \frac{x - \mu}{b}} \Rightarrow v_1 = - b \cdot e ^{- \frac{x - \mu}{b}}

u = x ^3 \Rightarrow u' = 3 \cdot x ^2 et v_2 ' = e ^{- \frac{\mu - x}{b}} \Rightarrow v_2 = - b \cdot e ^{- \frac{\mu - x}{b}}

On obtient,

E[X ^3] = \frac{1}{2 b} \cdot [- b \cdot x ^3 \cdot e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} + \frac{1}{2 b} \cdot \int_{\mu} ^{+ \infty} 3 b \cdot x ^2 \cdot e ^{- \frac{x - \mu}{b}} dx + \frac{1}{2 b} \cdot [b \cdot x ^3 \cdot e ^{- \frac{\mu - x}{b}}]_{- \infty} ^{\mu} - \frac{1}{2 b} \cdot \int_{- \infty} ^{\mu} 3 b \cdot x ^2 \cdot e ^{- \frac{\mu - x}{b}} dx

= \frac{\mu ^3}{2} + \frac{\mu ^3}{2} + \frac{3}{2} \cdot \int_{\mu} ^{+\infty} x ^2 \cdot e ^{- \frac{x - \mu}{b}} dx - \frac{3}{2} \cdot \int_{- \infty} ^{\mu} x ^2 \cdot e ^{- \frac{\mu - x}{b}} dx

En procédant aux intégrations par partie suivante pour chacune des deux intégrales restantes:

u = x ^2 \Rightarrow u' = 2 \cdot x et v_1 ' = e ^{- \frac{x - \mu}{b}} \Rightarrow v_1 = - b \cdot e ^{- \frac{x - \mu}{b}}

u = x ^2 \Rightarrow u' = 2 \cdot x et v_2 ' = e ^{- \frac{\mu - x}{b}} \Rightarrow v_2 = - b \cdot e ^{- \frac{\mu - x}{b}}

On obtient,

E[X ^3] = \mu ^3 + \frac{3}{2} \cdot [- b \cdot x ^2 \cdot e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} - \frac{3}{2} \int_{\mu} ^{+ \infty} (-2 b) \cdot x \cdot e ^{- \frac{x - \mu}{b}} dx - \frac{3}{2} \cdot [b \cdot x ^2 \cdot e ^{- \frac{\mu - x}{b}}]_{- \infty} ^{\mu} + \frac{3}{2} \cdot \int_{- \infty} ^{\mu} 2 b \cdot x \cdot e ^{- \frac{\mu - x}{b}} dx

= \mu ^3 + \frac{3 b \cdot \mu ^2}{2} - \frac{3 b \cdot \mu ^2}{2}- \frac{3}{2} \int_{\mu} ^{+ \infty} (-2 b) \cdot x \cdot e ^{- \frac{x - \mu}{b}} dx + \frac{3}{2} \cdot \int_{- \infty} ^{\mu} 2 b \cdot x \cdot e ^{- \frac{\mu - x}{b}} dx

En procédant aux intégrations par partie suivantes pour chacune des deux intégrales restantes:

u = x \Rightarrow u' = 1 et v_1 ' = e ^{- \frac{x - \mu}{b}} \Rightarrow v_1 = - b \cdot e ^{- \frac{x - \mu}{b}}

u = x \Rightarrow u' = 1 et v_2 ' = e ^{- \frac{\mu - x}{b}} \Rightarrow v_2 = - b \cdot e ^{- \frac{\mu - x}{b}}

On obtient,

E[X ^3]= \mu ^3 + 3 b ^2 \cdot \mu + 3 b ^2 \cdot \mu + 3 b ^2 \cdot [- b \cdot e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} - 3 b ^2 \cdot [b \cdot e ^{- \frac{\mu - x}{b}}]_{- \infty} ^{\mu}

= \mu ^3 + 6 b ^2 \cdot \mu + 3 b ^3 - 3 b ^3 = \mu ^3 + 6 b ^2 \cdot \mu

Par conséquent,

\gamma_1 = \frac{1}{\sigma ^3} \cdot [\mu ^3 + 6 b ^2 \cdot \mu - 6 \mu \cdot b ^2 - \mu ^3] = 0

coefficient d’aplatissement normalisé: \gamma_2 = 3

démonstration du coefficient d’aplatissement de la loi de Laplace:

[/latex]gamma_2 = \gamma_2 ‘ – 3[/latex]

Or,

\gamma_2 ' = \frac{1}{\sigma ^4} \cdot [E[X - E[X]] ^4

= \frac{1}{V(X) ^2} \cdot [E[X ^4] - 4 E[X] \cdot E[X ^3] + 6 E ^2[X] \cdot E[X ^3] - 4 E ^3[X] \cdot E[X] + E ^4[X]]

= \frac{1}{4 b ^4} \cdot [E[X ^4] - 4 \mu \cdot (\mu ^3 + 6 b ^2 \cdot \mu) + 6 \mu ^2 \cdot (\mu ^2 + 2 b ^2) - 4 \mu ^3 \cdot \mu + \mu ^4]

= \frac{1}{4 b ^4} \cdot [E [X^4] - \mu ^4 - 12 \mu ^2 \cdot b ^2]

Reste à déterminer le terme E[X ^4],

E[X ^4] = \int_R x ^4 \cdot \frac{1}{2 b} \cdot e ^{- \frac{| x - \mu |}{b}} dx = \int_{\mu} ^{+ \infty} x ^4 \cdot \frac{1}{2 b} \cdot e ^{- \frac{x - \mu}{b}} dx + \int_{- \infty} ^{\mu} x ^4 \cdot \frac{1}{2 b} \cdot e ^{- \frac{\mu - x}{b}} dx

En procédant aux intégrations par partie suivante pour chacune des deux intégrales:

u = x ^4 \Rightarrow u' = 4 \cdot x ^3 et v_1 ' = e ^{- \frac{x - \mu}{b}} \Rightarrow v_1 = - b \cdot e ^{- \frac{x - \mu}{b}}

u = x ^4 \Rightarrow u' = 4 \cdot x ^3 et v_2 ' = e ^{- \frac{\mu - x}{b}} \Rightarrow v_2 = - b \cdot e ^{- \frac{\mu - x}{b}}

On obtient,

E[X ^4] = \frac{1}{2 b} \cdot [- b \cdot x ^4 \cdot e^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} - \frac{1}{2 b} \cdot \int_{\mu} ^{+ \infty} (-4 b) \cdot x ^3 \cdot e ^{- \frac{x - \mu}{b}} dx + \frac{1}{2 b} \cdot [b \cdot x ^4 \cdot e ^{- \frac{\mu - x}{b}}]_{- \infty} ^{\mu} - \frac{1}{2 b} \cdot \int_{- \infty} ^{\mu} 4 b \cdot x ^3 \cdot e ^{- \frac{\mu - x}{b}}

= \frac{\mu ^4}{2} + frac{\mu ^4}{2} - \frac{1}{2 b} \cdot \int_{\mu}{+ \infty} (-4 b) \cdot x ^3 \cdot e ^{- \frac{x - \mu}{b}} dx - \frac{1}{2 b} \cdot \int_{- \infty} ^{\mu} 4 b \cdot x ^3 \cdot e ^{- frac{\mu - x}{b}}

En procédant aux intégrations par partie suivante pour chacune des deux intégrales restantes:

u = x ^3 \Rightarrow u' = 3 \cdot x ^2 et v_1 ' = e ^{- \frac{x - \mu}{b}} \Rightarrow v_1 = - b \cdot e ^{- \frac{x - \mu}{b}}

u = x ^3 \Rightarrow u' = 3 \cdot x ^2 et v_2 ' = e ^{- \frac{\mu - x}{b}} \Rightarrow v_2 = - b \cdot e ^{- \frac{\mu - x}{b}}

On obtient,

E[X ^4] = \mu ^4 + 2 \cdot [- b \cdot x ^3 \cdot e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} - 2 \cdot \int_{\mu} ^{+ \infty} (-3 b) \cdot x ^2 \cdot e ^{- \frac{x - \mu}{b}} dx - 2 \cdot [b \cdot x ^3 \cdot e ^{- \frac{\mu - x}{b}}]_{- \infty} ^{\mu} + 2 \cdot \int_{\mu} ^{+ \infty} 3 b \cdot x ^2 \cdot e ^{- \frac{\mu - x}{b}} dx

= \mu ^4 + 2 b \cdot \mu ^3 - 2 b \cdot \mu ^3 - 2 \cdot \int_{\mu} ^{+ \infty} (-3 b) \cdot x ^2 \cdot e ^{- \frac{x - \mu}{b}} dx + 2 \cdot \int_{\mu} ^{+ \infty} 3 b \cdot x ^2 \cdot e ^{- \frac{\mu - x}{b}} dx

En procédant aux intégrations par partie suivante pour chacune des deux intégrales restantes:

u = x ^2 \Rightarrow u' = 2 \cdot x et v_1 ' = e ^{- \frac{x - \mu}{b}} \Rightarrow v_1 = - b \cdot e ^{- \frac{x - \mu}{b}}

u = x ^2 \Rightarrow u' = 2 \cdot x et v_2 ' = e ^{- \frac{\mu - x}{b}} \Rightarrow v_2 = - b \cdot e ^{- \frac{\mu - x}{b}}

On obtient,

E[X ^4] = \mu ^4 + 6 b \cdot [- b \cdot x ^2 \cdot e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} - 6 b \cdot \int_{\mu} ^{+ \infty} (-2 b) \cdot x \cdot e ^{- \frac{x - \mu}{b}} dx + 6 b \cdot [b \cdot x ^2 \cdot e ^{- \frac{\mu - x}{b}}]_{- \infty} ^{\mu} + 6 b \cdot \int_{- \infty} ^{\mu} 2 b \cdot x \cdot e ^{- \frac{x - \mu}{b}} dx

= \mu ^4 + 6 b ^2 \cdot \mu ^2 + 6 b ^2 \cdot \mu ^2 - 6 b \cdot \int_{\mu} ^{+ \infty} (-2 b) \cdot x \cdot e ^{- \frac{x - \mu}{b}} dx + 6 b \cdot \int_{- \infty} ^{\mu} 2 b \cdot x \cdot e ^{- \frac{x - \mu}{b}} dx

En procédant aux intégrations par partie suivante pour chacune des deux intégrales restantes:

u = x \Rightarrow u' = 1 et v_1 ' = e ^{- \frac{x - \mu}{b}} \Rightarrow v_1 = - b \cdot e ^{- \frac{x - \mu}{b}}

u = x \Rightarrow u' = 1 et v_2 ' = e ^{- \frac{\mu - x}{b}} \Rightarrow v_2 = - b \cdot e ^{- \frac{\mu - x}{b}}

On obtient,

E[X ^4] = \mu ^4 + 12 \mu ^2 b ^2 + 12 b ^2 \cdot [-b \cdot x \cdot e ^{- \frac{x - \mu}{b}}]_{\mu} ^{+ \infty} - 12 b ^2 \int_{\mu} ^{+ \infty} (-b) \cdot e ^{- \frac{x - \mu}{b}} dx - 12 b ^2 \cdot [b \cdot x \cdot e ^{- \frac{\mu - x}{b}}]_{- \infty} ^{\mu} + 12 b ^2 \cdot \int_{\mu} ^{+ \infty} b \cdot e ^{- \frac{\mu - x}{b}} dx

= \mu ^4 + 12 \mu ^2 b ^2 + 12 b ^4 + 12 b ^4 = \mu ^4 + 12 \mu ^2 b ^2 + 24 b ^4

Dés lors, nous avons,

\gamma_2 ' = \frac{1}{4 b ^4} \cdot [\mu ^4 + 12 b ^2 \mu ^2 + 24 b ^4 - \mu ^4 - 12 \mu ^2 b ^2] = \frac{24 b ^4}{4 b ^4} = 6

Par conséquent,

\gamma_2 = \gamma_2 ' - 3 = 6 - 3 = 3

– utilisation la plus répandue: physique et analyse quantiative (finance de marché)

♦ loi de Pareto

– fonction de densitéf(x) = \frac{k \cdot a ^k}{x ^{k + 1}} avec a > 0, k > 0, x \geq a

Un exemple de fonction de densité d’une loi de Pareto (source wikipédia):

add

– fonction de répartitionP(X \leq x) = 1 - (\frac{a}{x}) ^k

démonstration de la fonction de répartition de la loi de Pareto:

F(X) = P(X \leq x) = \int_{- \infty} ^x \frac{k \cdot a ^k}{x ^{k + 1}} dx

= \int_a ^x \frac{k \cdot a ^k}{x ^{k + 1}} dx

= k \cdot a ^k [(- \frac{1}{k}) \cdot x ^{- k}]_a ^x

= - \frac{a ^k}{x ^k} + \frac{a ^k}{a ^k}

= 1 - (\frac{a}{x}) ^k

Un exemple de fonction de répartition d’une loi de Pareto (source wikipédia):

add

– espérance mathématique: E[X] = \frac{k \cdot a}{k - 1}, \forall k > 1

démonstration de l’espérance de la loi de Pareto:

E[X] = \int_a ^{+ \infty} x \cdot \frac{k \cdot a ^k}{x ^{k + 1}} dx

= \int_a ^{+ \infty} \frac{k \cdot a ^k}{x ^k} dx

= k \cdot a ^k [\frac{1}{- k + 1} \cdot x ^{- k + 1}]_a ^{+ \infty}

= \frac{k \cdot a ^k}{1 - k} \cdot (lim_{x \rightarrow - \infty} x ^{- k + 1} - a ^{- k + 1})

= - \frac{k \cdot a ^k}{1 - k} \cdot \frac{1}{a ^{k - 1}}

= \frac{k \cdot a}{k - 1}, \forall k > 1

– variance: V(X) = \frac{a ^2 k}{(k - 1) ^2 (k - 2)}, \forall k > 2

démonstration de la variance de la loi de Pareto:

V(X) = E[X ^2] - E ^2[X] = E[X ^2] - (\frac{k \cdot a}{k - 1}) ^2

Développons le terme E[X ^2],

E[X ^2] = \int_a ^{+ \infty} x ^2 \frac{k \cdot a ^k}{x ^{k + 1}} dx

= \int_a ^{+ \infty} \frac{k \cdot a ^k}{x ^{k - 1}} dx

= k \cdot a ^k [\frac{1}{- k + 2} \cdot x ^{- k + 2}]_a ^{+ \infty}

= \frac{k \cdot a ^k}{2 - k} \cdot (lim_{x \rightarrow - \infty} x ^{2 - k} - a ^{- k + 2})

= - \frac{k \cdot a ^k}{2 - k} \cdot \frac{1}{a ^{k - 2}}

= \frac{k \cdot a ^2}{k - 2}

Par conséquent,

V(X) = \frac{k \cdot a ^2}{k - 2} - (\frac{k \cdot a}{k - 1}) ^2

= \frac{k \cdot a ^2 (k - 1) - (k \cdot a) ^2 (k - 2)}{(k - 2) \cdot (k - 1) ^2}

= \frac{k ^3 a ^2 - 2 k ^2 a ^2 + k \cdot a ^2 - k ^3 a ^2 + 2 k ^2 a ^2}{(k - 2) \cdot (k - 1) ^2}

= \frac{a ^2 k}{(k - 2) \cdot (k - 1) ^2}, \forall k > 2

 coefficient d’asymétrie: \gamma_1 = \frac{2 (k + 1)}{k - 3} \cdot \sqrt{\frac{k - 2}{k}}, \forall k > 3

démonstration du coefficient d’asymétrie de la loi de Pareto:

\gamma_1 = \frac{1}{\sigma ^3} \cdot [E[X - E[X]] ^3

= \frac{1}{V(X) ^{\frac{3}{2}}} \cdot [E[X ^3] - 3 E[X] \cdot E[X ^2] + 3 E ^2 [X] \cdot E[X] - E ^3 [X]]

= \frac{[(k - 2) \cdot (k - 1) ^2] ^{\frac{3}{2}}}{(a ^2 k) ^{\frac{3}{2}}} \cdot [E[X ^3] - 3 \cdot \frac{a \cdot k}{k - 1} \cdot \frac{k \cdot a ^2}{k - 2} + 2 \frac{k ^3 a ^3}{(k - 1) ^3}]

= \frac{(k - 2) ^{\frac{3}{2}} \cdot (k - 1) ^3}{a ^3 k ^{\frac{3}{2}}} \cdot [E[X ^3] - 3 \frac{k ^2 a ^3}{(k - 1) \cdot (k - 2)} + 2 \frac{k ^3 a ^3}{(k - 1) ^3}]

Développons le terme E[X ^3],

E[X ^3] = \int_a ^{+ \infty} x ^3 \cdot \frac{k \cdot a ^k}{x ^{k + 1}} dx

= \int_a ^{+ \infty} \frac{k \cdot a ^k}{x ^{k - 2}} dx

= k \cdot a ^k \cdot [\frac{1}{3 - k} \cdot x ^{3 - k}]_a ^{+ \infty}

= \frac{k}{3 - k} \cdot a ^k \cdot (lim_{x \rightarrow + \infty} x ^{3 - k} - a ^{3 - k})

= \frac{k \cdot a ^k}{3 - k} \cdot (- \frac{1}{a ^{k - 3}})

= \frac{k \cdot a ^3}{k - 3}

Par conséquent,

\gamma_1 = \frac{(k - 2) ^{\frac{3}{2}} \cdot (k - 1) ^3}{a ^3 k ^{\frac{3}{2}}} \cdot [\frac{k \cdot a ^3}{k - 3} - 3 \frac{k ^2 a ^3}{(k - 1) \cdot (k - 2)} + 2 \frac{k ^3 a ^3}{(k - 1) ^3}]

= \frac{(k - 2) ^{\frac{3}{2}} \cdot (k - 1) ^3}{a ^3 k ^{\frac{3}{2}}} \cdot \frac{1}{(k - 3) ^3 (k - 2) \cdot (k - 1)} \cdot [(k - 1) ^3 (k - 2) \cdot k \cdot a ^3] - 3 (k - 1) ^2 k \cdot a \cdot k \cdot a ^2 (k - 3) + 2 k ^3 a ^3 (k - 2) \cdot (k - 3)]

= \frac{(k - 2) ^{\frac{3}{2}} \cdot (k - 1) ^3}{a ^3 k ^{\frac{3}{2}}} \cdot \frac{1}{(k - 3) ^3 (k - 2) \cdot (k - 1)} \cdot k \cdot a ^3 \cdot (2 + 2 k)

= \sqrt{\frac{k - 2}{k}} \cdot \frac{2 (k + 1)}{(k - 3)}

– coefficient d’aplatissement normalisé: \gamma_2 = \frac{6 (k ^3 + k ^2 - 6 k - 2)}{k \cdot (k - 3) \cdot (k - 4)}, \forall k > 4

démonstration du coefficient d’aplatissement de la loi de Pareto:

\gamma_2 = \gamma_2 ' - 3

Calculons le terme \gamma_2 ',

\gamma_2 ' = \frac{1}{\sigma ^4} \cdot E[X - E[X]] ^4

= \frac{1}{V(X) ^2} \cdot [E[X ^4] - 4 E[X] \cdot E[X ^3] + 6 E ^2 [X] \cdot E [X ^2] - 4 E ^3 [X] \cdot E [X] + E ^4 [X]]

= \frac{(k - 2) ^2 (k - 4) ^4}{a ^4 k ^2} \cdot [E[X ^4] - 4 \frac{k \cdot a}{k - 1} \cdot \frac{k \cdot a ^3}{k - 3} + 6 \frac{k ^2 a ^2}{(k - 1) ^2} \cdot \frac{k \cdot a ^2}{k - 2} - 3 \frac{k ^4 a ^4}{(k - 1) ^4}]

Developpons le terme E[X ^4],

E[X ^4] = \int_a ^{+ \infty} x ^4 \cdot \frac{k \cdot a ^k}{x ^{k + 1}} dx

= \int_a ^{+ \infty} \frac{k \cdot a ^k}{x ^{k - 3}} dx

= k \cdot a ^k [\frac{1}{4 - k} \cdot x ^{4 - k}]_a ^{+ \infty}

= \frac{k \cdot a ^k}{4 - k} \cdot (lim_{x \rightarrow + \infty} x ^{4 - k} - a ^{4 - k})

= \frac{k \cdot a ^4}{k - 4}

Dés lors,

\gamma_2 ' = \frac{(k - 2) ^2 (k - 1) ^4}{a ^4 k ^2} \cdot [\frac{k \cdot a ^4}{k - 4} - 4 \frac{k ^2 a ^4}{(k - 1) \cdot (k - 3)} + 6 \frac{k ^3 a ^4}{(k - 1) ^2 (k - 2)} - 3 \frac{k ^4 a ^4}{(k - 1) ^4}]

= \frac{(k - 2) ^2 (k - 1) ^4}{a ^4 k ^2} \cdot \frac{k \cdot a ^4}{(k - 1) ^4 (k - 2) \cdot (k - 3) \cdot (k - 4)} \cdot [(k - 1) ^4 (k - 2) \cdot (k - 3) - 4 k \cdot (k - 1) ^3 (k - 2) \cdot (k - 4) + 6 k ^2 (k - 1) ^2 (k - 3) \cdot (k - 4) - 3 k ^3 (k - 2) \cdot (k - 3) \cdot (k - 4)]

= \frac{k - 2}{k \cdot (k - 3) \cdot (k - 4)} \cdot (9 k ^2 + 3 k + 6)

= \frac{9 k ^3 - 15 k ^2 - 12}{k \cdot (k - 3) \cdot (k - 4)}

Par conséquent,

\gamma_2 = \gamma_2 ' - 3

= \frac{9 k ^3 - 15 k ^2 - 12}{k \cdot (k - 3) \cdot (k - 4)} - 3 \cdot \frac{k \cdot (k - 3) \cdot (k - 4)}{k \cdot (k - 3) \cdot (k - 4)}

= \frac{9 k ^3 - 15 k ^2 - 12 - 3 k ^3 + 21 k - 36 k}{k \cdot (k - 3) \cdot (k - 4)}

= 6 \cdot \frac{k ^3 + k ^2 - 6 k - 2}{k \cdot (k - 3) \cdot (k - 4)}

 utilisation la plus répandue: Sciences physiques et sociales, principe des 80-20.

♦ loi logistique

– fonction de densitéf(x) = \frac{e ^{- \frac{x - \mu}{s}}}{s \cdot (1 + e ^{- \frac{x - \mu}{s}}) ^2}

Un exemple de fonction de densité d’une loi logistique (source wikipédia):

add

– fonction de répartitionP(X \leq x) = \frac{1}{1 + e ^{- \frac{x - \mu}{s}}}

démonstration de la fonction de répartition de la loi logistique:

F(X) = P(X \leq x) = \int_{- \infty} ^x \frac{e ^{- \frac{x - \mu}{s}}}{s \cdot (1 + e ^{- \frac{x - \mu}{s}}) ^2} dx

= [\frac{1}{1 + e ^{- \frac{x - \mu}{s}}}]_{- \infty} ^x

= \frac{1}{1 + e ^{- \frac{x - \mu}{s}}} - lim_{x \rightarrow - \infty} \frac{1}{1 + e ^{- \frac{x - \mu}{s}}}

= \frac{1}{1 + e ^{- \frac{x - \mu}{s}}}

Un exemple de fonction de répartition d’une loi logistique (source wikipédia):

add

– espérance mathématique: E[X] = \mu

démonstration de l’espérance de la loi hypergéométrique:

E[X] = \int_R x \cdot \frac{e ^{- \frac{x - \mu}{s}}}{s \cdot (1 + e ^{- \frac{x - \mu}{s}}) ^2} dx

On pose le changement de variable suivant:

t = \frac{x - \mu}{s} \Rightarrow t \cdot s + \mu = x \Rightarrow dx = s \cdot dt