Loi normale

En probabilité, on dit qu'une variable aléatoire réelle X suit une loi normale d'espérance μ et d'écart type σ strictement positif si cette variable aléatoire réelle X admet pour densité de probabilité la fonction p définie, pour tout nombre réel x, par ...



Catégories :

Loi de probabilité - Fonctions spéciales

Recherche sur Google Images :


Source image : idfolles.com
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • La loi normale est une loi de probabilité pour les variables aléatoires continues. On la définit au moyen d'une densité de probabilité... (source : fr.wikiversity)
  • Nous allons montrer que la moyenne d'une variable qui suit une loi normale est égale à μ, et que sa variance est égale à σ².... (source : tice.inpl-nancy)
  • On dit que la variable aléatoire X suit la loi normale de param`etres m et σ, ... Remarque : la loi normale est aussi nommée loi de Laplace1-Gauss2.... (source : methodomaths.123)
Distribution gaussienne
Densité de probabilité / Fonction de masse
Densité
La courbe rouge représente la fonction φ (voir texte), densité de probabilité d'une variable suivant une loi normale centrée réduite
Fonction de répartition
Fonction de masse pour les distributions correspondantes

Paramètres μ moyenne (nombre réel)
σ2 > 0 variance (nombre réel)
Support x \in\, ]-\infty;+\infty[\!
Densité de probabilité (fonction de masse) \frac1{\sigma\sqrt{2\pi}}\; \exp\left(-\frac{\left(x-\mu\right)ˆ2}{2\sigmaˆ2} \right) \!
Fonction de répartition \frac12 \left(1 + \mathrm{erf}\,\frac{x-\mu}{\sigma\sqrt2}\right) \!
Espérance μ
Médiane (centre) μ
Mode μ
Variance σ2
Asymétrie (statistique) 0
Kurtosis
(non-normalisé)
3 (0 si normalisé)
Entropie \ln\left(\sigma\sqrt{2\,\pi\,e}\right)\!
Fonction génératrice des moments M_X(t)= \exp\left(\mu\,t+\sigmaˆ2 \frac{tˆ2}{2}\right)
Fonction caractéristique \phi_X(t)=\exp\left(\mu\,i\,t-\frac{\sigmaˆ2 tˆ2}{2}\right)

En probabilité, on dit qu'une variable aléatoire réelle X suit une loi normale (ou loi normale gaussienne, loi de Laplace-Gauss) d'espérance μ et d'écart type σ strictement positif (donc de variance σ2) si cette variable aléatoire réelle X admet pour densité de probabilité la fonction p (x) définie, pour tout nombre réel x, par :

p(x)\ =\ \tfrac{1}{\sigma \sqrt{2\pi}}\ \mathrm{e}ˆ{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)ˆ2}

Une telle variable aléatoire est alors dite variable gaussienne.

On note généralement cela de la manière suivante :

X \sim \mathcal{N}(\mu,\, \sigmaˆ2)[1]

La loi normale est une des principales distributions de probabilité. Elle a été introduite par le mathématicien Abraham de Moivre en 1733 et utilisée par lui afin d'approcher des probabilités associées à des variables aléatoires binomiales possédant un paramètre n particulièrement grand. Cette loi a été mise en évidence par Gauss au XIXe siècle et sert à modéliser de nombreuses études biométriques. Sa densité de probabilité dessine une courbe dite courbe en cloche ou courbe de Gauss.

La loi normale centrée réduite

Définition

Représentation graphique d'une loi normale centrée réduite (dite courbe de Gauss ou courbe en cloche).

On nomme loi normale (ou gaussienne) centrée réduite la loi définie par la densité de probabilité \varphi : \R \to \Rˆ+ définie par :

\varphi(t)=\frac{1}{\sqrt{2\;\pi}}\, \mathrm{e}ˆ{-\frac{tˆ2}{2}}

On vérifie qu'elle est continue et que son intégrale sur \ \R est égale à 1.

On sait en effet que \ \int_{-\infty}ˆ{+\infty}\mathrm{e}ˆ{-\frac{tˆ2}{2}}\ dt = \sqrt{2\, \pi} (intégrale de Gauss).

On démontre (voir plus bas) que la loi définie par cette densité de probabilité admet une espérance nulle et une variance égale à 1.

Remarques :

La représentation graphique de cette densité est une courbe en cloche (ou courbe de Gauss).

Moments

Les moments de cette loi existent tous. Pour tout \ n \in \mathbb{N}, le moment d'ordre n comparé à l'origine est :

\ m_n = \int_{-\infty}ˆ{+\infty} tˆn\,  \varphi(t)\, dt.

Pour la suite on supposera μ = 0 et σ2 = 1.

m_{2\, k+1} = 0
Si \ k \geq 1, une intégration par parties (non détaillée ici) donne :
m_{2\, k} = \int_{-\infty}ˆ{+\infty} tˆ{2\, k - 1}\,  t\, \varphi(t)\, dt =-\int_{-\infty}ˆ{+\infty} tˆ{2\, k - 1}\,  \varphi'(t)\, dt = (2\, k - 1) \int_{-\infty}ˆ{+\infty} tˆ{2\, k - 2}\, \varphi(t)\, dt
ce qui apporte la relation de récurrence :
m_{2\, k} = (2\, k - 1)\, m_{2\, k - 2}.
De cette relation, on déduit, comme \ m_0 = 1\,, que :
m_{2\, k} = 1 \cdot 3 \cdots  (2\, k - 1) = \frac{(2\, k)\, !}{2ˆk\, k\,!}
Ceci justifie l'appellation de loi normale centrée réduite.
m_3 = 0\, et m_4 = 3\,
\mu_2 = \sigmaˆ2 = 1\,,  \mu_3 = 0\, et \mu_4 = 3 \sigmaˆ4 \,.
On en déduit l'asymétrie (skewness)  : \gamma_1 = \frac{\mu_3}{\sigmaˆ3} = 0\, et l'aplatissement (kurtosis)  : \beta_2 = \frac{\mu_4}{\sigmaˆ4} = 3\,.

Fonction de répartition

Article détaillé : fonction d'erreur.

On note Φ la fonction de répartition de la loi normale centrée réduite. Elle est définie, pour tout réel x, par :

\ \Phi(x) = \int_{-\infty}ˆx \varphi(t)\, dt = \int_{-\infty}ˆx\frac{1}{\sqrt{2\,\pi}}\,\mathrm{e}ˆ{-\frac{tˆ2}{2}}\, dt.

C'est la primitive de \varphi qui tend vers 0 en -\infty ; elle ne s'exprime pas avec fonctions usuelles (exponentielle, etc. ) mais devient elle-même une fonction usuelle, importante, pour quiconque pratique le calcul des probabilités ou les statistiques ; elle s'exprime avec la fonction d'erreur.

Voici les propriétés suivantes de la fonction Φ :

(c'est par conséquent une bijection \R \to\, ]0,\, 1[\, : pour tout p \in\, ]0,\, 1[\,, il existe  x \in \R unique, noté \ \Phiˆ{-1}(p), tel que \ \Phi(x) = p)

Remarque : les notations \varphi et \ \Phi pour désigner «la» densité et la fonction de répartition de la loi normale centrée réduite sont usuelles.

Approximation de la fonction de répartition

Il n'existe pas d'expression pour Φ mais on peut exploiter avec profit son aspect régulier pour en donner une approximation grâce à un développement en série de Taylor. A titre d'exemple, voici une approximation (à l'ordre 5) autour de 0 :

\Phi(x) \approx \frac{1}{2} +  \frac{1}{\sqrt{2 \pi}} \left(x-\frac{xˆ3}{6}+\frac{xˆ5}{40}\right).

Cette approximation est performante pour | x | < 2.

Une approximation pour les grandes valeurs de x est donnée, pour x positif, par la formule

1-\Phi(x) = \frac{eˆ{-xˆ2}}{\sqrt{2\pi}}. \left ( \frac{1}{x}  +\sum_{k=1}ˆ{+\infty} \frac{(2k-1)!!\,(-1)ˆk}{xˆ{2k+1}}\right),

série divergente pour tout x positif, mais dont les sommes partielles encadrent 1-Φ (x) de manière efficace quand x est grand. A titre d'exemple,

\frac{eˆ{-xˆ2}}{\sqrt{2\pi}}\left ( \frac{1}{x}  - \frac{1}{xˆ{3}}\right)\ \le\ 1-\Phi(x)\ \le\ \frac{eˆ{-xˆ2}}{x\sqrt{2\pi}},

d'où une erreur relative inférieure à 25% pour x supérieur à 2 ou bien inférieure à 11% pour x supérieur à 3. Ou bien toujours :

\frac{eˆ{-xˆ2}}{\sqrt{2\pi}}\left ( \frac{1}{x}  - \frac{1}{xˆ{3}}+\frac{3}{xˆ5}  - \frac{15}{xˆ{7}}\right)\ \le\ 1-\Phi(x)\ \le\ \frac{eˆ{-xˆ2}}{\sqrt{2\pi}}\left ( \frac{1}{x}  - \frac{1}{xˆ{3}}+\frac{3}{xˆ5}\right),

d'où une erreur relative inférieure à 25% pour x supérieur à 2 ou bien inférieure à 2% pour x supérieur à 3.

Tables numériques

Il existe des tables de la fonction de répartition, donnant des valeurs approchées de \ \Phi(x) ; on se limite à des x positifs ou nuls : en effet, si par exemple on connaît l'approximation \Phi(0,5) \simeq 0,6915, on en déduit \Phi(-0,5) \simeq 1 - 0,6915 = 0,3085.

Au lieu des précédentes, on utilise fréquemment des tables de la fonction qu'on notera ici \ \Phi_0, définie sur \ \Rˆ+ par :

\Phi_0(x) =\int_0ˆx \varphi(t)\, dt

La table suivante donne pour tout x de 0 jusqu'à 3, 9 par pas de 0, 01, la valeur de 105 Φ (x) . Ces valeurs sont arrondies à l'unité la plus proche.

L'entrée en colonne donne les deux premiers chiffres de x, c'est-à-dire le chiffre des unités et celui des dixièmes, et l'entrée en ligne le chiffre des centièmes.

Par exemple : Pour Φ (1, 73) = 0, 95818, on choisira 1, 7 en ligne et 0.03 en colonne (1, 7 + 0.03 = 1.73) et l'intersection nous donnera le résultat.

0, 00 0, 01 0, 02 0, 03 0, 04 0, 05 0, 06 0, 07 0, 08 0, 09
0, 0 50000 50399 50798 51197 51595 51994 52392 52790 53188 53586
0, 1 53983 54380 54776 55172 55567 55962 56356 56749 57142 57535
0, 2 57926 58317 58706 59095 59483 59871 60257 60642 61026 61409
0, 3 61791 62172 62552 62930 63307 63683 64058 64431 64803 65173
0, 4 65542 65910 66276 66640 67003 67364 67724 68082 68439 68793
0, 5 69146 69497 69847 70194 70540 70884 71226 71566 71904 72240
0, 6 72575 72907 73237 73565 73891 74215 74537 74857 75175 75490
0, 7 75804 76115 76424 76730 77035 77337 77637 77935 78230 78524
0, 8 78814 79103 79389 79673 79955 80234 80511 80785 81057 81327
0, 9 81594 81859 82121 82381 82639 82894 83147 83398 83646 83891
1, 0 84134 84375 84614 84849 85083 85314 85543 85769 85993 86214
1, 1 86433 86650 86864 87076 87286 87493 87698 87900 88100 88298
1, 2 88493 88686 88877 89065 89251 89435 89617 89796 89973 90147
1, 3 90320 90490 90658 90824 90988 91149 91309 91466 91621 91774
1, 4 91924 92073 92220 92364 92507 92647 92785 92922 93056 93189
1, 5 93319 93448 93574 93699 93822 93943 94062 94179 94295 94408
1, 6 94520 94630 94738 94845 94950 95053 95154 95254 95352 95449
1, 7 95543 95637 95728 95818 95907 95994 96080 96164 96246 96327
1, 8 96407 96485 96562 96638 96712 96784 96856 96926 96995 97062
1, 9 97128 97193 97257 97320 97381 97441 97500 97558 97615 97670
2, 0 97725 97778 97831 97882 97932 97982 98030 98077 98124 98169
2, 1 98214 98257 98300 98341 98382 98422 98461 98500 98537 98574
2, 2 98610 98645 98679 98713 98745 98778 98809 98840 98870 98899
2, 3 98928 98956 98983 99010 99036 99061 99086 99111 99134 99158
2, 4 99180 99202 99224 99245 99266 99286 99305 99324 99343 99361
2, 5 99379 99396 99413 99430 99446 99461 99477 99492 99506 99520
2, 6 99534 99547 99560 99573 99585 99598 99609 99621 99632 99643
2, 7 99653 99664 99674 99683 99693 99702 99711 99720 99728 99736
2, 8 99744 99752 99760 99767 99774 99781 99788 99795 99801 99807
2, 9 99813 99819 99825 99831 99836 99841 99846 99851 99856 99861
3, 0 99865 99869 99874 99878 99882 99886 99889 99893 99896 99900
3, 1 99903 99906 99910 99913 99916 99918 99921 99924 99926 99929
3, 2 99931 99934 99936 99938 99940 99942 99944 99946 99948 99950
3, 3 99952 99953 99955 99957 99958 99960 99961 99962 99964 99965
3, 4 99966 99968 99969 99970 99971 99972 99973 99974 99975 99976
3, 5 99977 99978 99978 99979 99980 99981 99981 99982 99983 99983
3, 6 99984 99985 99985 99986 99986 99987 99987 99988 99988 99989
3, 7 99999 99999 99999 99999 99999 99999 99999 99999 99999 99999
3, 8 99999 99999 99999 99999 99999 99999 99999 99999 99999 99999
3, 9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

On dispose des relations simples suivantes entre \ \Phi et \ \Phi_0 (découlant de la formule de Chasles pour les intégrales)  :

Soit T une variable aléatoire suivant la loi normale centrée réduite :

Exemples numériques

Avec la table ci-dessus, on obtient, pour la variable aléatoire précédente :

La loi normale générale

Soient \ T une variable aléatoire suivant la loi normale centrée réduite, et deux réels \mu,\, \sigma, où <img class=, dont on note \ F la fonction de répartition.

On a \mathrm{E}(X) = \sigma\, \mathrm{E}(T) + \mu = \mu et \mathrm{V}(X) = \sigmaˆ2\, \mathrm{V}(T) = \sigmaˆ2 puisque \ \mathrm{E}(T)  = 0 et \ \mathrm{V}(T) = 1.

Cherchons la loi de \ X : pour tout x \in \R,

F(x) = P(X \leq x) = P(\sigma\, T + \mu \leq x) = P\left(T \leq \frac{x - \mu}{\sigma}\right) = \Phi\left(\frac{x - \mu}{\sigma}\right),
puisque la fonction de répartition de \ T est \ \Phi.

Ainsi, \ F est continûment (et même indéfiniment) dérivable : \ X suit une loi à densité, et la dérivée \ f de \ F est une densité de probabilité de cette variable aléatoire ; pour tout x \in \R,

f(x) = F'(x) = \frac{1}{\sigma}\, \Phi' \left(\frac{x - \mu}{\sigma}\right) = \frac{1}{\sigma}\, \varphi \left(\frac{x - \mu}{\sigma}\right) = \frac{1}{\sigma \sqrt{2\,\pi}}\, \mathrm{e}ˆ{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)ˆ2}.

Ceci légitime la définition suivante :

Définition

On nomme loi normale (ou gaussienne, ou de Laplace-Gauss) de paramètres \ \mu,\, \sigmaˆ2 (où <img class=, telle que pour tout x \in \R :

f(x) = \frac{1}{\sigma}\, \varphi \left(\frac{x - \mu}{\sigma}\right) = \frac{1}{\sigma \sqrt{2\,\pi}}\, \mathrm{e}ˆ{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)ˆ2}.

Une variable gaussienne est une variable aléatoire réelle qui suit une loi normale de paramètres \ \mu,\, \sigmaˆ2 (où \ \sigma est soit positive, soit nulle). Le cas où \ \sigma est nul est nommé cas dégénéré et correspond aux variables aléatoires constantes. Cette convention étrange est commode, ou alors indispensable (par exemple pour définir les vecteurs gaussiens).

Notation : cette loi est notée \mathcal{N}(\mu,\, \sigmaˆ2) [1]
La loi normale centrée réduite est notée \mathcal{N}(0,\, 1).

On peut énoncer plusieurs propriétés, compte tenu de ce qui précède (le dernier point se démontrant de manière analogue).

Propriétés

Soit une variable aléatoire \ X qui suit la loi normale \mathcal{N}(\mu,\, \sigmaˆ2). Alors :

F(x) = \Phi\left(\frac{x - \mu}{\sigma}\right)

Soit une variable aléatoire \ X qui suit la loi normale \mathcal{N}(\mu,\, \sigmaˆ2). Alors la variable aléatoire exp (X) (de loi dite log-normale) possède les propriétés suivantes :

Soit une variable aléatoire \ X suivant une loi normale \mathcal{N}(\mu_X,\, \sigma_Xˆ2) et \ Y suivant une loi normale \mathcal{N}(\mu_Y,\, \sigma_Yˆ2). Alors, la divergence de Kullback-Leibler entre ces deux distributions est de la forme :

Largeur à mi-hauteur

Quand on travaille sur une représentation graphique, on estime souvent la largeur de la gaussienne par sa largeur à mi-hauteur H (en anglais full width at half maximum, FWHM), qui est la largeur de la courbe à une altitude qui vaut la moitié de l'altitude du sommet. La largeur à mi-hauteur est proportionnelle à l'écart type :

H = 2 \sqrt{2\ \ln(2)}\ \sigma \simeq  2,3548 \sigma

Le facteur 2 permet de prendre en compte l'extension de la gaussienne dans les valeurs négatives.

Calcul de P (a ≤ X ≤ b)

Les résultats qui ont précédé permettent de ramener tout calcul de probabilité relatif à la loi normale \mathcal{N}(\mu,\, \sigmaˆ2) à un calcul de probabilité relatif à la loi normale centrée réduite. On a vu qu'on dispose de tables donnant des approximations de valeurs de la fonction \ \Phi, tables qu'on utilise toujours souvent, même si certaines calculatrices ou certains tableurs peuvent désormais les remplacer.

Si la variable aléatoire \ X suit la loi normale \mathcal{N}(\mu,\, \sigmaˆ2), et si \ a,\, b sont deux réels tels que \ a \leq b, on a :

\ P(a \leq X \leq b) = F(b) - F(a) = \Phi\left(\frac{b - \mu}{\sigma}\right) - \Phi\left(\frac{a - \mu}{\sigma}\right)

Cas d'un intervalle centré à la moyenne, plages de normalité

\ P(\mu - t\, \sigma \leq X \leq \mu + t\, \sigma) = \Phi(t) - \Phi(-t) = \Phi(t) - (1 - \Phi(t)) = 2\, \Phi(t) - 1
ce qui équivaut à \ 2\, \Phi(t) - 1 = \alpha, ou \ \Phi(t) = \frac{\alpha + 1}{2},
l'intervalle \ [\mu - t\, \sigma,\, \mu + t\, \sigma] = [\mathrm{E}(X) - t\, \sigma,\, \mathrm{E}(X) + t\, \sigma] est nommé plage de normalité au niveau de confiance α
(si par exemple, α = 0, 95, on dit : "plage de normalité au niveau de confiance 95%" : en statistique, c'est un intervalle dans lequel se trouve 95% de la population quand la distribution est gaussienne).

Exemples numériques

Grâce à la table précédente, on obtient :

l'intervalle [\mathrm{E}(X) - \sigma,\, \mathrm{E}(X) + \sigma] est la plage de normalité au niveau de confiance 68 %
l'intervalle [\mathrm{E}(X) - 0,5H,\, \mathrm{E}(X) + 0,5H] (H étant la largeur à mi-hauteur) est la plage de normalité au niveau de confiance 76 %
l'intervalle [\mathrm{E}(X) - 2\, \sigma,\, \mathrm{E}(X) + 2\, \sigma] est la plage de normalité au niveau de confiance 95 %
l'intervalle [\mathrm{E}(X) - 3\, \sigma,\, \mathrm{E}(X) + 3\, \sigma] est la plage de normalité au niveau de confiance 99 %

Champ d'application

Une planche de Galton nous montre que la loi binomiale tend vers la loi normale

Le Théorème de Moivre-Laplace affirme la convergence d'une loi binomiale vers une loi de Gauss lorsque le nombre d'épreuves augmente. On peut alors utiliser la loi normale comme approximation d'une loi binomiale de paramètres (n ; p) pour n grand et p, 1 - p de même ordre de grandeur ; on approche alors cette loi binomiale par la loi normale ayant même espérance np et même variance np (1 − p) .

On a dessiné ci-dessous :

Bernoulli12.png
Bernoulli60.png

Le mathématicien Carl Friedrich Gauss a introduit cette loi pour le calcul d'erreurs.

En statistiques, de nombreux phénomènes suivent des distributions gaussiennes : données biométriques des individus (Adolphe Quetelet).

Critères et tests de normalité

Critères de normalité

Le recours à une distribution gaussienne est si habituel qu'il peut finir par être abusif. Il faut alors rechercher des critères de normalité.

Le premier critère, le plus simple, consiste à tracer l'histogramme ou le diagramme en bâtons de la distribution ainsi qu'à vérifier si le diagramme est en forme de «cloche». Ce critère, subjectif, permet cependant d'éliminer une partie des distributions jugées alors non gaussiennes.

Le critère suivant consiste à utiliser les plages de normalité ou intervalles de confiance. On a vu que si une distribution est gaussienne :

Quand ces pourcentages ne sont pas respectés, il y a fort à parier que la distribution n'est pas gaussienne.

On peut aussi utiliser la droite de Henry, surtout lorsque on possède peu de renseignements sur la distribution. La droite de Henry va permettre de porter un diagnostic sur la nature non gaussienne de la distribution, et , dans le cas où celle-ci a des chances d'être gaussienne, elle permet d'en déterminer la moyenne et l'écart type.

Tests de normalité

Il existe aussi la plupart de tests de normalité :

Stabilité de la loi normale par la somme

La somme de deux variables gaussiennes indépendantes est elle-même une variable gaussienne. Plus explicitement :

Soient  X_1,\, X_2 deux variables aléatoires indépendantes suivant respectivement les lois  \mathcal{N}(m_1,\, \sigma_1ˆ2) et  \mathcal{N}(m_2,\, \sigma_2ˆ2).

Alors, la variable aléatoire \ X_1 + X_2 suit la loi normale  \mathcal{N}(m_1 + m_2,\, \sigma_1ˆ2 + \sigma_2ˆ2).

Cette propriété se démontre directement (par convolution), ou indirectement (au moyen des fonctions caractéristiques).

Exemple

On prend ici le gramme comme unité de masse. Si la masse du contenu d'une boîte de conserve suit la loi normale d'espérance 400 et de variance 25, et si celle du contenant suit la loi normale d'espérance 60 et de variance 4, alors (avec l'hypothèse, naturelle, d'indépendance) la masse totale de la boîte de conserve suit la loi normale d'espérance 460 et de variance 29 ; son écart type est à peu près 5, 4 grammes.

Stabilité de la loi normale par la moyenne

Soient des variables aléatoires indépendantes suivant respectivement les lois normales

La moyenne suit alors la loi

  \mathcal{N}\left(\tfrac {\mu_1+\mu_2+...+\mu_n} n,\tfrac {\sigma_1ˆ2+\sigma_2ˆ2+....+\sigma_nˆ2} {nˆ{2}}\right).

Stabilité de la loi normale par la combinaison

Mélange de populations

Il ne faut pas confondre la somme de deux variables gaussiennes indépendantes, qui reste une variable gaussienne, et le mélange de deux populations gaussiennes, qui n'est pas une population gaussienne (voir aussi modèle de mixture gaussienne).

Un mélange constitué de

suit une loi de moyenne (2/3) ×160+ (1/3) ×130 = 150 cm, mais non gaussienne, de densité

h = (2/3) f + (1/3) g.

Sur la représentation graphique de la densité h, on peut apercevoir une double bosse : la distribution est bimodale.

Double Gauss.png

Simulation

Il est envisageable de simuler, par exemple par ordinateur, un tirage aléatoire dont la loi est normale.

Les logiciels ou les langages de programmation possèdent généralement un générateur de nombres pseudo-aléatoires ayant une distribution uniforme sur ]0, 1[. On cherche par conséquent une fonction transformant ces nombres. Généralement, on peut prendre la fonction réciproque de la fonction de répartition : en l'occurrence, si la variable aléatoire U suit la loi uniforme sur ]0, 1[, alors la variable aléatoire \ \Phiˆ{-1}(U) suit la loi normale centrée réduite ; cependant, cette méthode est particulièrement malcommode, faute d'expressions simples des fonctions \ \Phi et \ \Phiˆ{-1}. Par contre, on peut aisément utiliser la méthode décrite ci-dessous.

Cas de la loi normale à une dimension

Pour simuler la loi normale à une dimension (celle qui a été étudiée jusqu'ici), on peut utiliser la méthode de Box-Muller dont voici le principe :
Si U1 et U2 sont des variables aléatoires indépendantes qui suivent la loi uniforme sur ]0, 1[, alors on démontre assez facilement que les variables aléatoires :

T_{1}=\sqrt{-2\ln U_{1}}\, \cos (2\pi U_{2})
T_{2}=\sqrt{-2\ln U_{1}}\, \sin (2\pi U_{2})

suivent toutes deux la loi normale centrée réduite (et sont indépendantes).

Les variables aléatoires X_1 = \mu + \sigma\, T_1 et X_2 = \mu + \sigma\, T_2 suivent par conséquent toutes deux la loi normale \, \mathcal{N}(\mu,\, \sigmaˆ2), et indépendamment l'une de l'autre.

Voir aussi

Cas de la loi multinormale

La loi multinormale ou loi normale sur \Rˆn étend la loi normale à un vecteur aléatoire X = (X_1,\, X_2,\dots,\, X_n) à valeurs dans \Rˆn.

Elle est caractérisée par deux paramètres : un vecteur m de moyennes, et une matrice de variance-covariance V (carrée d'ordre n).

Pour simuler une loi multinormale non dégénérée de paramètres m et V, on utilise la méthode suivante :

  1. Soit T un vecteur aléatoire à n composantes gaussiennes centrées réduites et indépendantes (la loi de T, multinormale, a pour moyenne le vecteur nul et pour matrice de variance-covariance la matrice identité).
  2. Soit L la matrice résultant de la factorisation de Cholesky de la matrice V.
  3. Alors, le vecteur aléatoire X = m + LT suit la loi multinormale de moyenne m et de variance-covariance V
(on convient dans cette dernière relation d'identifier chaque élément de \Rˆn avec la matrice colonne de ses composantes en base canonique).

Le calcul de l'intégrale de Gauss

On trouvera ce calcul (utilisant une intégrale double) dans l'article sur l'intégrale de Gauss.

Annexes

Notes et références

  1. on a aussi utilisé la notation \mathcal{N}(\mu,\, \sigma), mais cette notation, qui n'est pas cohérente avec la notation habituelle de la loi (multi-) normale sur \ \Rˆn, tend à céder la place à la notation "classique" \mathcal{N}(\mu,\, \sigmaˆ2)

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Loi_normale.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 10/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu