Loi des grands nombres

En statistiques, la loi des grands nombres indique que quand on fait un tirage aléatoire dans une série de grande taille, plus on augmente la taille de l'échantillon, plus les caractéristiques statistiques de l'échantillon se rapprochent des...



Catégories :

Probabilités - Hasard et aléatoire

Recherche sur Google Images :


Source image : lewebpedagogique.com
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • La loi des grands nombres permet alors, a posteriori, de proposer un modèle : on prend comme probabilité de chaque événement élémentaire un nombre vers... (source : bernard.koch.free)
  • ... La loi forte des grands nombres propose un résultat comparable à celui de la loi faible, à savoir la convergence d'une moyenne empirique vers... (source : fr.wikiversity)

En statistiques, la loi des grands nombres indique que quand on fait un tirage aléatoire dans une série de grande taille, plus on augmente la taille de l'échantillon, plus les caractéristiques statistiques de l'échantillon se rapprochent des caractéristiques statistiques de la population. La taille de l'échantillon à prendre pour approcher les caractéristiques de la population d'origine ne dépend que faiblement, ou alors absolument pas, de la taille de la série initiale : pour un sondage au Luxembourg ou aux États-Unis, il suffit, pour obtenir une précision égale, de prendre un échantillon de même taille.

Historique

Originellement c'est Jacob Bernoulli qui en définit le premier modèle mathématique vers 1690, publié en 1715 dans la quatrième partie de son Ars conjectandi[1].

C'est sur cette loi que reposent la majorité des sondages[2]. Ils interrogent un nombre suffisamment important de personnes pour connaître l'opinion (probable) de la population entière. De même, sans la formalisation de cette loi, l'assurance n'aurait jamais pu se développer avec un tel essor. En effet, cette loi permet aux assureurs de déterminer les probabilités que les sinistres dont ils sont garants se réaliseront ou non.

La loi des grands nombres sert aussi en statistique inférentielle, pour déterminer une loi de probabilité à partir d'une série d'expériences.

Les mathématiciens distinguent deux énoncés, nommés respectivement «loi faible des grands nombres» et «loi forte des grands nombres».

La loi des grands nombres soulève une question d'ordre métaphysique : personne ne s'étonne que des évènements reconnus de façon isolée soient soumis au hasard (il n'est pas impossible d'obtenir 1 000 fois pile en lançant une pièce de monnaie 1 000 fois, mais cette probabilité est extrêmement faible). Et néenmoins, si on fait l'expérience, on constate qu'on obtient à peu près 50% de pile et 50% de face, comme s'il existait une loi d'équilibre naturelle, comme si le chaos était impossible et les catastrophes improbables.

Il ne faut cependant pas confondre la moyenne des gains et le gain absolu. Si deux joueurs jouent très longtemps à pile ou face, celui qui perd donnant un euro à celui qui gagne, la moyenne des gains de chaque joueur tendra effectivement vers 0 (la moyenne étant définie comme le gain divisé par le nombre de parties jouées), mais le gain de chaque joueur connaîtra énormément d'irrégularités, et les inversions ne sont pas exclues. Plus important toujours : «l'excédent des pile sur les face, ou l'inverse, est de l'ordre de où N sert à désigner le nombre de tirages». Cela ne contredit en rien la loi des grands nombres, car tend bien vers 0 à mesure que N augmente.

Dans son ouvrage Les Certitudes du hasard, Marcel Boll imagine un million de Parisiens commençant à jouer à pile ou face en 1789 à raison d'un coup par seconde, en convenant de ne s'arrêter qu'à égalité. Deux secondes après le début, la moitié des joueurs ont terminé; le calcul montre cependant qu'en 1942, date de sortie de l'ouvrage, une demi-douzaine de joueurs seront toujours en train d'attendre cette égalité, avec de moins en moins de chances de la voir se produire[3].

Vers 1820, Robert Brown observe le comportement erratique d'un grain de pollen dans un liquide : plus on attend, plus les particules s'éloignent de leur point de départ, dans un mouvement d'amplitude croissante. Le moteur de ce mouvement mentionné en 1900 par Louis Bachelier et étudié en détail par Albert Einstein en 1905 est exactement l'écart à la moyenne[4]. Pour Andreï Kolmogorov, la valeur épistémologique de la théorie des probabilités est fondée sur le fait que les phénomènes aléatoires génèrent à grande échelle une régularité stricte, où l'aléatoire a, d'une certaine façon, disparu. Appliquée aux sociétés humaines, cette régularité statistique absolue qu'évoque Kolmogorov pose l'interrogation suivante : nos actions individuelles peuvent-elles être autre chose que la confirmation d'une tendance générale qui nous dépasse ?[5].

Loi faible des grands nombres

La loi faible des grands nombres est aussi nommée théorème de Khintchine (rarement utilisé).

On considère une suite (X_n)_{n\in\Nˆ*} de variables aléatoires indépendantes définies sur un même espace probabilisé, ayant même variance finie et même espérance notées respectivement V (X) et E (X) . La loi faible des grands nombres stipule que, pour tout réel ε strictement positif, la probabilité que la moyenne empirique Y_n \equiv \bar x= \frac{1}{n} \sum_{i=1}ˆ{n} X_i s'éloigne de l'espérance d'au moins ε, tend vers 0 lorsque n tend vers l'infini.

Théorème — <img class= converge en probabilité vers E (X) . Ce résultat est particulièrement important en statistique, dans la mesure où il assure que la moyenne empirique est un estimateur convergent de l'espérance.

La loi faible des grands nombres se démontre en utilisant l'inégalité de Bienaymé-Tchebychev :

Loi forte des grands nombres

Article détaillé : Loi forte des grands nombres.

Considérons une suite (X_n)_{n\in\N} de variables aléatoires indépendantes qui suivent la même loi de probabilité, intégrables, i. e. E(|X_0|)<+\infty. En reprenant les notations ci-dessus, la loi forte des grands nombres précise que (Y_n)_{n\in\N} converge vers E (X) «presque sûrement».

C'est-à-dire que :

Théorème — \mathbb{P}\left(\lim_{n \to +\infty} Y_n(\omega) = E(X)\right)=1

C'est à dire, selon la loi forte des grands nombres, la moyenne empirique est un estimateur fortement convergent de l'espérance.

Convergence vers une loi de probabilité

La loi des grands nombres sert à dire que la répartition de la population de l'échantillon peut être approchée par la loi de probabilité de X pour n assez grand.

En effet, pour tout i, la fréquence fn (i) de la valeur xi dans l'échantillon (X_1,\dots,X_n) converge vers la probabilité pi.

Pour le prouver, on fixe désormais i et on considère pour tout k la variable aléatoire Bk indicatrice de l'évènement (Xk = xi) .
Cela veut dire (par définition) que Bk (ω) = 1 si Xk (ω) = xi et Bk (ω) = 0 si X_k(\omega) \neq x_i.

La suite (Bk) est constituée de variables aléatoires indépendantes suivant la même loi de Bernoulli de paramètre pi ; elles possèdent une variance finie et leur espérance commune est E (B) = pi.

Or, pour tout n, f_n(i) = \frac{1}{n}\left(B_1+\cdots+B_n\right). Par conséquent la fréquence fn (i) converge vers pi :

  • en probabilité (d'après la loi faible des grands nombres)
  • presque sûrement (d'après la loi forte des grands nombres)

Notes et références

  1. Norbert Meusnier :Argumentation et démonstration de la loi des grands nombres dans La démonstration mathématique dans l'histoire, Besançon, IREM, 1989, pp. 89-97.
  2. Ceux qui n'utilisent pas particulièrement la règle des quotas.
  3. Marcel Boll, Les certitudes du hasard, PUF, 1942.
  4. Jean-Philippe Bouchaud, La Recherche, hors série n°2, page 67.
  5. Jean-Philippe Bouchaud, La Recherche, hors série n°2, page 71.

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Loi_des_grands_nombres.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 10/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu