Convergence de variables aléatoires
Dans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé surtout en statistique...
Page(s) en rapport avec ce sujet :
- converge vers \mathbb{E} [g (X) ]. Quand les variables aléatoires sont totalement continues, la convergence en loi est équivalente à la convergence... (source : public.telecom-bretagne)
- TD 3 Convergence de variables aléatoires. Exercice 1 : Montrer les propriété suivantes :... Alors, (f (Xn) ) converge vers en probabilité vers f (a).... (source : www-gremaq.univ-tlse1)
Dans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé surtout en statistique et dans l'étude des processus stochastiques. A titre d'exemple, la moyenne de n variables aléatoires indépendantes et semblablement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires. Ce résultat est connu sous le nom de loi forte des grands nombres.
Dans cet article, on suppose que (Xn) est une suite de variables aléatoires réelles, que X est une variable aléatoire réelle, et que toutes ces variables sont définies sur un même espace probabilisé .
Convergence en loi
Soient F1, F2, ... la suite des fonctions de répartition associées aux variables aléatoires réelles X1, X2, ..., et F la fonction de répartition de la variable aléatoire réelle X. C'est à dire, Fn est définie par Fn (x) =P (Xn ≤ x), et F par F (x) =P (X ≤ x).
La suite Xn converge vers X en loi, ou en distribution, si
-
pour tout réel a où F est continue.
Puisque F (a) = P (X ≤ a), cela veut dire que la probabilité que X appartienne à un certain intervalle est particulièrement comparable à la probabilité que Xn soit dans cet intervalle pour n suffisamment grand. La convergence en loi est fréquemment notée en ajoutant la lettre (ou
pour distribution) au-dessus de la flèche de convergence :
La convergence en loi est la forme la plus faible au sens où, généralement, elle n'implique pas les autres formes de convergence définies ci-dessous, tandis que ces autres formes de convergence impliquent la convergence en loi. C'est ce type de convergence qui est utilisé dans le théorème de la limite centrale.
De manière équivalente, la suite (Xn) converge en loi vers X si et uniquement si pour toute fonction continue bornée
Théorème de continuité de Paul Lévy — Soit la fonction caractéristique de et celle de. Alors
C'est à dire, (Xn) converge en loi vers X ssi la fonction caractéristique de la variable aléatoire réelle Xn converge simplement vers la fonction caractéristique de la variable aléatoire réelle X.
La moyenne d'une suite de variables aléatoires centrées, indépendantes et de même loi, une fois renormalisée par converge en loi vers la loi normale
La loi de Student de paramètre converge, quand tend vers vers la loi de Gauss :
Dans ce cas, on peut aussi utiliser le lemme de Scheffé, qui est un critère de convergence d'une suite de variables aléatoires à densité vers une variable aléatoire à densité.
La suite[1] converge en loi vers une variable aléatoire X0 dite dégénérée, qui prend une seule valeur (0) avec probabilité 1 (on parle quelquefois de masse de Dirac en 0, notée) :
Convergence en probabilité
Définition — On dit que Xn converge vers X en probabilité si,


La convergence en probabilité est utilisée dans la loi faible des grands nombres.
La convergence en probabilité implique la convergence en loi. On peut par conséquent énoncer le théorème suivant :
Théorème — Xn converge vers X en probabilité Xn converge vers X en loi.
Pour effectuer la démonstration, le lemme suivant est utile
Soient X, Y des variables aléatoires réelles, c un réel et ε > 0. Alors
Lemme —
Pour tout ε > 0, à cause de ce lemme, on a :
a un point de continuité de FX. On fixe un réel
FX en a, il existe un réel
et
.
De la convergence de (Xn) n en probabilité vers X, on peut en déduire l'existence d'un entier N tel que :
.
D'où :
.
Il existe des conditions suffisantes de convergence en probabilité vers une constante[2], portant sur l'espérance et la variance des termes de la suite :
Théorème — .
On veut montrer que
On se sert de l'inégalité de Markov pour les variables aléatoires réelles admettant un moment d'ordre 2 :
Théorème —
Il en découle que :
si
Ce théorème est particulièrement utile pour démontrer la loi faible des grands nombres de manière simple : il suffit de voir que si est une suite de variables aléatoires indépendantes et semblablement distribuées d'espérance μ et de variance σ2 et que
, alors :
(voir preuve sur la page variance)
Donc
La réciproque n'est pas vraie :
- En statistiques, un estimateur peut être biaisé mais cependant convergent !
- Dans l'exemple suivant, la suite, d'espérance constante, converge vers une constante différente de cette espérance ; la suite des variances tend vers l'infini.
Soit une suite de variables aléatoires telle que chaque Xn prenne pour valeurs 0 et n et que :
, par conséquent
.
On voit qu'elle converge en probabilité : et
.
Ainsi les conditions énoncées plus haut de convergence en probabilité vers une constante ne sont pas nécessaires[3].
Convergence presque sûre
On dit que Xn converge presque sûrement ou presque partout ou avec probabilité 1 ou fortement vers X si
Définition —
Cela veut dire que les valeurs de Xn approchent la valeur de X, au sens où (cf. presque partout) l'événement sur lequel Xn ne converge pas vers X a une probabilité nulle.
On note fréquemment cela ou
(almost surely en anglais).
On peut expliciter la définition de la convergence presque sûre en utilisant l'espace probabilisé et le concept de variable aléatoire comme fonction de Ω dans
:
Théorème — Xn converge vers X presque sûrement converge vers X en probabilité
La convergence presque sûre est utilisée dans la loi forte des grands nombres.
Convergence en moyenne d'ordre r
Soit r > 0. On dit que Xn converge vers X en moyenne d'ordre r ou en norme Lr si E|Xn|r < 8 pour tout n et
-
.
La convergence en moyenne d'ordre r nous dit que l'espérance de la puissance r-ième de la différence entre Xn et X converge vers zéro.
Pour r =2, on parle de convergence en moyenne quadratique
Théorème — Xn converge vers X en norme Lr converge vers X en probabilité.
On se sert de l'inégalité de Markov pour les variables aléatoires réelles admettant un moment d'ordre r :
Théorème — , d'où découle le résultat annoncé.
Théorème — Pour r > s ≥ 1, la convergence en norme Lr implique la convergence en norme Ls.
On a aussi le résultat suivant :
Théorème — Xn converge vers une constante c en moyenne quadratique .
On a vu plus haut que :
Convergence d'une fonction d'une variable aléatoire
Un théorème particulièrement pratique, désigné en anglais le plus souvent sous le nom de Mapping theorem (en) , établit qu'une fonction g continue appliquée à une variable qui converge vers X convergera vers g (X) pour l'ensemble des modes de convergence :
Théorème — Mapping theorem[4] Soit une fonction continue en tout point d'un ensemble C tel que
:
- Si
- Si
- Si
En statistiques, un estimateur convergent de la variance σ2 est donné par :
On sait alors par le continuous mapping theorem que l'estimateur de l'écart type
est convergent, car la fonction racine est une fonction continue.
Implications réciproques
À quelques exceptions près, les implications mentionnées dans les sections précédentes n'ont pas de réciproque, à proprement parler. Voici cependant quelques propriétés utiles qu'on pourrait qualifier de "semblants de réciproques" :
- Si Xn converge en loi vers une constante réelle c, alors Xn converge en probabilité vers c.
- Si Xn converge presque sûrement vers X, alors Xn converge en loi vers X, et la réciproque est fausse, mais il existe un théorème (appelé "théorème de représentation de Skorohod") qui est une forme de réciproque, voir, dans Fonction de répartition, la section Convergence en loi et fonction de répartition, et spécifiquement (1. implique 3. ).
- Si Xn converge en probabilité vers X, et si P (|Xn| ≤ b) = 1 pour tout n et un certain b, alors Xn converge en moyenne d'ordre r vers X pour tout r ≥ 1. D'une façon plus générale, si Xn converge en probabilité vers X, et si la famille (Xn) est uniformément intégrable, alors Xn converge en moyenne vers X.
- Si pour tout ε > 0,
alors Xn converge presque sûrement vers X. En d'autres termes, si Xn converge en probabilité vers X suffisamment rapidement (i. e. la série ci-dessus converge pour tout ε > 0), alors Xn converge aussi presque sûrement vers X. Cela résulte d'une application directe du théorème de Borel-Cantelli.
- Soit
une suite de variables aléatoires réelles indépendantes. Pour tout n, on pose :
-
.
Alors la convergence presque sûre de la suite équivaut à sa convergence en probabilité ; c'est à dire, la convergence presque sûre de la série de terme général Xn équivaut à sa convergence en probabilité.
Notes
- ↑ Pour plus de détail sur cet exemple : voir Davidson et McKinnon (1993, chap. 4)
- ↑ Ce sont en fait des conditions nécessaires et suffisantes de convergence en moyenne quadratique vers cette même constante, cf. infra.
- ↑ En réalité, cet exemple montre qu'une suite de variables aléatoires réelles peut converger en probabilité vers une constante sans converger en moyenne quadratique.
- ↑ Tiré de Vaart (1998, p. 7)
Références
- (en) Russell Davidson, Estimation and Inference in Econometrics, Oxford University Press, New York (ISBN 0195060113) , p. 874
- G. R. Grimmett and D. R. Stirzaker (1992). Probability and Random Processes, 2nd Edition. Clarendon Press, Oxford, p. 271-285 (ISBN 0-19-853665-8)
- (en) Adrianus Willem van der Vaart, Asymptotic Statistics, Cambridge University Press, Cambridge (ISBN 0521496039) , p. 443
Recherche sur Amazon (livres) : |
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 10/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.