Loi de probabilité à plusieurs variables

Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas spécifiques de variables indépendantes...



Catégories :

Probabilités

Recherche sur Google Images :


Source image : fr.wikipedia.org
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • En raison du particulièrement grand nombre de lois de probabilité que les variables X et Y... une fonction f (X, Y) qui transforme le couple de variables (X, Y)... (source : ete.inrs)
  • de simulation de variables aléatoires (voir Travaux... 2.1.2 Loi de probabilité d'une v. a. r.... Il existe des lois de probabilité compliquées. Dans... si X est discr`ete, FX est une fonction en escalier, et vice versa.... (source : perso.centrale-marseille)
  • Variables aléatoires continues. Convergence en probabilité et en loi. Statistiques.... Fonction d'une variable réelle, fonction de plusieurs variables.... (source : ece)

Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas spécifiques de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement nommée loi jointe. La description des notions correspondantes, certaines d'entre elles généralisant les notions relatives à une seule variable, est simplifiée de deux manières :

Formules de base

La probabilité pour que la variable aléatoire X\, prenne une valeur numérique inférieure à x\, tandis que Y\, prend une valeur inférieure à y\, définit la fonction de répartition :

F(x,y) = \mathbb{P}(X<x,Y<y)

Celle-ci est non décroissante en x\, et en y\, entre la valeur 0 quand les deux variables tendent vers -\infty\, et la valeur 1 quand elles tendent toutes deux vers +\infty\,.

La densité de probabilité jointe ou loi jointe s'obtient par une double dérivation :

f_{XY}(x,y) = \frac{\partial F_{XY}}{\partial x \partial y}(x,y)

Une intégration comparé à y\, (resp. x\,) donne la densité de probabilité marginale ou loi marginale de X\, (resp. Y\,)  :

f_X (x) = \int_{-\infty}ˆ\infty f_{XY}(x,y) \mathrm dy

Le rapport de la densité de probabilité jointe (relative à une valeur x\,) à la densité marginale de Y\, (concernant l'ensemble des valeurs x\,) représente la densité de probabilité conditionnelle de X\, sous la condition Y = y\, :

 f_{X|Y}(x,y) = \frac {f_{XY}(x,y)} {f_{Y}(y)}

Espérances mathématiques

L'espérance mathématique d'une fonction f\, de deux variables généralise la formule donnée pour une seule variable :

\mathbb{E}[f(X,Y)] = \int_{-\infty}ˆ\infty \int_{-\infty}ˆ\infty\ f(x,y) p_{XY}(x,y) \mathrm dx \mathrm dy

L'opérateur espérance est linéaire ; surtout, l'espérance (la moyenne) d'une somme de deux variables aléatoires est la somme des moyennes :

\mathbb{E}[X + Y] = \mathbb{E}[X] + \mathbb{E}[Y]\,

Parmi ces espérances, une double transformation de Fourier conduit à la fonction caractéristique :

\varphi_{XY} (\theta,\psi) = \mathbb{E}[eˆ{i(\theta X + \psi Y)}]

Comme pour le cas d'une seule variable aléatoire un développement en série sert à faire apparaître les moments qu'on peut centrer par soustraction des moyennes.

Indépendance

Si la densité de probabilité conditionnelle de X\, comparé à Y\, est semblable à la densité marginale :

 p_{X}(x) = \frac {p_{XY}(x,y)} {p_{Y}(y)}

on dit que les deux variables sont indépendantes. L'égalité se réécrit :

p_{XY}(x,y) = p_{X}(x) p_{Y}(y)\,

La fonction caractéristique de la somme des variables est alors égale au produit des fonctions caractéristiques individuelles :

Z = X + Y \qquad \varphi_{Z} (\theta) = \varphi_{X} (\theta) \varphi_{Y} (\theta)

C'est l'une des principales propriétés de la fonction caractéristique. Cette remarque est , entre autres, utilisée dans la démonstration du théorème de la limite centrale.

Corrélation

On nomme corrélation de deux variables aléatoires la grandeur :

\rho=\frac{\mathbb{E}[(X-\overline X) (Y -\overline Y)]}{\sigma(X)\sigma(Y)}

\sigma(X)=\sqrt{\mathbb{E}[(X-\overline{X})ˆ2]} est l'écart-type de la variable X. La corrélation de deux variables est comprises entre -1 et 1. Pour une corrélation proche de 1 la variable X aura tendance à être grande lorsque Y le sera et inversement. Pour une corrélation proche de -1 la variable X aura tendance à être petite lorsque Y le sera grande. Si la covariance est nulle on dit que les deux variables sont décorrélées. La formule se développe alors en :

\mathbb{E}[XY] = \mathbb{E}[X] \mathbb{E}[Y]\,

Si les deux variables sont indépendantes, elles sont décorrélées, l'inverse n'étant pas vrai, car l'indépendance implique l'ensemble des moments au lieu d'un seul. La notion de variables décorrélées est plus faible que celle d'indépendance et est loin d'avoir la même utilité.


Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Loi_de_probabilit%C3%A9_%C3%A0_plusieurs_variables.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 10/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu