Échantillonnage préférentiel

L'échantillonnage préférentiel, en anglais importance sampling, est une méthode de réduction de la variance qui est parfois utilisée dans la méthode de Monte-Carlo.



Catégories :

Probabilités

Page(s) en rapport avec ce sujet :

  • est plus correct que le crit`ere basé sur la variance seule, ...... Pour toute densité g, l'estimateur d'échantillonnage préférentiel est défini par... (source : tsi.enst)
  • On approche alors la variance d'estimation théorique de la moyenne m par...... mesures mais aussi de l'échantillonnage préférentiel est plus importante que... (source : 91.121.162)
  • indépendants, nous pouvons exprimer la variance de l'estimateur, noté ̂P, en ...... La méthode d'échantillonnage préférentiel est la méthode la plus... (source : hal.archives-ouvertes)

L'échantillonnage préférentiel, en anglais importance sampling, est une méthode de réduction de la variance qui est parfois utilisée dans la méthode de Monte-Carlo. L'idée sous-jacente à l'échantillonnage préférentiel, EP dans la suite, est que certaines valeurs prises par une variable aléatoire dans une simulation ont plus d'impact que d'autres sur l'estimateur recherché. Si ces valeurs importantes se réalisent plus fréquemment, la variance de notre estimateur peut être réduite. Donc la méthodologie de l'EP est de choisir une distribution qui «encourage» les valeurs importantes. L'utilisation d'une distribution biaisée conduira à un estimateur biaisé si nous l'appliquons directement aux simulations. Cependant, les différentes simulations sont pondérées pour corriger ce biais, l'estimateur EP est alors sans biais. Le poids qui est donné à chaque simulation est le ratio de vraisemblance, qui est la densité de Radon-Nikodym de la vraie distribution comparé à la distribution biaisée.

Le point essentiel dans l'implémentation d'une simulation utilisant l'EP est le choix de la distribution biaisée. Choisir ou créer une bonne distribution biaisée est l'art des EP. L'avantage peut alors être une énorme économie de temps de calculs tandis que l'inconvénient pour une mauvaise distribution peut être des calculs plus longs qu'une simple simulation de Monte-Carlo.

Approche Mathématique

Principe général

La méthode de Monte-Carlo classique

Article détaillé : Méthode de Monte-Carlo.

On souhaite estimer une quantité G, qui s'exprime sous la forme d'une intégrale :

G = \int_aˆb g(x) \,\mbox{d}x

On considère ici une intégration en dimension 1, mais on peut généraliser à une dimension quelconque.

Le principe de base des méthodes de Monte-Carlo est de voir l'intégrale précédente comme

G = (b-a)\intˆa_b g(x) f_X(x) \,\mbox{d}x = (b-a)\,E(g(X))

X est une variable aléatoire uniformément distribuée sur [a;b] et f_X(\cdot)=\frac{1}{b-a} sa densité.

Si on dispose d'un échantillon (x_1, x_2, \cdots, x_N), semblablement et indépendamment distribué (i. i. d. ) selon U , on peut estimer G par :

\hat{g}_N = \frac{(b-a)}{N} \sum_{i=1}ˆN g(x_i)

Il s'agit, selon la loi des grands nombres, d'un estimateur de G non-biaisé (c'est-à-dire que E \hat{g}_N= G). Sa variance est :

\sigmaˆ2_{\hat{g}_N} = \frac{(b-a)ˆ2\sigmaˆ2_g}{N}

avec \sigmaˆ2_g la variance de la variable aléatoire g (X)

\sigmaˆ2_g =\frac{1}{(b-a)}\int_aˆb gˆ2(x) \,\mbox{d}x - \left(\frac{1}{b-a}\int_aˆb g(x) \,\mbox{d}x\right)ˆ2

L'échantillonnage préférentiel

L'idée principale de l'échantillonnage préférentiel est de remplacer dans la simulation la densité uniforme sur [a;b] par une densité alternative (ou densité biaisée), disons fˆ{\ast}\,, qui tente d'imiter la fonction g. Ce faisant, on remplace les tirages uniformes, qui n'avantagent aucune région, par des tirages plus «fidèles». Ainsi, l'échantillonnage est fait suivant l'importance de la fonction g : il est inutile de tirer dans les régions où g prend des valeurs non-significatives, pour, au contraire, se concentrer sur les régions de haute importance. On espère ainsi diminuer la variance \sigmaˆ2_g. C'est à dire, si on se fixe un niveau d'erreur donné, l'EP sert à diminuer théoriquement le nombre de simulations N comparé à une méthode de Monte-Carlo classique.

L'intégrale à estimer est ré-écrite comme :

G = \int_aˆb \frac{g(x)}{fˆ{\ast}(x)} fˆ{\ast}(x) \, \mbox{d}x

ce qui revient à :

G = Eˆ{\ast} [w(X)]

où on a posé w(x)=g(x)/fˆ{\ast}(x) (appelé ratio de vraisemblance) et où X est simulé selon la densité fˆ{\ast}. Il est facile de généraliser les résultats qui ont précédé : l'estimateur de G est

\tilde{g}_N = \frac{1}{N} \sum_{i=1}ˆN w(x_i)

(x_1, x_2, \cdots, x_N) est un échantillon i. i. d. selon la densité fˆ{\ast}. La variance de l'estimateur est donné par

\mbox{Var}ˆ{\ast} (\tilde{g}_N) = \frac{\mbox{Var}ˆ{\ast}[w(X)]}{N}

avec enfin

\mbox{Var}ˆ{\ast}[w(X)] = \mbox{Var}ˆ{\ast}\left[\frac{g(X)}{fˆ{\ast}(X)}\right]=\int_aˆb \left[\frac{g(x)}{fˆ{\ast}(x)}\right]ˆ2 fˆ{\ast}(x) \,\mbox{d}x - Gˆ2

Dès lors, le problème est de se concentrer sur l'obtention d'une densité biaisée fˆ{\ast}\, telle que la variance de l'estimateur EP soit moindre que celle de la méthode de Monte-Carlo classique. La densité minimisant la variance (qui la rend nulle sous certaines conditions) est nommée densité biaisée optimale. Cette dernière est égale à

fˆ{\ast}(x) = \frac{g(x)}{\displaystyle \int_aˆb g(x) \,\mbox{d}x}

mais ce choix est inopérant, car on recherche précisément le dénominateur. Mais, on peut s'attendre à diminuer la variance en choisissant une densité fˆ{\ast} reproduisant la fonction g.

Application : estimation d'une probabilité

Considérons que nous voulons estimer par simulation la probabilité p_t\, d'un événement { X \ge t\ }X est une variable aléatoire de fonction de distribution F et de densité f(x)= F'(x)\,. Ce problème se ramène à la présentation générale dans le sens où il met en œuvre une intégrale à estimer. Un échantillon \left(X_i\right)_{i \in\{1,\dots,K\}} semblablement et indépendamment distribué (i. i. d. ) est tiré dans cette loi. On note kt le nombre de réalisation supérieures à t. La variable kt est une variable aléatoire suivant une loi binomiale de paramètres K et pt :

P(k_t = k)={K\choose k}p_tˆk(1-p_t)ˆ{K-k},\,\quad \quad k=0,1,\dots,K

ce qui veut dire surtout que E (kt) = Kpt : la fréquence empirique kt / N converge par conséquent vers sa probabilité associée pt.

L'échantillonnage préférentiel entre en jeu ici pour diminuer la variance de l'estimation Monte-Carlo de la probabilité p_t\,. En effet, p_t\, est donnée par

\begin{align}
p_t &= {E} [X \ge t]\\
&= \int (x \ge t) \frac{f(x)}{fˆ{\ast}(x)} fˆ{\ast}(x) \,dx\\
&= {E_*} [(X \ge t) w(X)]
\end{align}

où, on a toujours posé

w(\cdot) \equiv \frac{f(\cdot)}{fˆ{\ast}(\cdot)}

La dernière égalité de l'équation précédente suggère l'estimateur de pt suivant :

 \hat p_t = \frac{1}{N}\,\sum_{i=1}ˆN (X_i \ge t) w(X_i),\,\quad \quad X_i \sim  fˆ{\ast}

C'est un estimateur EP de p_t\, qui est sans biais. Ceci étant défini, la procédure d'estimation est de générer un échantillon i. i. d. à partir de la densité fˆ{\ast}\, et pour chaque réalisation dépassant t\, de calculer son poids W\,. Le résultat sera la moyenne obtenue avec N\, tirages. La variance de cet estimateur est :


\begin{align}
\mbox{Var}ˆ{\ast} \hat p_t &= \frac{1}{N} \mbox{Var}ˆ{\ast} [(X \ge t)w(X)]\\
&= \frac{1}{N} \mbox{Var}ˆ{\ast} [(X \ge t)w(X)] \\
&= \frac{1}{N}\Big[{E_*}[(X \ge t)ˆ2 wˆ2(X)] - p_tˆ2 \Big]\\
&= \frac{1}{N}\Big[{E}[(X \ge t)ˆ2 w(X)] - p_tˆ2 \Big]
\end{align}

Ici encore il faudra profile au mieux la densité fˆ{\ast} pour diminuer la variance.

Un exemple numérique

On souhaite estimer la quantité suivante :

G = \int_0ˆ1 xˆ4 (1-x)ˆ2 \,\mbox{d}x

qui se trouve être la fonction bêta de paramètre (5;3), qui vaut G = 1/105 = 0, 0095238095238095. Cela correspond au cas général avec a=0, b=1 et g (x) = x4 (1 − x) 2.

On simule un échantillon (y_1, \cdots, y_n) selon la loi uniforme standard (U[0;1]) pour obtenir l'estimateur Monte-Carlo classique :

\hat{g}_1 = \frac{1}{n} \sum_{i=1}ˆn g(y_i)

et l'estimateur de sa variance :

\hat{\sigma}ˆ2_{g_1} = \frac{1}{n} \left[ \frac{1}{n} \sum_{i=1}ˆn gˆ2(y_i) - \hat{g}_1ˆ2\right]

S'inspirant de la forme générale de la fonction bêta, on peut remplacer la loi uniforme standard par la loi triangulaire T (a=0, c=2/3, b=1). Elle est comparable à un triangle basé sur le segment [0;1] et "culminant" en (2/3;2). Sa densité est

fˆ{\ast}(x) = \begin{cases}
                 3x & x \in [0;2/3]\\
                 6(1-x) & x \in [2/3;1]
                \end{cases}

On simule un échantillon (z_1, z_2, \cdots, z_n) dans cette loi, par la méthode de la transformée inverse, et , en posant w(x) = g(x)/fˆ{\ast}(x), l'estimateur EP est donné par

\hat{g}_2 = \frac{1}{n} \sum_{i=1}ˆn w(z_i)

et l'estimateur de sa variance est

\hat{\sigma}ˆ2_{g_2} = \frac{1}{n} \left[ \frac{1}{n} \sum_{i=1}ˆn wˆ2(z_i) - \hat{g}_2ˆ2\right]

Dans le tableau, on constate que l'utilisation de l'EP permet toujours de diminuer la variance de l'estimation comparé à l'estimation Monte-Carlo de même taille (c'est-à-dire à n donné). On constate aussi que la variance d'estimation est proportionnelle à 1/n : en passant de n = 1000 à n = 10 000 (multiplication par 10 de la taille), on réduit d'un facteur 10 la variance.


Comparaison de la méthode Monte-Carlo et de l'échantillonnage préférentiel
Monte-Carlo classique Échantillonnage préférentiel
n estimateur biais variance estimateur biais variance
500 0, 009843 -3, 19E-004 1, 32E-007 0, 009712 -1, 88E-004 2, 50E-008
1000 0, 009735 -2, 12E-004 6, 53E-008 0, 009680 -1, 57E-004 1, 26E-008
2500 0, 009628 -1, 04E-004 2, 60E-008 0, 009576 -5, 18E-005 5, 36E-009
5000 0, 009717 -1, 93E-004 1, 31E-008 0, 009542 -1, 83E-005 2, 71E-009
10000 0, 009634 -1, 10E-004 6, 52E-009 0, 009544 -1, 99E-005 1, 35E-009

On espère perfectionner toujours les performances en considérant une densité fˆ\ast "plus proche" de la densité f. Le principal problème sera d'obtenir des simulations. Dans les cas les plus simples, comme la loi triangulaire, la méthode de la transformée inverse pourra suffire; dans les cas plus complexes, il faudra avoir recours à la méthode de rejet.

Voir aussi

Recherche sur Amazon (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/%C3%89chantillonnage_pr%C3%A9f%C3%A9rentiel.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 10/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu