Théorie des probabilités

La Théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude. Les objets centraux de la théorie des probabilités sont les variables aléatoires, les processus stochastiques,...



Catégories :

Probabilités - Théorie

Recherche sur Google Images :


Source image : enseignements.telecom-paristech.fr
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • On y aborde les notions principales de théorie de des probabilités, ... aléatoires, définis directement par des distributions de probabilité — sans... (source : perso.telecom-paristech)
  • Eléments de théorie des Probabilités Discrètes. Espaces de probabilité. Définition : une expérience aléatoire est une expérience dont on ne... (source : pps.jussieu)
  • Définition 3 En principe des probabilités, la probabilité conditionnelle d'un évène... De telles variables aléatoires sont qualifiées de discrètes car elles... (source : iml.univ-mrs)
Courbes de probabilité.

La Théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude. Les objets centraux de la théorie des probabilités sont les variables aléatoires, les processus stochastiques, et les événements : ils traduisent de manière abstraite des événements non déterministes ou des quantités mesurées qui peuvent quelquefois évoluer dans le temps d'une manière apparemment aléatoire. Comme fondement mathématique des statistiques, la théorie des probabilités est principale à la majorité des activités humaines qui nécessitent une analyse quantitative de la plupart de mesures. Les méthodes de la théorie des probabilités s'appliquent aussi à la description de dispositifs complexes dont on ne connait qu'en partie l'état, comme en mécanique statistique. Une grande découverte de la physique du vingtième siècle fut la nature probabiliste de phénomènes physiques à une échelle microscopique, décrite par la mécanique quantique.

Historique

La théorie mathématique des probabilités trouve ses origines dans l'analyse de jeux de hasard par Gerolamo Cardano au seizième siècle, et par Pierre de Fermat et Blaise Pascal au dix-septième siècle. Quoiqu'un simple pile ou face ou un lancer de dès soit un événement aléatoire, en les répétant de nombreuses fois on obtient une série de résultats qui va posséder certaines propriétés statistiques, qu'on peut étudier et prévoir. Deux résultats mathématiques fondamentaux à ce propos sont la loi des grands nombres et le théorème de la limite centrale.

Originellement, la théorie des probabilités considérait en particulier les événements discrets, et ses méthodes étaient essentiellement combinatoires. Mais des considérations analytiques ont forcé l'introduction de variables aléatoires continues dans la théorie. Cette idée prend tout son essor dans la théorie moderne des probabilités, dont les fondations ont été posées par Andreï Nikolævich Kolmogorov. Kolmogorov combina la notion d'univers, introduite par Richard von Mises et la théorie de la mesure pour présenter son dispositif d'axiomes pour la théorie des probabilités en 1933. Particulièrement vite, son approche devint la base incontestée des probabilités modernes.

Théorie des probabilités discrète

La théorie discrète des probabilités s'occupe d'événements dans le cadre d'un univers fini ou dénombrable.

Exemples : lancer de dés, expériences avec des paquets de cartes, et marche aléatoire.

Définition classique : Originellement, la probabilité d'un événement était définie comme le nombre de cas favorables pour l'événement, divisé par le nombre total d'issues envisageables à l'expérience aléatoire.

A titre d'exemple, si l'événement est obtenir un nombre pair en lançant le dé, sa probabilité est donnée par \tfrac{3}{6}=\tfrac{1}{2}, puisque trois faces sur six ont un nombre pair.

Définition moderne : La définition moderne débute par un ensemble nommé univers, qui correspond à la totalité des issues envisageables à l'expérience dans la définition classique. Il est noté \Omega=\left \{ x_1,x_2,\dots\right \}. Par la suite, on a besoin d'une fonction f définie sur Ω, qui va associer à chaque élément de Ω sa probabilité, satisfaisant par conséquent les propriétés suivantes :

  1. f(x)\in[0,1]\mbox{ pour tout }x\in \Omega
  2. \sum_{x\in \Omega} f(x) = 1

On définit ensuite un événement comme un ensemble d'issues, c'est-à-dire un sous-ensemble de Ω. La probabilité d'un évènement E est alors définie de manière naturelle par :

P(E)=\sum_{x\in E} f(x)\,

Ainsi, la probabilité de l'univers est 1, et la probabilité de l'événement impossible (l'ensemble vide) est 0.

Pour revenir à l'exemple du lancer de dés, on peut modéliser cette expérience en se donnant un univers Ω = {1;2;3;4;5;6} correspondant aux valeurs envisageables du dé, et une fonction f qui à chaque i\in\Omega associe f(i)=\tfrac{1}{6}.

Théorie des probabilités continue

La théorie des probabilités continue s'occupe des événements qui se produisent dans un univers continu (par exemple la droite réelle).

Définition classique : La définition classique est mise en échec quand elle est confrontée au cas continu (cf. paradoxe de Bertrand).

Définition moderne Si l'univers est la droite réelle \mathbb{R}, alors on admet l'existence d'une fonction nommée fonction de répartition F\,, qui donne P(X\le x) =  F(x)\, pour une variable aléatoire X. C'est à dire, F (x) retourne la probabilité que X soit inférieur ou égal à x.

La fonction de répartition doit satisfaire les propriétés suivantes :

  1. F\, est une fonction croissante et continue à droite.
  2. \lim_{x\rightarrow -\infty} F(x)=0
  3. \lim_{x\rightarrow \infty} F(x)=1

Si F\, est dérivable, alors on dit que la variable aléatoire X a une densité de probabilité f(x)=\frac{dF(x)}{dx}\,.

Pour un ensemble E \subseteq \mathbb{R}, la probabilité que la variable aléatoire X soit dans E\, est définie comme :

P(X\in E) = \int_{x\in E} dF(x)\,

Si la densité de probabilité existe, on peut alors la réécrire :

P(X\in E) = \int_{x\in E} f(x)\,dx

Tandis que la densité de probabilité n'existe que pour les variables aléatoires continues, la fonction de répartition existe pour toute variable aléatoire (y compris les variables discrètes) à valeurs dans \mathbb{R}.

Ces concepts peuvent être généralisés dans les cas multidimensionnel sur \mathbb{R}ˆn et d'autres univers continus.

Principes fondamentaux

La probabilité d'un événement donné A, \textstyle\mathbb{P}(A), est représentée par un nombre compris entre 0 et 1. L'événement impossible a une probabilité de 0 et l'événement certain a une probabilité de 1. Il faut savoir que la réciproque n'est pas vraie. Un événement qui a une probabilité 0 peut particulièrement bien se produire dans le cas où un nombre illimité d'événements différents peut se produire. Ceci est détaillé dans l'article Ensemble négligeable.

Quelques notions ou propriétés principales
Évènement Probabilité
probabilité de A \mathbb{P}(A)\in[0,1]\,
probabilité de ne pas avoir A \mathbb{P}(Aˆc)=1-\mathbb{P}(A)\,
probabilité d'avoir A ou B \begin{align}
\mathbb{P}(A\cup B) & = \mathbb{P}(A)+\mathbb{P}(B)-\mathbb{P}(A\cap B) \\
\end{align}
probabilité conditionnelle de A,
sachant B
\mathbb{P}(A|B) = \mathbb{P}_{B}(A)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}\,
probabilité d'avoir A et B \begin{align}
\mathbb{P}(A\cap B) & = \mathbb{P}(A|B)\mathbb{P}(B)\\
& = \mathbb{P}(A)\mathbb{P}(B) \qquad\mbox{si A, B sont indépendants}\\
\end{align}

\textstyle A\cup B est la réunion de A et B. \textstyle A\cap B est l'intersection de A et de B. \mathbb{P}(A|B) est nommé la probabilité conditionnelle de A sachant B. C'est la probabilité d'avoir A lorsque on sait qu'on a B. A titre d'exemple, pour un dé à 6 faces la probabilité d'avoir un 2 (A) lorsque on sait que le résultat est pair (B) est égal à \textstyle\frac{1/6}{1/2}=1/3 car la probabilité d'avoir à la fois un 2 et un nombre pair est égal à 1/6 et la probabilité d'avoir un nombre pair est égal à 1/2. Ici on remarque que \textstyle A\cap B=A car on a toujours un nombre pair lorsque on a 2.

La théorie des probabilités actuellement

Article détaillé : axiomes des probabilités.
Article détaillé : espace probabilisé.

Certaines distributions peuvent être un mélange de distributions discrètes et continues, et par conséquent n'avoir ni densité de probabilité ni fonction de masse. La distribution de Cantor forme un tel exemple. L'approche moderne des probabilités résout ces problèmes par l'utilisation de la théorie de la mesure pour définir un espace probabilisé et aboutir aux axiomes des probabilités développés par Kolmogorov

Un espace probabilisé comporte trois parties :

{ø, {1}, {2}, {3}, {4}, {1, 2}, {1, 3}, {1, 4}, {2, 3}, {2, 4}, {3, 4}, {1, 2, 3}, {1, 2, 4}, {1, 3, 4}, {2, 3, 4}, {1, 2, 3, 4}}. On remarque que cette tribu contient la totalité vide ø et Ω={1, 2, 3, 4}. Ceci est le cas pour l'ensemble des tribus.

Dans cette optique, pour des événements deux à deux disjoints (c'est-à-dire, d'intersection deux à deux vide) A1, A2, A3…, la probabilité de leur union apparaît comme la somme de leurs probabilités, ou, avec les notations mathématiques, P\left(A_1\cup A_2\cup A_3\cup\cdots\right)
=P(A_1)+P(A_2)+P(A_3)+\cdots.

C'est le troisième et dernier axiome des probabilités. A titre d'exemple, et toujours pour un dé à 6 faces, la probabilité de tirer un 1 ou un 2 \mathbb{P}(\{1,2\})=\mathbb{P}(\{1\})+\mathbb{P}(\{2\})=2/6

En plus de permettre une meilleure compréhension et une unification des théories discrètes et continues des probabilités, l'approche de la théorie de la mesure nous permet aussi de parler de probabilités en dehors de \mathbb{R}ˆn, surtout dans la théorie des processus stochastiques. Par exemple pour l'étude du mouvement brownien, la probabilité est définie sur un espace de fonctions.

Lois de probabilité

Article détaillé : Loi de probabilité.

Certaines variables aléatoires sont souvent rencontrées en principe des probabilités car on les retrouve dans de nombreux processus naturels ; leur loi a par conséquent une importance spécifique. Les lois discrètes les plus habituelles sont la loi uniforme discrète, la loi de Bernoulli, mais aussi les lois binomiale, de Poisson et géométrique. Les lois uniforme continue, normale, exponentielle et gamma sont parmi principales lois continues.

Convergence de variables aléatoires

Article détaillé : convergence de variables aléatoires.

En théorie des probabilités, il y a plusieurs notions de convergence pour les variables aléatoires. En voici une liste :

Convergence en loi : une suite de variables aléatoires (X_n)_{n\in\mathbb{N}} converge en loi vers la variable aléatoire X\, si et uniquement si la suite des mesures images (\mu_{X_n})_n\in\mathbb{N} converge étroitement vers la mesure image μX. Surtout dans le cas réel, il faut et il suffit que les fonctions de répartition convergent simplement vers la fonction de répartition de X en tout point de continuité de cette dernière.
Convergence en probabilité : (X_n)_{n\in\mathbb{N}} converge en probabilité vers X\, ssi <img class=. Cette convergence implique la convergence en loi.
Convergence presque sûre : (X_n)_{n\in\mathbb{N}} converge presque sûrement vers X\, ssi P(\{\omega/\lim_{n\rightarrow\infty} X_n(\omega)=X(\omega)\})=1. Elle implique la convergence en probabilité, par conséquent la convergence en loi.
Convergence dans \mathcal{L}ˆ1 : (X_n)_{n\in\mathbb{N}} converge dans \mathcal{L}ˆ1 vers X\, ssi \lim_{n\rightarrow\infty}E(|X_n-X|)=0. Elle implique aussi la convergence en probabilité.

Le calcul stochastique

Article détaillé : calcul stochastique.

Un processus stochastique est un processus aléatoire qui dépend du temps. Un processus stochastique est par conséquent une fonction de deux variables : le temps et la réalisation ω d'une certaine expérience aléatoire. Quelques exemples d'utilisation des processus stochastiques incluent le mouvement brownien, les fluctuations du marché boursier, ou la reconnaissance vocale. En temps discret, ces processus sont aussi connus sous le nom de Séries temporelles et servent entre autres en économétrie.

Parmi les processus stochastiques, les chaînes de Markov forment l'exemple le plus simple et probablement celui qui a le plus d'applications pratiques.

Chaîne de Markov

Article détaillé : chaîne de Markov.

Une chaîne de Markov est un processus stochastique possédant la propriété markovienne. Dans un tel processus, la prédiction du futur à partir du présent ne nécessite pas la connaissance du passé. Il suffit alors de connaître l'état de la chaîne à un instant t pour savoir comme elle évoluera au temps t+1, il n'est pas indispensable de connaître tout le passé entre 0 et t pour prévoir l'évolution de la chaîne.

Une chaîne en temps discret est une séquence X1, X2, X3, ... de variables aléatoires. La valeur Xn étant l'état du processus au moment n. Si la distribution de probabilité conditionnelle de Xn+1 sur les états passés est une fonction de Xn uniquement, alors de façon mathématique :

 P(X_{n+1}=x|X_0, X_1, X_2, \ldots, X_n) = P(X_{n+1}=x|X_n).

x est un état quelconque du processus, \mathbb{P}(A|B) est la probabilité d'avoir A lorsque on sait qu'on a B par exemple ici la probabilité d'avoir une certaine valeur pour Xn + 1 lorsque on connaît la valeur de Xn. L'identité ci-dessus est la propriété de Markov pour le cas spécifique d'une chaîne en temps discret. La probabilité P (Xn + 1 = x | Xn = y) est nommée la probabilité de transition de x à y ; c'est la probabilité d'aller de x à y au temps n et a une importance spécifique pour l'étude de ces chaînes. Nous considérons ici seulement des chaînes de Markov en temps discret mais il faut savoir qu'il existe une généralisation en temps continu.

Cette propriété de Markov s'oppose à la notion d'hystérésis où l'état actuel dépend de l'histoire et non seulement de l'état actuel. Ces chaînes de Markov ou des modèles de Markov cachés interviennent dans l'étude de la marche aléatoire et ont de nombreux champs d'application : filtre anti-spam, mouvement brownien, hypothèse ergodique, théorie de l'information, reconnaissance des formes, algorithme de Viterbi utilisé en téléphonie mobile, etc...

Trois marches aléatoires (indépendantes) isotropes sur le réseau \mathbb{Z}ˆ2 ; 10 000 pas.
Article détaillé : marche aléatoire.

Voici entre autres comme cas spécifiques de chaînes de Markov la marche aléatoire qui sert surtout à l'étude de la diffusion ou du jeu de pile ou face. Une marche aléatoire est une chaîne de Markov où la probabilité de transition ne dépend que de x-y. C'est à dire une chaîne de Markov où on a : P (Xn + 1 = x | Xn = y) = f (xy) .

Un jeu de pile ou face où on jouerait 1 à chaque lancer est un exemple de marche aléatoire. Si on a y après n lancers, P (Xn + 1 = x | Xn = y) = 1 / 2 si (x-y) =+1 ou -1 et 0 sinon. (on a une chance sur deux de gagner 1 et une chance sur deux de perdre 1)

Équations différentielles stochastiques

Les équations différentielles stochastiques sont une forme d'équation différentielle incluant un terme de bruit blanc. Ces équations différentielles stochastiques remplacent les équations différentielles ordinaires quand l'aléatoire entre en jeu. Au premier ordre par exemple : 
\frac{dX(t)}{dt}=\mu(X(t))+\sigma(X(t))\xi(t)

Pour faire une ressemblance avec la physique, μ (X (t) ) est la vitesse moyenne au point X (t) et σ est lié au cœfficient de diffusion (voir à ce propos l'exemple donné dans lemme d'Itô). Le lemme d'Itô et l'intégrale d'Itô permettent alors de passer de ces équations stochastiques à des équations aux dérivées partielles classiques ou à des équations intégrales. Par exemple en utilisant le lemme d'Itô on obtient pour la probabilité de se trouver à l'instant t au point x :

 \frac{\partial p(x,t)}{\partial t}=\frac{\sigma(x)ˆ2}{2} \frac{\partialˆ2 p (x,t)}{\partial xˆ2} +\mu(x)\frac{\partial p(x,t)}{\partial x}

Ce lemme est spécifiquement important car il sert à faire le lien entre l'étude d'équations stochastiques et les équations aux dérivées partielles qui relèvent de l'analyse. Ce lemme permet entre autres d'obtenir les équation de Fokker-Planck en physique et de traiter le mouvement brownien par des équations aux dérivées partielles classiques ou de modéliser les cours de la bourse en Mathématiques financières.

Voir aussi

Liens externes

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Th%C3%A9orie_des_probabilit%C3%A9s.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 10/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu