Mathematics">
VAR Proba
VAR Proba
VAR Proba
Définition 1
Soit Ω un ensemble. On appelle variable aléatoire réelle (VAR) toute application X définie sur Ω
et à valeurs dans R.
Définition 2
Soit X une variable aléatoire définie sur Ω.
— Si X(Ω) est un ensemble dénombrable, on dit que X est une variable aléatoire réelle discrète.
— Si X(Ω) est un ensemble fini, on dit que X est une variable aléatoire réelle finie.
Vocabulaire :
X(Ω) est l’ensemble des valeurs prises par X.
Remarque :
Dans la définition rien n’impose que Ω soit un ensemble dénombrable mais en pratique il le sera
toujours...
Exemple 1:
Un joueur lance deux fois de suite un dé cubique équilibré et note les deux nombres obtenus sous la
forme d’un couple : par exemple si le joueur obtient 2 puis 5, on note son résultat sous la forme (2, 5).
L’univers de notre expérience est Ω = [[1; 6]] × [[1; 6]].
On définit la variable aléatoire réelle discrète X qui, à chaque couple, associe la somme des deux nombres
obtenus. Ici, on a X(Ω) = {2, 3, . . . , 12}. Donc X est une variable aléatoire réelle finie.
Exemple 2:
On effectue une succession de lancers indépendants d’un dé cubique équilibré jusqu’à obtenir 6 pour la
première fois. Soit X le nombre de lancers effectués.
Tel que l’énoncé est posé, on ne sait pas trop comment décrire l’univers de notre expérience mais on
peut tout de même donner très clairement X(Ω).
On a ici X(Ω) = N∗ (tout comme pour l’expérience (2) décrite au chapitre précédent, on ne prend pas
en compte le fait de ne jamais obtenir 6) et donc X est une variable aléatoire réelle discrète infinie.
Définition 3
Soit X une variable aléatoire réelle discrète définie sur Ω.
Pour toute partie J de R, l’ensemble {ω ∈ Ω/X(ω) ∈ J} est un événement que l’on notera [X ∈ J] ou
(X ∈ J).
Cas particuliers :
— Lorsque J = {a}, afin d’alléger les notations, l’événement [X ∈ {a}] = {ω ∈ Ω/X(ω) = a} sera
noté [X = a].
— Lorsque J =] − ∞; a], on note [X 6 a].
— Lorsque J = [a; b[ on note [a 6 X < b].
Définition 4
On appelle loi de probabilité de la variable aléatoire réelle discrète X (ou distribution de X)
l’ensemble des couples (xi , pi ) où :
On note parfois PX l’application définie sur X(Ω) par PX (xi ) = P ([X = xi ]).
Exemple 4:
On reprend le deuxième exemple de ce chapitre : on lance un dé cubique équilibré jusqu’à obtenir 6
pour la première fois et X désigne le nombre de lancers effectués. On souhaite donner la loi de X.
Nous avons vu que X(Ω) = N∗ . Il faut maintenant calculer P (X = xi ) pour chaque élément xi ∈ X(Ω).
Il est impossible de donner une par une ces probabilités car il y en a une infinité à calculer.
On va donc donner une formule pour calculer P (X = n) pour n quelconque dans N∗ .
On commence pour cela par expliciter l’événement [X = n]. Afin de faciliter les explications, on note
Sk l’événement ≪ obtenir 6 au k ième lancer ≫.
On peut alors écrire [X = n] = S1 ∩ . . . ∩ Sn−1 ∩ Sn et comme les événements Sk sont mutuellement
indépendants, on a :
n−1
5 1
P (X = n) = P S1 × . . . × P Sn−1 × P (Sn ) = × .
6 6
n−1
5 1
En conclusion, X(Ω) = N et pour tout n ∈ N , P (X = n) =
∗ ∗
× .
6 6
Propriété 1
La famille d’événements ([X = xi ])i∈I est un système complet d’événements.
X
En particulier on a P (X = xi ) = 1.
i∈I
Exemple 5:
Reprenons l’exemple précédent et vérifions la cohérence de notre résultat.
+∞ +∞ n−1
X X 5 1 1 1
On a P (X = n) = × = × = 1.
n=1 n=1
6 6 6 1 − 65
Notre loi est bien cohérente.
Théorème 1 : Caractérisation de la loi d’une variable aléatoire réelle discrète
Soit {(xi , pi )/i ∈ I} une partie de R2 , où I = N, Z ou une de leurs parties. Si pour tout i ∈ I, pi > 0
X
et si pi = 1, alors il existe un espace probabilisé (Ω, P ) et une VAR discrète X définie sur Ω tels
i∈I
que {(xi , pi )/i ∈ I} est la loi de X.
Conseils méthodologiques : Ce théorème permet, lorsqu’on vous donne des valeurs pour pi et xi ,
de déterminer si ces valeurs sont la loi d’une variable aléatoire réelle discrète.
Exemple 6:
Pour une variable aléatoire réelle X telle que X(Ω) = Z \ {0; −1}, on pose :
1
∀n ∈ Z \ {0; −1}, P (X = n) =
2n(n + 1)
Définition 5
On appelle fonction de répartition de X l’application FX : R 7→ R définie par :
FX (x) = P (X 6 x).
Propriété 2
La fonction de répartition d’une VAR discrète est une fonction en escalier.
Démonstration :
1. Provient de la définition d’une probabilité.
2. Soit x 6 y. Alors on a [X 6 x] ⊂ [X 6 y] et donc P (X 6 x) 6 P (X 6 y),
c’est-à-dire FX (x) 6 FX (y).
✷
Remarque :
Une autre propriété intéressante, mais hors-programme, de la fonction de répartition est que
lim FX (x) = 0 et lim FX (x) = 1.
x→−∞ x→+∞
P (X = xi ) = FX (xi ) − FX (xi−1 ).
Démonstration :
Il faut remarquer que [X 6 xi ] = [X = xi ] ∪ [X 6 xi−1 ]. De plus les événements [X = xi ]
et [X 6 xi−1 ] sont incompatibles donc :
Exemple 8:
Un sac contient 4 boules numérotés de 1 à 4. On tire deux boules avec remise. On note X1 le numéro
de la première boule, X2 le numéro de la seconde boule, et Y le plus grand des deux numéros obtenus.
Déterminons la loi de Y .
On remarque tout d’abord que Y prend les valeurs 1, 2, 3 ou 4, donc Y (Ω) = {1, 2, 3, 4}.
De plus, on remarque qu’il est plus facile de calculer P (Y 6 k) que P (Y = k). Par exemple
Définition 6
Soient X une VAR discrète sur un espace probabilisé (Ω, P ) et g une fonction définie sur X(Ω) à valeurs
dans R. On note g(X) l’application de Ω dans R définie pour tout ω ∈ Ω par
g(X)(ω) = g(X(ω)).
Propriété 4
Soient X une VAR discrète sur un espace probabilisé (Ω, P ) et g une fonction définie sur X(Ω) à valeurs
dans R. Alors Y = g(X) est une VAR discrète définie sur Ω et telle que :
Exemple 9:
Soit X une VAR dont la loi est définie par :
valeur de X -1 1 2
1 1 1
probabilité
4 2 4
Déterminons la loi de Y = 2X + 1 et Z = X 2 .
— Y (Ω) = {−1; 3; 5} et
1
P (Y = −1) = P (X = −1) =
4
1
P (Y = 3) = P (X = 1) =
2
1
P (Y = 5) = P (X = 2) =
4
— Z(Ω) = {1; 4} et
3
P (Z = 1) = P ([X = 1] ∪ [X = −1]) = P (X = 1) + P (X = −1) =
4
1
P (Z = 4) = P (X = 2) =
4
a Espérance
Définition 7
On dit que X admetP une espérance, ou que l’espérance de X existe, lorsque X(Ω) est fini ou
lorsque la série xi P (X = xi ) est absolument convergente.
X
On appelle alors espérance de X, le réel E(X) = xi P (X = xi ).
i∈I
X
E(g(X)) = g(x)P (X = x).
x∈X(Ω)
Exemple 11:
Poursuivons l’exemple précédent et déterminons E(X 2 ).
Une nouvelle fois, le critère de d’Alembert permet rapidement de montrer la convergence absolue de la
X 1 5 n−1
série n2 .
n∈N ∗
6 6
Ainsi, X 2 admet une espérance, et on a :
+∞ n−1 +∞ n−1
5
21 1X 2 5
X
2
E(X ) = n = n .
n=1
6 6 6 n=1
6
Corollaire 1
Si X admet une espérance alors pour tout (a, b) ∈ R2 , aX + b admet une espérance et
E(aX + b) = aE(X) + b.
Remarque :
Cette propriété s’appelle la linéarité de l’espérance.
Remarques :
— Si X n’admet pas d’espérance, X ne peut pas admettre de variance.
— l existe une autre définition de la variance (au programme de TSI 1) : V (X) = E ((X − E(X))2 ).
Les deux définitions sont évidemment égales.
La variance est donc la moyenne du carré de la distance entre les valeurs de X et la moyenne de
X. Ainsi, la variance est une mesure de dispersion de X par rapport à E(X).
Propriété 6
Si X est une VAR discrète admettant une variance alors pour tout (a, b) ∈ R2 , aX + b admet une
variance et
V (aX + b) = a2 V (X).
V (X)
∀ε > 0, P (|X − E(X)| > ε) 6 .
ε2
Démonstration :
Comme X 2 admet une espérance, X admet une variance et une espérance.
On pose X(Ω) = {xi , i ∈ I} et pi = P (X = xi ).
Il est plus facile, pour cette démonstration, d’utiliser la définition de la variance vue en
TSI 1.
On sait que V (X) = E ((X − E(X))2 ). Donc d’après le théorème de transfert :
X
V (X) = E (X − E(X))2 = (xi − E(X))2 pi
i∈I
Et de plus :
X
P (|X − E(X)| > ε) = pj où J = {j ∈ I/|xj − E(X)| > ε}
j∈J
V (X)
P (|X − E(X)| < ε) > 1 − .
ε2
— Cette propriété exprime le fait que la probabilité que X prenne des valeurs situées à une distance
V (X)
supérieure à ε de sa moyenne, est majorée par . On retrouve ici le fait que la variance est une
ε2
mesure de dispersion.
Définition 9
Soit p ∈ [0; 1]. On dit qu’une VAR X suit la loi de Bernoulli de paramètre p si :
X(Ω) = {0; 1}
P (X = 0) = 1 − p et P (X = 1) = p.
On note X ֒→ B(p).
Propriété 7
Si X suit une loi de Bernoulli de paramètre p alors
Un VAR qui suit une loi binomiale est une VAR qui ≪ compte le nombre de réalisation d’un événement
A de probabilité p au cours de n expériences identiques. ≫
Exemple 14:
On procède à n lancers d’un dé équilibré dont les 6 faces sont numérotées de 1 à 6. On note X la
variable aléatoire égale au nombre de fois où l’on obtient un numéro inférieur à 2. Quelle est la loi de X ?
1
On note A l’événement ≪ obtenir un nombre inférieur à 2 ≫. On a ici P (A) = .
3
X compte le nombre de réalisation de l’événement A au cours de n expériences identiques (donc
1
indépendantes...). X suit donc la loi binomiale de paramètres n et . On a donc :
3
k n−k
n 1 2
X(Ω) = [[0; n]] et ∀k ∈ [[0; n]], P (X = k) = ×
k 3 3
Conseils méthodologiques :
Pour justifier qu’une variable aléatoire donnée suit une binomiale, plusieurs ≪ mots-clés ≫ sont
nécessaires :
— une succession de n expériences ;
— les expériences doivent être identiques et indépendantes ;
— X doit désigner le nombre de fois où un événement A de probabilité p est réalisé.
Si ces trois points sont vérifiés, vous pouvez affirmer sans calculs que X suit la loi binomiale de
paramètres n et p.
Propriété 8
Soit X une VAR qui suit la loi B(n, p). Alors on a :
c Loi uniforme
Définition 11
Soit n ∈ N∗ . On dit que X suit la loi uniforme sur [[1; n]] si :
Remarque :
Lorsque X suit une loi uniforme, tous les événements [X = k] sont équiprobables. On peut ainsi étendre
cette notion de loi uniforme sur n’importe quel ensemble fini.
n+1 n2 − 1
E(X) = et V (X) = .
2 12
Démonstration :
n n
X X 1 1 n(n + 1) n+1
— E(X) = kP (X = k) = k×
= × =
k=1 k=1
n n 2 2
2 2
— On sait que V (X) = E(X ) − E(X) .
n n
X
2
X 1 1 n(n + 1)(2n + 1)
2
Or E(X ) = k P (X = k) = k2 × = × =
k=1 k=1
n n 6
(n + 1)(2n + 1)
6
(n + 1)(2n + 1) (n + 1)2 n2 − 1
Donc V (X) = − = .
6 4 12
✷
a Loi géométrique (ou loi d’attente d’un premier succès dans un processus sans
mémoire)
Mise en place :
On considère une expérience aléatoire e et un événement A lié à e tel que P (A) = p. On répète
l’expérience e dans des conditions identiques (les expériences sont indépendantes) et on appelle X le
nombre d’épreuves effectuées jusqu’à ce que A soit réalisé pour la première fois.
On note Ai l’événement ≪ A est réalisé a cours de la ieme expérience ≫.
Soit R l’événement ≪ A ne réalise jamais ≫. On peut montrer que P (R) = 0.
On peut donc considérer que X prend ses valeurs dans N∗ .
De plus pour tout k ∈ N∗ ,
Définition 12
Soit p ∈]0; 1[. On dit qu’une VAR X suit la loi géométrique de paramètre p si :
X(Ω) = N∗
∀k ∈ N∗ , P (X = k) = (1 − p)k−1 p.
On note X ֒→ G (p).
Exemple 15:
L’exemple que nous suivons depuis le début de ce chapitre est un exemple de loi géométrique.
En effet, X désignait le rang d’apparition pour la première fois de l’événement ≪ obtenir un 6 ≫(qui
1
est de probabilité ) au cours d’une succession illimitée d’expériences identiques et indépendantes.
6
1
Sans aucun calcul vous pouvez maintenant affirmer que X suit la loi géométrique de paramètre .
6
Conseils méthodologiques :
Pour justifier qu’une variable aléatoire donnée suit une loi géométrique, plusieurs ≪ mots-clés ≫ sont
nécessaires :
— une succession illimitée d’expériences ;
— les expériences doivent être identiques et indépendantes ;
— X doit désigner le rang d’apparition pour la première fois d’un événement A de probabilité p.
Si ces trois points sont vérifiés, vous pouvez affirmer sans calculs que X suit la loi géométrique de
paramètre p.
Propriété 10
Soit X une VAR qui suit la loi géométrique G (p). Alors X admet une espérance et une variance, et :
1 1−p
E(X) = et V (X) = .
p p2
Démonstration :
— Sous réserve de convergence absolue de la série utilisée, on sait que
+∞
X +∞
X +∞
X
E(X) = nP (X = n) = n(1 − p)n−1 p = p n(1 − p)n−1
n=1 n=1 n=1
A l’aide du critère de D’Alembert on montre facilement que cette série est absolument convergente
car (1 − p) ∈]0; 1[. X admet bien une espérance.
+∞
1 X
On sait que pour tout x ∈] − 1; 1[, = xn .
1 − x n=0
+∞
1 X
D’après le théorème de dérivation terme à terme des séries entières, on a donc 2
= nxn−1 .
(1 − x) n=1
1 1
On en déduit donc que E(X) = p × = .
(1 − (1 − p))2 p
2
— Calculons tout d’abord E(X ) (en montrant en même temps son existence). Sous réserve de conver-
gence absolue de la série utilisée, on sait que
+∞
X +∞
X +∞
X
2 2 2 n−1
E(X ) = n P (X = n) = n (1 − p) p = p n2 (1 − p)n−1
n=1 n=1 n=1
A l’aide du critère de D’Alembert on montre facilement que cette série est absolument convergente
car (1 − p) ∈]0; 1[. X 2 admet bien une espérance, ce qui signifie que X admet une variance.
2−p
On a donc E(X 2 ) = p .
p3
2−p 1 p − p2 1−p
On en déduit ainsi que V (X) = E(X 2 ) − E(X)2 = p 3
− 2
= 3
= .
p p p p2
✷
b Loi de Poisson
Définition 13
Soit λ > 0. On dit qu’une VAR X suit une loi de Poisson de paramètre λ si :
e−λ λn
X(Ω) = N et ∀n ∈ N, P (X = n) = .
n!
On note X ֒→ P(λ).
On ne dispose pas ici d’une situation concrète simple pour illustrer la loi de Poisson. Une variable
aléatoire qui suit une loi de Poisson sera toujours introduite sous la forme ≪ soit X une VAR qui suit une
loi de Poisson. ≫
Propriété 11
Soit X une VAR qui suit la loi P(λ). Alors X admet une espérance et une variance, et on a :
E(X) = λ et V (X) = λ.
Démonstration :
— Sous réserve de convergence absolue de la série utilisée, on sait que
+∞ +∞ +∞ +∞
X X λn X λn X λn−1
E(X) = nP (X = n) = ne−λ = e−λ = e−λ λ .
n=0 n=0
n! n=1
(n − 1)! n=1
(n − 1)!
On reconnait le développement en série entière de la fonction exponentielle donc la série est abso-
lument convergente. Ainsi E(X) existe et
Théorème 5
Soit λ un réel strictement positif et (Xn )n∈N une suite de VAR discrètes telles que Xn suit la loi
binomiale de paramètre (n, pn ).
λk
Si lim npn = λ alors pour tout k ∈ N, on a : lim P (Xn = k) = e−λ
n→+∞ n→+∞ k!
On dit que la suite (Xn )n∈N converge en loi vers une VAR qui suit la loi de Poisson. (vocabulaire
hors-programme)
En pratique :
On considère que lorsque n > 50, p 6 0, 1 et np 6 15, on peut approcher la loi B(n, p) par la loi
P(np). On dit que la loi de Poisson est la loi des événements rares (elle approche le tirage de n boules
avec remise dans une urne contenant des boules blanche en proportion égale à p qui est faible).
Exemple 17:
Soit X une variable aléatoire suivant
la loi binomiale B(100; 0, 05). Nous allons calculer P (X = 2).
100
— Calcul exact : P (X = 2) = (0, 05)2(0, 95)98 ≈ 0, 0812
2
— Calcul approché : on approche la loi B(100; 0, 05) par la loi P(5)
52 −5
P (X = 2) ≈ e ≈ 0, 0843
2!
Remarque :
Dans l’exemple ci-dessus, aucun problème pour faire le calcul exact. Mais si on augmente encore la
valeur de n et de k (pour le calcul de P (X = k)), le calcul des coefficients binomiaux devient très lourd et
c’est pourquoi la loi de Poisson est parfois plus facile à manipuler.