Poly Proba Seddoug 2024
Poly Proba Seddoug 2024
Poly Proba Seddoug 2024
Par B. SEDDOUG
1.1.1 Tribus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Espaces L p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1
1.2.6 Complétude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
page 2
Table des matières
2.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3 Théorèmes limites 70
page 3
Programme
Calcul intégral
— Définition des espaces mesurables, tribu produit, cas particulier des tribus
boréliennes.
— Définition d’une mesure positive, cas particuliers de la mesure de comptage, de
la mesure de Lebesgue (construction admise) et des mesures de probabilité.
— Définition d’une mesure produit (construction admise).
— Définition des fonctions mesurables, approximation par des fonctions étagées.
(b) Intégration
Probabilités
4
Table des matières
— Loi d’une variable aléatoire : loi discrète et loi absolument continue. Fonction
de répartition et densité.
— Exemples de variables aléatoires : variable de BERNOULLI, binomiale, de POIS-
SON, uniforme, exponentielle, de GAUSS.
— Espérance et variance d’une variable aléatoire à valeurs réelles, théorème de
transfert.
— Inégalité de MARKOV, inégalité de BIENAYMÉ-TCHEBYCHEV.
— Indépendance de variables aléatoires. Loi conditionnelle d’une variable par
rapport à une autre.
— Transformations exponentielles de lois : fonction caractéristique, transformée
de LAPLACE, fonction génératrice. Liens avec l’indépendance et la convolution,
application aux sommes de variables aléatoires indépendantes.
page 5
Chapitre 1
Dans la suite, on utilisera un ensemble Ω que l’on appellera "univers". En probabilité c’est
l’ensemble des issues d’une expérience aléatoire : il contient tous les aléas possibles.
Dans cette première section, on rappelle les principales notions et les principaux résultats
de la théorie d’intégrales de Lebesgues.
1.1.1 Tribus
Définition 1.1 Une famille A de parties de Ω est une tribu (sur Ω) si elle vérifie
(i) Ω ∈ A
(ii) A ∈ A ⇒ A c ∈ A (stabilité par passage au complémentaire), A c := {x ∈ Ω : x ∉ A}
(iii) A 0 , A 1 , A 2 , · · · ∈ A ⇒ ∪n≥0 A n ∈ A (une réunion dénombrable d’éléments de A est dans
A ).
Si A est une tribu sur Ω , on dit que (Ω, A ) est un espace mesurable.
Remarque 1.1 (Stabilité par intersection dénombrable) Si A est une tribu et (A n )n∈N une
suite d’éléments de A , alors ∩ A n ∈ A .
n≥0
Exemple 1.1 (a) Pour n’importe quel ensemble Ω, A = {∅, Ω} est une tribu.
(b) Pour n’importe quel ensemble Ω, A = P (Ω) (les parties de Ω) est une tribu.
Remarque 1.2 Il est facile de vérifier que toute intersection de tribus est une tribu. Celà
permet de définir la notion de tribu engendrée par une partie de Ω :
6
Généralités sur les espaces probabilisés
Proposition 1.1 Soit A ⊂ P (Ω), il existe une tribu notée σ(A ) , et appelée tribu engendrée
par A , telle que si B est une tribu telle que A ⊂ B alors σ(A ) ⊂ B.
A = {]a, b[: a ≤ b ∈ R}
(c’est l’ensemble des intervalles ouverts). La tribu σ(A ) s’appelle la tribu des boréliens et
se note B(R).
Exemple 1.2 Soit [a, b] intervalle fermé de R. Les intervalles ]−∞, a[=
[
]a−n, a[, ]b, +∞[=
n∈N
]b, b + n[ sont dans B(R). La famille B(R) est une tribu donc ] − ∞, a[∪]b, +∞[∈ B(R)
[
n∈N
(stabilité par réunion dénombrable), et donc aussi (] − ∞, a[∪]b, +∞[)c = [a, b] ∈ B(R) (sta-
bilité par passage au complémentaire).
De même, on peut montrer que tous les intervalles de R sont dans B(R), ainsi que tous les
singletons.
Exercice 1.1 Montrer que B(R) est aussi engendrée par la famille des intervalles ]−∞, a] tel
que a ∈ R. Même chose pour tout les types d’intervalles.
Proposition 1.2 (Tribu engendrée par une application) Soient Ω un ensemble non vide
et (Ω′ , A ′ ) un espace mesurable, et f : Ω −→ Ω′ . f −1 A ′ := f −1 (Y ) | Y ∈ A ′ est une tribu
¡ ¢ © ª
Définition 1.3 Soient (Ω, A ), (Ω′ , A ′ ) deux espaces mesurables. On dit qu’une application
f : Ω −→ Ω′ est mesurable (par rapport aux tribus A , A ′ ) si ∀B ∈ A ′ , f −1 (B ) ∈ A .
Remarque 1.4 On verra plus loin dans ce cours que si f : (Ω, A ) −→ (R, B (R)) . Alors f est
mesurable si et seulement si pour tout a ∈ R, f −1 (]−∞, a]) ∈ A .
Exercice 1.2 (a) Montrer que si f : (Ω, A ) −→ (Ω′ , P (Ω′ )) est telle que f (Ω) est au plus
dénombrable alors f est mesurable si et seulement si ∀b ∈ Ω′ , f −1 ({b}) ∈ A .
page 7
Mesure et Intégration
(b) Montrer que toute fonction f : R −→ R continue par morceaux est mesurable.
Proposition 1.3 (Propriétés des applications mesurables) Soient (Ω, A ), (Ω′ , A ′ ) et (Ω′′ , A ′′ )
des espaces mesurables, R étant muni de sa tribu B(R).
1.1.3 Mesures
Dans le calcul des mesures, on adopte les conventions de calcul suivantes (qui ne sont pas
valables ailleurs) :
Définition 1.4 Soit Ω un ensemble muni d’une tribu A . On appelle mesure (positive) sur
(Ω, A ) toute application µ : A −→ [0, +∞] (elle peut prendre la valeur ∞) telle que :
(i) µ(∅) = 0
(ii) si A 0 , A 1 , A 2 , · · · ∈ A et sont deux à deux disjoints alors µ( ∪ A n ) = µ(A n ) (égalité
X
n≥0 n≥0
dans [0, +∞] ).
Quand µ est telle que µ (Ω) < ∞, on dit que µ est une mesure finie. Quand on a un ensemble
Ω avec une tribu A sur Ω, on dit que (Ω, A ) est un espace mesurable. Si on a de plus, une
mesure µ sur (Ω, A ), on dit que Ω, A , µ est un espace mesuré.
¡ ¢
Remarque 1.5 La condition µ(∅) = 0 permet d’éviter le cas de mesure constante égale à +∞ .
page 8
Généralités sur les espaces probabilisés
(a) Soit A, B ∈ A . Si B ⊂ A alors µ(B ) ≤ µ(A) ; si, de plus µ(A) < +∞, alors µ(A ∖ B ) =
µ(A) − µ(B ).
(b) Si A 0 , A 1 , A 2 , · · · ∈ A (pas forcément deux à deux disjoints). Alors
µ( ∪ A n ) ≤ µ(A n ) (sous-additivité).
X
n≥0 n≥0
µ( ∪ A k ) = lim µ(A n ) ,
k≥0 n−→∞
µ( ∩ A k ) = lim µ(A n ) ,
k≥0 n−→+∞
Exemple 1.3 (Mesure de comptage et Mesure discrète) Le triplet (N, P (N), card) est un es-
pace mesuré. En général, (Ω, P (Ω), card) est un espace mesuré.
De manière plus générale, si (ωn )n∈N une suite injective d’éléments de Ω et (αn )n∈N une
suite de nombres réels positifs, alors l’application qui à tout évènement A ∈ A , fait corres-
pondre la valeur
µ (A) = αn ,
X
n|ωn ∈A
est une mesure sur (Ω, A ) (dite mesure discrète portée par les éléments ωn pondérés par
les poids αn ).
Remarque 1.6 La sommation précédente est faite sur un ensemble au plus dénombrable
et les nombres αn sont positifs. Il n’y a donc aucune ambiguïté dans cette définition. Il est
commode de noter cette mesure discrète :
µ= αn εωn .
X
n≥1
Remarque 1.7 Toute mesure de probabilité sur un espace Ω fini ou dénombrable est discrète.
Cependant on peut toujours munir un espace (Ω, A ), où Ω a la puissance du continu, d’une
mesure de probabilité discrète.
page 9
Mesure et Intégration
Exemple 1.4 Par exemple, si λ > 0, on peut munir (R, B (R)) de la mesure discrète :
+∞ e −λ λn
πλ = εn .
X
n=0 n!
Cette mesure est appelée loi de Poisson de paramètre λ. Ce sont les entiers positifs qui
portent toute la masse. On dit que N est le support de la mesure.
Le problème de la construction générale d’une mesure sur un espace mesurable (Ω, A ) est
délicat ; on ne peut pas toujours définir directement une mesure en donnant une formule
explicite pour calculer la mesure de tout mesurable. On ne peut parfois donner une telle
formule que pour certaines parties de Ω.
Le problème de l’existence d’un prolongement d’une application définie sur une partie U
de P (Ω) en une mesure sur σ(U ) fait l’objet du théorème de prolongement de Carathéo-
dory dont on donne une version simplifiée.
Définition 1.5 (anneau et algèbre d’ensemble) On appelle anneau d’ensemble (ou an-
neau booléen) sur Ω, toute partie non vide R de P (Ω), stable par réunion et différence.
Une tribu est donc une algèbre stable par la réunion dénombrable, on dit aussi sigma
algèbre.
Définition 1.6 Soit (Ω, A , µ) un espace mesuré. On dit que la mesure µ est σ-finie si Ω est
la réunion dénombrable d’ensembles de mesure finie.
Remarque 1.8 La notion de mesure σ-finie est notamment utile pour construire la mesure
produit de deux mesures.
Théorème 1.1 (Carathéodory) Toute mesure sur un anneau d’ensembles admet au moins
un prolongement à la tribu engendrée par cet anneau.
Exemple 1.6 (Mesure de Lebesgue sur R) Il existe une mesure λ sur (R, B (R)) vérifiant :
page 10
Généralités sur les espaces probabilisés
Par exemple : λ ([a, b]) = λ ([a, b[) = λ (]a, b]) = b − a , λ ({a}) = 0 , λ (Q) = 0.
Pour des détails sur les tribus produit et les mesures produit, voir [1]. Ci-dessus, le théorème
qui précise l’existence de la mesure de Lebesgue dans R2 et donc en général dans Rn .
A1 ⊗ A2 := σ({A 1 × A 2 | (A 1 , A 2 ) ∈ A1 × A2 }
Si µ1 est une mesure sur (Ω1 , A1 ) et µ2 est une mesure sur (Ω2 , A2 ), on souhaite définir une
mesure produit µ1 ⊗ µ2 , qui vérifie la propriété suivante :
∀(A 1 , A 2 ) ∈ A1 × A2 , µ1 ⊗ µ2 (A 1 × A 2 ) = µ1 (A 1 )µ2 (A 2 ).
Lorsque les mesures µ1 et µ2 sont σ-finies, il existe une unique mesure vérifiant cette
propriété :
∀(A 1 , A 2 ) ∈ A1 × A2 , µ1 ⊗ µ2 (A 1 × A 2 ) = µ1 (A 1 )µ2 (A 2 ).
Exemple 1.7 (Mesure de Lebesgue sur R2 ) Soit λ la mesure de Lebesgue sur (R, B (R)). Il
existe une mesure positive unique sur R2 , B R2 , notée aussi λ appelée mesure de Le-
¡ ¡ ¢¢
∀B 1 , B 2 ∈ B (R) : λ (B 1 × B 2 ) = λ (B 1 ) λ (B 2 ) .
page 11
Mesure et Intégration
Définition 1.7 Soit µ mesure sur (R, B(R)) telle que µ(R) < +∞. On définit la fonction de
répartition de µ par :
F µ : R −→ [0, +∞[
x 7→ F µ (x) = µ(] − ∞, x]) .
Proposition 1.5 Soit µ mesure sur (R, B(R)) telle que µ(R) < +∞. La fonction F µ est crois-
sante, càdlàg (continue à droite avec une limite à gauche),
Preuve: Soient x ≤ y. Nous avons ]−∞, x] ⊂]−∞, y] donc, F µ (x) = µ(]−∞, x]) ≤ µ(]−∞, y]) =
F µ (y). Soit x ∈ R et (u n )n≥0 suite de R telle que u n ≥ x et u n ≥ u n+1 , ∀n et lim u n = x.
n−→+∞
Pour tout n, ]−∞, u n+1 ] ⊂]−∞, u n ], ∩ ]−∞, u n ] =]−∞, x] et µ(]−∞, u 0 ]) ≤ µ(R) < ∞, donc,
n≥0
lim µ(] − ∞, u n ]) = µ( ∩ ] − ∞, u n ]) = µ(] − ∞, x]). En d’autres termes : lim F µ (u n ) =
n−→+∞ n≥0 n−→+∞
F (x). Ceci prouve que F est continue à droite.
Soit x ∈ R et (u n )n≥0 suite de R telle que u n < x et u n ≤ u n+1 , ∀n et lim u n = x. Pour tout
n−→+∞
n, ] − ∞, u n+1 ] ⊃] − ∞, u n ], ∪ ] − ∞, u n ] =] − ∞, x[, donc lim F (u n ) = µ(] − ∞, x[). Ceci
n≥0 n−→+∞
prouve que F µ a une limite à gauche (égale à µ(] − ∞, x[)).
Remarque 1.9 Dans la proposition précédente, la limite à gauche en x de F µ est µ(] − ∞, x[)
et F µ (x) = µ(] − ∞, x]). Par comparaison, µ(] − ∞, x]) − µ(] − ∞, x[) = µ({x}). Donc F µ (x) =
µ(] − ∞, x[) si et seulement si µ({x}) = 0 si et seulement si F µ est continue en x .
Définition 1.8 Soit f : Ω −→ R+ . On dit que f est étagée (positive) s’il existe une famille
finie A 1 , . . . , A n de A telle que
(i) les A i forment une partition de Ω (ce qui veut dire que A 1 , . . . , A n sont deux à deux
disjoints et que Ω = ∪ A i )
1≤i ≤n
(ii) ∀i ∈ {1, . . . n}, ∃a i tel que f (x) = a i , ∀x ∈ A i .
page 12
Généralités sur les espaces probabilisés
Remarque 1.10 Si f est une fonction étagée définie avec une partition A 1 , . . . , A n , il peut
exister une autre partition B 1 , . . . , B m (différente de A 1 , . . . , A n ) telle que f est constante sur
chacun des B i .
1 A : Ω −→ {0, 1}
1 si x ∈ A
x 7→
0 si x ∉ A .
Il existe d’autres notations. Par exemple si A = [0, 1] ⊂ R, on peut écrire 1 A (x) = 1x∈[0,1] =
10≤x≤1 .
Définition 1.10 Soit f une fonction positive étagée associée à une partition
Z A 1 , . . . , A n (avec
f (x) = a i si x ∈ A i ). On appelle intégrale de f par rapport à µ, noté f (x)dµ(x)
Ω
Z n
a i µ(A i ) .
X
f (x)dµ(x) :=
Ω i =1
Z
Ce nombre peut être +∞. La valeur de f (x)dµ(x) étant indépendante de la partition
Ω
associée à f .
Z
Une fonction positive étagée f est dite intégrable si f (x)dµ(x) < +∞.
Ω
n
Exemple 1.8 (Cas de mesure discrète) Si la mesure µ = αk εωk et f =
X X
a i 1 A i , alors
k≥1 k=1
Z
f ωj αj .
X ¡ ¢
f (x)dµ(x) =
Ω j ≥1
n n n
a i µ(A i ) = αj = f ω j α j (ces égalités sont dans [0, +∞]).
X X X X X ¡ ¢
En effet : ai
i =1 i =1 j |ω j ∈A i i =1 j |ω j ∈A i
En posant
βi , j = α j f (ω j ) si ω j ∈ A i et 0 si non
on peut écrire
n n X
f ωj αj = βi , j
X X ¡ ¢ X
i =1 j |ω j ∈A i i =1 j ≥1
et grâce à Fubini-Tonelli,
n X n
βi , j = βi , j = f ωj αj
X XX X ¡ ¢
i =1 j ≥1 j ≥1 i =1 j ≥1
page 13
Mesure et Intégration
Exemple 1.9 Dans le cas (N, P (N) , card) toute suite nulle à partir d’un certain rang est
étagée intégrable.
Définition 1.11 Soit Ω, A , µ un espace mesuré. Si f : Ω −→ [0, +∞] est mesurable (par
¡ ¢
rapport aux tribus A et B(R)) positive, l’intégrale de f sur Ω par rapport à la mesure µ est
définie par Z Z
f (x)dµ(x) := sup φ(x)dµ(x) ( sup dans [0, +∞] ),
Ω φ∈E ( f ) Ω
Pour B ∈ A , on note Z Z
f (x)dµ(x) = f (x)1B (x)dµ(x) .
B Ω
Z
Une fonction mesurable positive f est dite intégrable si f (x)dµ(x) < ∞.
Ω
Z Z
(a) Croissance : Si f ≤ g alors f (x)dµ(x) ≤ g (x)dµ(x).
Ω Ω
(b) Comparaison : Si f ≤ g et g est intégrable alors f est intégrable.
(c) Linéarité : Si f et g sont intégables et a ≥ 0 alors f + g et a f sont aussi intégrables et
on a : Z Z Z
f (x) + g (x)dµ(x) = f (x)dµ(x) + g (x)dµ(x)
Ω Ω Ω
et Z Z
a f (x)dµ(x) = a f (x)dµ(x).
Ω Ω
Proposition 1.7 (Inégalité de Markov) Soient f une fonction positive mesurable sur Ω, A , µ ,
¡ ¢
page 14
Généralités sur les espaces probabilisés
La fonction a1{y: f (y)≥a} est une fonction étagée et on calcule son intégrale :
Z
a1{y: f (y)≥a} (x)dµ(x) = a × µ({y : f (y) ≥ a}) + 0 × µ({y : f (y) < a}) = a × µ({y : f (y) ≥ a}).
Ω
x ∈ Ω : f (x) = +∞ = x ∈ Ω : f (x) ≥ n
© ª \© ª
n∈N
µ ¶
1
Z
et µ x ∈ Ω : f (x) ≥ n
\© ª
≤ f (x)dµ(x) −→ 0 , on a
n∈N n Ω n−→∞
mesurables positives :
f (x) si f (x) ≥ 0
f + (x) =
0 sinon
0 si f (x) ≥ 0
f − (x) =
− f (x) sinon.
Définition 1.12 Une fonction f mesurable sur un espace mesuré Ω, A , µ est dite inté-
¡ ¢
Remarque 1.11 (a) La définition ci-dessus peut être étendue aux fonctions mesurable à
valeur complexe, par les parties réelles et imaginaires.
(b) Les propriétés de linéarité et croissance restent valides, en plus, on a l’inégalité triangu-
page 15
Mesure et Intégration
laire : ¯Z ¯ Z
¯ ¯
¯ f (x)dµ(x)¯ ≤ | f (x)|dµ(x)
Ω Ω
¯ ¯
est A1 -mesurable ;
— Pour tout y ∈ Ω2 , la fonction x 7→ f (x, y) est A1 -mesurable et la fonction
Z
y 7→ f (x, y)dµ1 (x)
Ω1
est A2 -mesurable .
En outre on a,
Z Z µZ ¶ Z µZ ¶
f d µ1 ⊗ µ2 =
¡ ¢
f (x, y)dµ2 (y) dµ1 (x) = f (x, y)dµ1 (x) dµ2 (y)
Ω1 ×Ω2 Ω1 Ω2 Ω2 Ω1
égalités dans [0, +∞] . En plus f est intégrable si et seulement si l’une des trois quantités
est finie.
En outre on a,
Z Z µZ ¶ Z µZ ¶
f d µ1 ⊗ µ2 =
¡ ¢
f dµ2 dµ1 = f dµ1 dµ2 .
Ω1 ×Ω2 Ω1 Ω2 Ω2 Ω1
page 16
Généralités sur les espaces probabilisés
Remarque 1.12 Pour montrer l’intégrabilité d’une fonction f définie sur Ω1 × Ω2 , on ap-
plique le théorème de Tonelli à | f | : la fonction
Z µZ f est intégrable
¶ µZ la mesure¶ µ1 ⊗ µ2 , si et
Zpour
¯ ¯ ¯ ¯
seulement si, l’une des deux intégrales ¯ f ¯ dµ2 dµ1 et ¯ f ¯ dµ1 dµ2 est finie.
Ω1 Ω2 Ω2 Ω1
Pour plus de détails sur les tribus produit et les mesures produit, théorème de Fubini et
autres, voir [1].
Remarque 1.13 Soit f : Ω −→ R une fonction mesurable. Elle est dite µ-presque partout
nulle si ∃A ∈ A négligeable tel que x ∈ A c =⇒ f (x) = 0. On dira aussi que f est : presque
partout nulle, µ-presque sûrement nulle, presque sûrement nulle, p.p. nulle, p.s. nulle...
Z
Exemple 1.10 On a vu que si f (x)dµ(x) < +∞ alors f est finie presque partout.
Ω
Proposition 1.8 Soit Ω, A , µ un espace mesuré et f , g fonctions mesurables sur cet es-
¡ ¢
pace.
Z
(a) Si f est p.p. nulle alors f (x)dµ(x) = 0. Et la réciproque est vraie pour f ≥ 0.
Ω Z
(b) Si A ∈ A est négligeable alors f (x)dµ(x) = 0.
Z A Z
théorie de Lebesgue.
page 17
Mesure et Intégration
Théorème 1.5 (convergence monotone) Soit ( f n )n≥0 : Ω −→ R+ une suite croissante (c’est
à dire que ∀x, ∀n, f n (x) ≤ f n+1 (x)) de fonctions mesurables positives convergeant presque
sûrement vers une fonction f . Alors
Z Z
lim f n (x)dµ(x) = f (x)dµ(x) .
n−→+∞ Ω Ω
1
Exemple 1.11 Soit l’espace mesuré (N, P (N), card). Soit f (k) = et pour tout n ≥ 0,
(k + 1)2
1
f n (k) = 1k≤n . Pour tout k, f n (k) ↗ f (k).
(k + 1)2 n−→+∞
Fixons n ≥ 0, la fonction f n est étagée et son intégrale vaut
1 1
Z
f n (x)card(d x) = × card({0}) + 2 × card({1}) + . . .
N 1 2
1
···+ × card({n}) + 0 × card({n + 1, n + 2, . . . })
(n + 1)2
Xn 1
= 2
.
k=0 (k + 1)
et donc Z +∞
X 1
f (x)card(d x) = 2
.
N k=0 (k + 1)
et donc, pour l’espace mesuré (N, P (N), card), calculer une intégrale d’une fonction positive
revient à faire la somme d’une série.
Remarque 1.15 (cas de mesure discrète) Plus généralement, pour µ = αk εωk , une me-
X
k∈I
sure discrète sur Ω , on a : Z
αk f (ωk );
X
f dµ =
Ω k∈I
à condition que f soit mesurable positive ou intégrable par rapport à µ, c’est à dire que la
famille (αk f (ωk ))k∈I soit sommable.
Théorème 1.6 (Lemme de Fatou) Soit ( f n )n≥0 : Ω −→ R+ une suite de fonctions mesu-
page 18
Généralités sur les espaces probabilisés
Z Z
f d µ ≤ lim inf fn d µ
Ω n−→+∞ Ω
Théorème 1.7 (convergence dominée) Soit ( f n )n≥0 : Ω −→ R une suite de fonctions mesu-
rables. Si :
alors
Z
— | f (x)|dµ(x) < ∞
Ω Z
— lim | f n (x) − f (x)|dµ(x) = 0 .
n−→+∞ Ω
Corollaire 1.1 Si pour tout k ∈ N la suite u n,k n converge et il existe (v k ) tel que la série
¡ ¢
X ¯ ¯
v k converge et ¯u n,k ¯ ≤ v k pour tout n, k alors
k
+∞
X +∞
X
lim u n,k = lim u n,k < +∞.
n−→+∞ n−→+∞
k=0 k=0
¯ ¯ ¯ ¯ ¯ ¯
¯ +∞ +∞
X ¯¯ ¯¯ X K K ¯ ¯ +∞ +∞ ¯
¯X X ¯ ¯ X X
u n,k − uk ¯ ≤ ¯ u n,k − uk ¯ + ¯ u n,k − uk ¯
¯
¯
¯k=0 k=0
¯ ¯ k=0 k=0
¯ ¯ k=K +1 k=K +1
¯
+∞
≤ ε+2
X
v k ≤ 3ε
k=K +1
page 19
Mesure et Intégration
L’intégrale que nous venons de définir s’appelle l’intégrale de Lebesgue. Dans le cas de
(R, B(R), λ), l’intégrale de Lebesgue sur un intervalle [a, b] est donnée par
Z Z
f (x)λ(d x) := f (x)1[a,b] (x)λ(d x) .
[a,b] R
avec la convention que si F n’est pas définie en a (et pareil en b), par exemple parce que
a = −∞, alors F (a) = lim F (x), l’intégrale de Riemann n’est définie que si F (a) et
x−→a,x∈[a,b]
F (b) sont finis.
Dans le cas où f a une intégrale de Riemann, nous avons l’égalité suivante entre les deux
types d’intégrales si a ≤ b
Z Z b
f (x)λ(d x) = f (x)d x .
[a,b] a
Remarque 1.17 On verra plus loin dans ce cours, on verra aussi que la fonction indicatrice
de Q , est Lebesgue-intégrable, d’intégrale nulle, mais n’est Riemann-intégrable sur aucun
segment de R .
On dit que f : [a, b] −→ R est intégrable au sens de Riemann si pour tout ε > 0, il existe deux
fonctions en escaliers sur [a, b] g et h telles que
Z b
g ≤ f ≤ h et |h(t ) − g (t )|d t ≤ ε,
a
En particulier, toute fonction Riemann intégrable sur un segment y est bornée. Quitte à
considérer max(g , α) à la place de g et min(h, β) à la place de h, où α = inf( f ) et β = sup( f ),
on peut supposer que
Z b
α ≤ g ≤ f ≤ h ≤ β et |h(t ) − g (t )|d t ≤ ε.
a
page 20
Généralités sur les espaces probabilisés
Soit alors f : [a, b] −→ R est intégrable au sens de Riemann, on pose α = inf( f ) et β = sup( f ).
Pour tout n ∈ N il existe g n , h n en escaliers sur [a, b] telles que
Z b 1
α ≤ g n ≤ f ≤ h n ≤ β et |h n (t ) − g n (t )|d t ≤ ,
a 2n
XZ b
de sorte que la série numérique |h n (t ) − g n (t )|d t soit convergente.
a
D’une part, toute fonction en escaliers est mesurable intégrable sur [a, b] au sens de Le-
besgue et les deux intégrales de Lebesgue et Riemann coïncident.
X
D’autre part, par le théorème de convergence monotone, la série de fonctions |h n − g n |
converge p.s et sa somme est une fonction intégrable. Par conséquent, la suite de fonctions
(|h n − g n |)n converge p.s vers 0, donc (h n )n converge p.s vers f . Ce qui implique que f est
mesurable.
Par ailleurs, si on pose M = max(|α|, |β|), la fonction constante égale à M étant intégrable
au sens de Lebesgue sur le segment [a, b] et on a |h n | ≤ M pour tout n, donc par le Théorème
de Convergence Dominée, f est Lebesgue intégrable et
Z Z Z b Z b
f dλ = lim h n dλ = lim h n (t )dt = f (t )dt
[a,b] n→∞ [a,b] n→∞ a a
1.2 Espaces L p
Dans cette section, K désigne R ou C, les fonctions considérées sont définies sur un espace
mesuré (Ω, A , µ)) à valeur dans R ∪ {−∞, +∞} ou C ou même dans un K-espace vectoriel
normé de dimension finie.
Définition 1.15 Soit p ≥ 1. On note L p (Ω, A , µ) (ou simplement L p (Ω)) l’ensemble des
fonctions mesurables sur Ω telles que | f |p est intégrable. On introduit la relation d’équiva-
lence
f ∼ g ⇔ f = g µ presque partout.
page 21
Espaces L p
Définition 1.16 On note L ∞ (Ω, A , µ) (ou simplement L ∞ (Ω)) l’ensemble des fonctions
mesurables sur Ω telles que | f | coïncide presque partout avec une fonction bornée. L’en-
semble des classes d’équivalence est noté L ∞ (Ω, A , µ) (ou simplement L ∞ (Ω)). Pour f ∈
L ∞ (Ω), on note
Remarque 1.18 (Cas de mesure de comptage) Dans le cas de l’espace mesuré (N, P (N)) et
la mesure card, L p (N) et L p (N) coïncident avec ℓp (N) où
Le but de cette section est de montrer que L p (Ω) et L p (Ω) sont des espaces vectoriels et
que ∥ · ∥p est une norme sur L p (Ω), pour p ∈ [1, ∞].
Proposition 1.9 L ∞ (Ω) et L ∞ (Ω) sont des espaces vectoriels en plus (L ∞ (Ω); ∥.∥∞ ) est un
espace de Banach.
Preuve: Seule la complétude de (L ∞ (Ω); ∥.∥∞ ) mérite d’être détaillée. Soit ( f n )n une suite de
Cauchy dans (L ∞ (Ω); ∥.∥∞ ) . On note Ωn = Ω \ D n l’ensemble sur lequel f n est bornée, avec
D n négligeable, et on pose D = D n . Pour chaque x ∈ Ω \ D, la suite ( f n (x))n est de Cauchy
[
n
dans R (ou C ou un evn de dimension fini) qui est complet, donc convergente et admet une
limite qu’on note f (x). On complète f par 0 sur D qui est négligeable. La fonction f est
alors bornée sur Ω et ( f n )n converge vers f dans (L ∞ (Ω); ∥.∥∞ ).
Proposition 1.10 Pour tout p ∈ [1, +∞[, L p (Ω) et L p (Ω) sont des K-espaces vectoriels.
– Si f , g ∈ L p (Ω) et λ ∈ K, on a :
d’où λ f + g ∈ L p (Ω).
– Le cas de L p (Ω) se déduit par quotient et du fait que la relation “ égalité presque partout "
ci-dessus est compatible avec le opérations dans L p (Ω).
page 22
Généralités sur les espaces probabilisés
Théorème 1.8 (Inégalité de Hölder) Soit p ∈ [1, ∞] et soit q ∈ [1, ∞] l’exposant conjugué,
i.e.
1 1
+ = 1.
p q
∥ f g ∥1 ≤ ∥ f ∥p ∥g ∥q .
p q
L’égalité a lieu si et seulement si | f |p /∥ f ∥p = |g |q /∥g ∥g presque partout.
x α ≤ αx + (1 − α).
1
Il en résulte (poser x = u/v, α = ) que pour tout u, v > 0,
p
1u 1
u 1/p v −1/p ≤ +
pv q
donc
1 1
u 1/p v 1/q ≤ u + v.
p q
1 1 1 1
Z Z Z
p
|f g|dµ ≤ |f | dµ + |g |q d µ = + = 1.
p q p q
1
Z Z
| f g | d µ ≤ 1, d’où | f g | d µ ≤ ∥ f ∥p ∥g ∥q .
∥ f ∥p ∥g ∥q
1 1
4. L’égalité x α = αx + (1 − α) équivaut à x = 1. Donc l’égalité u 1/p v 1/q = u + v équivaut à
p q
page 23
Espaces L p
p q
u = v. Donc l’égalité dans l’inégalité de Hölder entraîne que f p /∥ f ∥p = g q /∥g ∥q presque
partout.
∥ f + g ∥p ≤ ∥ f ∥p + ∥g ∥p .
Preuve: On écrit
d’où, en simplifiant,
Z
1
( | f + g |p d µ) p ≤ ∥ f ∥p + ∥g ∥p .
Corollaire 1.3 Pour tout p ∈ [1, ∞], ∥ · ∥p est une norme sur L p (Ω) .
Remarque 1.19 Pour les fonctions à valeurs dans K et p = 2, ∥ · ∥2 est la norme associée au
produit scalaire sur L 2 (Ω) défini, pour tout f , g ∈ L 2 (Ω),
Z
〈f ,g〉 = f g dµ.
Remarque 1.20 (Inclusions inverses entre espaces L p dans le cas de mesure finie) Si µ(Ω) <
+∞, la famille des espaces L p (Ω) est décroissante, i.e.
Par exemple : Avec Ω =]0, 1[, T = tribu borélienne et λ = mesure de Lebesgue sur ]0, 1[, on a
page 24
Généralités sur les espaces probabilisés
donc
1
− q1
∥ f ∥p ≤ µ(Ω) p ∥ f ∥q .
(On peut aussi appliquer l’inégalité de Jensen (voir un peu plus bas dans ce cours)).
Exemple 1.12 Si p < q, L p (Ω) n’est pas contenu dans L q (Ω). Par exemple : considérer
la mesure de Lebesgue sur ]0, 1[, i.e. la mesure µ = χ]0,1[ .λ sur R. C’est une mesure de
probabilité. La fonction f q (x) = x −1/q n’est pas dans L q (R, µ) mais appartient à L p (R, µ)
pour tout p < q.
Exemple 1.13 Si µ(Ω) = +∞, pour tout p ̸= q, L q (Ω) n’est pas contenu dans L p (Ω). Par
exemple : considérer la mesure de Lebesgue sur ]1, +∞[, i.e. la mesure µ = χ]1,+∞[ .λ sur R.
La fonction f p (x) = x −1/p n’est pas dans L p (R, µ) mais appartient à L q (R, µ) pour tout q > p.
Exemple 1.14 (Inclusions dans le cas de la mesure de comptage) Dans le cas de l’espace
mesuré (N, P (N), card), pour tout p < q ∈ [1, ∞],
ℓp (N) ⊂ ℓq (N).
En effet : Soient p < q ∈ [1, ∞], si (u n )n ∈ ℓp (N), alors lim u n = 0 et, à partir d’un certain
n→∞
rang, |u n | < 1 et donc |u n |q ≤ |u n |p et par suite, (u n )n ∈ ℓq (N).
On rappelle qu’une fonction convexe d’une partie de R dans R est la borne supérieure d’une
famille de fonctions affines (il suffit de prendre les tangentes à la courbe).
Théorème 1.10 (Inégalité de Jensen) On suppose que µ est une mesure de probabilité (i.e.
µ(Ω) = 1). Soient φ : R → R+ ∪ {+∞} convexe et f ∈ L 1 (Ω). On a :
Z Z
φ( f d µ) ≤ φ ◦ f d µ.
page 25
Espaces L p
Preuve: Soit (αs ), x 7→ a s x + b s , une famille de fonctions affines telle que φ = sup αs . Pour
s
chaque s,
Z Z
φ ◦ f dµ ≥ αs ◦ f d µ
Z
= (a s f + b s ) d µ
Z
= as f d µ + bs
Z
= αs ( f d µ).
Z Z
En prenant le sup sur s, il vient φ ◦ f d µ ≥ φ( f d µ).
Exemple 1.15 Pour toute fonction intégrable sur un ensemble muni d’une mesure de
probabilité, Z
f dµ
R
e ≤ e f d µ.
Remarque 1.21 Si µ(Ω) < ∞, on peut aussi appliquer l’inégalité de Jensen pour montrer que
la famille des espaces L p (Ω, µ) est décroissante, car la fonction t 7→ t q/p est convexe pour tout
q > p.
µZ ¶q Z
p
p ¡ p¢q
| f | dµ ≤ | f | p dµ
page 26
Généralités sur les espaces probabilisés
Par exemple : Soit Ω = R muni de la tribu borélienne et de la mesure µ = χ[0,+∞[ .λ. Soit p > 1
1+p
et q = . Soit f n = n −1/q χ[0,n] . Alors f n ∈ L p (R, µ) = L p ([0, +∞[, λ), ∥ f n ∥p = n −1/q n 1/p
2 Z
tend vers 0 mais f n d µ = n −1/q n tend vers +∞.
1.2.6 Complétude
Lemme 1.1 Un espace vectoriel normé V est complet si et seulement si toute série absolu-
ment convergente est convergente.
n
X
∥v n − v m ∥ = ∥ uk ∥
k=m+1
Xn
≤ ∥u k ∥
k=m+1
= wn − wm ,
La suite (w n )n étant convergente donc de Cauchy et par suite (v n ) est aussi de Cauchy.
X
Donc (v n ) est convergente et donc, par définition, la série u n est convergente.
Inversement, on suppose que dans V , toute série absolument convergente est convergente.
+∞ +∞
2−k ≤ 2,
X X
∥u k ∥ ≤
k=0 k=0
X
donc la série des normes est convergente. Si la série u n est convergente, alors la suite des
page 27
Espaces L p
sommes partielles
p−1
X
uk = v np
k=0
∥v nℓ − v m ∥ ≤ 2−k .
∥v − v m ∥ ≤ 2−k .
Exemple 1.16 Un espace vectoriel normé de dimension finie est toujours complet.
En dimension infinie, les espaces normés ne sont pas tous complets, il leur arrive d’avoir
des trous : les limites des suites de Cauchy existent dans un espace plus grand.
1 1
Exemple 1.17 Soit V l’ensemble des fonctions polynômes sur I = [− , ] muni de la norme
2 2
L p . Alors V n’est pas complet.
Théorème 1.12 (Fischer-Riesz) Pour tout p ∈ [1, +∞[, l’espace L p (Ω) est complet.
u n une série de fonctions mesurables telle que la série des normes L p soit
X
Preuve: Soit
convergente, i.e.
X
∥u n ∥p < +∞.
n
n
|u k |)p . Alors
X
Posons f n = (
k=0
Z n
( f n d µ)1/p
X
= ∥ |u k |∥p
k=0
n
X
≤ ∥u k ∥p
k=0
page 28
Généralités sur les espaces probabilisés
Par conséquent, f < +∞ presque partout. Donc, en presque tout point x ∈ Ω, la série de
X
nombres réels u k (x) est absolument convergente, donc convergente. Autrement dit,
X
la série de fonctions u k converge presque partout vers une fonction u qui est donc
mesurable. Notons
n
u k |p .
X
gn = |
k=0
Alors g n converge presque partout vers |u|p . Comme, pour tout n et tout x ∈ Ω,
à !p
n
X
|g n (x)| ≤ |u k (x)| = f n (x) ≤ f (x),
k=0
la suite de fonctions g n est dominée par f , qui est intégrable. Le théorème de convergence
dominée garantit que la fonction limite |u|p est intégrable ( i.e. u ∈ L p ) et que
Z Z
p
|u| d µ = lim g n d µ.
n→∞
n
X
Enfin, la suite de fonctions v n = u − u k converge vers 0 presque partout. Pour presque
k=0
tout x ∈ Ω et tout n,
n
X
|v n (x)| = |u(x) − u k (x)|
k=0
≤ (|u(x)| + f n (x))
≤ 2( f (x))1/p ,
n
qui est intégrable. Le théorème de convergence dominée, dans L p , garantit donc ∥u −
X
u k ∥p
k=0
tend vers 0. Par conséquent, u est bien la somme dans L p de la série.
Remarque 1.24 La preuve montre que si la série des normes L p converge, alors la série de
page 29
Résultats de densité
fonctions converge presque partout. En combinant avec la preuve du lemme 1.1, on voit que
si une suite de fonctions converge dans L p , alors il existe une sous-suite qui converge presque
partout.
Lemme 1.2 Soit (Ω, A ) un espace mesurable et soit f une fonction mesurable positive
(c’est à dire, à valeurs dans [0, ∞]). Il existe une suite croissante (u n )n de fonctions mesu-
rables étagées à valeurs dans [0, ∞[ telle que, pour tout x ∈ Ω, lim u n (x) = f (x). En plus, si
n→∞
la fonction f est bornée, la suite (u n )n la convergence est uniforme.
k k +1
E k,n := {x ∈ Ω, ≤ f (x) < } pour k = 0, . . . , n 2 − 1,
n n
E n,n := {x ∈ Ω, f (x) ≥ n}.
Puisque f est mesurable, les ensembles E k,n appartiennent à M . Pour tout n ∈ N fixé, les
ensembles E k,n , 0 ≤ k ≤ n 2 sont deux à deux disjoints et E k,n = Ω. Posons
[
k
2
nX −1 k
ϕn = 1E + n1E n,n .
k=0 n k,n
Alors ϕn est une fonction simple positive vérifiant ϕn ≤ f . De plus, lim ϕn (x) = f (x) pour
n→+∞
tout x ∈ Ω. Finalement, en posant u n (x) = sup ϕ, la suite (u n )n converge aussi vers f et en
1≤k≤n
plus croissante.
1
En plus, si f est majorée, pour tout n ≥ sup( f ), on a : sup( f − u n ) ≤ .
n
Théorème 1.13 Soit f une fonction intégrable, relativement à l’espace mesuré (Ω, A , µ). Il
existe une suite ( f n )n de fonctions étagées intégrables qui converge vers f dans L 1 (Ω, A , µ).
Plus généralement, si f ∈ L p (Ω), avec p ∈ [1, +∞], il existe une suite de fonctions mesurables
étagées (u n )n ⊂ L p (Ω), qui converge vers f dans L p (Ω), c’est à dire,
Z
lim | f n − f |p dµ = 0.
n→∞
page 30
Généralités sur les espaces probabilisés
Lorsque Ω =]a, b[ est un intervalle ouvert de R (−∞ ≤ a < b ≤ ∞), que A = B est la tribu
borélienne de Ω et que µ = λ est la mesure de Lebesgue.
On note C c (Ω) l’espace des fonctions continues sur Ω à support compact contenu dans
Ω. Rappelons que le support d’une fonction f est l’adhérence de l’ensemble des points où
cette fonction est non nulle,
Théorème 1.14 Supposons 1 ≤ p < ∞. Soit f ∈ L p (Ω). Il existe une suite ( f n )n de fonctions
de C c (Ω), où Ω intervalle ouvert de R, qui converge vers f dans L p (Ω), c’est à dire, C c (Ω)
est dense dans L p (Ω).
Preuve: On note F = C c (Ω) (adhérence dans L p (Ω)), notons que F est un sous espace
vectoriel de L p . Nous devons montrer que F = L p (Ω).
F 0 = { f ∈ C c (Ω) | 0 ≤ f ≤ 1} et F = {A ⊂ Ω | 1 A ∈ F 0 }.
On va montrer que F est la tribu B(Ω) (la tribu borélienne de Ω) qui est engendrée par les
intervalle ouverts inclus dans Ω. Pour cela, on montre que F est une tribu qui contient les
intervalles ouverts.
– Soit A =]a, b[ un intervalle inclus dans Ω (qui peut être Ω tout entier), pour n assez grand
4
( < b − a). On note ϕ = 1 A et ϕn la fonction trapèze définie comme suit : elle est nulle si
n
1 1
x ≤ a + ou si x ≥ b − , et
n n
2 1 2
ϕ n (x) = n(x − a − )+1 si a + ≤x ≤a+ ,
n n n
2 2
ϕn (x) = 1 si a + ≤x ≤b− ,
n n
2 2 1
ϕn (x) = n(b − − x) + 1
si b − ≤x ≤b− .
n n n
page 31
Résultats de densité
– Pour montrer que F est stable par union dénombrable, on montre que F est stable par
intersection finie puis par union dénombrable deux à deux disjointe.
∥ f n − 1 A ∥p −→ 0 et ∥g n − 1B ∥p −→ 0
n→∞ n→∞
en écrivant
∥ f n g n − 1 A 1B ∥p = ∥ f n (g n − 1B ) + 1B ( f n − 1 A )∥p
on a
- D’après ce qui précède F est stable par union finie. Soient (A n )n ⊂ F , telle que les
A n sont deux à deux disjoints, la série λ(A n ) étant alors convergente.
X
à !
∞ ∞ ∞
Soit ε > 0, il existe n ∈ N tel que λ λ(A k ) ≤ εp . On pose A =
[ X [
Ak = Ak = B ∪ R
k=n+1 k=n+1 k=0
n ∞
A k , alors λ(R) ≤ εp et B ∈ F , par suite il existe f ∈ C c (Ω)
[ [
avec B = A k et R =
k=0 k=n+1
vérifiant 0 ≤ f ≤ 1 telle que ∥1B − f ∥p ≤ ε et donc
An ∈ F .
[
Ce qui permet de conclure que 1 A ∈ F 0 et par suite
n∈N
Finalement F est une tribu qui contient les intervalles de Ω, par conséquent F = B(Ω).
Donc pour tout borélien A dans Ω, 1 A ∈ F et puisque F est un espace vectoriel alors toute
fonction étagée mesurable sur Ω appartient à F . Et par densité de l’ensemble des fonctions
étagées mesurables dans L p (Ω), F = L p (Ω).
2ème cas. On suppose Ω non borné. Soit f ∈ L p (Ω). Pour tout n ∈ N, on note f n =
1Ω∩[−n,n] f , il est clair que les f n sont dans L p (Ω) et que la suite ( f n )n converge simplement
vers f . Par le théorème de convergence dominée cette convergence est dans L p (Ω), c’est à
dire, ∥ f n − f ∥p −→ 0.
n→∞
page 32
Généralités sur les espaces probabilisés
Donc le sous espace vectoriel de L p (Ω) formé des fonctions nulle en dehors d’un intervalle
compact inclus dans Ω est dense dans L p (Ω).
Soit f ∈ L p (Ω) et soit ε > 0, il existe g ∈ L p (Ω) nulle en dehors d’un intervalle K = [a, b]
compact inclus dans Ω telle que ∥g − f ∥p ≤ ε. D’après le premier cas, g |]a,b[ est limite dans
L p (]a, b[) d’une suite de fonctions dans C c (]a, b[). Par suite, il existe h ∈ C c (]a, b[ telle que
Z
|h − g |p dλ ≤ εp .
]a,b[
Notons h̃ la fonction égale à h sur ]a, b[ et nulle sur Ω\]a, b[, alors h̃ ∈ C c (Ω) et
Z Z
p
|h̃ − g | dλ = |h − g |p dλ ≤ εp .
Ω ]a,b[
Par suite
∥h̃ − f ∥p ≤ ∥h̃ − g ∥p + ∥g − f ∥p ≤ 2ε.
Remarque 1.25 (Le cas L ∞ ) Pour p = ∞ le résultat n’est pas vérifié. En effet, si ( f n )n est une
suite à éléments dans C c (Ω) qui converge dans L ∞ (Ω) vers un élément f ∈ L ∞ (Ω), alors f
est continue sur Ω. Donc si on suppose que C c (Ω) est dense dans L ∞ (Ω), alors tout élément
de f ∈ L ∞ (Ω) admet un représentant continue. Ce qui n’est pas le cas (prendre, par exemple,
l’indicatrice d’un intervalle inclus strictement dans Ω).
Nous étudierons dans cette section les propriétés de F : continuité, dérivabilité et analyti-
cité.
Z
1.4.1 Continuité sous le signe
page 33
Fonction définie par une intégrale
Remarque 1.26 Si Ω est un segment [a, b] et f continue sur Ω × Λ, alors La fonction F est
continue dans Λ.
Z
1.4.2 Dérivabilité sous le signe
Ici on suppose que Λ est un intervalle de R et on suppose en plus que f admet une dérivée
∂f
partielle pour presque tout x dans Ω.
∂λ
Théorème 1.16 (Dérivabilité) Supposons que
∂f
(x, λ) ≤ g K (x).
∂λ
∂f
Z
′
F (λ) = (x, λ)dµ(x).
Ω ∂λ
Remarque 1.27 Par une récurrence facile, si f admet des dérivées jusqu’à l’ordre k ∈ N∗ , tel
que toutes les dérivées de f vérifient l’hypothèse de domination alors F admet une dérivée
d’ordre k et
∂k f
Z
(k)
F (λ) = (x, λ)dµ(x).
Ω ∂λk
page 34
Généralités sur les espaces probabilisés
— Fonction Γ ;
— Transformée de Fourier ;
— Transformée de Laplace ;
— Produit de convolution.
Dans la suite (Ω, A ) désigne un espace mesurable. La tribu A contient tous les événements
possibles d’une expérience aléatoire. On dit alors que (Ω, A ) est un espace probabilisable.
Définition 1.17 On appelle mesure de probabilité sur (Ω, A ) toute mesure P telle que
P (Ω) = 1 . Si A ∈ A ; P (A) est appelé la probabilité de réalisation de A .
Si P est une mesure de probabilité sur (Ω, A ), on dit que (Ω, A , P) est un espace probabilisé.
Soient (ωn )n∈N une suite injective d’éléments de Ω et (αn )n∈N une suite de nombres réels
∞
αn = 1 ,
X
positifs telle que
n=0
P= αn εωn
X
n∈N
est appelée mesure de probabilité discrète (portée par les éléments ωn pondérés par les
poids αn ).
page 35
Espace probabilisé
N 1
U= εωn
X
n=1 N
En particulier,
1
U ({ωn }) = pour tout n ∈ [[1, N ]]
N
et pour tout A ⊂ Ω,
card (A)
P (A) = .
card (Ω)
Exercice 1.7 Un sac contient quatre boules identiques au toucher : une boule numérotée 0,
deux boules numérotées 1 et une boule numérotée 2. On effectue à l’aveugle n tirages d’une
boule avec remise.
Proposition 1.11 Soient C une classe d’évènements stable par intersection finie telle que
σ(C ) = A . Si deux mesures sur (Ω, A ) coïncident sur C alors elles coïncident sur A .
On montre que T est une tribu contenant C . La preuve utilise la notion de λ-système (voir
[4, Théorème d’unicité du prolongement , p. 67], ou [8, p. 81]).
page 36
Généralités sur les espaces probabilisés
Définitions – Exemples
Théorème 1.17 (et définition) Soit A ∈ A tel que P (A) > 0. Alors la fonction d’ensemble
P A définie pour tout B ∈ A par
P(A ∩ B )
P A (B ) = ,
P(A)
est une mesure de probabilité sur A qu’on appelle mesure de probabilité A-conditionnelle.
P (B ) = P (B | A i ) P (A i )
X
(Formule des probabilites totales)
i ∈I
P (B | A k ) P (A k )
PB (A k ) = P (Formule de Bayes)
P (B | A i ) P (A i )
i ∈I
P (B | A k ) P (A k )
= ³ ´ ³ ´
P (B | A k ) P (A k ) + P B | A k P A k
page 37
Espace probabilisé
1.5.3 Indépendance
Définition 1.20 Soit (A i )i ∈I une famille finie ou infinie d’évènements. On dit que les évè-
nements A i , i ∈ I , sont mutuellement indépendants, si pour toute partie finie {i 1 , i 2 , ..., i k }
de I , on a :
P Ai1 ∩ Ai2 ∩ · · · ∩ Aik = P Ai1 × P Ai2 × · · · P Aik .
¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢
Remarque 1.29 Des évènements peuvent être indépendants deux à deux sans être indépen-
dants mutuellement.
page 38
Généralités sur les espaces probabilisés
La proposition suivante montre que pour vérifier que deux classes sont indépendantes, il
suffit de le vérifier sur des sous-classes suffisamment stables.
Définition 1.22 (Limite supérieure d’ensembles) Soit (A n )n∈N une suite de partie d’un
ensemble E . La limite supérieure des A n est l’ensemble
\ [
lim sup (A n ) = Ak .
n−→∞ n∈Nk≥n
c’est l’ensemble des éléments ω de E tels que l’assertion (ω ∈ A n ) soit vérifiée pour une
infinité d’indices n.
[ \
lim inf (A n ) = A k.
n−→∞
n∈Nk≥n
On vérifie que
\ [
A n ⊂ lim inf (A n ) ⊂ lim sup (A n ) ⊂ An
n−→∞ n−→∞
n∈N n∈N
µ ¶
P lim sup (A n ) = 0 .
n−→∞
Ce qui s’énonce aussi : p.s., seul un nombre fini d’évènements A n est réalisé.
(b) Si en plus les A n , n ∈ N sont mutuellement indépendants et la série P (A n ) diverge
X
n
alors µ ¶
P lim sup (A n ) = 1 .
n−→∞
page 39
Espace probabilisé
[ \ [
Preuve: Pour le premier point, avec lim sup (A n ) = A k , on pose B n = A k . (B n )n∈N
n−→∞ n∈Nk≥n \ k≥n
est une suite décroissante d’évènements et lim sup (A n ) = B n ; donc
n−→∞ n∈N
µ ¶
P B n = lim P (B n )
\
n−→∞
n∈N
à !
+∞
or P (B n ) = P P (A k ) −→ 0 , car reste d’une série convergente. Donc
[ X
Ak ≤
n−→∞
k≥n k=n
µ ¶ µ ¶
P lim sup (A n ) = P
\
B n = 0.
n−→∞ n∈N
µ ¶
Pour le second point, on démontre que P lim sup (A n ) = 0. D’abord
n−→∞
³ ´ [ \
lim sup (A n ) = lim inf A n = A k.
n−→∞ n−→∞
n∈Nk≥n
(1 − P (A k ))
Y
=
n 0 ≤k≤n
Y
≤ exp (−P (A k ))
n 0 ≤k≤n
à !
X
= exp (−P (A k ))
n 0 ≤k≤n
à !
X X
et comme la série (−P (A k )) diverge vers −∞ ; exp (−P (A k )) −→ 0 , donc
n−→∞
k n 0 ≤k≤n
à !
(1 − P (A k )) = lim P
Y \
lim Ak = 0 .
n−→+∞ n−→+∞
n 0 ≤k≤n n 0 ≤k≤n
page 40
Généralités sur les espaces probabilisés
Remarque 1.31 (Loi(0, 1)) Le lemme de Borel-Cantelli a pour conséquence la loi du zéro-un
de E. Borel qui s’exprime sous la forme : Si les évènements A n sont indépendants, alors la
probabilité P lim sup (A n ) vaut 0 ou 1 suivant que la série P (A n ) est convergente ou
¡ ¢ X
divergente.
page 41
Chapitre 2
Lorsque l’on veut mesurer des grandeurs dépendant du hasard ou décrire l’état d’un
système aléatoire évoluant au cours du temps. On est amené à introduire des fonctions
définies sur des espaces probabilisés. Ces fonctions sont appelées variables aléatoires ; ce
sont des fonctions à valeurs réelles ou à valeurs dans Rn .
On se limte dans la suite au cas où d = 1 mais la quasi totalité des notions abordées et des
résultats établies se généralisent sans grandes difficultés au cas d ≥ 2.
Proposition 2.1 Soient (Ω, A ) un espace probabilisable et X : (Ω, A ) −→ (R, B (R)) . Alors
X est v.a si et seulement si pour tout a ∈ R, X −1 (]−∞, a]) ∈ A . Si X (Ω) est au plus dénom-
brable alors X est v.a si et seulement si pour tout a ∈ R, X −1 ({a}) ∈ A .
Preuve: Utilise le fait que B (R) est engendrée par la famille des intervalles ]−∞, a] où a
décrit R. Si X (Ω) est au plus dénombrable alors pour tout B ∈ B (R)
X −1 (B ) = X −1 ({a})
[
a∈X (Ω)∩B
42
Variables aléatoires réelles
Exemple 2.1 Soit Ω = {1, 2, . . . , 6} × {1, 2, . . . , 6} muni de la tribu P (Ω) et de la mesure P telle
1
que P((i , j )) = , ∀(i , j ) ∈ Ω. La mesure P est une mesure de probabilité car card (Ω) = 36.
36
L’ensemble Ω est l’ensemble des combinaisons que l’on peut obtenir en jetant un dé deux
fois ("ensemble de tous les possibles "). C’est du moins une modélisation raisonnable de ce
qui se passe quand on jette un dé deux fois.
X : (i , j ) ∈ Ω 7→ i ∈ R , Y : (i , j ) ∈ Ω 7→ i + j ∈ R .
La variable X est le résultat du premier tirage et Y est la somme des deux tirages.
Proposition 2.3 Toute somme (resp. produit ou quotient) de v.a.r sur (Ω, A ) est une v.a.r
sur (Ω, A ).
Proposition 2.4 Si f : (R, B (R)) −→ (R, B (R)) est mesurable et X une v.a.r sur (Ω, A ) alors
f (X ) est une v.a.r sur (Ω, A ). En plus si X (Ω) est au plus dénombrable alors f (X ) est une
v.a.r sur (Ω, A ) pour toute application f : X (Ω) −→ R.
Proposition 2.5 (Propriétés des applications mesurables) Soit (X n )n≥0 : Ω −→ R est une
suite de v.a.r bornées.
Proposition 2.6 (et définition) Soit (Ω, A , P) un espace probabilisé. Soit X : Ω −→ R une
v.a.r. L’application P X : B (R) −→ [0, 1] définie par P X (B ) = P(X −1 (B )) est une mesure de
probabilité appelée mesure image de P par X , appelée loi de la v.a.r X .
page 43
Variables aléatoires
P X ( ∪ B n ) = P( ∪ X −1 (B n ))
n≥0 n≥0
P(X −1 (B n ))
X
=
n≥0
P X (B n ) .
X
=
n≥0
Exemple 2.2 Reprenons l’exemple précédent. Nous pouvons décrire complètement la loi
de Y (toujours à l’aide de la propriété de sommation d’une mesure :
PY ({1}) = P(Y = 1) = 0
PY ({2}) = P(Y = 2) = P((i , j ) = (1, 1)) = 1/36
PY ({3}) = P(Y = 3) = P({(1, 2), (2, 1)}) = 2/36
PY ({4}) = P(Y = 4) = P({(1, 3), (2, 2), (3, 1)}) = 3/36
...
FX : R −→ R+
t 7→ F X (t ) = P X (] − ∞, t ]) = P(X ≤ t )
page 44
Variables aléatoires réelles
(c) F X est continue à droite et admet une limite à gauche en tout point, avec
De façon plus explicite, soient X et Y deux variables aléatoires, si pour tout A ∈ B (R) et
tout B ∈ B (R), on a :
P {X ∈ A, Y ∈ B } = P {X ∈ A} P {Y ∈ B }
Une des notions qui revient constamment dans la théorie des probabilités est la notion de
suite de variables (mutuellement) indépendantes. La définition formelle en est la suivante :
Définition 2.4 Soit (X n ) une suite de variables aléatoires réelles définies sur un espace pro-
babilisé (Ω, A , P). On dit que cette suite est une suite de variables aléatoires indépendantes
(on dit encore variables aléatoires mutuellement indépendantes, pour éviter toute ambi-
guïté), si la suite des tribus engendrées X n−1 (B (R)) est une suite de tribus mutuellement
¡ ¢
indépendantes.
Ce qui signifie que pour toute suite finie extraite X i 1 , X i 2 , ..., X i n , et toute suite finie B 1 , B 2 , ..., B n ,
de boréliens, on a :
n n o
P X i 1 ∈ B 1 , ..., X i n ∈ B n = P Xi j ∈ B j
© ª Y
j =1
Remarque 2.2 Pour vérifier que deux variables aléatoires réelles X et Y sont indépendantes,
il suffit de se restreindre à des sous-classes d’ensembles qui engendrent B (R). Dans le cas
où X (Ω) et Y (Ω) sont au plus dénombrables alors on peut se restreindre à la classes des
singletons.
Exercice 2.2 Un sac contient quatre boules identiques au toucher : une boule numérotée 0,
deux boules numérotées 1 et une boule numérotée 2. On effectue à l’aveugle n tirages d’une
boule avec remise.
(a) Donner un espace probabilisé (Ω, A , P ) modélisant cette expérience.
(b) Pour tout i ∈ {1, 2, ..., n}, on note X i le résultat du i -ème tirage. Expliquer pourquoi les
X i sont des variables aléatoires réelles et donner la loi de la variable aléatoire X i .
page 45
Variables aléatoires
(c) On note S n la somme des numéros tirés. Exprimer S n en fonction des X i , i ∈ {1, 2, ..., n}.
(d) On suppose que les X i sont mutuellement indépendantes. Déterminer la loi de S n .
Définition 2.5 Soient X et Y deux v.a.r sur Ω. On appelle loi conjointe du couple (X , Y ) la
mesure de probabilité image de P par (X , Y ) , c’est à dire la mesure P(X ,Y ) définie par
Var (X ) := E (X − E [X ])2
£ ¤
La racine carrée positive de Var (X ) est désignée par σ (X ) est appelée l’écart-type de X .
Remarque 2.3 (a) L’espérance mathématique d’une variable aléatoire X ne dépend que
de la loi de X et indique la valeur moyenne autour de laquelle X prend ses valeurs.
D’autres caractéristiques de la loi de X rendent compte de la dispersion de cette loi. La
variance est un bon indicateur de la dispersion.
(b) Par la comparaison des intégrales, on déduit que si X admet un moment d’ordre k
alors elle admet des moments à tout ordre j < k.
page 46
Variables aléatoires réelles
Proposition 2.8 Soit X une variable aléatoire réelle, si E X 2 est fini, alors son espérance
£ ¤
Var (X ) = E X 2 − (E [X ])2
£ ¤
En utilisant la définition de l’espérance sous forme intégrale, les propriétés suivantes sont
connues : pour X et Y deux variables aléatoires, définies sur un espace probabilisé :
|E [X ]| ≤ E [|X |].
— E [X + Y ] = E [X ] + E [Y ] ,
— Pour tout λ ∈ R : E [λX ] = λE [X ]. En général E λX + µ = λE [X ] + µ pour tout
£ ¤
λ, µ dans R.
— X = Y p.s. =⇒ E [X ] = E [Y ] ;
X ≤ Y p.s. =⇒ E [X ] ≤ E [Y ] .
Proposition 2.9 (Inégalité de Markov) Si X est v.a.r positive et intégrable sur Ω , alors
E (X )
P (X ≥ a) ≤ ,
a
— Une reformulation de l’inégalité de Markov dans le cas de v.a.r à carré intégrable est
l’inégalité de Bienaymé-Tchebychev :
page 47
Variables aléatoires
Théorème de transfert
Remarque 2.4 Il s’agit d’une formule de changement de variable abstraite, très générale
puisque la seule condition pour le changement de variable v = ϕ (u) est que ϕ soit mesurable !
qui est définie si h ◦ X est intégrable sur Ω pour la mesure P, ou de manière équivalente, h est
intégrable pour P X .
X
E [h (X )] = p i h (x i ) .
i ∈I
page 48
Variables aléatoires réelles
Par linéarité de l’intégrale le théorème est vrai pour toute fonction h étagée positive.
k k k +1
· ·
si h (x) ∈ n , n et h (x) < n
h n (x) = 2n 2 2
n si h (x) ≥ n
avec cette définition h n ne prend qu’un nombre fini de valeurs même si h n’est pas bornée.
Le choix de 2n assure la croissance de h n . Par le théorème de convergence monotone,
l’égalité du théorème est vraie dans [0, +∞].
Z Z
¡ ¢
E [X Y ] = X (ω) Y (ω) dP (ω) = x ydP(X ,Y ) x, y
Ω R2
page 49
Variables aléatoires
par conséquent E [X Y ] = E [X ] E [Y ] .
= P (A) P (B ) = E [X ] E [Y ] .
k k k +1
· ·
si X (ω) ∈ n , n et X (ω) < n
X n (ω) = 2n 2 2
n si X (ω) ≥ n
k k k +1
· ·
si Y (ω) ∈ n , n et Y (ω) < n
Yn (ω) = 2n 2 2
n si Y (ω) ≥ n
avec ces définitions X n et Yn ne prennent qu’un nombre fini de valeurs et donc, pour
vérifier l’indépendance de X n et Yn , il suffit de remarquer que pour tout a ∈ R , les deux
évènements (X n = a) et (Yn = a) sont indépendants par indépendance de X et Y . Comme
(X n Yn )n est à son tour une suite de v.a. qui croit vers X Y , on a alors
Remarque 2.5 Bien entendu, une récurrence facile permet de montrer que si X 1 , ..., X n sont
des v.a.r indépendantes admettant chacune une espérance alors il en est de même pour le
Y n
produit X i et on a
i =1 " #
n
Y Yn
E Xi = E [X i ] .
i =1 i =1
page 50
Variables aléatoires réelles
finies, alors
V ar [X + Y ] = V ar [X ] + V ar [Y ] .
Théorème 2.4 Si X et Y sont des variables aléatoires réelles définies sur un même espace
probabilisé, indépendantes alors
P X +Y = P X ∗ PY .
Preuve: Par l’inépendance la loi du couple (X , Y ) est le produit des lois de X et Y , c’est à
dire, P(X ,Y ) = P X ⊗ PY . Soit A ∈ B (R), par le théorème de transfert (T.T) appliqué au couple
(X , Y ),
P X +Y (A) = P (X + Y ∈ A)
= P (1 A (X + Y ))
Z
T.T ¡ ¢ ¡ ¢
= 1 A x + y dP(X ,Y ) x, y
ZR
¡ ¢ ¡ ¢
= 1 A x + y dP X (x) dPY y
R
= P X ∗ PY (A)
donc P X +Y = P X ∗ PY .
page 51
Variables aléatoires
Théorème 2.5 (Convergence monotone, Beppo Levi) Si les X n sont positives et la suite
(X n )n est croissante (0 ≤ X n ≤ X n+1 ) convergeant prèsque sûrement vers X , alors
+∞
X
· +∞
X
¸
E [X n ] = E Xn .
n=0 n=0
Remarque 2.6 Dans le cas où les X n sont positives, sans l’hypothèse de convergence de la
X +∞
X
· +∞ ¸
X
série E [|X n |] , l’égalité E [X n ] = E X n tient dans [0, +∞] .
n=0 n=0
|X n | ≤ Y p.s.
alors
lim E [X n ] = E [X ] .
n−→∞
Remarque 2.7 Une seconde version du théorème d’intégration terme à terme utilisant le
page 52
Variables aléatoires réelles
¯ ¯
¯Xn ¯
TCD : S’il existe v.a.r positive Y intégrable telle que ¯ X k ¯ ≤ Y (prèsque sûrement sur Ω )
¯ ¯
¯k=0 ¯
+∞
pour tout n et la série X n converge prèsque sûrement sur Ω , alors
X X
X n est intégrable et
n=0
· +∞ ¸ +∞
X X
E Xn = E [X n ].
n=0 n=0
2.2.1 Définitions
Définition 2.9 Une variable aléatoire X , à valeurs dans R, est dite discrète, si la loi de
probabilité P X est une mesure de probabilité discrète sur (R, B (R)).
En particulier, si une telle variable aléatoire X est définie sur l’espace probabilisé (Ω, A, P),
on peut écrire, pour tout x ∈ R,
P X (B ) = P (X = x k ) = αk
X X
k|x k ∈B k|x k ∈B
On dit alors que X est P-prèsque sûrement constante (égale à x 0 ). Réciproquement, la loi
de probabilité d’une fonction constante est singulière.
page 53
Variables aléatoires discrètes
De même si X : (Ω, A , P) −→ (R, B (R)) est une variable aléatoire telle que X (Ω) est au plus
dénombrable, alors X est une variable aléatoire discrète. En particulier, lorsque p = 1 et
que X (Ω) est fini, on peut écrire
n
X
X= xk 1 Ak
k=1
n
PX = P (A k ) εxk .
X
k=1
Une variable aléatoire simple est discrète, elle ne peut prendre qu’un nombre fini de
valeurs (les x k ). En revanche, chacune de ces valeurs peut être prise en une infinité non
dénombrable de points ω ∈ Ω. En effet, des ensembles A k peuvent admettre la puissance
du continu.
Dans les paragraphes suivants, nous passons en revue quelques mesures de probabilité
discrètes rencontrées dans les applications. Pour des raisons de commodité, elles sont
définies sur l’espace (R, B (R)).
Remarque 2.8 Si F X est continue, X ne peut pas être discrète. En effet, dans ce cas, il existe
aumoins a ∈ R tel que P X ({a}) ̸= 0 et donc F X n’est pas continue en a.
Loi uniforme
X (Ω) = {x 1 , ..., x n }
1 Xn
PX = εx .
n k=1 k
page 54
Variables aléatoires réelles
On note
X ,→ U {x1 ,...,xn } .
à !
n n ¢n−k
PX = pk 1 − p εk .
X ¡
k=0 k
P X = 1 − p ε0 + pε1
¡ ¢
On note
X ,→ B n, p .
¡ ¢
¡ ¢
Remarque 2.9 Une binômiale de paramètre n, p peut être vue comme la somme de n
bernoulli B 1, p indépendantes.
¡ ¢
Exemple (tirage avec remise) Par exemple, dans le tirage avec remise, dans une urne avec
des boules de deux couleurs, si la proportion de boules blanches dans l’urne est égale à p et
si le nombre de tirages est égal à n, alors la variable aléatoire X nombre de boules blanches
tirées est une variable aléatoire binomiale de paramètres (n, p).
De même, si A est un évènement d’un espace probabilisé (Ω, A , P), la variable aléatoire 1 A
est une variable de Bernoulli de paramètre p = P(A).
3
Exercice 2.4 Tracer l’allure de la courbe de la fonction de répartition (avec p = et n = 5)
4
page 55
Variables aléatoires discrètes
Loi hypergéométrique
Soient n, N et M trois entiers positifs tels que n ≤ N , M < N . On dit que X suit la loi
hypergéométrique de paramètres (n, N , M ) si
à !à !
M N −M
min(n,M
X ) k n −k
PX = Ã ! εk
k=max(0,n−(N −M )) N
n
Le fait que à !à !
M N −M
min(n,M
X ) k n −k
à ! =1
k=max(0,n−(N −M )) N
n
On note
X ,→ H (n, N , M ).
Exemple (le tirage sans remise) Une urne contient M boules blanches et N − M boules
noires (M < N ). On tire, sans les remettre dans l’urne, n boules successivement (n ≤ N ).
Le nombre X de boules blanches amenées parmi ces n boules est une variable aléatoire
hypergéométrique de paramètres (n, N , M ).
Il est bon de noter, bien que cela ne soit pas apparent, que cette expression est symétrique
en M et n.
page 56
Variables aléatoires réelles
On dit que, dans les conditions indiquées, la loi hypergéométrique H (n, N , M ) converge
vers la loi binomiale B(n, p).
Loi géométrique
+∞
PX = pq k−1 εk
X
k=1
On a bien
+∞ 1
pq k−1 = p
X
=1
k=1 1−q
On note
X ,→ G (p).
pq k−1 = q n .
X
r (n) = P {X > n} =
k≥n+1
Remarque 2.10 On appelle quelque fois loi géométrique de paramètre p la loi définie par
+∞
PX = pq k εk
X
k=0
On considère une épreuve de Bernoulli dont la probabilité de succès est p et celle d’échec
q = 1 − p. On renouvelle cette épreuve de manière indépendante jusqu’au premier succès. La
variable aléatoire X donnant le rang du premier succès suit la loi géométrique de paramètre
p.
page 57
Variables aléatoires discrètes
Exemple (dans l’attente du premier succès) Un joueur procède à une suite de parties
indépendantes de pile ou face et décide de s’arrêter de jouer dès que, pour la première
fois, il aura amené pile . On s’intéresse au nombre X de parties qu’il lui faudra jouer pour
réaliser son objectif.
Pour définir X , on commence par introduire l’ensemble Ω de toutes suites infinies d’issues
possibles : ainsi un élément ω ∈ Ω est une suite (δ1 , δ2 , ...) de 0 et de 1, en convenant du fait
que le terme général δk vaut 0 ou 1, suivant qu’à la k ième partie face ou pile apparaît.
Si l’on veut faire apparaître X comme une variable aléatoire définie sur Ω, l’évènement
{X = k} le joueur s’arrête de jouer à la k ième partie doit être probabilisable pour tout k fini. Il
en est de même de l’évènement {X = ∞} le joueur joue indéfiniment ! Pour tout k = 1, 2, ...,
notons A k l’ensemble des suites ω = (δ1 , δ2 , ...) telles que δk = 1. Avec la convention prise,
A k est l’évènement “pile” apparaît à la k ième partie .
{X = k} = A 1 ∩ ... ∩ A k−1 ∩ A k
de plus
{X = ∞} = lim A 1 ∩ ... ∩ A k .
k−→∞
Ainsi X est une variable aléatoire définie sur (Ω, A ), si on prend pour A la tribu engendrée
par les A k .
Enfin, pour rendre compte de l’indépendance des parties et du fait que la probabilité
d’amener pile en un coup est p (0 < p < 1), il faut prouver qu’il existe une mesure de
probabilité P sur (Ω, A ) telle que pour toute suite finie (i 1 , i 2 , ..., i k ) d’entiers distincts, on
ait P(A i 1 ∩ A i 2 ∩ ... ∩ A i k ) = p k .
En général, on a :
Théorème 2.8 ([4], section 7, pages 62-66) Soient (E , P (E ), µ) un espace probabilisé fini.
On note l’espace E N des suites à valeurs dans E et A la tribu engendré par la famille C des
parties de Ω de la forme
e ,...,e
A n11 ,...,nkk := {(ωn )n | ωn1 = e 1 , ..., ωnk = e k }
avec n 1 , ..., n k ∈ N et e 1 , ..., e k ∈ E . Alors il existe une unique mesure de probabilité P sur
(Ω, A ) telle que
e ,...,e
∀n 1 , ..., n k ∈ N, ∀e 1 , ..., e k ∈ E : P(A n11 ,...,nkk ) = µ({e j })
Y
1≤ j ≤k
page 58
Variables aléatoires réelles
L’espace probabilisé (Ω, A , P) étant ainsi construit, on voit alors que X est définie sur cet
espace et prend ses valeurs dans (R̄, B̄), en désignant par R̄ la droite achevée et par B̄ la
tribu engendrée par B (R) ∪ {+∞} ∪ {−∞}. On peut alors calculer la loi de probabilité de X ,
soit, en posant q = 1 − p,
P {X = 1} = P (A 1 ) = p; P {X = k} = P (A 1 ∩ ... ∩ A k ) = q k−1 p,
pour k ≥ 2 ;
Si l’on néglige la valeur +∞, on voit que X suit la loi géométrique de paramètre p.
Loi de Poisson
Soit λ un nombre réel strictement positif. On dit que X suit la loi de Poisson de paramètre
λ, si
+∞ e −λ λk
PX = εk
X
k=0 k!
On a bien
+∞ e −λ λk
= e −λ e λ = 1
X
k=à k!
On note
X ,→ P (λ).
ce que signifie que si B(n, p) est une loi binomiale telle que les deux paramètres n et p sont
liés par la relation
np = λ > 0,
à !
n ¢n−k
pk 1 − p
¡
alors pour n grand la probabilité (pour qu’une variable binomiale de
k
e −λ λk
paramètres (n, p) prenne la valeur k) est approximativement égal à , qui est la proba-
k!
bilité pour qu’une variable de Poisson de paramètre λ prenne la valeur k. On dit encore que
la loi de Poisson est la loi des évènements rares .
page 59
Variables aléatoires discrètes
D’un point de vue pratique, on est conduit à introduire la loi de Poisson dans les problèmes
du type suivant. Supposons que l’on fasse des prélèvements de n unités dans une population
ne comportant que deux sortes d’individus A et B en proportion p et q (p + q = 1). Si n est
grand et p voisin de 0 de sorte que np soit relativement petit, on peut admettre que le nombre
d’individus de l’espèce A dans un prélèvement est approximativement une variable aléatoire
de Poisson de paramètre λ = np.
Exemple
(a) Dans une solution liquide contenant des particules en suspension, disons des bacté-
ries A 1 et d’autres particules A 2 , le nombre de bactéries est faible devant le nombre
total des particules. La loi de probabilité de la variable X nombre de bactéries dans
un volume élémentaire fixé peut être vue comme une variable aléatoire de Poisson
d’un certain paramètre λ.
(b) 2 % des dossiers de crédit arrivent au service contentieux un an après leur signature.
Soit un lot de 100 dossiers. Quelle est la probabilité qu’aucun dossier ne devienne
contentieux à un an ?
20
exp (−2) ≃ 0.135 34 (avec la loi de Poisson)
0!
à !
100
(0.02)0 (0.98)100 ≃ 0.132 62 (avec la loi binômiale)
0
Soit une variable aléatoire X une v.a.r discrète sur Ω , P X = αk εxk , où I est un ensemble
X
k∈I
fini ou dénombrable, x k ∈ R et αk ∈ [0, 1] tels que αk = 1.
X
k∈I
Proposition 2.11 Si g : R −→ R est mesurable alors g (X ) est une v.a.r discrète sur Ω, de loi
page 60
Variables aléatoires réelles
Pg (X ) {z} = P{g (X ) = z} = αi
X
i ∈I ,g (x i )=z
¡ © ª¢
En effet : Posons Y = g (X ) . L’évènement Y ∈ g (x k ) | k ∈ I est quasi-certain et au plus
dénombrable. Et pour tout k ∈ I ,
P Y = g (x k ) = P (X = x i ) = αi
¡ ¢ X X
i ∈I ,g (x i )=g (x k ) i ∈I ,g (x i )=g (x k )
et pour tout z ∈ R , P (Y = z) = P (X = x i ) = αi .
X X
i ∈I ,g (x i )=z i ∈I ,g (x i )=z
¡ ¢
Remarque 2.12 Abstraction faite sur l’injectivité de la fammille g (x k ) k∈I , on peut écrire
Pg (X ) = αk εg (xk ) .
X
k∈I
L’indépendance de v.a.r discrètes peut être testées uniquement sur la classes des singletons.
PX = αi εxi et PY = β j εy j ,
X X
i ∈I j ∈J
P {X = x i , Y = y j } = P {X = x i }P {Y = y j }. (2.2.1)
page 61
Variables aléatoires discrètes
liens A et B. On obtient :
P{X ∈ A, Y ∈ B } = P{X = x i , Y = y j }
X
x i ∈A,y j ∈B
P{X = x i }P{Y = y j }
X
=
x i ∈A,y j ∈B
à !à !
P{X = x i } P{Y = y j }
X X
(Fubini) =
x i ∈A y j ∈B
= P (X ∈ A) P (Y ∈ B )
αi β j ε(xi +y j ) .
X
P ∗Q =
(i , j )∈I ×J
Remarque 2.13 Le fait que P ∗ Q soit une mesure de probabilité découle des propriétés
élémentaires sur les séries absolument convergentes. Ces mêmes propriétés entraînent aussi
que le produit de convolution est commutatif et associatif.
Les lois binomiales et de Poisson sont conservées par le produit de convolution. En d’autres
termes, on a la propriété suivante.
Proposition 2.13 Soient n, m des entiers, p ∈ [0, 1] , puis λ et µ des réels strictement positifs.
Alors
B(n, p) ∗ B(m, p) = B(n + m, p) et ; πλ ∗ πµ = πλ+µ
Preuve: On a
à !à !
n X
m m n
B(n, p) ∗ B(m, p) = p i + j q n+m−(i + j ) εi + j
X
i =0 j =0 j i
n+m
γk p k q n+m−k εk
X
=
k=0
page 62
Variables aléatoires réelles
à !
r
avec la convention = 0 si s > r. Pour montrer la première relation, il faut montrer que
s
à !à ! à !
k
X n m n +m
=
i =0 i k −i k
relation connue qui peut se démontrer par récurrence (sur m par exemple).
+∞ X e −λ λi
X +∞ e −µ µ j
πλ ∗ πµ = εi + j
j =0 i =0 i! j!
à !
+∞ k λi µk−i
= e −λ−µ εk
X X
k=0 i =0 i ! (k − i )!
d’autre part à !
k λi µk−i 1 X k k 1¡ ¢k
λi µk−i = λ+µ
X
=
i =0 i ! (k − i )! k! i =0 i k!
d’où πλ ∗ πµ = πλ+µ .
Proposition 2.14 Si X et Y sont des variables aléatoires réelles, discrètes, définies sur un
même espace probabilisé, indépendantes alors
P X +Y = P X ∗ PY .
P X +Y = P X = x i , Y = y j ε(xi +x j )
X ¡ ¢
(i , j )∈I ×J
P (X = x i ) P Y = y j ε(xi +x j )
X ¡ ¢
(indépendance) =
(i , j )∈I ×J
= P X ∗ PY
page 63
Variables aléatoires discrètes
Proposition 2.15 Soit X la variable aléatoire réelle discrète de loi P X = αi εxi . E [X ] est
X
Xi ∈I
finie si et seulement si la famille (αi |x i |)i ∈I est sommable (i.e. la série αi |x i | converge).
i ∈I
Dans ce cas
αi x i .
X
E [X ] =
i ∈I
Théorème 2.9 (Théorème du transfert) Si X admet une espérance alors la famille (X (ω)P({ω}))ω∈Ω
est absolument sommable et on a :
x i P X ({x i }) =
X X
E [X ] := X (ω)P({ω}).
i ∈I ω∈Ω
Loi uniforme :
¤ 1 X n
E U {x1 ,...,xn } =
£
xi .
n k=1
¢ 1 X n
V ar U {x1 ,...,xn } = (x i )2
¡
n k=1
E B n, p = np et E B 1, p = p
£ ¡ ¢¤ £ ¡ ¢¤
V ar B n, p = np 1 − p
¡ ¡ ¢¢ ¡ ¢
page 64
Variables aléatoires réelles
en effet :
à !
n n ¢n−k
E B n, p = pk 1 − p
£ ¡ ¢¤ X ¡
k
k=0 k
à !
n n −1 ¢(n−1)−(k−1)
p k−1 1 − p
X ¡
= np
k=1 k −1
= np.
Loi hypergéométrique :
M
E [H (n, N , M )] =n.
N
M N −n M
µ ¶
V ar (H (n, N , M )) = n 1−
N N −1 N
Loi géométrique :
¤ 1
E G (p) =
£
p
¢ 1−p
V ar G (p) =
¡
p2
Loi de Poisson :
E [P (λ)] = λ
V ar (P (λ)) = λ
En effet :
+∞ λk X λk−1
+∞
ke −λ = λe −λ = λ.
X
E [P (λ)] =
k=0 k! k=1 (k − 1)!
page 65
Variables aléatoires à densité
2.3.1 Définitions
Définition 2.11 Soit X : (Ω, T ) −→ (R, B (R)) une variable ¯aléatoire. On dit que X est à
densité (ou absolument continue), s’il existe une fonction f : ¯ (R, B (R)) −→ (R, B (R)) ,
¯
Proposition 2.16 Soit X : (Ω, T ) −→ (R, B (R)) une variable aléatoire de densité f X . Alors,
Sa fonction de répartition F X est continue sur R et dérivable en tout point x où f X est
continue avec F X′ (x) = f X (x) .
Preuve: On sait que F X est continue à droite en tout point et que F X est continue en x 0 si,
et seulement si, P(X = x 0 ) = 0. Ce qui est le cas. Donc F X est continue sur R.
Si f X est continue en x 0 alors elle est définie sur un intervale ]a, b[ contenant x 0 . Soit ε > 0,
page 66
Variables aléatoires réelles
¯ f X (t ) − f X (x 0 )¯ ≤ ε
¯ ¯
¯ ¯ ¯ µZ x
¯ F X (x) − F X (x 0 )
¶¯
¯ ¯ 1 ¯
¯ − f X (x 0 )¯ = ¯ f X (t ) dt − f X (x 0 ) ¯
¯ x − x0 ¯ ¯x −x
0 x0
¯
¯ ¯ ¯Z x ¯
¯ 1 ¯¯ ¡ ¢ ¯
=¯¯ ¯ ¯ f X (t ) − f X (x 0 ) dt ¯¯
x − x 0 ¯ ¯ x0
¯ 1 ¯¯ x ¯
¯ ¯ ¯Z ¯
¯ ¯
≤ ¯¯ ¯¯ ¯ f X (t ) − f X (x 0 )¯ dt ¯
x − x ¯¯ 0 x0
¯
≤ ε.
Proposition 2.17 Si X est telle que, F X soit continue sur R et de classe C 1 sur R privé d’un
sous-ensemble négligeable (pour la mesure de Lebesgue, par exemple au plus dénom-
brable), alors, X est absolument continue, à densité égale à F X′ .
On a vu que dans le cas de v.a.r indépendantes sur Ω, la loi de la somme est le produit
de convolution des deux lois. Dans le cas des v.a.r à densités, on a le résultat plus précis
suivant :
Théorème 2.10 Si X et Y sont deux v.a.r indépendantes sur Ω et si X est à densité f X alors
X + Y est à densité f X +Y = P X ∗ PY , définie pour tout t ∈ R par
Z
¡ ¢ ¡ ¢
f X +Y (t ) = f X t − y dPY y .
R
page 67
Variables aléatoires à densité
B ∈ B (R) ,
Z
P X ∗ PY (B ) =
¡ ¢ ¡ ¢
1B x + y dP X (x) dPY y
ZR
2
¡ ¢ ¡ ¢
= 1B x + y f X (x) dxdPY y
R2 Z
x=t −y ¡ ¢ ¡ ¢
= 1B (t ) f X t − y dt dPY y
ZR
2
µZ ¶
Fubini ¡ ¢ ¡ ¢
= 1B (t ) f X t − y dPY y dt
R R
Z
ce qui signifie que P X +Y = P X ∗ PY a pour densité la fonction t 7−→
¡ ¢ ¡ ¢
f X t − y dPY y (qui
R
est bien positive intégable d’intégrale égale à 1).
Remarque 2.17 Dans le cas particulier où X et Y sont deux v.a.r indépendantes sur Ω et si
X est à densité f X et Y discrète de loi PY = P Y = y i ε y i alors f X +Y est définie pour tout
X ¡ ¢
i ∈I
t ∈ R par
P Y = yi f X t − yi .
X ¡ ¢ ¡ ¢
f X +Y (t ) =
i ∈I
Proposition 2.18 Soit X une v.a.r sur Ω de densité f X . X admet une espérance si et seule-
ment si la fonction x 7−→ x f X (x) est intégrable sur R. Dans ce cas
Z
E [X ] = x f X (x) dx.
R
De même X admet une variance si et seulement si a fonction x 7−→ x 2 f X (x) est intégrable
sur R. Dans ce cas Z
V ar [X ] = (x − E [X ])2 f X (x) dx.
R
page 68
Variables aléatoires réelles
Lois usuelles
1
f = 1[a,b]
b−a
1 a +b
Z
E U [a,b] =
£ ¤
1[a,b] dx = .
R b−a 2
f = αe −α 1R+
2
³ ´
exp − (m−x)
2σ2
f = p
2πσ2
E N m, σ2 = m
£ ¡ ¢¤
page 69
Chapitre 3
Théorèmes limites
Dans toute la suite, on considère des variables aléatoires définies sur un espace probabilisé
(Ω, A , P) à valeurs dans R (mais tout ce qui est établit se généralise sans difficulté au cas de
Rd , d ∈ N∗ ).
Définition 3.1 On dit qu’une suite (X n )n≥1 de v.a.r sur Ω converge presque sûrement vers
la variable aléatoire réelle X si
³n o´
P lim X n = X = 1.
n−→∞
n o
Autrement dit, l’évènement N = ω ∈ Ω | lim X n (ω) ̸= X (ω) est P-négligeable. On note
n−→∞
alors
p.s
X n −→ X .
Remarque 3.1 Il résulte directement de la définition que la convergence p.s est compatible
avec les opérations algébriques élémentaires et la composition par fonctions continues.
Proposition 3.1 Soient X n , n ∈ N et X des variables aléatoires réelles définies sur (Ω, A , P),
les propositions suivantes sont équivalentes :
p.s
(i) X n −→ X .
70
Théorèmes limites
Preuve: D’abord
n o \ [ \ ©¯
ω ∈ Ω | lim X n (ω) = X (ω) = ¯X p − X ¯ ≤ ε
¯ ª
n−→∞
ε>0n∈Np≥n
½ ¾
\ [ \ ¯ ¯ 1
= ¯ Xp − X ≤
¯
k∈N∗ n∈Np≥n k
µ ¶
P lim sup (A n ) = 0 .
n−→∞
page 71
Convergences de suites de variables aléatoires
Proposition 3.2 Soient X n , n ∈ N et X des variables aléatoires réelles définies sur (Ω, A , P).
p.s
(i) Si pour tout ε > 0 la série P ({|X n − X | > ε}) converge alors X n −→ X .
X
n
p.s
(ii) Si les X n , n ∈ N sont mutuellement indépendantes, alors X n −→ 0 si et seulement si,
pour tout ε > 0, la série P ({|X n | > ε}) converge.
X
n
Preuve: (i) Si pour tout ε > 0 la série P ({|X n − X | > ε}) converge alors, par le lemme
X
µ n ¶
de Borel-Cantelli, P lim sup {|X n − X | > ε} = 0 . Donc, d’après le (ii) de la proposition ci-
n−→∞
p.s
dessus, X n −→ X .
(ii) Pour tout ε > 0, les évènements A n = {|X n | > ε}, n ∈ N sont indépendants, donc d’après la
loi du zéro-un de E. Borel, la série P (A n ) converge si et seulement si P lim sup (A n ) = 0.
X ¡ ¢
n
On conlut alors gràce à (ii) dans la proposition précédente.
Exemple 3.1 Soit (X n )n≥1 une suite de Bernoulli indépendantes. On note p n le paramètre
de X n . Alors
p.s X
X n −→ 0 ⇐⇒ p n converge.
n
A n = {|X n | > ε} ,
d’autre part, P (A n ) = p n pour tout ε ∈ [0, 1[ et P (|X n | > ε) = 0 pour tout ε ≥ 1. Donc
P (A n ) < ∞ ⇐⇒
X X
p n < ∞.
n n
p.s X
Donc X n −→ 0 ⇐⇒ p n converge.
n
page 72
Théorèmes limites
Définition 3.2 On dit qu’une suite (X n )n≥1 de variables aléatoires réelles converge en
probabilité vers la variable aléatoire réelle X si
On note alors
P
X n −→ X .
Remarque 3.2 (Unicité de la limite) De la définition il n’est pas évident que la limite est
unique ! Néanmoins, c’est juste.
En effet: Si ∀ε > 0 : lim P (|X n − X | > ε) = lim P (|X n − Y | > ε) = 0, alors pour tout ε > 0,
n−→∞ n−→∞
n εo n εo
{|X − Y | > ε} ⊂ |X − X n | > ∪ |X n − Y | > ,
2 2
³n ε o´ ³n ε o´
donc P ({|X − Y | > ε}) ≤ P |X − X n | > + P |X n − Y | > −→ . Par conséquent
2 2 n−→∞
Exemple 3.2 Soit (X n )n≥1 une suite de Bernoulli. On note p n le paramètre de X n . Alors
P
X n −→ 0 ⇐⇒ p n −→ 0.
n−→∞
En effet, P (|X n | > ε) = p n pour tout ε ∈ [0, 1[ et P (|X n | > ε) = 0 pour tout ε ≥ 1.
Proposition 3.3 (compatibilité avec les opérations) La convergence en probabilité est com-
patible avec les opérations algébriques élémentaires.
page 73
Convergences de suites de variables aléatoires
p.s P
X n −→ X ⇐⇒ Yn = sup |X k − X | −→ 0.
k≥n
P
Proposition 3.5 Soient X n , n ∈ N et X des variables aléatoires réelles. Si X n −→ X alors il
¡ ¢ p.s
existe un sous suite X ϕ(n) n telle que X ϕ(n) −→ X . Réciproquement, si de toute sous suite
P
de (X n ) on peut extraire une sous suite qui converge p.s vers X alors X n −→ X .
Ce qui permet de conclure que la convergence en probabilité est compatible avec la compo-
sition par fonctions continues.
P
Preuve: On suppose que X n −→ X . Pour tout ε > 0, il existe N ∈ N tel que, ∀n ≥ N , P(|X n −
X | > ε) ≤ ε2 .
P(|X k − X | > 1) ≤ 12
de même pour ε = 1/2, il existe ϕ(2) > ϕ(1) tel que pour tout k ≥ ϕ(2)
ainsi, avec ε = 1/n, n ≥ 1, on peut donc construire une sous suite X ϕ(n) n telle que
¡ ¢
µ½ ¾¶
P ¯ X ϕ(n) − X ¯ > 1 1
¯ ¯
≤ ,
n n2
Soit ε > 0, il existe N ∈ N tel que, ∀n ≥ N , ε ≥ 1/n, de sorte que, pour tout n ≥ N ,
1 1
P({|X ϕ(n) − X | > ε}) ≤ P({|X ϕ(n) − X | > }) ≤ 2
n n
page 74
Théorèmes limites
¡ ¢
donc X ϕ(n) n n’admet aucune aucune sous suite convergente p.s. , ce qui est absurde.
Définition 3.3 On dit qu’une suite (X n )n≥1 de variables aléatoires réelles converge en loi
vers la variable aléatoire réelle X si pour toute fonction g continue et bornée sur R, à
valeur dans R, on a :
lim E g (X n ) = E g (X ) .
¡ ¢ ¡ ¢
n−→∞
L
On note alors X n −→ X .
Remarque 3.4 Il s’agit d’une convergence de lois mais pas vraiment de variables aléatoires !
Donc il n’est pas indispensable que les variables aléatoires soit définies sur le même espace
probabilisé.
L L
Proposition 3.6 Si f est une fonction continue sur R et X n −→ X , alors f (X n ) −→ f (X ) .
En effet: Pour toute fonction g continue et bornée sur R et pour toute fonction f continue
sur R , la fonction g ◦ f est continue et bornée sur R .
p.s p.s
Preuve: On suppose que X n −→ X et g : R −→ R continue et bornée, alors g (X n ) −→ g (X )
et par le TCD lim E g (X n ) = E g (X ) .
¡ ¢ ¡ ¢
n−→∞
page 75
Convergences de suites de variables aléatoires
L’implication est conséquence du lemme 3.2 et du fait que la convergence en loi ne dépend
que des lois et non des variables aléatoires.
Rappelons que
∀t ∈ R : F X (t ) = P ({X ≤ t }) = E 1]−∞,t ] (X ) .
¡ ¢
L
Supposons que X n −→ X , c’est à dire, pour toute fonction g : R −→ R continue et bornée,
lim E g (X n ) = E g (X ) .
¡ ¢ ¡ ¢
n−→∞
par exemple
1 si x ≤ t −α
1 si x≤t
t −x t +α−x
g (x) = si t −α ≤ x ≤ t et h (x) = si t ≤ x ≤ t +α .
α
α
0 si x≥t 0 si x ≥ t +α
On a alors
et par conséquent
E g (X n ) ≤ F X n (t ) ≤ E (h (X n )) et F X (t − α) ≤ E g (X ) ≤ E (h (X )) ≤ F X (t + α) .
¡ ¢ ¡ ¢
page 76
Théorèmes limites
Définition 3.4 (inverse de Lévy) Soit F une fonction de répartition (càdlàg). On appelle
inverse de Lévy de F la fonction F ∗ définie sur ]0, 1[ par
ou aussi par
F (a) < y ≤ F (b) ⇐⇒ a < F ∗ y ≤ b.
¡ ¢
Remarque 3.6 Il n’est pas difficile (le faire en exercice) de justifier qu’il s’agit bien d’un
minimum et de montrer que
page 77
Convergences de suites de variables aléatoires
F ∗ y ≤ t ≤ x =⇒ y ≤ F (t ) ≤ F (x) = y ;
¡ ¢
F X (t ) = 0 si t <0
F X (t ) = 1 − p si 0≤t <1
F X (t ) = 1 si 1≤t
F X∗ (s) = 0 si s ≤ 1−p
F X∗ (s) = 1 si 1 − p < s < 1.
(b) En général, si X est une variable discrète prenant des valeurs x 1 < x 2 < · · · < x n avec
les probabilités respectives p 1 , · · · , p n alors
F X∗ (s) = x 1 si s ≤ p1
F X∗ (s) = x 2 si p1 < s ≤ p1 + p2
F X∗ (s) = x 3 si p1 + p2 < s ≤ p1 + p2 + p3
······
F X∗ (s) = x n si p 1 + · · · + p n−1 < s < 1.
F F X∗ (U ) = F X .
En particulier, avec Ω
b = ]0, 1[ ; Ac= B (]0, 1[) la tribu borélienne sur ]0, 1[ et P
b la mesure de
Lebesgue ; Y = F X∗ = F X∗ I d ]0,1[ on a F F X∗ = F X .
¡ ¡ ¢¢
Exemple 3.4 (Simulation d’une v.a.r discrète) (a) Pour simuler une variable X telle que
X ,→ B (p), on peut donc considérer la variable Y = F X∗ définie sur ]0, 1[ par
Y (s) = 0 si s ≤ 1−p
Y (s) = 1 si 1 − p < s < 1.
page 78
Théorèmes limites
(b) En général, pour simuler une variable X discrète prenant des valeurs x 1 < x 2 < · · · < x n
avec les probabilités respectives p 1 , · · · , p n , on peut considérer la variable Y = F X∗
définie sur ]0, 1[ par
Y (s) = x 1 si s ≤ p1
Y (s) = x 2 si p1 < s ≤ p1 + p2
Y (s) = x 3 si p1 + p2 < s ≤ p1 + p2 + p3
······
Y (s) = x n si p 1 + · · · + p n−1 < s < 1.
Pour simuler donc une réalisation de X , on simule une réalisation u de la loi uniforme
sur ]0, 1[ (en Python l’appelle à la fonction rand() le permet) puis on calcule Y (u)
qui donne alors une réalisation de X .
t ≥ F X∗ (u) ⇐⇒ F X (t ) ≥ u,
b | F ∗ (U (ω)) ≤ t = ω ∈ Ω
{Y ≤ t } := ω ∈ Ω
© ª © ª
b | U (ω) ≤ F X (t ) := {U ≤ F X (t )}
X
F Y (t ) = P
b ({Y ≤ t }) = P
b ({U ≤ F X (t )}) = F X (t ) .
Lemme 3.4 (convergence des inverses de Lévy) Soit F n , n ∈ N et F des fonctions de ré-
partition telles que (F n )n converge simplement vers F sur C (F ) , alors F n∗ n converge
¡ ¢
denses dans R .
page 79
Convergences de suites de variables aléatoires
Comme lim F n (a) = F (a) et lim F n (b) = F (b) alors il existe N ∈ N tel que
n−→+∞ n−→+∞
ce qui implique
∀n ≥ N : a < F n∗ y ≤ b.
¡ ¢
D’après le lemme 3.3 Yn est de même loi que X n et Y de même loi que X ; et d’après le
lemme 3.4, (Yn )n converge simplement vers Y sur C F X∗ qui est au plus dénombrable, par
¡ ¢
P
b −p.s
suite Yn −→ Y .
Exemples
(a) Soit (X n )n≥1 une suite de variables aléatoires réelles discrètes telles que X n = ε 1 :
n
µ ¶
1
P Xn = = 1.
n
Alors
L
X n −→ ε0 .
n 1
εk .
X
Xn =
k=1 n
n
Alors
L
X n −→ X ,→ U ([0, 1]) .
page 80
Théorèmes limites
X 1 ⌊nx⌋
F X n (x) = = −→ x.
k n n n−→∞
k:x≤ n
Donc F X n −→ F U ([0,1]) .
n−→∞
L
X n −→ X ⇐⇒ ∀k ∈ Z : P (X n = k) −→ P (X = k) .
n−→+∞
L
Preuve: Supposons que X n −→ X . Pour tout k ∈ Z :
µ¶ µ ¶ µ ¶ µ ¶
1 1 1 1
P (X n = k) = P X n ≤ k + − P X n ≤ k − = F Xn k + − F Xn k − ,
2 2 2 2
µ ¶ µ ¶
1 1
et puisque F X n et F X sont continues sur R\Z alors P (X n = k) −→ F X k + −F X k − =
n−→+∞ 2 2
P (X = k) .
X
lim |u k − u| = 0.
n−→+∞
k∈Z
page 81
Convergences de suites de variables aléatoires
|P (X n = k) − P (X = k)|
X
≤
k≤t
|P (X n = k) − P (X = k)| .
X
≤
k∈Z
¯ ¯
L
¯X ¯
Donc lim ¯ P (X n = k) − P (X = k)¯ = 0. Par conséquent X n −→ X .
¯ X ¯
n−→∞ ¯
k≤t k≤t
¯
λ
Exemple 3.5 Si X n suit une binômiale B n, p n , lim np n = λ (en particulier si p n = ),
¡ ¢ ¡ ¢
n−→∞ n
alors la suite (X n ) converge en loi vers la variable aléatoire suivant la loi de poisson P (λ).
e−λ λk
lim P (X n = k) = .
n−→∞ k!
D’abord, lim p n = 0 et
n−→∞
¢n 2
= en ln(1−p n ) = en (−p n +O (p n ))
¡
1 − pn
2
= e−np n +O (np n )
2
= e−np n eO (np n )
¢n
donc lim 1 − p n = e−λ et
¡
n−→∞
à !
n ¡ ¢k ¡ ¢n−k 1 1 n (n − 1) ... (n − k + 1) ¡ ¢k ¡ ¢n
pn 1 − pn = ¡ ¢k k
np n 1 − p n
k k! 1 − p n n
1 1 n (n − 1) ... (n − k + 1) ¡ ¢k ¡ ¢n
= ¢k k
np n 1 − p n
k! 1 − p n n
¡
λk e−λ
−→ .
n−→+∞ k!
C.Q.F.D.
page 82
Théorèmes limites
Z
cv−s
Preuve: On suppose f n −→ f sur R , donc d’après le TCD,
¡ ¢
f − fn −→
+ n−→∞ 0 et avec
Z Z R
¡ ¢ ¡ ¢
f − f n = 0 on a aussi f − f n − −→ 0 et donc
R R n−→∞
Z
¯ ¯ L1
¯ f − f n ¯ −→ 0 i.e. f n −→ f.
R n−→∞
L
donc X n −→ X .
P
Preuve: On suppose X n −→ X ; Soit x ∈ C (F X ) .
P (X n ≤ x) = P (X n ≤ x, |X n − X | > ε) + P (X n ≤ x, |X n − X | ≤ ε)
≤ P (|X n − X | > ε) + P (X ≤ x + ε)
de même
P (X ≤ x − ε) ≤ P (|X n − X | > ε) + P (X n ≤ x)
de sorte que
page 83
Convergences de suites de variables aléatoires
Seconde preuve (lim sup et lim inf). Pour ε > 0, il existe η > 0, tel que
FX x + η − FX x − η ≤ ε
¡ ¢ ¡ ¢
P |X n − X | > η ≤ ε
¡ ¢
En effet
F X n (x) = P (X n ≤ x)
= P (X n ≤ x) ∩ X ≤ x + η + P (X n ≤ x) ∩ X > x + η
¡ ¡ ¢¢ ¡ ¡ ¢¢
≤ P X ≤ x + η + P |X n − X | > η
¡¡ ¢¢ ¡ ¢
= F X x + η + P |X n − X | > η
¡ ¢ ¡ ¢
donc
F X n (x) ≤ F X x + η + P |X n − X | > η
¡ ¢ ¡ ¢
de même
F X x − η ≤ F X n (x) + P |X n − X | > η
¡ ¢ ¡ ¢
≤ F X x + η − F X x − η + P |X n − X | > η
¡ ¢ ¡ ¢ ¡ ¢
et
≤ F X x + η − F X x − η + P |X n − X | > η
¡ ¢ ¡ ¢ ¡ ¢
Proposition 3.8 Soient (X n )n∈N une suite de variables aléatoires réelles sur (Ω, A , P) qui
page 84
Théorèmes limites
converge en loi vers une variable constante a , alors elle converge aussi en probabilité vers
a.
L
On suppose X n −→ a, c’est à dire, F n (x) −→ F (x) pour tout x ̸= a. Soit ε > 0,
n−→∞
donc
Par suite P({|X n − a| > ε}) −→ 0. Par conséquent, (X n )n converge en probabilité vers a.
n→∞
En général, la convergence en loi n’est pas compatible avec les opérations algébriques ;
toute fois on a :
L L
X n Yn −→ a X et X n + Yn −→ a + X .
Remarque 3.9 En fait le théorème de Slutsky est plus général ; il affirme que, sous les hypo-
L
thèses du théorème précédent, (X n , Yn ) −→ (X , a) .
L
Lemme 3.5 Si X n −→ X alors P (X n = x) −→ 0 , pour tout x ∈ C (F X ) .
n−→∞
page 85
Convergences de suites de variables aléatoires
Par conséquent P (X n = x) −→ 0.
n−→∞
x ∈ C (F a+X ) ⇐⇒ x − a ∈ C (F X )
x ∈ C (F X ) ⇐⇒ −x ∈ C (F −X )
et pour tout x ∈ C (F X ) ,
F −X n (−x) = P (X n ≥ x) = 1 − F X n (x) + P (X n = x)
donc
F X n +Yn (x) ≤ P (|Yn | ≥ ε) + F X n (x + ε)
de même
F X n (x − ε) − P (|Yn | ≥ ε) ≤ F X n +Yn (x)
page 86
Théorèmes limites
L L L
5- X n −→ X et Yn −→ 0 =⇒ X n Yn −→ 0 ? On montre que
P (X n Yn ≤ x) −→ 0 si x <0
n−→∞
P (X n Yn ≤ x) −→ 1 si x >0
n−→∞
x x
µ ¶ µ ¶
P (X n Yn ≤ x) = P Yn ≤ , X n > 0 + P Yn ≥ , Xn < 0
Xn Xn
| {z } | {z }
(I ) (I I )
x x
µ ¶ µ ¶
(I ) = P Yn ≤ , 0 < X n ≤ y + P Yn ≤ , Xn > y
Xn Xn
x
µ ¶
≤ P Yn ≤ + P X n > y −→ 0 + P X > y ≤ ε
¡ ¢ ¡ ¢
y n−→+∞
x x
µ ¶ µ ¶
(I I ) = P Yn ≥ , y < X n < 0 + P Yn ≥ , Xn ≤ y
Xn Xn
x
µ ¶
≤ P Yn > + P X n ≤ y −→ 0 + P X ≤ y ≤ ε
¡ ¢ ¡ ¢
y n−→+∞
par suite
page 87
Convergences de suites de variables aléatoires
Définition 3.5 Soit r ∈ R∗+ . Soient une suite (X n )n≥1 de variables aléatoires réelles et X
une variable aléatoire réelle telles que E |X |r et E |X n |r existent pour tout n. On dit que
£ ¤ £ ¤
lim E |X n − X |r = 0.
£ ¤
n−→∞
On note alors
Lr
X n −→ X .
≤ P |X n − X |r ≥ εr
¡ ¢
E [|X n − X |r ]
≤
εr
Le graphe suivant est plus complet et résume la comparaison des modes de convergence :
page 88
Théorèmes limites
Le cas particulier des suites de variables aléatoires indépendantes est très intéressant (voir
[4]). On a, entre autre, les deux résultats suivant :
(a) Une suite de v.a.r indépendantes converge presque sûrement ou diverge presque
sûrement. Et dans le cas où elle converge presque sûrement, sa limite est presque
sûrement constante.
X1 + · · · Xn
µ ¶
(b) Soit (X n )n∈N une suite de v.a.r indépendantes. La suite converge
n n≥1
presque sûrement ou diverge presque sûrement. Et dans le cas où elle converge
presque sûrement, sa limite est presque sûrement constante.
Soit (X n )n≥1 une suite de variables aléatoires réelles. On cherche des conditions suffisantes
pour que la suite de variables aléatoires
Sn
Xn = appelée moyenne empirique des X k ,
n
converge vers E [X 1 ] au sens de l’un des types de convergence de suites de variables aléa-
toires. Où on a posé
n
X
S n := Xk .
k=1
Définition 3.6 On dit que la suite (X n )n≥1 "i".i.d, satisfait la loi faible des grands nombres,
si
P
X n −→ E [X 1 ] ,
p.s
X n −→ E [X 1 ] .
page 89
Lois des grands nombres et théorème central limite
Théorème 3.5 (Loi faible des grands nombres) Soit une suite (X n )n≥1 de variables aléa-
toires réelles deux à deux indépendantes, à carrées intégrables, et de même loi. Alors
L2 P
X n −→ E [X 1 ] et donc X n −→ E [X 1 ] .
c.q.f.d.
Théorème 3.6 (TCL) Soit une suite (X n )n≥1 de variables aléatoires réelles deux à deux
indépendantes, et de même loi, telles que Var (X 1 ) = σ2 < ∞ ; µ = E [X 1 ] . Alors
Xn − µ L
σ −→ N (0, 1) ,
p
n
c’est à dire
Xn − µ x1
Z
u2
P p e − 2 du.
σ ≤ x n−→∞
−→
p −∞ 2π
n
X n − µ S n − nµ 1 X n ¡
Xk − µ
¢
Zn = σ = p = p
p σ n σ n k=1
n
page 90
Théorèmes limites
Et puisque X 1 est à carré intégrable alors ϕ est de classe C 2 et admet le DL 2 (0) suivant :
σ2 2
ϕ (t ) = 1 − t + t 2 ε (t ) (avec ε (t ) −→ 0).
2 t −→0
2 ¶¶n t2
t t
µ µ
1 2 −
ϕ Zn (t ) = 1 − t + 2 ε p −→ e 2 = ϕN (0,1) (t )
2n σ n σ n n−→+∞
Théorème 3.7 (Loi forte des grands nombres) Soit une suite (X n )n≥1 de variables aléa-
toires réelles deux à deux indépendantes, intégrables, et de même loi. Alors
p.s L1
X n −→ E [X 1 ] et X n −→ E [X 1 ] .
Remarque 3.12 Le fait que X n+ n et X n− n vérifient les mêmes propriétés que X n n on peut
¡ ¢ ¡ ¢ ¡ ¢
Preuve: On suppose que les X n sont à valeur dans R+ . Avec les notations ci-dessus, on
considère la suite de v.a.r (Yn )n≥1 définie par
Yn = X n .1(X n ≤n)
n
X
et Tn = Y1 + · · · + Yn . Par indépendance, V (Tn ) = V (Yk ) .
k=1
S kn
µ ¶
converge presque sûrement vers E (X 1 ) ?
kn n
page 91
Lois des grands nombres et théorème central limite
X E Yn2
¡ ¢
Etape 1 : La série est convergente. En effet, par positivité, on a
n2
X E Yn2
¡ ¢
X 1 Z n 2
= x dP X
n≥1 n2 n≥1 n
2
0
à !
X 1 X Z k 2
= 2
x dP X
n≥1 n 1≤k≤n k−1
à !
X X 1 Z k 2
= 2
x dP X
k≥1 n≥k n k−1
X 2Z k 2
µ ¶
≤ x dP X
k≥1 k k−1
X Z k
µ ¶
≤ 2 xdP X = 2E (X )
k≥1 k−1
X E Yn2
¡ ¢
donc la série est convergente.
n2
Tkn − E Tkn
µ ¡ ¢¶
Etape 2 : La suite converge presque sûrement vers 0.
kn n
X ¯ Tkn − E Tkn ¯
µ¯ ¡ ¢¯ ¶
Soit ε > 0 , on montre que P ¯¯
¯ > ε est convergente.
¯
n≥1 kn
Par l’inégalité de B.T
¯ Tkn − E Tkn ¯
¡ ¢¯ ¡ ¢
V Tkn
µ¯ ¶
P ¯¯ ¯>ε ≤
kn ε2 (k n )2
¯
et par positivité
¯ Tkn − E Tkn ¯
¡ ¢¯ ¡ ¢
1 X V Tkn
µ¯ ¶
P ¯ ¯ > ε ≤ ε2
X
¯ ¯
kn 2
n≥1 n≥1 (k n )
à !
1 X 1 X
= 2 V (Yi )
ε n≥1 (k n )2 1≤i ≤kn
1 X V (Yi )
X 1
= 2
ε i ≥1 (k n )2
ln i
n≥
ln α
¶ ln i
α4
µ
1 1 2 1 ln α 1 1
¢ ≤α
X X
≤ = 2 × 2
2 n−1 2 α2 1 α −1 i
ln i α
¡
ln i (k n ) 1− 2
n≥ n≥ α
ln α ln α
page 92
Théorèmes limites
donc
¯ Tkn − E Tkn ¯
¯>ε ≤ α × 1
¡ ¢¯
µ¯ ¶ 4 X V (Yi )
P ¯¯
X
n≥1 k n
¯ α2 − 1 ε2 i2 i ≥1
¯ Tkn − E Tkn ¯
µ¯ ¡ ¢¯ ¶
P ¯¯ ¯ > ε et conver-
X
Par conséquent, d’après le résultat de l’étape 1, la série
n k ¯
¢ ¶ n≥1
Tkn − E Tkn
µ ¡
gente. On en déduit alors que la suite converge presque sûrement vers
kn n
0.
Tkn
µ ¶
Etape 3 : La suite converge presque sûrement vers E (X 1 ) .
kn n
Pour celà, on a Z Z n +∞
E (Yn ) = xdP X −→ xdP X = E (X 1 )
0 n−→+∞ 0
E (Tk )
µ ¶
et par les moyennes de Césaro et la linéarité de l’espérance, converge vers E (X 1 ) .
k k
Tkn
µ ¶
Enfin, par le résultat de l’étape 2, converge presque sûrement vers E (X 1 ) .
kn n
S kn
µ ¶
Etape 4 : La suite converge presque sûrement vers E (X 1 ) .
kn n
Pour tout n ∈ N∗
P (X n ̸= Yn ) = P (X n > n) = P (X 1 > n)
et puisque X 1 est intégrable alors (voir lemme ??) la série P (X 1 > n) est convergente et
X
n
par conséquent, la série P (X n ̸= Yn ) est aussi convergente.
X
p.s
Par conséquent la suite (X n − Yn ) −→ 0 et encore une fois, d’après Césaro,
S n − Tn p.s
−→ 0
n
S kn
µ ¶
et donc converge presque sûrement vers E (X 1 ) .
kn n
Sn
µ ¶
Etape 5 : Toute la suite converge presque sûrement vers E (X 1 ) .
n n
Soit n ∈ N∗ , il existe m ∈ N tel que αm ≤ n < αm+1 et donc
1 Sn Sn
E (X 1 ) ≤ lim inf ≤ lim sup ≤ αE (X 1 )
α n n
page 93
Bibliographie
94