Nothing Special   »   [go: up one dir, main page]

Poly Proba Seddoug 2024

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 95

Cours de Probabilité

Par B. SEDDOUG

Seconde édition décembre 2023 (pas encore finalisée)


Table des matières

Programme du concours de l’agrégation des mathématiques 4

1 Généralités sur les espaces probabilisés 6

1.1 Mesure et Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.1 Tribus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.2 Applications mesurables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.3 Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.1.4 Construction de mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.1.5 Mesure produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.1.6 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.1.7 Intégrales des fonctions étagées mesurables positives . . . . . . . . . . 12

1.1.8 Intégrales des fonctions mesurables positives . . . . . . . . . . . . . . . 14

1.1.9 Intégrales des fonctions mesurables de signe quelconque . . . . . . . . 15

1.1.10 Théorèmes de Fubini-Tonelli . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.1.11 Ensembles négligeables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.1.12 Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.1.13 Intégrale de Lebesgue et intégrale de Riemann . . . . . . . . . . . . . . 20

1.2 Espaces L p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.2.1 Définitions – Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.2.2 Inégalité de Hölder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

1.2.3 Inégalité de Minkowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

1.2.4 Inégalité de Jensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1.2.5 Convergence dans L p et convergence presque partout . . . . . . . . . . 26

1
1.2.6 Complétude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

1.3 Résultats de densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

1.4 Fonction définie par une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . 33


Z
1.4.1 Continuité sous le signe . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Z
1.4.2 Dérivabilité sous le signe . . . . . . . . . . . . . . . . . . . . . . . . . . 34

1.4.3 Exemples : Travaux Dirigés . . . . . . . . . . . . . . . . . . . . . . . . . . 35

1.5 Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

1.5.1 Mesure de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

1.5.2 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . 37

1.5.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

1.5.4 Lemme de Borel-Cantelli, loi du zéro-un . . . . . . . . . . . . . . . . . . 39

2 Variables aléatoires réelles 42

2.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.1.1 Définitions – Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.1.2 Loi de probabilité d’une variable aléatoire . . . . . . . . . . . . . . . . . 43

2.1.3 Fonction de répartition d’une v.a.r . . . . . . . . . . . . . . . . . . . . . . 44

2.1.4 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . 45

2.1.5 Loi conjointe d’un couple de v.a.r . . . . . . . . . . . . . . . . . . . . . . 46

2.1.6 Moments d’une v.a.r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2.1.7 Propriétés de l’espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

2.1.8 Lois de la somme de variables aléatoires indépendantes . . . . . . . . . 51

2.1.9 Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

2.2 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2.2.2 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

2.2.3 Transformation des variables aléatoires discrètes . . . . . . . . . . . . . 60

2.2.4 Indépendance de v.a.r discrètes . . . . . . . . . . . . . . . . . . . . . . . 61

2.2.5 Convolution des lois de probabilité discrètes . . . . . . . . . . . . . . . . 62

page 2
Table des matières

2.2.6 Moments d’une v.a.r discrète . . . . . . . . . . . . . . . . . . . . . . . . . 64

2.3 Variables aléatoires à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

2.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

2.3.2 Loi de la somme de deux v.a.r à densités . . . . . . . . . . . . . . . . . . 67

2.3.3 Moments d’une v.a.r à densité . . . . . . . . . . . . . . . . . . . . . . . . 68

3 Théorèmes limites 70

3.1 Convergences de suites de variables aléatoires . . . . . . . . . . . . . . . . . . . 70

3.1.1 Convergence presque sûrement . . . . . . . . . . . . . . . . . . . . . . . 70

3.1.2 Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 73

3.1.3 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

3.1.4 Convergence en moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

3.2 Lois des grands nombres et théorème central limite . . . . . . . . . . . . . . . 89

3.2.1 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . 90

3.2.2 Théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

3.2.3 Loi forte des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . 91

page 3
Programme

Calcul intégral

(a) Notions de théorie de la mesure

— Définition des espaces mesurables, tribu produit, cas particulier des tribus
boréliennes.
— Définition d’une mesure positive, cas particuliers de la mesure de comptage, de
la mesure de Lebesgue (construction admise) et des mesures de probabilité.
— Définition d’une mesure produit (construction admise).
— Définition des fonctions mesurables, approximation par des fonctions étagées.

(b) Intégration

— Intégrale des fonctions mesurables positives, théorème de convergence mo-


notone. Lemme de Fatou. Fonctions intégrables, théorème de convergence
dominée.
— Fonctions intégrables à valeurs dans un espace vectoriel de dimension finie.
Continuité, dérivabilité des intégrales à paramètres.
— Espaces L p , où 1 ≤ p ≤ +∞ Complétude. Inégalité de Hölder.
— Théorème de Fubini. Changement de variables dans une intégrale multiple. Cas
des coordonnées polaires, cas des coordonnées sphériques.
— Convolution. Régularisation et approximation par convolution.

Probabilités

(a) Définition d’un espace probabilisé

— Évènements, tribus, mesure de probabilité.


— Indépendance d’évènements et de tribus.

4
Table des matières

— Probabilités conditionnelles, formule des probabilités totales et théorème de


BAYES.
— Loi du zéro-un, lemme de BOREL-CANTELLI.

(b) Variables aléatoires réelles, loi d’une variable aléatoire.

— Loi d’une variable aléatoire : loi discrète et loi absolument continue. Fonction
de répartition et densité.
— Exemples de variables aléatoires : variable de BERNOULLI, binomiale, de POIS-
SON, uniforme, exponentielle, de GAUSS.
— Espérance et variance d’une variable aléatoire à valeurs réelles, théorème de
transfert.
— Inégalité de MARKOV, inégalité de BIENAYMÉ-TCHEBYCHEV.
— Indépendance de variables aléatoires. Loi conditionnelle d’une variable par
rapport à une autre.
— Transformations exponentielles de lois : fonction caractéristique, transformée
de LAPLACE, fonction génératrice. Liens avec l’indépendance et la convolution,
application aux sommes de variables aléatoires indépendantes.

(c) Suites de variables aléatoires réelles

— Convergences de suites de variables aléatoires : en probabilité, dans L p , presque


sûrement, en loi.
— Loi faible des grands nombres, applications en statistiques.
— Théorème de LÉVY, théorème central limite, applications en statistiques.

page 5
Chapitre 1

Généralités sur les espaces probabilisés

1.1 Mesure et Intégration

Dans la suite, on utilisera un ensemble Ω que l’on appellera "univers". En probabilité c’est
l’ensemble des issues d’une expérience aléatoire : il contient tous les aléas possibles.

Dans cette première section, on rappelle les principales notions et les principaux résultats
de la théorie d’intégrales de Lebesgues.

1.1.1 Tribus

Définition 1.1 Une famille A de parties de Ω est une tribu (sur Ω) si elle vérifie

(i) Ω ∈ A
(ii) A ∈ A ⇒ A c ∈ A (stabilité par passage au complémentaire), A c := {x ∈ Ω : x ∉ A}
(iii) A 0 , A 1 , A 2 , · · · ∈ A ⇒ ∪n≥0 A n ∈ A (une réunion dénombrable d’éléments de A est dans
A ).

Si A est une tribu sur Ω , on dit que (Ω, A ) est un espace mesurable.

Remarque 1.1 (Stabilité par intersection dénombrable) Si A est une tribu et (A n )n∈N une
suite d’éléments de A , alors ∩ A n ∈ A .
n≥0

Exemple 1.1 (a) Pour n’importe quel ensemble Ω, A = {∅, Ω} est une tribu.
(b) Pour n’importe quel ensemble Ω, A = P (Ω) (les parties de Ω) est une tribu.

Remarque 1.2 Il est facile de vérifier que toute intersection de tribus est une tribu. Celà
permet de définir la notion de tribu engendrée par une partie de Ω :

6
Généralités sur les espaces probabilisés

Proposition 1.1 Soit A ⊂ P (Ω), il existe une tribu notée σ(A ) , et appelée tribu engendrée
par A , telle que si B est une tribu telle que A ⊂ B alors σ(A ) ⊂ B.

Définition 1.2 (Tribu borélienne) Soit l’ensemble de parties de R suivant :

A = {]a, b[: a ≤ b ∈ R}

(c’est l’ensemble des intervalles ouverts). La tribu σ(A ) s’appelle la tribu des boréliens et
se note B(R).

Exemple 1.2 Soit [a, b] intervalle fermé de R. Les intervalles ]−∞, a[=
[
]a−n, a[, ]b, +∞[=
n∈N
]b, b + n[ sont dans B(R). La famille B(R) est une tribu donc ] − ∞, a[∪]b, +∞[∈ B(R)
[
n∈N
(stabilité par réunion dénombrable), et donc aussi (] − ∞, a[∪]b, +∞[)c = [a, b] ∈ B(R) (sta-
bilité par passage au complémentaire).
De même, on peut montrer que tous les intervalles de R sont dans B(R), ainsi que tous les
singletons.

Exercice 1.1 Montrer que B(R) est aussi engendrée par la famille des intervalles ]−∞, a] tel
que a ∈ R. Même chose pour tout les types d’intervalles.

(i) On définit de même B Rn , où n ∈ N, n ≥ 2, comme étant la tribu


¡ ¢
Remarque 1.3
n
définie sur Rn engendré par les pavés fermés
Y
[a i , b i ] .
i =1
(ii) En général, si T est une topologie sur Ω , la tribu σ (T ) est appelée tribu borélienne
sur Ω .

Proposition 1.2 (Tribu engendrée par une application) Soient Ω un ensemble non vide
et (Ω′ , A ′ ) un espace mesurable, et f : Ω −→ Ω′ . f −1 A ′ := f −1 (Y ) | Y ∈ A ′ est une tribu
¡ ¢ © ª

sur Ω appelée tribu engendrée par f .

1.1.2 Applications mesurables

Définition 1.3 Soient (Ω, A ), (Ω′ , A ′ ) deux espaces mesurables. On dit qu’une application
f : Ω −→ Ω′ est mesurable (par rapport aux tribus A , A ′ ) si ∀B ∈ A ′ , f −1 (B ) ∈ A .

Remarque 1.4 On verra plus loin dans ce cours que si f : (Ω, A ) −→ (R, B (R)) . Alors f est
mesurable si et seulement si pour tout a ∈ R, f −1 (]−∞, a]) ∈ A .

Exercice 1.2 (a) Montrer que si f : (Ω, A ) −→ (Ω′ , P (Ω′ )) est telle que f (Ω) est au plus
dénombrable alors f est mesurable si et seulement si ∀b ∈ Ω′ , f −1 ({b}) ∈ A .

page 7
Mesure et Intégration

(b) Montrer que toute fonction f : R −→ R continue par morceaux est mesurable.

Proposition 1.3 (Propriétés des applications mesurables) Soient (Ω, A ), (Ω′ , A ′ ) et (Ω′′ , A ′′ )
des espaces mesurables, R étant muni de sa tribu B(R).

(i) Si f : Ω −→ Ω′ et h : Ω′ −→ Ω′′ sont mesurables alors h ◦ f : Ω −→ Ω′′ est mesurable.


En plus si f (Ω) est au plus dénombrable et f mesurable alors h ◦ f est mesurable,
pour toute application h : Ω′ −→ Ω′′ .
(ii) Si f , g : Ω −→ R sont mesurables alors max f , g , min f , g , f + g , f × g sont mesu-
¡ ¢ ¡ ¢
f
rables, et si g ne s’annule pas alors est mesurables.
g
(iii) Si ( f n )n≥0 : Ω −→ R est une suite de fonctions mesurables alors sup f n et inf f n sont
n n
des fonctions mesurables.
C .S
(iv) Si f , f n : Ω −→ R sont telles que f n −→ f sur Ω et f n mesurable pour tout n , alors f
est mesurable.

Exercice 1.3 (a) Démontrer les propriétés ci-dessus.


(b) Montrer que toute fonction réglée f : (R, B(R)) −→ (R, B(R)) est mesurable.

1.1.3 Mesures

Dans le calcul des mesures, on adopte les conventions de calcul suivantes (qui ne sont pas
valables ailleurs) :

(+∞) + (+∞) = (+∞) × (+∞) = +∞, ∀x ∈ R : x + ∞ = +∞, 0 × ∞ = 0.

Définition 1.4 Soit Ω un ensemble muni d’une tribu A . On appelle mesure (positive) sur
(Ω, A ) toute application µ : A −→ [0, +∞] (elle peut prendre la valeur ∞) telle que :

(i) µ(∅) = 0
(ii) si A 0 , A 1 , A 2 , · · · ∈ A et sont deux à deux disjoints alors µ( ∪ A n ) = µ(A n ) (égalité
X
n≥0 n≥0
dans [0, +∞] ).

Quand µ est telle que µ (Ω) < ∞, on dit que µ est une mesure finie. Quand on a un ensemble
Ω avec une tribu A sur Ω, on dit que (Ω, A ) est un espace mesurable. Si on a de plus, une
mesure µ sur (Ω, A ), on dit que Ω, A , µ est un espace mesuré.
¡ ¢

Remarque 1.5 La condition µ(∅) = 0 permet d’éviter le cas de mesure constante égale à +∞ .

Proposition 1.4 (Propriété d’une mesure) Soit Ω, A , µ un espace mesuré.


¡ ¢

page 8
Généralités sur les espaces probabilisés

(a) Soit A, B ∈ A . Si B ⊂ A alors µ(B ) ≤ µ(A) ; si, de plus µ(A) < +∞, alors µ(A ∖ B ) =
µ(A) − µ(B ).
(b) Si A 0 , A 1 , A 2 , · · · ∈ A (pas forcément deux à deux disjoints). Alors

µ( ∪ A n ) ≤ µ(A n ) (sous-additivité).
X
n≥0 n≥0

(c) Soient A 0 , A 1 , · · · ∈ A tels que A 0 ⊂ A 1 ⊂ · · · ⊂ A n ⊂ A n+1 ⊂ . . . . Alors

µ( ∪ A k ) = lim µ(A n ) ,
k≥0 n−→∞

et si A 0 ⊃ A 1 ⊃ · · · ⊃ A n ⊃ A n+1 ⊃ . . . et µ(A 0 ) < +∞ , alors

µ( ∩ A k ) = lim µ(A n ) ,
k≥0 n−→+∞

(c’est la continuité séquentielle monotonne).

Exercice 1.4 Démontrer les propriétés ci-dessus.

Exemple 1.3 (Mesure de comptage et Mesure discrète) Le triplet (N, P (N), card) est un es-
pace mesuré. En général, (Ω, P (Ω), card) est un espace mesuré.

De manière plus générale, si (ωn )n∈N une suite injective d’éléments de Ω et (αn )n∈N une
suite de nombres réels positifs, alors l’application qui à tout évènement A ∈ A , fait corres-
pondre la valeur
µ (A) = αn ,
X
n|ωn ∈A

est une mesure sur (Ω, A ) (dite mesure discrète portée par les éléments ωn pondérés par
les poids αn ).

Remarque 1.6 La sommation précédente est faite sur un ensemble au plus dénombrable
et les nombres αn sont positifs. Il n’y a donc aucune ambiguïté dans cette définition. Il est
commode de noter cette mesure discrète :

µ= αn εωn .
X
n≥1

où εω : A 7−→ 1 si ω ∈ A et 0 si non. La mesure εω est appelée mesure de Dirac en ω.

Remarque 1.7 Toute mesure de probabilité sur un espace Ω fini ou dénombrable est discrète.
Cependant on peut toujours munir un espace (Ω, A ), où Ω a la puissance du continu, d’une
mesure de probabilité discrète.

page 9
Mesure et Intégration

Exemple 1.4 Par exemple, si λ > 0, on peut munir (R, B (R)) de la mesure discrète :

+∞ e −λ λn
πλ = εn .
X
n=0 n!

Cette mesure est appelée loi de Poisson de paramètre λ. Ce sont les entiers positifs qui
portent toute la masse. On dit que N est le support de la mesure.

1.1.4 Construction de mesures

Le problème de la construction générale d’une mesure sur un espace mesurable (Ω, A ) est
délicat ; on ne peut pas toujours définir directement une mesure en donnant une formule
explicite pour calculer la mesure de tout mesurable. On ne peut parfois donner une telle
formule que pour certaines parties de Ω.

Le problème de l’existence d’un prolongement d’une application définie sur une partie U
de P (Ω) en une mesure sur σ(U ) fait l’objet du théorème de prolongement de Carathéo-
dory dont on donne une version simplifiée.

Définition 1.5 (anneau et algèbre d’ensemble) On appelle anneau d’ensemble (ou an-
neau booléen) sur Ω, toute partie non vide R de P (Ω), stable par réunion et différence.

Tout anneau R tel que Ω ∈ R s’appelle une algèbre.

Une tribu est donc une algèbre stable par la réunion dénombrable, on dit aussi sigma
algèbre.

Définition 1.6 Soit (Ω, A , µ) un espace mesuré. On dit que la mesure µ est σ-finie si Ω est
la réunion dénombrable d’ensembles de mesure finie.

Exemple 1.5 — toute mesure finie est σ-finie ;


— la mesure de Lebesgue est σ-finie ;
— la mesure de comptage sur un ensemble dénombrable est σ-finie.

Remarque 1.8 La notion de mesure σ-finie est notamment utile pour construire la mesure
produit de deux mesures.

Théorème 1.1 (Carathéodory) Toute mesure sur un anneau d’ensembles admet au moins
un prolongement à la tribu engendrée par cet anneau.

Si la mesure sur l’anneau est σ-finie, ce prolongement est unique.

Exemple 1.6 (Mesure de Lebesgue sur R) Il existe une mesure λ sur (R, B (R)) vérifiant :

page 10
Généralités sur les espaces probabilisés

(a) Pour tout intervalle ]a, b[, λ(]a, b[) = b − a,


(b) ∀A ∈ B(R), ∀x ∈ R, λ({y : y − x ∈ A}) = λ(A) . Cette mesure λ s’appelle la mesure de
Lebesgue.

Par exemple : λ ([a, b]) = λ ([a, b[) = λ (]a, b]) = b − a , λ ({a}) = 0 , λ (Q) = 0.

1.1.5 Mesure produit

Pour des détails sur les tribus produit et les mesures produit, voir [1]. Ci-dessus, le théorème
qui précise l’existence de la mesure de Lebesgue dans R2 et donc en général dans Rn .

Soient (Ω1 , A1 ) et (Ω2 , A2 ) deux espaces mesurables. La tribu naturellement associée au


produit Ω1 × Ω2 est la tribu notée A1 ⊗ A2 donnée par

A1 ⊗ A2 := σ({A 1 × A 2 | (A 1 , A 2 ) ∈ A1 × A2 }

qu’on appelle la tribu produit des deux tribus A1 et A2 .

Si µ1 est une mesure sur (Ω1 , A1 ) et µ2 est une mesure sur (Ω2 , A2 ), on souhaite définir une
mesure produit µ1 ⊗ µ2 , qui vérifie la propriété suivante :

∀(A 1 , A 2 ) ∈ A1 × A2 , µ1 ⊗ µ2 (A 1 × A 2 ) = µ1 (A 1 )µ2 (A 2 ).

Lorsque les mesures µ1 et µ2 sont σ-finies, il existe une unique mesure vérifiant cette
propriété :

Théorème 1.2 Soient (Ω1 , A1 , µ1 ) et (Ω2 , A2 , µ2 ) deux espaces mesurés où µ1 et µ2 sont


deux mesures σ-finies. Alors il existe une unique mesure notée µ1 ⊗ µ2 définie sur (Ω1 ×
Ω2 , A1 ⊗ A2 ) vérifiant :

∀(A 1 , A 2 ) ∈ A1 × A2 , µ1 ⊗ µ2 (A 1 × A 2 ) = µ1 (A 1 )µ2 (A 2 ).

On appelle cette mesure la mesure produit des mesures µ1 et µ2 .

Exemple 1.7 (Mesure de Lebesgue sur R2 ) Soit λ la mesure de Lebesgue sur (R, B (R)). Il
existe une mesure positive unique sur R2 , B R2 , notée aussi λ appelée mesure de Le-
¡ ¡ ¢¢

besgue sur R2 , telle que

∀B 1 , B 2 ∈ B (R) : λ (B 1 × B 2 ) = λ (B 1 ) λ (B 2 ) .

page 11
Mesure et Intégration

1.1.6 Fonction de répartition

Définition 1.7 Soit µ mesure sur (R, B(R)) telle que µ(R) < +∞. On définit la fonction de
répartition de µ par :

F µ : R −→ [0, +∞[
x 7→ F µ (x) = µ(] − ∞, x]) .

Proposition 1.5 Soit µ mesure sur (R, B(R)) telle que µ(R) < +∞. La fonction F µ est crois-
sante, càdlàg (continue à droite avec une limite à gauche),

lim F µ (x) = µ(R), lim F µ (x) = 0.


x−→+∞ x−→−∞

Preuve: Soient x ≤ y. Nous avons ]−∞, x] ⊂]−∞, y] donc, F µ (x) = µ(]−∞, x]) ≤ µ(]−∞, y]) =
F µ (y). Soit x ∈ R et (u n )n≥0 suite de R telle que u n ≥ x et u n ≥ u n+1 , ∀n et lim u n = x.
n−→+∞

Pour tout n, ]−∞, u n+1 ] ⊂]−∞, u n ], ∩ ]−∞, u n ] =]−∞, x] et µ(]−∞, u 0 ]) ≤ µ(R) < ∞, donc,
n≥0
lim µ(] − ∞, u n ]) = µ( ∩ ] − ∞, u n ]) = µ(] − ∞, x]). En d’autres termes : lim F µ (u n ) =
n−→+∞ n≥0 n−→+∞
F (x). Ceci prouve que F est continue à droite.

Soit x ∈ R et (u n )n≥0 suite de R telle que u n < x et u n ≤ u n+1 , ∀n et lim u n = x. Pour tout
n−→+∞
n, ] − ∞, u n+1 ] ⊃] − ∞, u n ], ∪ ] − ∞, u n ] =] − ∞, x[, donc lim F (u n ) = µ(] − ∞, x[). Ceci
n≥0 n−→+∞
prouve que F µ a une limite à gauche (égale à µ(] − ∞, x[)).

On trouve également la limite de F µ en +∞ en utilisant la proprété de réunion croissante et


la limite de F µ en −∞ en utilisant la propriété d’intersection décroissante.

Remarque 1.9 Dans la proposition précédente, la limite à gauche en x de F µ est µ(] − ∞, x[)
et F µ (x) = µ(] − ∞, x]). Par comparaison, µ(] − ∞, x]) − µ(] − ∞, x[) = µ({x}). Donc F µ (x) =
µ(] − ∞, x[) si et seulement si µ({x}) = 0 si et seulement si F µ est continue en x .

1.1.7 Intégrales des fonctions étagées mesurables positives

On se donne un espace mesuré Ω, A , µ .


¡ ¢

Définition 1.8 Soit f : Ω −→ R+ . On dit que f est étagée (positive) s’il existe une famille
finie A 1 , . . . , A n de A telle que

(i) les A i forment une partition de Ω (ce qui veut dire que A 1 , . . . , A n sont deux à deux
disjoints et que Ω = ∪ A i )
1≤i ≤n
(ii) ∀i ∈ {1, . . . n}, ∃a i tel que f (x) = a i , ∀x ∈ A i .

page 12
Généralités sur les espaces probabilisés

Remarque 1.10 Si f est une fonction étagée définie avec une partition A 1 , . . . , A n , il peut
exister une autre partition B 1 , . . . , B m (différente de A 1 , . . . , A n ) telle que f est constante sur
chacun des B i .

Définition 1.9 Soit A ⊂ Ω. La fonction indicatrice de A est la fonction

1 A : Ω −→ {0, 1}

1 si x ∈ A
x 7→
0 si x ∉ A .

Il existe d’autres notations. Par exemple si A = [0, 1] ⊂ R, on peut écrire 1 A (x) = 1x∈[0,1] =
10≤x≤1 .

Définition 1.10 Soit f une fonction positive étagée associée à une partition
Z A 1 , . . . , A n (avec
f (x) = a i si x ∈ A i ). On appelle intégrale de f par rapport à µ, noté f (x)dµ(x)

Z n
a i µ(A i ) .
X
f (x)dµ(x) :=
Ω i =1

Z
Ce nombre peut être +∞. La valeur de f (x)dµ(x) étant indépendante de la partition

associée à f .
Z
Une fonction positive étagée f est dite intégrable si f (x)dµ(x) < +∞.

n
Exemple 1.8 (Cas de mesure discrète) Si la mesure µ = αk εωk et f =
X X
a i 1 A i , alors
k≥1 k=1

Z
f ωj αj .
X ¡ ¢
f (x)dµ(x) =
Ω j ≥1

n n n
a i µ(A i ) = αj = f ω j α j (ces égalités sont dans [0, +∞]).
X X X X X ¡ ¢
En effet : ai
i =1 i =1 j |ω j ∈A i i =1 j |ω j ∈A i

En posant
βi , j = α j f (ω j ) si ω j ∈ A i et 0 si non

on peut écrire
n n X
f ωj αj = βi , j
X X ¡ ¢ X
i =1 j |ω j ∈A i i =1 j ≥1

et grâce à Fubini-Tonelli,

n X n
βi , j = βi , j = f ωj αj
X XX X ¡ ¢
i =1 j ≥1 j ≥1 i =1 j ≥1

page 13
Mesure et Intégration

car les A i forment une partition de Ω.

Exemple 1.9 Dans le cas (N, P (N) , card) toute suite nulle à partir d’un certain rang est
étagée intégrable.

1.1.8 Intégrales des fonctions mesurables positives

Définition 1.11 Soit Ω, A , µ un espace mesuré. Si f : Ω −→ [0, +∞] est mesurable (par
¡ ¢

rapport aux tribus A et B(R)) positive, l’intégrale de f sur Ω par rapport à la mesure µ est
définie par Z Z
f (x)dµ(x) := sup φ(x)dµ(x) ( sup dans [0, +∞] ),
Ω φ∈E ( f ) Ω

où E ( f ) := {φ étagée positive : φ(x) ≤ f (x), ∀x ∈ Ω}.

Pour B ∈ A , on note Z Z
f (x)dµ(x) = f (x)1B (x)dµ(x) .
B Ω
Z
Une fonction mesurable positive f est dite intégrable si f (x)dµ(x) < ∞.

Proposition 1.6 (Propriétés de l’intégrale de fonctions positives mesurables) Soient f , g


deux fonctions positives mesurables sur Ω, A , µ .
¡ ¢

Z Z
(a) Croissance : Si f ≤ g alors f (x)dµ(x) ≤ g (x)dµ(x).
Ω Ω
(b) Comparaison : Si f ≤ g et g est intégrable alors f est intégrable.
(c) Linéarité : Si f et g sont intégables et a ≥ 0 alors f + g et a f sont aussi intégrables et
on a : Z Z Z
f (x) + g (x)dµ(x) = f (x)dµ(x) + g (x)dµ(x)
Ω Ω Ω
et Z Z
a f (x)dµ(x) = a f (x)dµ(x).
Ω Ω

Exercice 1.5 Démontrer les propriétés ci-dessus.

Proposition 1.7 (Inégalité de Markov) Soient f une fonction positive mesurable sur Ω, A , µ ,
¡ ¢

pour tout a > 0,


1
Z
µ({x ∈ Ω : f (x) ≥ a}) ≤ f (x)dµ(x) .
a Ω
En particulier si f est intégrable alors µ({x ∈ Ω : f (x) = +∞}) = 0.

Preuve: On a a1{y: f (y)≥a} ≤ f donc par comparaison :


Z Z
a1{y: f (y)≥a} (x)dµ(x) ≤ f (x)dµ(x) .
Ω Ω

page 14
Généralités sur les espaces probabilisés

La fonction a1{y: f (y)≥a} est une fonction étagée et on calcule son intégrale :
Z
a1{y: f (y)≥a} (x)dµ(x) = a × µ({y : f (y) ≥ a}) + 0 × µ({y : f (y) < a}) = a × µ({y : f (y) ≥ a}).

D’où le résultat. D’autre part, si f est intégrable, avec

x ∈ Ω : f (x) = +∞ = x ∈ Ω : f (x) ≥ n
© ª \© ª
n∈N

µ ¶
1
Z
et µ x ∈ Ω : f (x) ≥ n
\© ª
≤ f (x)dµ(x) −→ 0 , on a
n∈N n Ω n−→∞

µ x ∈ Ω : f (x) = +∞ = lim µ {x ∈ Ω : f (x) ≥ n} = 0,


¡© ª¢ ¡ ¢
n−→∞

par continuité séquentielle monotone.

1.1.9 Intégrales des fonctions mesurables de signe quelconque

Soient un espace mesuré Ω, A , µ et f : Ω −→ R mesurable, f = f + − f − avec f + et f −


¡ ¢

mesurables positives :


 f (x) si f (x) ≥ 0
f + (x) =
0 sinon


0 si f (x) ≥ 0
f − (x) =
− f (x) sinon.

Définition 1.12 Une fonction f mesurable sur un espace mesuré Ω, A , µ est dite inté-
¡ ¢

grable si f + et f − le sont et dans ce cas, on définit l’intégrale de f (sur Ω par rapport à µ)


par Z Z Z
+
f (x)dµ(x) := f (x)dµ(x) − f − (x)dµ(x)
Ω Ω Ω
et, ∀A ∈ A , l’intégrale de f sur A par
Z Z
f (x)dµ(x) := f (x)1 A (x)dµ(x) .
A Ω

Remarque 1.11 (a) La définition ci-dessus peut être étendue aux fonctions mesurable à
valeur complexe, par les parties réelles et imaginaires.
(b) Les propriétés de linéarité et croissance restent valides, en plus, on a l’inégalité triangu-

page 15
Mesure et Intégration

laire : ¯Z ¯ Z
¯ ¯
¯ f (x)dµ(x)¯ ≤ | f (x)|dµ(x)
Ω Ω
¯ ¯

pour toute fonction mesurable intégrable f : Ω −→ R .

1.1.10 Théorèmes de Fubini-Tonelli

Théorème 1.3 (Tonelli) Soient deux espaces mesurés Ωi , Ai , µi , i = 1, 2 tels que µ1 et µ2


¡ ¢

sont σ-finies et soit f : Ω1 × Ω2 −→ [0, +∞] mesurable positive. Alors :

— Pour tout x ∈ Ω1 , la fonction y 7→ f (x, y) est A2 -mesurable et la fonction


Z
x 7→ f (x, y)dµ2 (y)
Ω2

est A1 -mesurable ;
— Pour tout y ∈ Ω2 , la fonction x 7→ f (x, y) est A1 -mesurable et la fonction
Z
y 7→ f (x, y)dµ1 (x)
Ω1

est A2 -mesurable .

En outre on a,
Z Z µZ ¶ Z µZ ¶
f d µ1 ⊗ µ2 =
¡ ¢
f (x, y)dµ2 (y) dµ1 (x) = f (x, y)dµ1 (x) dµ2 (y)
Ω1 ×Ω2 Ω1 Ω2 Ω2 Ω1

égalités dans [0, +∞] . En plus f est intégrable si et seulement si l’une des trois quantités
est finie.

Théorème 1.4 (Fubini) Soient deux espaces mesurés Ωi , Ai , µi , i = 1, 2 tels que µ1 et µ2


¡ ¢

sont σ-finies et soit f ∈ L 1 (Ω1 × Ω2 ). Alors :


Z
— La fonction x 7→ f (x, y)dµ2 (y) est définie pour presque tout x ∈ Ω1 , et est dans
Ω2
L 1 (Ω1 ) ; Z
— La fonction y 7→ f (x, y)dµ1 (x) est définie pour presque tout y ∈ Ω2 , et est dans
Ω1
L 1 (Ω2 ) .

En outre on a,
Z Z µZ ¶ Z µZ ¶
f d µ1 ⊗ µ2 =
¡ ¢
f dµ2 dµ1 = f dµ1 dµ2 .
Ω1 ×Ω2 Ω1 Ω2 Ω2 Ω1

page 16
Généralités sur les espaces probabilisés

Remarque 1.12 Pour montrer l’intégrabilité d’une fonction f définie sur Ω1 × Ω2 , on ap-
plique le théorème de Tonelli à | f | : la fonction
Z µZ f est intégrable
¶ µZ la mesure¶ µ1 ⊗ µ2 , si et
Zpour
¯ ¯ ¯ ¯
seulement si, l’une des deux intégrales ¯ f ¯ dµ2 dµ1 et ¯ f ¯ dµ1 dµ2 est finie.
Ω1 Ω2 Ω2 Ω1

Pour plus de détails sur les tribus produit et les mesures produit, théorème de Fubini et
autres, voir [1].

1.1.11 Ensembles négligeables

Définition 1.13 Soit Ω, A , µ un espace mesuré. Un élément A de A est dit négligeable


¡ ¢

(pour la mesure µ) si µ(A) = 0.

Remarque 1.13 Soit f : Ω −→ R une fonction mesurable. Elle est dite µ-presque partout
nulle si ∃A ∈ A négligeable tel que x ∈ A c =⇒ f (x) = 0. On dira aussi que f est : presque
partout nulle, µ-presque sûrement nulle, presque sûrement nulle, p.p. nulle, p.s. nulle...
Z
Exemple 1.10 On a vu que si f (x)dµ(x) < +∞ alors f est finie presque partout.

Proposition 1.8 Soit Ω, A , µ un espace mesuré et f , g fonctions mesurables sur cet es-
¡ ¢

pace.
Z
(a) Si f est p.p. nulle alors f (x)dµ(x) = 0. Et la réciproque est vraie pour f ≥ 0.
Ω Z
(b) Si A ∈ A est négligeable alors f (x)dµ(x) = 0.
Z A Z

(c) Si f = g p.p. alors f (x)dµ(x) = g (x)dµ(x) .


Ω Ω

Exercice 1.6 Démontrer les propriétés ci-dessus.

Définition 1.14 Soient f n , f : Ω −→ R. On dit que ( f n )n converge presque sûrement vers


p.s.
f (et on note f n −→ f ) s’il existe A négligeable tel que f n (x) −→ f (x) pour tout
n−→+∞ n−→+∞
x ∈ Ω ∖ A.

Remarque 1.14 La convergence simple implique la convergence presque sûre et la conver-


gence presque sûre est la convergence simple sur Ω ∖ A avec µ (A) = 0. Donc si une suite ( f n )
p.s.
de fonctions Ω −→ R mesurables telle que f n −→ f alors f est mesurable.
n−→+∞

1.1.12 Théorèmes limites

On se donne Ω, A , µ un espace mesuré. On rappelle les théorèmes fondamentaux de la


¡ ¢

théorie de Lebesgue.

page 17
Mesure et Intégration

Théorème 1.5 (convergence monotone) Soit ( f n )n≥0 : Ω −→ R+ une suite croissante (c’est
à dire que ∀x, ∀n, f n (x) ≤ f n+1 (x)) de fonctions mesurables positives convergeant presque
sûrement vers une fonction f . Alors
Z Z
lim f n (x)dµ(x) = f (x)dµ(x) .
n−→+∞ Ω Ω

1
Exemple 1.11 Soit l’espace mesuré (N, P (N), card). Soit f (k) = et pour tout n ≥ 0,
(k + 1)2
1
f n (k) = 1k≤n . Pour tout k, f n (k) ↗ f (k).
(k + 1)2 n−→+∞
Fixons n ≥ 0, la fonction f n est étagée et son intégrale vaut

1 1
Z
f n (x)card(d x) = × card({0}) + 2 × card({1}) + . . .
N 1 2
1
···+ × card({n}) + 0 × card({n + 1, n + 2, . . . })
(n + 1)2
Xn 1
= 2
.
k=0 (k + 1)

Par le théorème de convergence monotone,


Z Z
f n (x)card(d x) −→ f (x)card(d x)
N n−→+∞ N

et donc Z +∞
X 1
f (x)card(d x) = 2
.
N k=0 (k + 1)

On peut ainsi montrer que pour n’importe quelle fonction g : N −→ R+ ,


Z +∞
X
g (x)card(d x) = g (k)
N k=0

et donc, pour l’espace mesuré (N, P (N), card), calculer une intégrale d’une fonction positive
revient à faire la somme d’une série.

Remarque 1.15 (cas de mesure discrète) Plus généralement, pour µ = αk εωk , une me-
X
k∈I
sure discrète sur Ω , on a : Z
αk f (ωk );
X
f dµ =
Ω k∈I

à condition que f soit mesurable positive ou intégrable par rapport à µ, c’est à dire que la
famille (αk f (ωk ))k∈I soit sommable.

Théorème 1.6 (Lemme de Fatou) Soit ( f n )n≥0 : Ω −→ R+ une suite de fonctions mesu-

page 18
Généralités sur les espaces probabilisés

rables positives. On note f = lim inf f n . Alors f est mesurable positive et


n−→+∞

Z Z
f d µ ≤ lim inf fn d µ
Ω n−→+∞ Ω

Théorème 1.7 (convergence dominée) Soit ( f n )n≥0 : Ω −→ R une suite de fonctions mesu-
rables. Si :

— il existe g positive mesurable et intégrable telle que ∀n ∈ N, ∀x ∈ Ω, | f n (x)| ≤ g (x)


p.s.
— et f n −→ f
n−→+∞

alors
Z
— | f (x)|dµ(x) < ∞
Ω Z
— lim | f n (x) − f (x)|dµ(x) = 0 .
n−→+∞ Ω

Ce qui implique en particulier


Z Z
lim f n (x)dµ(x) = f (x)dµ(x) .
n−→+∞ Ω Ω

Remarque 1.16 Dans le cas de mesure discrète, le TCD s’énonce :

Corollaire 1.1 Si pour tout k ∈ N la suite u n,k n converge et il existe (v k ) tel que la série
¡ ¢
X ¯ ¯
v k converge et ¯u n,k ¯ ≤ v k pour tout n, k alors
k

+∞
X +∞
X
lim u n,k = lim u n,k < +∞.
n−→+∞ n−→+∞
k=0 k=0

Preuve: indépendante du TCD. On pose u k = lim u n,k ; on a alors |u k | ≤ v k pour tout


n−→+∞
k ∈ N ; en particulier la série u k converge.
X
k
+∞ K K
Soit ε > 0, il existe K ∈ N tel que v k ≤ ε et puisque lim
X X X
u n,k = u k alors il
n−→+∞
¯ k=K¯ +1 k=0 k=0
¯XK K ¯
existe N ∈ N tel que ¯ u k ¯ ≤ ε pour tout n ≥ N ; donc
X
u n,k −
¯ ¯
¯k=0 k=0
¯

¯ ¯ ¯ ¯ ¯ ¯
¯ +∞ +∞
X ¯¯ ¯¯ X K K ¯ ¯ +∞ +∞ ¯
¯X X ¯ ¯ X X
u n,k − uk ¯ ≤ ¯ u n,k − uk ¯ + ¯ u n,k − uk ¯
¯
¯
¯k=0 k=0
¯ ¯ k=0 k=0
¯ ¯ k=K +1 k=K +1
¯
+∞
≤ ε+2
X
v k ≤ 3ε
k=K +1

ce qui termine la preuve du lemme.

page 19
Mesure et Intégration

1.1.13 Intégrale de Lebesgue et intégrale de Riemann

L’intégrale que nous venons de définir s’appelle l’intégrale de Lebesgue. Dans le cas de
(R, B(R), λ), l’intégrale de Lebesgue sur un intervalle [a, b] est donnée par
Z Z
f (x)λ(d x) := f (x)1[a,b] (x)λ(d x) .
[a,b] R

Si f admet une primitive F alors son intégrale de Riemann est


Z b
f (x)d x = [F (x)]ba = F (b) − F (a)
a

avec la convention que si F n’est pas définie en a (et pareil en b), par exemple parce que
a = −∞, alors F (a) = lim F (x), l’intégrale de Riemann n’est définie que si F (a) et
x−→a,x∈[a,b]
F (b) sont finis.

Dans le cas où f a une intégrale de Riemann, nous avons l’égalité suivante entre les deux
types d’intégrales si a ≤ b
Z Z b
f (x)λ(d x) = f (x)d x .
[a,b] a

Remarque 1.17 On verra plus loin dans ce cours, on verra aussi que la fonction indicatrice
de Q , est Lebesgue-intégrable, d’intégrale nulle, mais n’est Riemann-intégrable sur aucun
segment de R .

Corollaire 1.2 Si f : [a, b] −→ R est Riemann intégrable, alors f est mesurable et on a


l’égalité suivante entre les deux types d’intégrales si a ≤ b
Z Z b
f (x)λ(d x) = f (x)d x .
[a,b] a

Preuve: On rappelle d’abord la définition de la Riemann intégrabilité.

On dit que f : [a, b] −→ R est intégrable au sens de Riemann si pour tout ε > 0, il existe deux
fonctions en escaliers sur [a, b] g et h telles que
Z b
g ≤ f ≤ h et |h(t ) − g (t )|d t ≤ ε,
a

En particulier, toute fonction Riemann intégrable sur un segment y est bornée. Quitte à
considérer max(g , α) à la place de g et min(h, β) à la place de h, où α = inf( f ) et β = sup( f ),
on peut supposer que
Z b
α ≤ g ≤ f ≤ h ≤ β et |h(t ) − g (t )|d t ≤ ε.
a

page 20
Généralités sur les espaces probabilisés

Soit alors f : [a, b] −→ R est intégrable au sens de Riemann, on pose α = inf( f ) et β = sup( f ).
Pour tout n ∈ N il existe g n , h n en escaliers sur [a, b] telles que
Z b 1
α ≤ g n ≤ f ≤ h n ≤ β et |h n (t ) − g n (t )|d t ≤ ,
a 2n

XZ b
de sorte que la série numérique |h n (t ) − g n (t )|d t soit convergente.
a
D’une part, toute fonction en escaliers est mesurable intégrable sur [a, b] au sens de Le-
besgue et les deux intégrales de Lebesgue et Riemann coïncident.
X
D’autre part, par le théorème de convergence monotone, la série de fonctions |h n − g n |
converge p.s et sa somme est une fonction intégrable. Par conséquent, la suite de fonctions
(|h n − g n |)n converge p.s vers 0, donc (h n )n converge p.s vers f . Ce qui implique que f est
mesurable.

Par ailleurs, si on pose M = max(|α|, |β|), la fonction constante égale à M étant intégrable
au sens de Lebesgue sur le segment [a, b] et on a |h n | ≤ M pour tout n, donc par le Théorème
de Convergence Dominée, f est Lebesgue intégrable et
Z Z Z b Z b
f dλ = lim h n dλ = lim h n (t )dt = f (t )dt
[a,b] n→∞ [a,b] n→∞ a a

ce qu’il fallait démontrer.

1.2 Espaces L p

Dans cette section, K désigne R ou C, les fonctions considérées sont définies sur un espace
mesuré (Ω, A , µ)) à valeur dans R ∪ {−∞, +∞} ou C ou même dans un K-espace vectoriel
normé de dimension finie.

1.2.1 Définitions – Exemples

Définition 1.15 Soit p ≥ 1. On note L p (Ω, A , µ) (ou simplement L p (Ω)) l’ensemble des
fonctions mesurables sur Ω telles que | f |p est intégrable. On introduit la relation d’équiva-
lence

f ∼ g ⇔ f = g µ presque partout.

L’ensemble des classes d’équivalence


Z est noté L p (Ω, A , µ) (ou simplement L p (Ω)). Pour
f ∈ L p (Ω), on note ∥ f ∥p = ( | f |p d µ)1/p .

page 21
Espaces L p

Définition 1.16 On note L ∞ (Ω, A , µ) (ou simplement L ∞ (Ω)) l’ensemble des fonctions
mesurables sur Ω telles que | f | coïncide presque partout avec une fonction bornée. L’en-
semble des classes d’équivalence est noté L ∞ (Ω, A , µ) (ou simplement L ∞ (Ω)). Pour f ∈
L ∞ (Ω), on note

∥ f ∥∞ = inf{c > 0 ; | f | ≤ c µ p.p.}.

Remarque 1.18 (Cas de mesure de comptage) Dans le cas de l’espace mesuré (N, P (N)) et
la mesure card, L p (N) et L p (N) coïncident avec ℓp (N) où

ℓp (N) = {(u n )n ∈ KN : |u n |p < ∞} pour p ∈ [0, +∞[ et


X
n

ℓ (N) = {(u n )n ∈ KN : sup |u n | < ∞}.



n

Le but de cette section est de montrer que L p (Ω) et L p (Ω) sont des espaces vectoriels et
que ∥ · ∥p est une norme sur L p (Ω), pour p ∈ [1, ∞].

Le cas p = ∞ est particulièrement simple :

Proposition 1.9 L ∞ (Ω) et L ∞ (Ω) sont des espaces vectoriels en plus (L ∞ (Ω); ∥.∥∞ ) est un
espace de Banach.

Preuve: Seule la complétude de (L ∞ (Ω); ∥.∥∞ ) mérite d’être détaillée. Soit ( f n )n une suite de
Cauchy dans (L ∞ (Ω); ∥.∥∞ ) . On note Ωn = Ω \ D n l’ensemble sur lequel f n est bornée, avec
D n négligeable, et on pose D = D n . Pour chaque x ∈ Ω \ D, la suite ( f n (x))n est de Cauchy
[
n
dans R (ou C ou un evn de dimension fini) qui est complet, donc convergente et admet une
limite qu’on note f (x). On complète f par 0 sur D qui est négligeable. La fonction f est
alors bornée sur Ω et ( f n )n converge vers f dans (L ∞ (Ω); ∥.∥∞ ).

Proposition 1.10 Pour tout p ∈ [1, +∞[, L p (Ω) et L p (Ω) sont des K-espaces vectoriels.

Preuve: – La fonction nulle est bien dans L p (Ω).

– Si f , g ∈ L p (Ω) et λ ∈ K, on a :

|λ f + g |p ≤ (2 max(|λ f |, |g |))p ≤ 2p |λ|p | f |p + 2p |g |p

d’où λ f + g ∈ L p (Ω).

– Le cas de L p (Ω) se déduit par quotient et du fait que la relation “ égalité presque partout "
ci-dessus est compatible avec le opérations dans L p (Ω).

page 22
Généralités sur les espaces probabilisés

1.2.2 Inégalité de Hölder

Théorème 1.8 (Inégalité de Hölder) Soit p ∈ [1, ∞] et soit q ∈ [1, ∞] l’exposant conjugué,
i.e.

1 1
+ = 1.
p q

Si f ∈ L p (Ω) et g ∈ L q (Ω) alors | f g | ∈ L 1 (Ω) et

∥ f g ∥1 ≤ ∥ f ∥p ∥g ∥q .

p q
L’égalité a lieu si et seulement si | f |p /∥ f ∥p = |g |q /∥g ∥g presque partout.

Preuve: Le cas p = 1 et q = +∞ est évident. On suppose p > 1.

– Soit α ∈]0, 1[. La fonction x 7→ x α − αx sur R+ atteint un unique maximum absolu en x = 1.


En effet, sa dérivée α(x α−1 − 1) change de signe en x = 1. Par conséquent, pour tout x ≥ 0,

x α ≤ αx + (1 − α).

1
Il en résulte (poser x = u/v, α = ) que pour tout u, v > 0,
p

1u 1
u 1/p v −1/p ≤ +
pv q

donc
1 1
u 1/p v 1/q ≤ u + v.
p q

Cela reste vrai si u ou v est nul.

– Supposons que ∥ f ∥p = ∥g ∥q = 1. En intégrant l’inégalité ci-dessus appliquée à u = | f (x)|p ,


v = |g (x)|q , il vient

1 1 1 1
Z Z Z
p
|f g|dµ ≤ |f | dµ + |g |q d µ = + = 1.
p q p q

3. Dans le cas général, on applique l’inégalité précédente à f /∥ f ∥p , g /∥g ∥q , il vient

1
Z Z
| f g | d µ ≤ 1, d’où | f g | d µ ≤ ∥ f ∥p ∥g ∥q .
∥ f ∥p ∥g ∥q

1 1
4. L’égalité x α = αx + (1 − α) équivaut à x = 1. Donc l’égalité u 1/p v 1/q = u + v équivaut à
p q

page 23
Espaces L p

p q
u = v. Donc l’égalité dans l’inégalité de Hölder entraîne que f p /∥ f ∥p = g q /∥g ∥q presque
partout.

1.2.3 Inégalité de Minkowski

Théorème 1.9 (Inégalité de Minkowski) Soit p ∈ [1, ∞] et soient f , g ∈ L p (Ω). On a :

∥ f + g ∥p ≤ ∥ f ∥p + ∥g ∥p .

Preuve: On écrit

| f + g |p ≤ (| f | + |g |)| f + g |p−1 = | f || f + g |p−1 + |g || f + g |p−1 ,

puis, par l’inégalité de Hölder,


Z Z p−1
| f || f + g |p−1 ≤ ∥ f ∥p ∥| f + g |p−1 ∥q = ∥ f ∥p ( | f + g |p d µ) p ,

et idem pour le second terme. Il vient


Z Z p−1
| f + g | ≤ (∥ f ∥p + ∥g ∥p )( | f + g |p d µ) p ,
p

d’où, en simplifiant,
Z
1
( | f + g |p d µ) p ≤ ∥ f ∥p + ∥g ∥p .

Ce qui termine la preuve.

Corollaire 1.3 Pour tout p ∈ [1, ∞], ∥ · ∥p est une norme sur L p (Ω) .

Remarque 1.19 Pour les fonctions à valeurs dans K et p = 2, ∥ · ∥2 est la norme associée au
produit scalaire sur L 2 (Ω) défini, pour tout f , g ∈ L 2 (Ω),
Z
〈f ,g〉 = f g dµ.

Remarque 1.20 (Inclusions inverses entre espaces L p dans le cas de mesure finie) Si µ(Ω) <
+∞, la famille des espaces L p (Ω) est décroissante, i.e.

p ≤ q ⇒ L q (Ω) ⊂ L p (Ω) (inclusion topologique).

Par exemple : Avec Ω =]0, 1[, T = tribu borélienne et λ = mesure de Lebesgue sur ]0, 1[, on a

page 24
Généralités sur les espaces probabilisés

L 2 (]0, 1[, λ) ⊂ L 1 (]0, 1[, λ) et pour tout f ∈ L 2 (]0, 1[, λ), ∥ f ∥1 ≤ ∥ f ∥2 .

En effet: en appliquant l’inégalité de Hölder aux fonctions | f |p ∈ L r et 1, avec l’exposant


r = q/p et l’exposant conjugué r ′ , il vient
Z p p
p p q 1− q
| f | d µ ≤ ∥| f | ∥r ∥1∥ = ∥ f ∥q µ(Ω)
r′

donc
1
− q1
∥ f ∥p ≤ µ(Ω) p ∥ f ∥q .

(On peut aussi appliquer l’inégalité de Jensen (voir un peu plus bas dans ce cours)).

Ce sont les seules inclusions possibles en général.

Exemple 1.12 Si p < q, L p (Ω) n’est pas contenu dans L q (Ω). Par exemple : considérer
la mesure de Lebesgue sur ]0, 1[, i.e. la mesure µ = χ]0,1[ .λ sur R. C’est une mesure de
probabilité. La fonction f q (x) = x −1/q n’est pas dans L q (R, µ) mais appartient à L p (R, µ)
pour tout p < q.

Exemple 1.13 Si µ(Ω) = +∞, pour tout p ̸= q, L q (Ω) n’est pas contenu dans L p (Ω). Par
exemple : considérer la mesure de Lebesgue sur ]1, +∞[, i.e. la mesure µ = χ]1,+∞[ .λ sur R.
La fonction f p (x) = x −1/p n’est pas dans L p (R, µ) mais appartient à L q (R, µ) pour tout q > p.

Exemple 1.14 (Inclusions dans le cas de la mesure de comptage) Dans le cas de l’espace
mesuré (N, P (N), card), pour tout p < q ∈ [1, ∞],

ℓp (N) ⊂ ℓq (N).

En effet : Soient p < q ∈ [1, ∞], si (u n )n ∈ ℓp (N), alors lim u n = 0 et, à partir d’un certain
n→∞
rang, |u n | < 1 et donc |u n |q ≤ |u n |p et par suite, (u n )n ∈ ℓq (N).

1.2.4 Inégalité de Jensen

On rappelle qu’une fonction convexe d’une partie de R dans R est la borne supérieure d’une
famille de fonctions affines (il suffit de prendre les tangentes à la courbe).

Théorème 1.10 (Inégalité de Jensen) On suppose que µ est une mesure de probabilité (i.e.
µ(Ω) = 1). Soient φ : R → R+ ∪ {+∞} convexe et f ∈ L 1 (Ω). On a :
Z Z
φ( f d µ) ≤ φ ◦ f d µ.

page 25
Espaces L p

Preuve: Soit (αs ), x 7→ a s x + b s , une famille de fonctions affines telle que φ = sup αs . Pour
s
chaque s,
Z Z
φ ◦ f dµ ≥ αs ◦ f d µ
Z
= (a s f + b s ) d µ
Z
= as f d µ + bs
Z
= αs ( f d µ).

Z Z
En prenant le sup sur s, il vient φ ◦ f d µ ≥ φ( f d µ).

Exemple 1.15 Pour toute fonction intégrable sur un ensemble muni d’une mesure de
probabilité, Z
f dµ
R
e ≤ e f d µ.

Remarque 1.21 Si µ(Ω) < ∞, on peut aussi appliquer l’inégalité de Jensen pour montrer que
la famille des espaces L p (Ω, µ) est décroissante, car la fonction t 7→ t q/p est convexe pour tout
q > p.

En effet : Dans le cas où µ(Ω) = 1, il vient

µZ ¶q Z
p
p ¡ p¢q
| f | dµ ≤ | f | p dµ

Le cas général s’en déduit en introduisant la mesure ν = (µ(Ω))−1 µ.

1.2.5 Convergence dans L p et convergence presque partout

Théorème 1.11 (Théorème de convergence dominée dans un L p ) Soit ( f n )n une suite de


fonctions dans L p (Ω) qui converge presque partout vers f . S’il existe g ∈ L p (Ω) tel que
| f n | ≤ g (µ − pp), alors ( f n )n converge dans L p (Ω) vers f .

Preuve: On applique la version du théorème dans le cas L 1 (Ω) avec (| f n − f |p )n ⊂ L 1 (Ω) et


la dominante 2p |g |p .

Remarque 1.22 On a vu que la convergence dans L 1 n’implique pas la convergence presque


partout si 1 ≤ p < ∞. Par contre, la convergence L ∞ implique la convergence presque partout.

Remarque 1.23 (Convergence de suites d’intégrales)


Z Si une suiteZde fonctions f n ∈ L 1 (Ω, µ)
converge dans cet espace vers f ∈ L 1 (Ω, µ), alors f n d µ tend vers f d µ (la réciproque est

page 26
Généralités sur les espaces probabilisés

évidemment fausse en général). En revanche, lorsque p > 1 et µ(Ω) = +∞,


Z si une suite de
fonctions f n ∈ L p (Ω, µ) converge dans cet espace vers f ∈ L p (Ω, µ), alors f n d µ ne tend pas
Z
nécessairement vers f d µ.

Par exemple : Soit Ω = R muni de la tribu borélienne et de la mesure µ = χ[0,+∞[ .λ. Soit p > 1
1+p
et q = . Soit f n = n −1/q χ[0,n] . Alors f n ∈ L p (R, µ) = L p ([0, +∞[, λ), ∥ f n ∥p = n −1/q n 1/p
2 Z
tend vers 0 mais f n d µ = n −1/q n tend vers +∞.

1.2.6 Complétude

On rappelle le résultat suivant :

Lemme 1.1 Un espace vectoriel normé V est complet si et seulement si toute série absolu-
ment convergente est convergente.

Preuve: À une suite v n on associe la série de terme général u n = v n+1 − v n , et inversement,


X Xn
à une série u n on associe la suite des sommes partielles v n = u n . On suppose que V
X X k=0
est complet. Soit une série u n telle que la série ∥u n ∥ est convergente.
n
X n
X
On pose w n = ∥u k ∥ et v n = u k . Pour tout m < n,
k=0 k=0

n
X
∥v n − v m ∥ = ∥ uk ∥
k=m+1
Xn
≤ ∥u k ∥
k=m+1
= wn − wm ,

La suite (w n )n étant convergente donc de Cauchy et par suite (v n ) est aussi de Cauchy.
X
Donc (v n ) est convergente et donc, par définition, la série u n est convergente.

Inversement, on suppose que dans V , toute série absolument convergente est convergente.

Si (v n ) est de Cauchy, alors il existe (n k )k strictement croissante telle que si n > m ≥ n k ,


alors ∥v n − v m ∥ ≤ 2−k . On pose u k = v nk+1 − v nk . Par construction,

+∞ +∞
2−k ≤ 2,
X X
∥u k ∥ ≤
k=0 k=0

X
donc la série des normes est convergente. Si la série u n est convergente, alors la suite des

page 27
Espaces L p

sommes partielles

p−1
X
uk = v np
k=0

est convergente. Soit v sa limite. Alors pour m ≥ n k et ℓ > k,

∥v nℓ − v m ∥ ≤ 2−k .

En faisant tendre ℓ vers l’infini, il vient

∥v − v m ∥ ≤ 2−k .

Cela prouve que la suite (v n ) est convergente.

Exemple 1.16 Un espace vectoriel normé de dimension finie est toujours complet.

En effet, R est complet, donc Rd aussi (raisonner composante par composante).

En dimension infinie, les espaces normés ne sont pas tous complets, il leur arrive d’avoir
des trous : les limites des suites de Cauchy existent dans un espace plus grand.
1 1
Exemple 1.17 Soit V l’ensemble des fonctions polynômes sur I = [− , ] muni de la norme
2 2
L p . Alors V n’est pas complet.

x n converge normalement et donc uniformément sur I . Il en


X
En effet, la série entière
résulte qu’elle converge dans L p (I , λ). En particulier, c’est une suite de Cauchy de V . Mais
la somme de la série n’est pas un polynôme, donc n’appartient pas à V .

Théorème 1.12 (Fischer-Riesz) Pour tout p ∈ [1, +∞[, l’espace L p (Ω) est complet.

u n une série de fonctions mesurables telle que la série des normes L p soit
X
Preuve: Soit
convergente, i.e.

X
∥u n ∥p < +∞.
n

n
|u k |)p . Alors
X
Posons f n = (
k=0

Z n
( f n d µ)1/p
X
= ∥ |u k |∥p
k=0
n
X
≤ ∥u k ∥p
k=0

page 28
Généralités sur les espaces probabilisés

est borné indépendamment de n. La suite de fonctions réelles positives f n est croissante.


Soit f sa limite. D’après le théorème de convergence monotone,
Z Z
f dµ = lim fn d µ
n→∞
n
X p
= lim ∥ |u k |∥p
n→∞
k=0
+∞
∥u k ∥p )p
X
≤ (
k=0
< +∞.

Par conséquent, f < +∞ presque partout. Donc, en presque tout point x ∈ Ω, la série de
X
nombres réels u k (x) est absolument convergente, donc convergente. Autrement dit,
X
la série de fonctions u k converge presque partout vers une fonction u qui est donc
mesurable. Notons
n
u k |p .
X
gn = |
k=0

Alors g n converge presque partout vers |u|p . Comme, pour tout n et tout x ∈ Ω,
à !p
n
X
|g n (x)| ≤ |u k (x)| = f n (x) ≤ f (x),
k=0

la suite de fonctions g n est dominée par f , qui est intégrable. Le théorème de convergence
dominée garantit que la fonction limite |u|p est intégrable ( i.e. u ∈ L p ) et que
Z Z
p
|u| d µ = lim g n d µ.
n→∞

n
X
Enfin, la suite de fonctions v n = u − u k converge vers 0 presque partout. Pour presque
k=0
tout x ∈ Ω et tout n,

n
X
|v n (x)| = |u(x) − u k (x)|
k=0
≤ (|u(x)| + f n (x))
≤ 2( f (x))1/p ,

n
qui est intégrable. Le théorème de convergence dominée, dans L p , garantit donc ∥u −
X
u k ∥p
k=0
tend vers 0. Par conséquent, u est bien la somme dans L p de la série.

Remarque 1.24 La preuve montre que si la série des normes L p converge, alors la série de

page 29
Résultats de densité

fonctions converge presque partout. En combinant avec la preuve du lemme 1.1, on voit que
si une suite de fonctions converge dans L p , alors il existe une sous-suite qui converge presque
partout.

1.3 Résultats de densité

Lemme 1.2 Soit (Ω, A ) un espace mesurable et soit f une fonction mesurable positive
(c’est à dire, à valeurs dans [0, ∞]). Il existe une suite croissante (u n )n de fonctions mesu-
rables étagées à valeurs dans [0, ∞[ telle que, pour tout x ∈ Ω, lim u n (x) = f (x). En plus, si
n→∞
la fonction f est bornée, la suite (u n )n la convergence est uniforme.

Preuve: Soit f mesurable positive. Pour tout n ∈ N∗ , posons

k k +1
E k,n := {x ∈ Ω, ≤ f (x) < } pour k = 0, . . . , n 2 − 1,
n n
E n,n := {x ∈ Ω, f (x) ≥ n}.

Puisque f est mesurable, les ensembles E k,n appartiennent à M . Pour tout n ∈ N fixé, les
ensembles E k,n , 0 ≤ k ≤ n 2 sont deux à deux disjoints et E k,n = Ω. Posons
[
k

2
nX −1 k
ϕn = 1E + n1E n,n .
k=0 n k,n

Alors ϕn est une fonction simple positive vérifiant ϕn ≤ f . De plus, lim ϕn (x) = f (x) pour
n→+∞
tout x ∈ Ω. Finalement, en posant u n (x) = sup ϕ, la suite (u n )n converge aussi vers f et en
1≤k≤n
plus croissante.
1
En plus, si f est majorée, pour tout n ≥ sup( f ), on a : sup( f − u n ) ≤ .
n
Théorème 1.13 Soit f une fonction intégrable, relativement à l’espace mesuré (Ω, A , µ). Il
existe une suite ( f n )n de fonctions étagées intégrables qui converge vers f dans L 1 (Ω, A , µ).
Plus généralement, si f ∈ L p (Ω), avec p ∈ [1, +∞], il existe une suite de fonctions mesurables
étagées (u n )n ⊂ L p (Ω), qui converge vers f dans L p (Ω), c’est à dire,
Z
lim | f n − f |p dµ = 0.
n→∞

Preuve: On applique la proposition précédente à f + et f − , il existe (v n )n qui converge


simplement vers f + avec v n ≤ f + et donc 0 ≤ ( f + − v n )p ≤ f p , et par le théorème de
convergence dominée dans L p (Ω), (v n )n converge vers f + dans L p (Ω). De même il existe

page 30
Généralités sur les espaces probabilisés

(w n )n qui converge vers f − dans L p (Ω) et donc (u n = v n − w n )n converge vers f = f + − f −


dans L p (Ω).

Lorsque Ω =]a, b[ est un intervalle ouvert de R (−∞ ≤ a < b ≤ ∞), que A = B est la tribu
borélienne de Ω et que µ = λ est la mesure de Lebesgue.

On note C c (Ω) l’espace des fonctions continues sur Ω à support compact contenu dans
Ω. Rappelons que le support d’une fonction f est l’adhérence de l’ensemble des points où
cette fonction est non nulle,

supp( f ) = {x ∈ R | f (x) ̸= 0}.

Théorème 1.14 Supposons 1 ≤ p < ∞. Soit f ∈ L p (Ω). Il existe une suite ( f n )n de fonctions
de C c (Ω), où Ω intervalle ouvert de R, qui converge vers f dans L p (Ω), c’est à dire, C c (Ω)
est dense dans L p (Ω).

Preuve: On note F = C c (Ω) (adhérence dans L p (Ω)), notons que F est un sous espace
vectoriel de L p . Nous devons montrer que F = L p (Ω).

1er cas. On suppose Ω borné.

On considère les deux ensembles

F 0 = { f ∈ C c (Ω) | 0 ≤ f ≤ 1} et F = {A ⊂ Ω | 1 A ∈ F 0 }.

On va montrer que F est la tribu B(Ω) (la tribu borélienne de Ω) qui est engendrée par les
intervalle ouverts inclus dans Ω. Pour cela, on montre que F est une tribu qui contient les
intervalles ouverts.

– Soit A =]a, b[ un intervalle inclus dans Ω (qui peut être Ω tout entier), pour n assez grand
4
( < b − a). On note ϕ = 1 A et ϕn la fonction trapèze définie comme suit : elle est nulle si
n
1 1
x ≤ a + ou si x ≥ b − , et
n n

2 1 2


 ϕ n (x) = n(x − a − )+1 si a + ≤x ≤a+ ,
n n n








 2 2
ϕn (x) = 1 si a + ≤x ≤b− ,


 n n



2 2 1


 ϕn (x) = n(b − − x) + 1

si b − ≤x ≤b− .

n n n

La fonction ϕn appartient à C c (Ω), 0 ≤ ϕn ≤ et ∥ϕn − ϕ∥p −→ 0. Donc ϕ appartient à F 0 et


n→∞
par suite A ∈ F . En particulier Ω ∈ F .

page 31
Résultats de densité

– Soit A ∈ F , la fonction 1 − ϕn appartient à C c (Ω), 0 ≤ 1 − ϕn ≤ donc 1 Ā = 1Ω − 1 A ∈ F 0


comme limite dans L p (Ω) de la suite de fonctions (1 − ϕn )n . Donc Ā ∈ F .

– Pour montrer que F est stable par union dénombrable, on montre que F est stable par
intersection finie puis par union dénombrable deux à deux disjointe.

- Soient A, B ∈ F et ( f n )n , (g n )n ⊂ F 0 telles que

∥ f n − 1 A ∥p −→ 0 et ∥g n − 1B ∥p −→ 0
n→∞ n→∞

en écrivant
∥ f n g n − 1 A 1B ∥p = ∥ f n (g n − 1B ) + 1B ( f n − 1 A )∥p

on a

∥ f n g n − 1 A 1B ∥p ≤ ∥ f n (g n − 1B )∥p + ∥1B ( f n − 1 A )∥p ≤ ∥g n − 1B ∥p + ∥ f n − 1 A ∥p

et puisque 1 A 1B = 1 A∩B alors ∥ f n g n − 1 A∩B ∥p −→ 0. Finalement, la suite ( f n g n )n étant


n→∞
clairement à éléments dans l’ensemble { f ∈ C c (Ω) | 0 ≤ f ≤ 1}, donc 1 A∩B ∈ F 0 et par suite
A ∩B ∈ F.

- D’après ce qui précède F est stable par union finie. Soient (A n )n ⊂ F , telle que les
A n sont deux à deux disjoints, la série λ(A n ) étant alors convergente.
X
à !
∞ ∞ ∞
Soit ε > 0, il existe n ∈ N tel que λ λ(A k ) ≤ εp . On pose A =
[ X [
Ak = Ak = B ∪ R
k=n+1 k=n+1 k=0
n ∞
A k , alors λ(R) ≤ εp et B ∈ F , par suite il existe f ∈ C c (Ω)
[ [
avec B = A k et R =
k=0 k=n+1
vérifiant 0 ≤ f ≤ 1 telle que ∥1B − f ∥p ≤ ε et donc

∥1 A − f ∥p = ∥1B − f + 1R ∥p ≤ ∥1B − f ∥p + ∥1R ∥p ≤ 2ε.

An ∈ F .
[
Ce qui permet de conclure que 1 A ∈ F 0 et par suite
n∈N
Finalement F est une tribu qui contient les intervalles de Ω, par conséquent F = B(Ω).
Donc pour tout borélien A dans Ω, 1 A ∈ F et puisque F est un espace vectoriel alors toute
fonction étagée mesurable sur Ω appartient à F . Et par densité de l’ensemble des fonctions
étagées mesurables dans L p (Ω), F = L p (Ω).

2ème cas. On suppose Ω non borné. Soit f ∈ L p (Ω). Pour tout n ∈ N, on note f n =
1Ω∩[−n,n] f , il est clair que les f n sont dans L p (Ω) et que la suite ( f n )n converge simplement
vers f . Par le théorème de convergence dominée cette convergence est dans L p (Ω), c’est à
dire, ∥ f n − f ∥p −→ 0.
n→∞

page 32
Généralités sur les espaces probabilisés

Donc le sous espace vectoriel de L p (Ω) formé des fonctions nulle en dehors d’un intervalle
compact inclus dans Ω est dense dans L p (Ω).

Soit f ∈ L p (Ω) et soit ε > 0, il existe g ∈ L p (Ω) nulle en dehors d’un intervalle K = [a, b]
compact inclus dans Ω telle que ∥g − f ∥p ≤ ε. D’après le premier cas, g |]a,b[ est limite dans
L p (]a, b[) d’une suite de fonctions dans C c (]a, b[). Par suite, il existe h ∈ C c (]a, b[ telle que
Z
|h − g |p dλ ≤ εp .
]a,b[

Notons h̃ la fonction égale à h sur ]a, b[ et nulle sur Ω\]a, b[, alors h̃ ∈ C c (Ω) et
Z Z
p
|h̃ − g | dλ = |h − g |p dλ ≤ εp .
Ω ]a,b[

Par suite
∥h̃ − f ∥p ≤ ∥h̃ − g ∥p + ∥g − f ∥p ≤ 2ε.

Ce qui permet de conclure que f ∈ F et que donc L p (Ω) = C c (Ω).

Remarque 1.25 (Le cas L ∞ ) Pour p = ∞ le résultat n’est pas vérifié. En effet, si ( f n )n est une
suite à éléments dans C c (Ω) qui converge dans L ∞ (Ω) vers un élément f ∈ L ∞ (Ω), alors f
est continue sur Ω. Donc si on suppose que C c (Ω) est dense dans L ∞ (Ω), alors tout élément
de f ∈ L ∞ (Ω) admet un représentant continue. Ce qui n’est pas le cas (prendre, par exemple,
l’indicatrice d’un intervalle inclus strictement dans Ω).

1.4 Fonction définie par une intégrale

Soient (Ω, M , µ) un espace mesuré et Λ un intervalle de R ou un ouvert de C. Soit f une


fonction définie sur Ω × Λ à valeurs complexes telle que, pour tout λ ∈ Λ, la fonction
x 7→ f (x, λ) soit intégrable. Posons
Z
F (λ) = f (x, λ)dµ(x).

Nous étudierons dans cette section les propriétés de F : continuité, dérivabilité et analyti-
cité.

Z
1.4.1 Continuité sous le signe

Théorème 1.15 (Continuité) Supposons que

page 33
Fonction définie par une intégrale

— pour presque tout x la fonction λ 7→ f (x, λ) est continue sur Λ ;


— pour tout compact K ⊂ Λ il existe une fonction intégrable positive g K sur Ω telle que,
pour tout x ∈ Ω et tout λ ∈ K , | f (x, λ)| ≤ g K (x).

Alors la fonction F est continue sur Λ.

Preuve: Le théorème de convergence dominée.

Remarque 1.26 Si Ω est un segment [a, b] et f continue sur Ω × Λ, alors La fonction F est
continue dans Λ.

Preuve de la remarque: Pour tout compact K de Λ, Ω × K est compact, par conséquent


f (qui est continue) est bornée sur Ω × K , on prend alors pour g K une fonction constante
majorant | f | sur Ω × K , elle est intégrable sur le segment Ω. Ce qui permet de conclure.

Z
1.4.2 Dérivabilité sous le signe

Ici on suppose que Λ est un intervalle de R et on suppose en plus que f admet une dérivée
∂f
partielle pour presque tout x dans Ω.
∂λ
Théorème 1.16 (Dérivabilité) Supposons que

— pour presque tout x la fonction λ 7→ f (x, λ) est dérivable sur Λ,


— pour tout compact K ⊂ Λ il existe une fonction intégrable positive g K sur Ω telle que,
pour tout x pour lequel λ 7→ f (x, λ) est dérivable et pour tout λ ∈ K ,

∂f
(x, λ) ≤ g K (x).
∂λ

Alors la fonction F est dérivable sur Λ, de dérivée

∂f
Z

F (λ) = (x, λ)dµ(x).
Ω ∂λ

Preuve: Le théorème des accroissements finis.

Remarque 1.27 Par une récurrence facile, si f admet des dérivées jusqu’à l’ordre k ∈ N∗ , tel
que toutes les dérivées de f vérifient l’hypothèse de domination alors F admet une dérivée
d’ordre k et
∂k f
Z
(k)
F (λ) = (x, λ)dµ(x).
Ω ∂λk

page 34
Généralités sur les espaces probabilisés

1.4.3 Exemples : Travaux Dirigés

— Fonction Γ ;
— Transformée de Fourier ;
— Transformée de Laplace ;
— Produit de convolution.

On peut aussi voir


— Dualité dans les L p ;
— Théorème de représentation de Riesz ;
— Séparabilité (pour 1 ≤ p < ∞) ;
— Densité des fonctions C ∞ à support compact dans L P ;
— Étude de l’espace de Hilbert L 2 (Ω) où Ω est un ouvert de R et aussi L 22π des fonctions
2π-périodiques à carrée localement intégrables.

1.5 Espace probabilisé

Dans la suite (Ω, A ) désigne un espace mesurable. La tribu A contient tous les événements
possibles d’une expérience aléatoire. On dit alors que (Ω, A ) est un espace probabilisable.

1.5.1 Mesure de probabilité

Définition 1.17 On appelle mesure de probabilité sur (Ω, A ) toute mesure P telle que
P (Ω) = 1 . Si A ∈ A ; P (A) est appelé la probabilité de réalisation de A .

Si P est une mesure de probabilité sur (Ω, A ), on dit que (Ω, A , P) est un espace probabilisé.

Dans toute la suite, si on ne précise rien, (Ω, A , P) sera un espace probabilisé.

Exemple : Mesures de probabilité discrète

Soient (ωn )n∈N une suite injective d’éléments de Ω et (αn )n∈N une suite de nombres réels

αn = 1 ,
X
positifs telle que
n=0
P= αn εωn
X
n∈N

est appelée mesure de probabilité discrète (portée par les éléments ωn pondérés par les
poids αn ).

page 35
Espace probabilisé

Exemple : Équiprobabilité sur les espaces finis

Soient N un entier strictement positif et Ω = {ω1 , ω2 , ..., ωN } un ensemble fini de cardinal


N . L’équiprobabilité sur Ω est définie comme la mesure de probabilité discrète U :

N 1
U= εωn
X
n=1 N

En particulier,
1
U ({ωn }) = pour tout n ∈ [[1, N ]]
N
et pour tout A ⊂ Ω,
card (A)
P (A) = .
card (Ω)

On retrouve la définition de Laplace de la probabilité, à savoir que la probabilité de A est


égale au nombre de cas favorables (à A) divisé par le nombre de cas possibles. Il faut bien
noter que cette définition ne s’applique qu’aux espaces finis, sur lesquels on a imposé
l’équiprobabilité.

Si on se trouve dans ce cas, l’évaluation de la probabilité d’un évènement se ramène à des


évaluations de cardinaux d’ensembles finis d’où l’ importance de l’algèbre combinatoire de
ces ensembles.

Exercice 1.7 Un sac contient quatre boules identiques au toucher : une boule numérotée 0,
deux boules numérotées 1 et une boule numérotée 2. On effectue à l’aveugle n tirages d’une
boule avec remise.

Donner un espace probabilisé (Ω, A , P ) modélisant cette expérience.

Proposition 1.11 Soient C une classe d’évènements stable par intersection finie telle que
σ(C ) = A . Si deux mesures sur (Ω, A ) coïncident sur C alors elles coïncident sur A .

Preuve: On note µ et ν ces deux mesures, T = {A ∈ A | µ(A) = ν(A)}.

On montre que T est une tribu contenant C . La preuve utilise la notion de λ-système (voir
[4, Théorème d’unicité du prolongement , p. 67], ou [8, p. 81]).

page 36
Généralités sur les espaces probabilisés

1.5.2 Probabilités conditionnelles

Définitions – Exemples

Théorème 1.17 (et définition) Soit A ∈ A tel que P (A) > 0. Alors la fonction d’ensemble
P A définie pour tout B ∈ A par

P(A ∩ B )
P A (B ) = ,
P(A)

est une mesure de probabilité sur A qu’on appelle mesure de probabilité A-conditionnelle.

La quantité P A (B ) s’écrit aussi P (B | A) et se lit la probabilité de B sachant A.

Exercice 1.8 Démontrer le théorème ci-dessus.

Formule des probabilités totales et théorème de BAYES

Définition 1.18 (Systèmes complets d’évènements) On dit qu’une famille (A i )i ∈I (I fini


ou dénombrable) d’évènements est un système complet, si

(i) ∀i ̸= j ∈ I : A i ∩ A j = ∅ (les évènements A i sont deux à deux incompatibles) ;


à !
(ii) P
[
A i = 1 (presque sûrement l’un des évènements A i se réalise).
i ∈I

En particulier, toute partition dénombrable de Ω en éléments de A forme un système


complet.

Remarque 1.28 Dans la précédente définition, on impose seulement que la probabilité de


[
l’évènement contraire à A i soit nulle. Cet évènement n’est pas nécessairement impossible.
i ∈I

Théorème 1.18 Soit (A i )i ∈I un système complet d’évènements, tous de probabilité non


nulle. Alors, pour tout évènement B , on a :

P (B ) = P (B | A i ) P (A i )
X
(Formule des probabilites totales)
i ∈I

si, de plus, P (B ) > 0, on a, pour tout k ∈ I , l’identité :

P (B | A k ) P (A k )
PB (A k ) = P (Formule de Bayes)
P (B | A i ) P (A i )
i ∈I
P (B | A k ) P (A k )
= ³ ´ ³ ´
P (B | A k ) P (A k ) + P B | A k P A k

page 37
Espace probabilisé

Exercice 1.9 Démontrer le théorème ci-dessus.

1.5.3 Indépendance

Définition 1.19 (Évènements indépendants) Deux évènements A et B sont dits indépen-


dants (pour la mesure de probabilité P), si l’on a : P (A ∩ B ) = P (A) P (B ) .

Si P (A) ̸= 0 (resp. P (B ) ̸= 0), cela signifie que P A (B ) = P (B ) (resp. PB (A) = P (A))

Proposition 1.12 (Propriétés) Soient A, B, C des évènements.

(a) Si A et B sont indépendants, alors A et B c sont indépendants.


(b) Si A et B sont indépendants, si A et C sont indépendants et si de plus C ⊃ B , alors A
et C \ B sont indépendants.
(c) Tout évènement est indépendant de tout évènement de probabilité nulle ou de
probabilité égale à 1.
(d) Si (A i )i ∈I est une famille, au plus dénombrable, d’évènements deux à deux incompa-
tibles et si A est indépendant de A i pour tout i , alors A est indépendant de l’union
[
Ai .
i ∈I

On prolonge la notion d’indépendance de deux évènements au cas des suites d’évènements.


A côté de l’indépendance de deux évènements de la suite, pris deux à deux, on peut aussi
définir la notion d’évènements mutuellement indépendants :

Définition 1.20 Soit (A i )i ∈I une famille finie ou infinie d’évènements. On dit que les évè-
nements A i , i ∈ I , sont mutuellement indépendants, si pour toute partie finie {i 1 , i 2 , ..., i k }
de I , on a :
P Ai1 ∩ Ai2 ∩ · · · ∩ Aik = P Ai1 × P Ai2 × · · · P Aik .
¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢

Remarque 1.29 Des évènements peuvent être indépendants deux à deux sans être indépen-
dants mutuellement.

Indépendance de classes d’évènements

On prolonge la notion d’indépendance aux classes d’évènements de la façon suivante.


Supposons donnée une famille (finie ou infinie) (C i )i ∈I de classes d’évènements.

Définition 1.21 On dit que C i et C j sont indépendantes, si quel que soit A i ∈ C i et A j ∈ C j ,


les évènements A i et A j sont indépendants. De même on dit que (C i )i ∈I est une famille
de classes d’évènements indépendantes si pour toute partie finie C i 1 , C i 2 , ..., C i k , toute
© ª

famille d’évènements A i 1 ∈ C i 1 , A i 2 ∈ C i 2 , ..., A i k ∈ C i k est indépendantes.


© ª

page 38
Généralités sur les espaces probabilisés

La proposition suivante montre que pour vérifier que deux classes sont indépendantes, il
suffit de le vérifier sur des sous-classes suffisamment stables.

Proposition 1.13 Soient C 1 et C 2 deux classes d’évènements. On suppose qu’elles sont


indépendantes et stables par intersection finie. Alors les tribus T (C 1 ) et T (C 2 ) engendrées
par C 1 et C 1 sont indépendantes.

Exercice 1.10 Démontrer la proposition ci-dessus.

1.5.4 Lemme de Borel-Cantelli, loi du zéro-un

Définition 1.22 (Limite supérieure d’ensembles) Soit (A n )n∈N une suite de partie d’un
ensemble E . La limite supérieure des A n est l’ensemble

\ [
lim sup (A n ) = Ak .
n−→∞ n∈Nk≥n

c’est l’ensemble des éléments ω de E tels que l’assertion (ω ∈ A n ) soit vérifiée pour une
infinité d’indices n.

Remarque 1.30 On définit de même la limite inférieure par

[ \
lim inf (A n ) = A k.
n−→∞
n∈Nk≥n

On vérifie que
\ [
A n ⊂ lim inf (A n ) ⊂ lim sup (A n ) ⊂ An
n−→∞ n−→∞
n∈N n∈N

Théorème 1.19 (Lemme de Borel-Cantelli) Soit (A n )n∈N une suite d’évènements.

P (A n ) est convergente, alors


X
(a) Si la série
n

µ ¶
P lim sup (A n ) = 0 .
n−→∞

Ce qui s’énonce aussi : p.s., seul un nombre fini d’évènements A n est réalisé.
(b) Si en plus les A n , n ∈ N sont mutuellement indépendants et la série P (A n ) diverge
X
n
alors µ ¶
P lim sup (A n ) = 1 .
n−→∞

Ce qui s’énonce aussi : p.s., une infinité d’évènements A n est réalisée.

page 39
Espace probabilisé

[ \ [
Preuve: Pour le premier point, avec lim sup (A n ) = A k , on pose B n = A k . (B n )n∈N
n−→∞ n∈Nk≥n \ k≥n
est une suite décroissante d’évènements et lim sup (A n ) = B n ; donc
n−→∞ n∈N

µ ¶
P B n = lim P (B n )
\
n−→∞
n∈N

à !
+∞
or P (B n ) = P P (A k ) −→ 0 , car reste d’une série convergente. Donc
[ X
Ak ≤
n−→∞
k≥n k=n

µ ¶ µ ¶
P lim sup (A n ) = P
\
B n = 0.
n−→∞ n∈N

µ ¶
Pour le second point, on démontre que P lim sup (A n ) = 0. D’abord
n−→∞

³ ´ [ \
lim sup (A n ) = lim inf A n = A k.
n−→∞ n−→∞
n∈Nk≥n

Soit n 0 fixé, nous avons par indépendance ∀n ≥ n 0


à !
³ ´
P P Ak
\ Y
Ak =
n 0 ≤k≤n n 0 ≤k≤n

(1 − P (A k ))
Y
=
n 0 ≤k≤n
Y
≤ exp (−P (A k ))
n 0 ≤k≤n
à !
X
= exp (−P (A k ))
n 0 ≤k≤n

à !
X X
et comme la série (−P (A k )) diverge vers −∞ ; exp (−P (A k )) −→ 0 , donc
n−→∞
k n 0 ≤k≤n

à !
(1 − P (A k )) = lim P
Y \
lim Ak = 0 .
n−→+∞ n−→+∞
n 0 ≤k≤n n 0 ≤k≤n

D’autre part, par intersection décroissante


à ! à !
P A k = lim P
\ \
Ak = 0 .
n−→+∞
k≥n 0 n 0 ≤k≤n

page 40
Généralités sur les espaces probabilisés

Et donc par réunion,


à !
³ ³ ´´ +∞
P lim inf A n =P P(
[ \ X \
Ak ≤ Ak ) = 0 .
n−→∞
n 0 ∈Nk≥n 0 n 0 =0 k≥n 0

Donc par passage au complémentaire


µ ¶
P lim sup (A n ) = 1 .
n−→∞

Remarque 1.31 (Loi(0, 1)) Le lemme de Borel-Cantelli a pour conséquence la loi du zéro-un
de E. Borel qui s’exprime sous la forme : Si les évènements A n sont indépendants, alors la
probabilité P lim sup (A n ) vaut 0 ou 1 suivant que la série P (A n ) est convergente ou
¡ ¢ X

divergente.

page 41
Chapitre 2

Variables aléatoires réelles

2.1 Variables aléatoires

Lorsque l’on veut mesurer des grandeurs dépendant du hasard ou décrire l’état d’un
système aléatoire évoluant au cours du temps. On est amené à introduire des fonctions
définies sur des espaces probabilisés. Ces fonctions sont appelées variables aléatoires ; ce
sont des fonctions à valeurs réelles ou à valeurs dans Rn .

2.1.1 Définitions – Exemples

Définition 2.1 (variable aléatoire) On appelle variable aléatoire


³ réelle
³ ´´ (v.a.r) sur Ω , toute
application mesurable X de (Ω, A ) dans (R, B (R)) (ou dans Rd , B Rd d ∈ N∗ )

On se limte dans la suite au cas où d = 1 mais la quasi totalité des notions abordées et des
résultats établies se généralisent sans grandes difficultés au cas d ≥ 2.

Proposition 2.1 Soient (Ω, A ) un espace probabilisable et X : (Ω, A ) −→ (R, B (R)) . Alors
X est v.a si et seulement si pour tout a ∈ R, X −1 (]−∞, a]) ∈ A . Si X (Ω) est au plus dénom-
brable alors X est v.a si et seulement si pour tout a ∈ R, X −1 ({a}) ∈ A .

Preuve: Utilise le fait que B (R) est engendrée par la famille des intervalles ]−∞, a] où a
décrit R. Si X (Ω) est au plus dénombrable alors pour tout B ∈ B (R)

X −1 (B ) = X −1 ({a})
[
a∈X (Ω)∩B

qui est une union au plus dénombrable.

42
Variables aléatoires réelles

Exemple 2.1 Soit Ω = {1, 2, . . . , 6} × {1, 2, . . . , 6} muni de la tribu P (Ω) et de la mesure P telle
1
que P((i , j )) = , ∀(i , j ) ∈ Ω. La mesure P est une mesure de probabilité car card (Ω) = 36.
36
L’ensemble Ω est l’ensemble des combinaisons que l’on peut obtenir en jetant un dé deux
fois ("ensemble de tous les possibles "). C’est du moins une modélisation raisonnable de ce
qui se passe quand on jette un dé deux fois.

Introduisons deux variables aléatoires

X : (i , j ) ∈ Ω 7→ i ∈ R , Y : (i , j ) ∈ Ω 7→ i + j ∈ R .

La variable X est le résultat du premier tirage et Y est la somme des deux tirages.

Proposition 2.2 Soit A ⊂ Ω, la fonction indicatrice 1 A est v.a.r si et seulement si A ∈ A .

Exercice 2.1 Démontrer la proposition ci-dessus.

D’après les propriétés des fonctions mesurables, on a :

Proposition 2.3 Toute somme (resp. produit ou quotient) de v.a.r sur (Ω, A ) est une v.a.r
sur (Ω, A ).

Proposition 2.4 Si f : (R, B (R)) −→ (R, B (R)) est mesurable et X une v.a.r sur (Ω, A ) alors
f (X ) est une v.a.r sur (Ω, A ). En plus si X (Ω) est au plus dénombrable alors f (X ) est une
v.a.r sur (Ω, A ) pour toute application f : X (Ω) −→ R.

Proposition 2.5 (Propriétés des applications mesurables) Soit (X n )n≥0 : Ω −→ R est une
suite de v.a.r bornées.

(i) sup X n et inf X n sont des v.a.r sur (Ω, A ).


n n
P−p.s
(ii) Si X : Ω −→ R est telle que X n −→ X sur (Ω, A , P) , alors X est une v.a.r.

2.1.2 Loi de probabilité d’une variable aléatoire

Proposition 2.6 (et définition) Soit (Ω, A , P) un espace probabilisé. Soit X : Ω −→ R une
v.a.r. L’application P X : B (R) −→ [0, 1] définie par P X (B ) = P(X −1 (B )) est une mesure de
probabilité appelée mesure image de P par X , appelée loi de la v.a.r X .

Preuve: Vérifions d’abord que P X est bien définie : ∀B ∈ B (R), X −1 (B ) ∈ A . On a donc


P X : B (R) −→ [0, 1]. Puis P X (∅) = P(X −1 (∅)) = P(∅) = 0 car P est une mesure. Enfin, si
B 0 , B 1 , B 2 , · · · ∈ B (R) sont deux à deux disjoints, P X ( ∪ B n ) = P(X −1 ( ∪ B n )) = P( ∪ X −1 (B n )).
n≥0 n≥0 n≥0

page 43
Variables aléatoires

En effet X −1 ( ∪ B n ) = {x ∈ Ω : X (x) ∈ ∪ B n } = ∪ {x ∈ Ω : X (x) ∈ B n }. Soient m ̸= n, si


n≥0 n≥0 n≥0
−1
x∈X (B n ), X (x) ∈ B n , donc X (x) ∉ B m (car B 0 , B 1 , B 2 , . . . sont deux à deux disjoints), donc
−1
x∉X (B m ), donc X −1 (B n ) ∩ X −1 (B m ) = ∅. Donc, puisque P est une mesure,

P X ( ∪ B n ) = P( ∪ X −1 (B n ))
n≥0 n≥0

P(X −1 (B n ))
X
=
n≥0

P X (B n ) .
X
=
n≥0

Donc P X est une mesure.

Remarque 2.1 Soit X : Ω −→ R une variable aléatoire réelle, on notera (X ∈ A) aulieu de


X −1 (A) et donc P X (A) = P(X ∈ A), pour tout A ∈ B (R) .

Exemple 2.2 Reprenons l’exemple précédent. Nous pouvons décrire complètement la loi
de Y (toujours à l’aide de la propriété de sommation d’une mesure :

PY ({1}) = P(Y = 1) = 0
PY ({2}) = P(Y = 2) = P((i , j ) = (1, 1)) = 1/36
PY ({3}) = P(Y = 3) = P({(1, 2), (2, 1)}) = 2/36
PY ({4}) = P(Y = 4) = P({(1, 3), (2, 2), (3, 1)}) = 3/36
...

2.1.3 Fonction de répartition d’une v.a.r

Définition 2.2 Soit X une v.a.r. On appelle fonction de répartition de X , la fonction de


répartition de la mesure P X , c’est à dire, la fonction

FX : R −→ R+
t 7→ F X (t ) = P X (] − ∞, t ]) = P(X ≤ t )

On a donc les propriétés :

Théorème 2.1 Soit X une v.a.r. alors :

(a) F X est croissante.


(b) lim F X (t ) = 0, lim F X (t ) = 1.
t −→−∞ t −→+∞

page 44
Variables aléatoires réelles

(c) F X est continue à droite et admet une limite à gauche en tout point, avec

lim F X (t ) = P(X < t 0 ).


t −→t 0 ,t <t 0

(d) F X est continue en t 0 si, et seulement si, P(X = t 0 ) = 0.

2.1.4 Variables aléatoires indépendantes

Définition 2.3 Deux variables aléatoires X , Y : Ω −→ R , sont dites indépendantes, si les


tribus X −1 (B (R)) et Y −1 (B (R)) sont indépendantes.

De façon plus explicite, soient X et Y deux variables aléatoires, si pour tout A ∈ B (R) et
tout B ∈ B (R), on a :
P {X ∈ A, Y ∈ B } = P {X ∈ A} P {Y ∈ B }

Une des notions qui revient constamment dans la théorie des probabilités est la notion de
suite de variables (mutuellement) indépendantes. La définition formelle en est la suivante :

Définition 2.4 Soit (X n ) une suite de variables aléatoires réelles définies sur un espace pro-
babilisé (Ω, A , P). On dit que cette suite est une suite de variables aléatoires indépendantes
(on dit encore variables aléatoires mutuellement indépendantes, pour éviter toute ambi-
guïté), si la suite des tribus engendrées X n−1 (B (R)) est une suite de tribus mutuellement
¡ ¢

indépendantes.

Ce qui signifie que pour toute suite finie extraite X i 1 , X i 2 , ..., X i n , et toute suite finie B 1 , B 2 , ..., B n ,
de boréliens, on a :
n n o
P X i 1 ∈ B 1 , ..., X i n ∈ B n = P Xi j ∈ B j
© ª Y
j =1

Remarque 2.2 Pour vérifier que deux variables aléatoires réelles X et Y sont indépendantes,
il suffit de se restreindre à des sous-classes d’ensembles qui engendrent B (R). Dans le cas
où X (Ω) et Y (Ω) sont au plus dénombrables alors on peut se restreindre à la classes des
singletons.

Exercice 2.2 Un sac contient quatre boules identiques au toucher : une boule numérotée 0,
deux boules numérotées 1 et une boule numérotée 2. On effectue à l’aveugle n tirages d’une
boule avec remise.
(a) Donner un espace probabilisé (Ω, A , P ) modélisant cette expérience.
(b) Pour tout i ∈ {1, 2, ..., n}, on note X i le résultat du i -ème tirage. Expliquer pourquoi les
X i sont des variables aléatoires réelles et donner la loi de la variable aléatoire X i .

page 45
Variables aléatoires

(c) On note S n la somme des numéros tirés. Exprimer S n en fonction des X i , i ∈ {1, 2, ..., n}.
(d) On suppose que les X i sont mutuellement indépendantes. Déterminer la loi de S n .

2.1.5 Loi conjointe d’un couple de v.a.r

Définition 2.5 Soient X et Y deux v.a.r sur Ω. On appelle loi conjointe du couple (X , Y ) la
mesure de probabilité image de P par (X , Y ) , c’est à dire la mesure P(X ,Y ) définie par

P(X ,Y ) (B ) = P ((X , Y ) ∈ B ) , pour tout B ∈ B R2 .


¡ ¢

En particulier pour tout B 1 × B 2 ∈ B (R) × B (R) , P(X ,Y ) (B 1 × B 2 ) = P ((X ∈ B 1 ) ∩ (Y ∈ B 2 )).

On déduit donc, d’après la définition de la mesure produit, qu’on a :

Proposition 2.7 Si X et Y sont deux v.a.r indépendantes sur Ω , alors P(X ,Y ) = P X ⊗ PY .

2.1.6 Moments d’une v.a.r

Définition 2.6 On appelle espérance d’une v,a.r X sur (Ω, A , P) le réel


Z
E [X ] = X dP,

qui requiert l’intégrabilité de X pour la mesure P.


Z
m m

En général, si |X | , m ∈ N est intégrable pour la mesure P , E X X m dP est appelé
£ ¤
=

le moment d’ordre m de X .

Définition 2.7 Si (X − E [X ])2 est intégrable, on appelle variance de X le réel

Var (X ) := E (X − E [X ])2
£ ¤

La racine carrée positive de Var (X ) est désignée par σ (X ) est appelée l’écart-type de X .

Remarque 2.3 (a) L’espérance mathématique d’une variable aléatoire X ne dépend que
de la loi de X et indique la valeur moyenne autour de laquelle X prend ses valeurs.
D’autres caractéristiques de la loi de X rendent compte de la dispersion de cette loi. La
variance est un bon indicateur de la dispersion.
(b) Par la comparaison des intégrales, on déduit que si X admet un moment d’ordre k
alors elle admet des moments à tout ordre j < k.

page 46
Variables aléatoires réelles

Proposition 2.8 Soit X une variable aléatoire réelle, si E X 2 est fini, alors son espérance
£ ¤

mathématique E [X ] et sa variance Var (X ) existent et on a :

Var (X ) = E X 2 − (E [X ])2
£ ¤

2.1.7 Propriétés de l’espérance

En utilisant la définition de l’espérance sous forme intégrale, les propriétés suivantes sont
connues : pour X et Y deux variables aléatoires, définies sur un espace probabilisé :

— E [X ] finie si et seulement si E [|X |] finie et

|E [X ]| ≤ E [|X |].

— |X | ≤ Y et E [Y ] finie entraînent E [X ] finie ;


— −∞ < a ≤ X ≤ b < +∞ =⇒ a ≤ E [X ] ≤ b ;
— X = a p.s. =⇒ E [X ] = a ;
— Linéarité : Si E [X ] et E [Y ] sont finies, alors

— E [X + Y ] = E [X ] + E [Y ] ,
— Pour tout λ ∈ R : E [λX ] = λE [X ]. En général E λX + µ = λE [X ] + µ pour tout
£ ¤

λ, µ dans R.
— X = Y p.s. =⇒ E [X ] = E [Y ] ;

— Monotonie : Si E [X ] et E [Y ] sont finies, alors

X ≤ Y p.s. =⇒ E [X ] ≤ E [Y ] .

En particulier si X ≥ 0 p.s. alors E [X ] ≥ 0.

— L’inégalité de Markov s’énnonce comme suit :

Proposition 2.9 (Inégalité de Markov) Si X est v.a.r positive et intégrable sur Ω , alors

E (X )
P (X ≥ a) ≤ ,
a

pour tout a > 0.

— Une reformulation de l’inégalité de Markov dans le cas de v.a.r à carré intégrable est
l’inégalité de Bienaymé-Tchebychev :

page 47
Variables aléatoires

Proposition 2.10 (Inégalité de Bienaymé-Tchebychev) Si X est v.a.r à carré intégrable sur


Ω , alors
V ar (X )
P (|X − E (X )| ≥ ε) ≤ ,
ε2
pour tout ε > 0.

Théorème de transfert

Remarquons d’abord, que si on considère (U , A ) et (V, B) deux espaces mesurables et


ϕ : U −→ V une fonction mesurable puis une mesure µ sur (U , A ) alors la mesure image
ν = µϕ = µ ◦ ϕ−1 est une mesure sur (V, B). Le théorème de transfert établit le lien entre les
intégrales par rapport à µ sur U et celles par rapport à µϕ sur V :
¯ ¯
Théorème 2.2 (de transfert) Soient h : ¯ (V, B) −→ R , ϕ : ¯ U −→ V mesurables,
¯ ¯

alors h est µϕ -intégrable si et seulement si h ◦ ϕ est µ-intégrable et dans ce cas,


Z Z
h ◦ ϕdµ = hdµϕ .
U V

Remarque 2.4 Il s’agit d’une formule de changement de variable abstraite, très générale
puisque la seule condition pour le changement de variable v = ϕ (u) est que ϕ soit mesurable !

On déduit alors, avec h : R −→ R; x 7−→ x, que si X : (Ω, A , P) −→ R une variable aléatoire de


loi P X : Z Z
xdP X et E X m = x m dP X
£ ¤
E [X ] =
R R
qui a un sens si X est intégrable sur Ω pour la mesure P ou de manière équivalente h
intégrable pour la mesure P X .

De manière générale, le théorème de transfert permet d’avoir, avec h : R −→ R borélienne,


Z Z
E [h (X )] = h ◦ X dP = h (x) dP X
Ω R

qui est définie si h ◦ X est intégrable sur Ω pour la mesure P, ou de manière équivalente, h est
intégrable pour P X .

Cas de mesure P X = p i εxi discrète : L’égalité s’écrit,


X
i ∈I

X
E [h (X )] = p i h (x i ) .
i ∈I

page 48
Variables aléatoires réelles

Cas de mesure P X = f dλ à densité f : L’égalité s’écrit,


Z
E [h (X )] = h (x) f (x) dx.
R

Preuve: On distingue le cas où h ≥ 0 puis le cas général.

Si h = 1B avec B ∈ B, alors h ◦ ϕ = 1ϕ−1 (B ) et


Z Z
−1
h ◦ ϕdµ = µ ϕ (B ) = µϕ (B ) =
¡ ¢
hdµϕ .
U V

Par linéarité de l’intégrale le théorème est vrai pour toute fonction h étagée positive.

Si h ≥ 0 mesurable, il existe une suite de fonctions h n étagées mesurables positives telle


que h n ↗ h et aussi h n ◦ ϕ ↗ h ◦ ϕ. Il suffit de prendre

 k k k +1
 · ·
si h (x) ∈ n , n et h (x) < n
h n (x) = 2n 2 2
n si h (x) ≥ n

avec cette définition h n ne prend qu’un nombre fini de valeurs même si h n’est pas bornée.
Le choix de 2n assure la croissance de h n . Par le théorème de convergence monotone,
l’égalité du théorème est vraie dans [0, +∞].

Dans le cas général, h = h + − h − et h ◦ ϕ = h + ◦ ϕ − h − ◦ ϕ.

Espérance d’un produit de v.a.r

Si X et Y sont deux v.a.r sur Ω à carrés intégrables , l’inégalité de Cauchy-Schwarz dans


L2 (Ω, A , P) permet de montrer que X Y ∈ L2 (Ω, A , P) . Le cas où X et Y sont indépendantes
est particulier :

Théorème 2.3 Si X et Y sont deux v.a.r indépendantes sur Ω et si E [X ] et E [Y ] sont finies,


alors E [X Y ] est finie et
E [X Y ] = E [X ] E [Y ] .

Première preuve : En utilisant le théorème de transfert avec le couple (X , Y ) et en considé-


rant l’application h : R2 −→ R ; x, y 7−→ x y , on a :
¡ ¢

Z Z
¡ ¢
E [X Y ] = X (ω) Y (ω) dP (ω) = x ydP(X ,Y ) x, y
Ω R2

page 49
Variables aléatoires

et puisque X et Y sont indépendantes, alors


Z Z Z Z
¡ ¢ ¡ ¢ ¡ ¢
x ydP(X ,Y ) x, y = x ydP X (x) dPY y = xdP X (x) ydPY y
R2 R2 R R

par conséquent E [X Y ] = E [X ] E [Y ] .

Seconde preuve : Si X = 1 A et Y = 1B , alors


Z Z
E [X Y ] = 1 A (ω) 1B (ω) dP (ω) = 1 A∩B (ω) dP (ω) = P (A ∩ B )
Ω Ω

= P (A) P (B ) = E [X ] E [Y ] .

Le cas de X et Y étagées se déduit par linéarité.

Si X et Y sont positives alors, on construit deux suites croissantes (X n )n et (Yn )n de v.a.


étagées telles que pour tout n ∈ N , X n et Yn sont indépendantes. Il suffit de prendre

 k k k +1
 · ·
si X (ω) ∈ n , n et X (ω) < n
X n (ω) = 2n 2 2
n si X (ω) ≥ n

 k k k +1
 · ·
si Y (ω) ∈ n , n et Y (ω) < n
Yn (ω) = 2n 2 2
n si Y (ω) ≥ n

avec ces définitions X n et Yn ne prennent qu’un nombre fini de valeurs et donc, pour
vérifier l’indépendance de X n et Yn , il suffit de remarquer que pour tout a ∈ R , les deux
évènements (X n = a) et (Yn = a) sont indépendants par indépendance de X et Y . Comme
(X n Yn )n est à son tour une suite de v.a. qui croit vers X Y , on a alors

E [X Y ] = lim E [X n Yn ] = lim E [X n ] E [Yn ] = E [X ] E [Y ] .


n→∞ n→∞

Quant au passage au cas où les X et Y ne sont plus positives, il est standard.

Remarque 2.5 Bien entendu, une récurrence facile permet de montrer que si X 1 , ..., X n sont
des v.a.r indépendantes admettant chacune une espérance alors il en est de même pour le
Y n
produit X i et on a
i =1 " #
n
Y Yn
E Xi = E [X i ] .
i =1 i =1

On déduit du théorème précedent :

Corollaire 2.1 Si X et Y sont deux v.a.r indépendantes sur Ω et si E X 2 et E Y 2 sont


£ ¤ £ ¤

page 50
Variables aléatoires réelles

finies, alors
V ar [X + Y ] = V ar [X ] + V ar [Y ] .

2.1.8 Lois de la somme de variables aléatoires indépendantes

Produit de convolution de mesures

Définition 2.8 On appelle produit de convolution de deux mesures µ et ν sur R , la mesure


notée µ ∗ ν définie pour tout A ∈ B (R) par :
Z
µ ∗ ν (A) =
¡ ¢ ¡ ¢
1 A x + y dµ (x) dν y
R

L’intégrale d’une fonction f par rapport à la mesure µ ∗ ν est définie par :


Z Z
f d µ∗ν =
¡ ¢ ¡ ¢ ¡ ¢
f x + y dµ (x) dν y .
R R

Théorème 2.4 Si X et Y sont des variables aléatoires réelles définies sur un même espace
probabilisé, indépendantes alors

P X +Y = P X ∗ PY .

Preuve: Par l’inépendance la loi du couple (X , Y ) est le produit des lois de X et Y , c’est à
dire, P(X ,Y ) = P X ⊗ PY . Soit A ∈ B (R), par le théorème de transfert (T.T) appliqué au couple
(X , Y ),

P X +Y (A) = P (X + Y ∈ A)
= P (1 A (X + Y ))
Z
T.T ¡ ¢ ¡ ¢
= 1 A x + y dP(X ,Y ) x, y
ZR
¡ ¢ ¡ ¢
= 1 A x + y dP X (x) dPY y
R

= P X ∗ PY (A)

donc P X +Y = P X ∗ PY .

2.1.9 Théorèmes limites

Dans un contexte probabiliste les théorèmes fondamentaux de l’intégration : convergence


monotone, lemme de Fatou et convergence dominée sont donc valables :

page 51
Variables aléatoires

Soient (Ω, A , P) un espace probabilisé, (X n )n suite de variables aléatoires réelles et X une


variable aléatoire réelle, X n converge vers X presque sûrement (p.s) si
n o
P ω ∈ Ω | lim X n (ω) = X (ω) = 1.
n−→∞

Les trois théorèmes s’énoncent donc sous la forme :

Théorème 2.5 (Convergence monotone, Beppo Levi) Si les X n sont positives et la suite
(X n )n est croissante (0 ≤ X n ≤ X n+1 ) convergeant prèsque sûrement vers X , alors

lim E [X n ] = E [X ] (dans [0, +∞] ).


n−→∞

Une conséquence du théorème de convergence monotone, est le théorème d’intégration


terme à terme :
X
Corollaire 2.2 (intégration terme à terme) Si les X n sont des v.a.r telles que la série |X n |
converge prèsque sûrement sur Ω , et la série numérique E [|X n |] converge , alors
X

+∞
X
· +∞
X
¸
E [X n ] = E Xn .
n=0 n=0

En effet : Quitte à travailler avec X n+ et X n− on peut supposer que X n ≥ 0 et appliquer le


théorème de convergence monotone avec la suite des sommes partielles.

Remarque 2.6 Dans le cas où les X n sont positives, sans l’hypothèse de convergence de la
X +∞
X
· +∞ ¸
X
série E [|X n |] , l’égalité E [X n ] = E X n tient dans [0, +∞] .
n=0 n=0

Théorème 2.6 (Lemme de Fatou) Si les X n sont positives, alors


h i
E lim inf (X n ) ≤ lim infE [X n ]
n−→∞ n−→∞

Théorème 2.7 (Convergence dominée) Si (X n )n converge prèsque sûrement vers X , et s’il


existe une v.a. Y positive intégrable (E [Y ] finie) telle que pour tout n,

|X n | ≤ Y p.s.

alors
lim E [X n ] = E [X ] .
n−→∞

Remarque 2.7 Une seconde version du théorème d’intégration terme à terme utilisant le

page 52
Variables aléatoires réelles

¯ ¯
¯Xn ¯
TCD : S’il existe v.a.r positive Y intégrable telle que ¯ X k ¯ ≤ Y (prèsque sûrement sur Ω )
¯ ¯
¯k=0 ¯
+∞
pour tout n et la série X n converge prèsque sûrement sur Ω , alors
X X
X n est intégrable et
n=0
· +∞ ¸ +∞
X X
E Xn = E [X n ].
n=0 n=0

2.2 Variables aléatoires discrètes

2.2.1 Définitions

Définition 2.9 Une variable aléatoire X , à valeurs dans R, est dite discrète, si la loi de
probabilité P X est une mesure de probabilité discrète sur (R, B (R)).

Soit P X = αk εxk , I ⊂ N, la loi de probabilité d’une telle variable aléatoire. Comme la


X
k∈I
tribu borélienne B (R) contient tous les ensembles réduits à un seul élément {x} , (x ∈ R),
on peut écrire : (
αk si x = xk
P X ({x}) =
0 si x ∉ {x k | k ∈ I }

En particulier, si une telle variable aléatoire X est définie sur l’espace probabilisé (Ω, A, P),
on peut écrire, pour tout x ∈ R,

P X ({x}) = P (X ∈ {x}) = P {X = x},

qui se lit probabilité que X soit égal à x . On obtient ainsi :

P X (B ) = P (X = x k ) = αk
X X
k|x k ∈B k|x k ∈B

pour tout B ∈ B (R).

Si x 0 ∈ R et si la loi de probabilité de la variable aléatoire X est singulière et égale à εx0 , on a :


(
1 si x = x0
P X ({x}) =
0 si x ̸= x 0

On dit alors que X est P-prèsque sûrement constante (égale à x 0 ). Réciproquement, la loi
de probabilité d’une fonction constante est singulière.

page 53
Variables aléatoires discrètes

De même si X : (Ω, A , P) −→ (R, B (R)) est une variable aléatoire telle que X (Ω) est au plus
dénombrable, alors X est une variable aléatoire discrète. En particulier, lorsque p = 1 et
que X (Ω) est fini, on peut écrire
n
X
X= xk 1 Ak
k=1

où X (Ω) = {x 1 , x 2 , ..., x n } et A k = (X = x k ) (1 ≤ k ≤ n).

Les ensembles A k (1 ≤ k ≤ n) appartiennent à A et sont disjoints deux à deux. Une telle


variable aléatoire est dite simple ou étagée. Sa loi de probabilité P X est donnée par :

n
PX = P (A k ) εxk .
X
k=1

Une variable aléatoire simple est discrète, elle ne peut prendre qu’un nombre fini de
valeurs (les x k ). En revanche, chacune de ces valeurs peut être prise en une infinité non
dénombrable de points ω ∈ Ω. En effet, des ensembles A k peuvent admettre la puissance
du continu.

Dans les paragraphes suivants, nous passons en revue quelques mesures de probabilité
discrètes rencontrées dans les applications. Pour des raisons de commodité, elles sont
définies sur l’espace (R, B (R)).

Remarque 2.8 Si F X est continue, X ne peut pas être discrète. En effet, dans ce cas, il existe
aumoins a ∈ R tel que P X ({a}) ̸= 0 et donc F X n’est pas continue en a.

2.2.2 Lois usuelles

Dans la suite de cette section, on considère une variable aléatoire :

X : (Ω, P (Ω) , P) −→ (R, B (R))

Loi uniforme

S’il existe x 1 , ..., x n deux à deux distincts dans R tels que

X (Ω) = {x 1 , ..., x n }

On dit que X suit une loi uniforme si

1 Xn
PX = εx .
n k=1 k

page 54
Variables aléatoires réelles

On note
X ,→ U {x1 ,...,xn } .

Exemple Jet d’un dé équilibré : X est la valeur de la face obtenue.

Exercice 2.3 Tracer l’allure de la courbe de la fonction de répartition (avec n = 5).

Loi binomiale, loi de Bernoulli

Soit p ∈ [0, 1] et n ∈ N∗ . On dit que X suit une loi binomiale de paramètres n, p si


¡ ¢

à !
n n ¢n−k
PX = pk 1 − p εk .
X ¡
k=0 k

Dans le cas n = 1, on dit que X suit une loi de Bernoulli de paramètre p :

P X = 1 − p ε0 + pε1
¡ ¢

On note
X ,→ B n, p .
¡ ¢

¡ ¢
Remarque 2.9 Une binômiale de paramètre n, p peut être vue comme la somme de n
bernoulli B 1, p indépendantes.
¡ ¢

Exemple (tirage avec remise) Par exemple, dans le tirage avec remise, dans une urne avec
des boules de deux couleurs, si la proportion de boules blanches dans l’urne est égale à p et
si le nombre de tirages est égal à n, alors la variable aléatoire X nombre de boules blanches
tirées est une variable aléatoire binomiale de paramètres (n, p).

De même, si A est un évènement d’un espace probabilisé (Ω, A , P), la variable aléatoire 1 A
est une variable de Bernoulli de paramètre p = P(A).

3
Exercice 2.4 Tracer l’allure de la courbe de la fonction de répartition (avec p = et n = 5)
4

page 55
Variables aléatoires discrètes

Loi hypergéométrique

Soient n, N et M trois entiers positifs tels que n ≤ N , M < N . On dit que X suit la loi
hypergéométrique de paramètres (n, N , M ) si
à !à !
M N −M
min(n,M
X ) k n −k
PX = Ã ! εk
k=max(0,n−(N −M )) N
n

Le fait que à !à !
M N −M
min(n,M
X ) k n −k
à ! =1
k=max(0,n−(N −M )) N
n

se déduit directement de l’identité (1 + z)M (1 + z)N −M = (1 + z)N , en calculant le coefficient


de z n dans les deux membres.

On note
X ,→ H (n, N , M ).

Exemple (le tirage sans remise) Une urne contient M boules blanches et N − M boules
noires (M < N ). On tire, sans les remettre dans l’urne, n boules successivement (n ≤ N ).
Le nombre X de boules blanches amenées parmi ces n boules est une variable aléatoire
hypergéométrique de paramètres (n, N , M ).

On a par exemple, pour max{0, n − (N − M )} ≤ k ≤ min{n, M } la probabilité :


à !à !
M N −M
k n −k
P {X = k} = Ã ! .
N
n

Il est bon de noter, bien que cela ne soit pas apparent, que cette expression est symétrique
en M et n.

page 56
Variables aléatoires réelles

Remarque Lorsque, n et k restant fixés (0 ≤ k ≤ n), on fait tendre M et N − M vers l’infini


M
de telle sorte que −→ p ∈]0, 1[, on montre que
N
à !à !
M N −M
à !
k n −k n ¢n−k
pk 1 − p
¡
à ! −→ .
N k
n

On dit que, dans les conditions indiquées, la loi hypergéométrique H (n, N , M ) converge
vers la loi binomiale B(n, p).

Loi géométrique

On dit que X suit la loi géométrique de paramètre p, si

+∞
PX = pq k−1 εk
X
k=1

On a bien
+∞ 1
pq k−1 = p
X
=1
k=1 1−q

On note
X ,→ G (p).

On introduit souvent la fonction de survie

pq k−1 = q n .
X
r (n) = P {X > n} =
k≥n+1

Remarque 2.10 On appelle quelque fois loi géométrique de paramètre p la loi définie par

+∞
PX = pq k εk
X
k=0

Il conviendra dans chaque cas de s’assurer de quelle loi géométrique il s’agit.

La loi géométrique de paramètre p (0 < p < 1) correspond au modèle suivant :

On considère une épreuve de Bernoulli dont la probabilité de succès est p et celle d’échec
q = 1 − p. On renouvelle cette épreuve de manière indépendante jusqu’au premier succès. La
variable aléatoire X donnant le rang du premier succès suit la loi géométrique de paramètre
p.

page 57
Variables aléatoires discrètes

Exemple (dans l’attente du premier succès) Un joueur procède à une suite de parties
indépendantes de pile ou face et décide de s’arrêter de jouer dès que, pour la première
fois, il aura amené pile . On s’intéresse au nombre X de parties qu’il lui faudra jouer pour
réaliser son objectif.

Pour définir X , on commence par introduire l’ensemble Ω de toutes suites infinies d’issues
possibles : ainsi un élément ω ∈ Ω est une suite (δ1 , δ2 , ...) de 0 et de 1, en convenant du fait
que le terme général δk vaut 0 ou 1, suivant qu’à la k ième partie face ou pile apparaît.

Si l’on veut faire apparaître X comme une variable aléatoire définie sur Ω, l’évènement
{X = k} le joueur s’arrête de jouer à la k ième partie doit être probabilisable pour tout k fini. Il
en est de même de l’évènement {X = ∞} le joueur joue indéfiniment ! Pour tout k = 1, 2, ...,
notons A k l’ensemble des suites ω = (δ1 , δ2 , ...) telles que δk = 1. Avec la convention prise,
A k est l’évènement “pile” apparaît à la k ième partie .

Par conséquent, pour tout k fini, on a

{X = k} = A 1 ∩ ... ∩ A k−1 ∩ A k

de plus
{X = ∞} = lim A 1 ∩ ... ∩ A k .
k−→∞

Ainsi X est une variable aléatoire définie sur (Ω, A ), si on prend pour A la tribu engendrée
par les A k .

Enfin, pour rendre compte de l’indépendance des parties et du fait que la probabilité
d’amener pile en un coup est p (0 < p < 1), il faut prouver qu’il existe une mesure de
probabilité P sur (Ω, A ) telle que pour toute suite finie (i 1 , i 2 , ..., i k ) d’entiers distincts, on
ait P(A i 1 ∩ A i 2 ∩ ... ∩ A i k ) = p k .

En général, on a :

Théorème 2.8 ([4], section 7, pages 62-66) Soient (E , P (E ), µ) un espace probabilisé fini.
On note l’espace E N des suites à valeurs dans E et A la tribu engendré par la famille C des
parties de Ω de la forme

e ,...,e
A n11 ,...,nkk := {(ωn )n | ωn1 = e 1 , ..., ωnk = e k }

avec n 1 , ..., n k ∈ N et e 1 , ..., e k ∈ E . Alors il existe une unique mesure de probabilité P sur
(Ω, A ) telle que

e ,...,e
∀n 1 , ..., n k ∈ N, ∀e 1 , ..., e k ∈ E : P(A n11 ,...,nkk ) = µ({e j })
Y
1≤ j ≤k

page 58
Variables aléatoires réelles

L’espace probabilisé (Ω, A , P) étant ainsi construit, on voit alors que X est définie sur cet
espace et prend ses valeurs dans (R̄, B̄), en désignant par R̄ la droite achevée et par B̄ la
tribu engendrée par B (R) ∪ {+∞} ∪ {−∞}. On peut alors calculer la loi de probabilité de X ,
soit, en posant q = 1 − p,

P {X = 1} = P (A 1 ) = p; P {X = k} = P (A 1 ∩ ... ∩ A k ) = q k−1 p,

pour k ≥ 2 ;

P {X = ∞} = P (lim A 1 ∩ ... ∩ A k ) = lim P (A 1 ∩ ... ∩ A k ) = lim q k = 0.


k k k

Si l’on néglige la valeur +∞, on voit que X suit la loi géométrique de paramètre p.

Loi de Poisson

Soit λ un nombre réel strictement positif. On dit que X suit la loi de Poisson de paramètre
λ, si
+∞ e −λ λk
PX = εk
X
k=0 k!
On a bien
+∞ e −λ λk
= e −λ e λ = 1
X
k=à k!

On note
X ,→ P (λ).

Remarque 2.11 Pour tout entier k ≥ 1 fixé, on a :


à !µ ¶ µ
n λ k λ n−k e −λ λk

lim 1− = .
n−→∞ k n n k!

ce que signifie que si B(n, p) est une loi binomiale telle que les deux paramètres n et p sont
liés par la relation
np = λ > 0,
à !
n ¢n−k
pk 1 − p
¡
alors pour n grand la probabilité (pour qu’une variable binomiale de
k
e −λ λk
paramètres (n, p) prenne la valeur k) est approximativement égal à , qui est la proba-
k!
bilité pour qu’une variable de Poisson de paramètre λ prenne la valeur k. On dit encore que
la loi de Poisson est la loi des évènements rares .

page 59
Variables aléatoires discrètes

D’un point de vue pratique, on est conduit à introduire la loi de Poisson dans les problèmes
du type suivant. Supposons que l’on fasse des prélèvements de n unités dans une population
ne comportant que deux sortes d’individus A et B en proportion p et q (p + q = 1). Si n est
grand et p voisin de 0 de sorte que np soit relativement petit, on peut admettre que le nombre
d’individus de l’espèce A dans un prélèvement est approximativement une variable aléatoire
de Poisson de paramètre λ = np.

Soit X le nombre d’individus prélevés de type A. La variable aléatoire X est théoriquement


une variable binomiale de paramètres (n, p). Avec l’approximation de la loi de Poisson, la
probabilité pour que X prenne la valeur k n’est pas nulle, même pour k > n, mais dans ce
dernier cas, elle est très faible si les conditions précédentes sont bien réalisées.

Exemple

(a) Dans une solution liquide contenant des particules en suspension, disons des bacté-
ries A 1 et d’autres particules A 2 , le nombre de bactéries est faible devant le nombre
total des particules. La loi de probabilité de la variable X nombre de bactéries dans
un volume élémentaire fixé peut être vue comme une variable aléatoire de Poisson
d’un certain paramètre λ.
(b) 2 % des dossiers de crédit arrivent au service contentieux un an après leur signature.
Soit un lot de 100 dossiers. Quelle est la probabilité qu’aucun dossier ne devienne
contentieux à un an ?

On a p = 0, 02, n = 100 et np = 2. p étant assez petit devant n, on peut donc approcher la


loi, ici binomiale, par la loi de Poisson de paramètre λ = np = 2. La prrobabilité cherchée
est approximativement

20
exp (−2) ≃ 0.135 34 (avec la loi de Poisson)
0!
à !
100
(0.02)0 (0.98)100 ≃ 0.132 62 (avec la loi binômiale)
0

2.2.3 Transformation des variables aléatoires discrètes

Soit une variable aléatoire X une v.a.r discrète sur Ω , P X = αk εxk , où I est un ensemble
X
k∈I
fini ou dénombrable, x k ∈ R et αk ∈ [0, 1] tels que αk = 1.
X
k∈I

Proposition 2.11 Si g : R −→ R est mesurable alors g (X ) est une v.a.r discrète sur Ω, de loi

page 60
Variables aléatoires réelles

donnée, pour tout z ∈ R , par

Pg (X ) {z} = P{g (X ) = z} = αi
X
i ∈I ,g (x i )=z

¡ © ª¢
En effet : Posons Y = g (X ) . L’évènement Y ∈ g (x k ) | k ∈ I est quasi-certain et au plus
dénombrable. Et pour tout k ∈ I ,

P Y = g (x k ) = P (X = x i ) = αi
¡ ¢ X X
i ∈I ,g (x i )=g (x k ) i ∈I ,g (x i )=g (x k )

et pour tout z ∈ R , P (Y = z) = P (X = x i ) = αi .
X X
i ∈I ,g (x i )=z i ∈I ,g (x i )=z

¡ ¢
Remarque 2.12 Abstraction faite sur l’injectivité de la fammille g (x k ) k∈I , on peut écrire

Pg (X ) = αk εg (xk ) .
X
k∈I

2.2.4 Indépendance de v.a.r discrètes

L’indépendance de v.a.r discrètes peut être testées uniquement sur la classes des singletons.

Proposition 2.12 Les variables aléatoires réelles discrètes X et Y sur Ω de lois

PX = αi εxi et PY = β j εy j ,
X X
i ∈I j ∈J

sont indépendantes, si et seulement si, pour tout i ∈ I et tout j ∈ J on a :

P {X = x i , Y = y j } = P {X = x i }P {Y = y j }. (2.2.1)

Preuve: Les variables X et Y sont indépendantes, si et seulement si P {X ∈ A, Y ∈ B } = P {X ∈


A}P {Y ∈ B } pour toute paire de boréliens A, B. En prenant A = {x i } et B = {y j }, on retrouve
bien (2.2.1).

Réciproquement, supposons (2.2.1) satisfait pour tout i ∈ I et j ∈ J et prenons deux boré-

page 61
Variables aléatoires discrètes

liens A et B. On obtient :

P{X ∈ A, Y ∈ B } = P{X = x i , Y = y j }
X
x i ∈A,y j ∈B

P{X = x i }P{Y = y j }
X
=
x i ∈A,y j ∈B
à !à !
P{X = x i } P{Y = y j }
X X
(Fubini) =
x i ∈A y j ∈B

= P (X ∈ A) P (Y ∈ B )

d’où X et Y sont indépendantes.

2.2.5 Convolution des lois de probabilité discrètes

αi εxi et Q = β j ε y j deux lois de probabilité discrètes (I


X X
Définition 2.10 Soient P =
i ∈I j ∈J
et J sont au plus dénombrables). Le produit de convolution de P par Q est la mesure de
probabilité, notée P ∗Q, définie par :

αi β j ε(xi +y j ) .
X
P ∗Q =
(i , j )∈I ×J

Remarque 2.13 Le fait que P ∗ Q soit une mesure de probabilité découle des propriétés
élémentaires sur les séries absolument convergentes. Ces mêmes propriétés entraînent aussi
que le produit de convolution est commutatif et associatif.

Les lois binomiales et de Poisson sont conservées par le produit de convolution. En d’autres
termes, on a la propriété suivante.

Proposition 2.13 Soient n, m des entiers, p ∈ [0, 1] , puis λ et µ des réels strictement positifs.
Alors
B(n, p) ∗ B(m, p) = B(n + m, p) et ; πλ ∗ πµ = πλ+µ

πν (ν > 0) désigne la loi de Poisson de paramètre ν.

Preuve: On a
à !à !
n X
m m n
B(n, p) ∗ B(m, p) = p i + j q n+m−(i + j ) εi + j
X
i =0 j =0 j i
n+m
γk p k q n+m−k εk
X
=
k=0

page 62
Variables aléatoires réelles

où, pour k = 0, 1, ..., n + m, on a posé :


à !à !
k n m
γk =
X
,
i =0 i k −i

à !
r
avec la convention = 0 si s > r. Pour montrer la première relation, il faut montrer que
s

à !à ! à !
k
X n m n +m
=
i =0 i k −i k

relation connue qui peut se démontrer par récurrence (sur m par exemple).

Pour établir la seconde, on a :

+∞ X e −λ λi
X +∞ e −µ µ j
πλ ∗ πµ = εi + j
j =0 i =0 i! j!
à !
+∞ k λi µk−i
= e −λ−µ εk
X X
k=0 i =0 i ! (k − i )!

d’autre part à !
k λi µk−i 1 X k k 1¡ ¢k
λi µk−i = λ+µ
X
=
i =0 i ! (k − i )! k! i =0 i k!

d’où πλ ∗ πµ = πλ+µ .

Proposition 2.14 Si X et Y sont des variables aléatoires réelles, discrètes, définies sur un
même espace probabilisé, indépendantes alors

P X +Y = P X ∗ PY .

Preuve déjà vue dans le cas générale. : Si P X = P (X = x i ) εxi et PY = P Y = y j εy j


X X ¡ ¢
i ∈I j ∈J
alors

P X +Y = P X = x i , Y = y j ε(xi +x j )
X ¡ ¢

(i , j )∈I ×J
P (X = x i ) P Y = y j ε(xi +x j )
X ¡ ¢
(indépendance) =
(i , j )∈I ×J
= P X ∗ PY

page 63
Variables aléatoires discrètes

2.2.6 Moments d’une v.a.r discrète

Proposition 2.15 Soit X la variable aléatoire réelle discrète de loi P X = αi εxi . E [X ] est
X

Xi ∈I
finie si et seulement si la famille (αi |x i |)i ∈I est sommable (i.e. la série αi |x i | converge).
i ∈I
Dans ce cas
αi x i .
X
E [X ] =
i ∈I

De même si la famille (x i − E [X ])2 P (X = x i ) i ∈I est sommable Var (X ) est donnée par


¡ ¢

Var (X ) = E (X − E [X ])2 = (x i − E [X ])2 P (X = x i )


£ ¤ X
i ∈I

Le théorème de transfert s’écrit :

Théorème 2.9 (Théorème du transfert) Si X admet une espérance alors la famille (X (ω)P({ω}))ω∈Ω
est absolument sommable et on a :

x i P X ({x i }) =
X X
E [X ] := X (ω)P({ω}).
i ∈I ω∈Ω

Espérances et variances de variables usuelles

Loi uniforme :

¤ 1 X n
E U {x1 ,...,xn } =
£
xi .
n k=1
¢ 1 X n
V ar U {x1 ,...,xn } = (x i )2
¡
n k=1

Loi binomiale, loi de Bernoulli :

E B n, p = np et E B 1, p = p
£ ¡ ¢¤ £ ¡ ¢¤

V ar B n, p = np 1 − p
¡ ¡ ¢¢ ¡ ¢

page 64
Variables aléatoires réelles

en effet :
à !
n n ¢n−k
E B n, p = pk 1 − p
£ ¡ ¢¤ X ¡
k
k=0 k
à !
n n −1 ¢(n−1)−(k−1)
p k−1 1 − p
X ¡
= np
k=1 k −1
= np.

Loi hypergéométrique :

M
E [H (n, N , M )] =n.
N
M N −n M
µ ¶
V ar (H (n, N , M )) = n 1−
N N −1 N

En effet : Faites une preuve

Loi géométrique :

¤ 1
E G (p) =
£
p
¢ 1−p
V ar G (p) =
¡
p2

En effet : Faites une preuve

Loi de Poisson :

E [P (λ)] = λ
V ar (P (λ)) = λ

En effet :
+∞ λk X λk−1
+∞
ke −λ = λe −λ = λ.
X
E [P (λ)] =
k=0 k! k=1 (k − 1)!

page 65
Variables aléatoires à densité

2.3 Variables aléatoires à densité

2.3.1 Définitions

Définition 2.11 Soit X : (Ω, T ) −→ (R, B (R)) une variable ¯aléatoire. On dit que X est à
densité (ou absolument continue), s’il existe une fonction f : ¯ (R, B (R)) −→ (R, B (R)) ,
¯

intégrable et positive, telle que


Z
∀A ∈ B (R) : P X (A) = f (x) dx
A
Z
en particulier, f (x) dx = 1 (= P (Ω)).
R

Remarque 2.14 Dans le cadre d’intégrale de Lebesgue, le théorème de Radon-Nicodym


permet de justifier l’existence de f pour toute variable aléatoire réel X telle que P X << λ
(i.e. P X absolument continue par rapport à la mesure de Lebesgue λ). Dans ce cas, toute
variable aléatoire réel discrète
Z X , ne peut pas être à densité. En effet, il existe alors a ∈ R tel
que P X ({a}) ̸= 0, alors que f (x) dx = 0.
{a}

Remarque 2.15 La fonction de répartition de X vérifie alors,


Z x
∀x ∈ R : F X (x) = P X (]−∞, x]) = f (t ) dt .
−∞

et pour tout a < b dans R


Z b
P X (]a, b]) = P X ([a, b]) = P X ([a, b[) = P X (]a, b[) = f (t ) dt
a

Proposition 2.16 Soit X : (Ω, T ) −→ (R, B (R)) une variable aléatoire de densité f X . Alors,
Sa fonction de répartition F X est continue sur R et dérivable en tout point x où f X est
continue avec F X′ (x) = f X (x) .

Preuve: On sait que F X est continue à droite en tout point et que F X est continue en x 0 si,
et seulement si, P(X = x 0 ) = 0. Ce qui est le cas. Donc F X est continue sur R.

D’autre part, pour tout x, x 0 ∈ R


Z x
F X (x) − F X (x 0 ) = f X (t ) dt .
x0

Si f X est continue en x 0 alors elle est définie sur un intervale ]a, b[ contenant x 0 . Soit ε > 0,

page 66
Variables aléatoires réelles

il existe η > 0, tel que, pour tout t ∈ x 0 − η, x 0 + η ,


£ ¤

¯ f X (t ) − f X (x 0 )¯ ≤ ε
¯ ¯

donc pour tout x ∈ x 0 − η, x 0 + η , x ̸= x 0 :


£ ¤

¯ ¯ ¯ µZ x
¯ F X (x) − F X (x 0 )
¶¯
¯ ¯ 1 ¯
¯ − f X (x 0 )¯ = ¯ f X (t ) dt − f X (x 0 ) ¯
¯ x − x0 ¯ ¯x −x
0 x0
¯
¯ ¯ ¯Z x ¯
¯ 1 ¯¯ ¡ ¢ ¯
=¯¯ ¯ ¯ f X (t ) − f X (x 0 ) dt ¯¯
x − x 0 ¯ ¯ x0
¯ 1 ¯¯ x ¯
¯ ¯ ¯Z ¯
¯ ¯
≤ ¯¯ ¯¯ ¯ f X (t ) − f X (x 0 )¯ dt ¯
x − x ¯¯ 0 x0
¯

≤ ε.

Ce qui montre que F X′ (x 0 ) = f X (x 0 ) .

Remarque 2.16 Réciproquement, on a :

Proposition 2.17 Si X est telle que, F X soit continue sur R et de classe C 1 sur R privé d’un
sous-ensemble négligeable (pour la mesure de Lebesgue, par exemple au plus dénom-
brable), alors, X est absolument continue, à densité égale à F X′ .

2.3.2 Loi de la somme de deux v.a.r à densités

On a vu que dans le cas de v.a.r indépendantes sur Ω, la loi de la somme est le produit
de convolution des deux lois. Dans le cas des v.a.r à densités, on a le résultat plus précis
suivant :

Théorème 2.10 Si X et Y sont deux v.a.r indépendantes sur Ω et si X est à densité f X alors
X + Y est à densité f X +Y = P X ∗ PY , définie pour tout t ∈ R par
Z
¡ ¢ ¡ ¢
f X +Y (t ) = f X t − y dPY y .
R

En particulier si Y est aussi à densité f Y alors f X +Y = f X ∗ f Y , où


Z Z
¡ ¢ ¡ ¢
f X ∗ f Y : t 7−→ fX t − y f Y y dy = f X (x) f Y (t − x) dx
R R

est appelée le produit de convolution des fonctions f X et f Y .

Preuve: Il suffit de reformuler le produit de convolution P X ∗ PY dans ce cas. Pour tout

page 67
Variables aléatoires à densité

B ∈ B (R) ,
Z
P X ∗ PY (B ) =
¡ ¢ ¡ ¢
1B x + y dP X (x) dPY y
ZR
2
¡ ¢ ¡ ¢
= 1B x + y f X (x) dxdPY y
R2 Z
x=t −y ¡ ¢ ¡ ¢
= 1B (t ) f X t − y dt dPY y
ZR
2
µZ ¶
Fubini ¡ ¢ ¡ ¢
= 1B (t ) f X t − y dPY y dt
R R
Z
ce qui signifie que P X +Y = P X ∗ PY a pour densité la fonction t 7−→
¡ ¢ ¡ ¢
f X t − y dPY y (qui
R
est bien positive intégable d’intégrale égale à 1).

Remarque 2.17 Dans le cas particulier où X et Y sont deux v.a.r indépendantes sur Ω et si
X est à densité f X et Y discrète de loi PY = P Y = y i ε y i alors f X +Y est définie pour tout
X ¡ ¢
i ∈I
t ∈ R par
P Y = yi f X t − yi .
X ¡ ¢ ¡ ¢
f X +Y (t ) =
i ∈I

2.3.3 Moments d’une v.a.r à densité

Proposition 2.18 Soit X une v.a.r sur Ω de densité f X . X admet une espérance si et seule-
ment si la fonction x 7−→ x f X (x) est intégrable sur R. Dans ce cas
Z
E [X ] = x f X (x) dx.
R

De même X admet une variance si et seulement si a fonction x 7−→ x 2 f X (x) est intégrable
sur R. Dans ce cas Z
V ar [X ] = (x − E [X ])2 f X (x) dx.
R

Le théorème de transfert s’écrit :

Théorème 2.11 (Théorème du transfert) Soit X une variable aléatoire à densité f X et h :


R → R mesurable. Alors h(X ) admet une espérance si et seulement si, la fonction h f X est
intégrable. Dans ce cas Z
E (h(X )) = h(x) f X (x)dx.
R

page 68
Variables aléatoires réelles

Lois usuelles

Loi uniforme Pour a < b dans R, on pose

1
f = 1[a,b]
b−a

on note la loi U [a,b] . On a alors

1 a +b
Z
E U [a,b] =
£ ¤
1[a,b] dx = .
R b−a 2

Loi exponentielle Pour α ∈ R, on pose

f = αe −α 1R+

on note la loi E α . On a alors


1
E [E α ] = .
α

Loi Gaussienne (ou normale) Pour m ∈ R et σ2 > 0, on pose

2
³ ´
exp − (m−x)
2σ2
f = p
2πσ2

on note la loi N m, σ2 . On a alors


¡ ¢

E N m, σ2 = m
£ ¡ ¢¤

page 69
Chapitre 3

Théorèmes limites

3.1 Convergences de suites de variables aléatoires

Dans toute la suite, on considère des variables aléatoires définies sur un espace probabilisé
(Ω, A , P) à valeurs dans R (mais tout ce qui est établit se généralise sans difficulté au cas de
Rd , d ∈ N∗ ).

3.1.1 Convergence presque sûrement

Définition 3.1 On dit qu’une suite (X n )n≥1 de v.a.r sur Ω converge presque sûrement vers
la variable aléatoire réelle X si
³n o´
P lim X n = X = 1.
n−→∞

n o
Autrement dit, l’évènement N = ω ∈ Ω | lim X n (ω) ̸= X (ω) est P-négligeable. On note
n−→∞
alors
p.s
X n −→ X .

Remarque 3.1 Il résulte directement de la définition que la convergence p.s est compatible
avec les opérations algébriques élémentaires et la composition par fonctions continues.

Proposition 3.1 Soient X n , n ∈ N et X des variables aléatoires réelles définies sur (Ω, A , P),
les propositions suivantes sont équivalentes :
p.s
(i) X n −→ X .

(ii) Pour tout ε > 0 µ ¶


P lim sup {|X n − X | > ε} = 0 .
n−→∞

70
Théorèmes limites

(iii) Pour tout ε > 0 Ã !


lim P ¯X p − X ¯ > ε = 0 .
[ ©¯ ¯ ª
n−→∞ p≥n

(iv) Pour tout ε > 0 µ½ ¾¶


lim P sup ¯ X p − X ¯ > ε = 0 .
¯ ¯
n−→∞ p≥n

Preuve: D’abord
n o \ [ \ ©¯
ω ∈ Ω | lim X n (ω) = X (ω) = ¯X p − X ¯ ≤ ε
¯ ª
n−→∞
ε>0n∈Np≥n
½ ¾
\ [ \ ¯ ¯ 1
= ¯ Xp − X ≤
¯
k∈N∗ n∈Np≥n k

est bien mesurable, et


à !
p.s
X n −→ X ⇐⇒ P ¯X p − X ¯ ≤ ε = 1
\ [ \ ©¯ ¯ ª
ε>0n∈Np≥n
à !
⇐⇒ ∀ε > 0, P ¯X p − X ¯ ≤ ε = 1
[ \ ©¯ ¯ ª
n∈Np≥n
à !
⇐⇒ ∀ε > 0, P ¯X p − X ¯ > ε = 0
\ [ ©¯ ¯ ª
n∈Np≥n

avec lim sup {|X n − X | > ε} = ¯ X p − X ¯ > ε on a alors (i) ⇐⇒ (ii).


\ [ ©¯ ¯ ª
n−→∞ n∈Np≥n
à !
Pour tout ε > 0, la suite d’évènements ¯X p − X ¯ > ε
[ ©¯ ¯ ª
est décroissante donc
p≥n n∈N
à ! à !
P ¯ X p − X ¯ > ε = lim P ¯X p − X ¯ > ε ,
\ [ ©¯ ¯ ª [ ©¯ ¯ ª
n−→∞
n∈Np≥n p≥n

ce qui démontre (ii) ⇐⇒ (iii).


½ ¾
Finalement, pour tout ε > 0, sup X p − X > ε = ¯ X p − X ¯ > ε ,ce qui démontre (iii)
¯ ¯ [ ©¯ ¯ ª
¯ ¯
p≥n p≥n
⇐⇒ (iv).

On rappelle la Loi du zéro-un de E. Borel.

Lemme 3.1 (Lemme de Borel-Cantelli) Soit (A n )n une suite d’évènement.

— Si la série P (A n ) est convergente, alors


X
n

µ ¶
P lim sup (A n ) = 0 .
n−→∞

page 71
Convergences de suites de variables aléatoires

— Loi du 0-1 de Borel. Si les événements A n sont indépendants, alors

P lim sup (A n ) = 0 ou P lim sup (A n ) = 1


¡ ¢ ¡ ¢

P (A n ) est convergente ou divergente.


X
suivant que la série

Proposition 3.2 Soient X n , n ∈ N et X des variables aléatoires réelles définies sur (Ω, A , P).
p.s
(i) Si pour tout ε > 0 la série P ({|X n − X | > ε}) converge alors X n −→ X .
X
n
p.s
(ii) Si les X n , n ∈ N sont mutuellement indépendantes, alors X n −→ 0 si et seulement si,
pour tout ε > 0, la série P ({|X n | > ε}) converge.
X
n

Preuve: (i) Si pour tout ε > 0 la série P ({|X n − X | > ε}) converge alors, par le lemme
X

µ n ¶

de Borel-Cantelli, P lim sup {|X n − X | > ε} = 0 . Donc, d’après le (ii) de la proposition ci-
n−→∞
p.s
dessus, X n −→ X .

(ii) Pour tout ε > 0, les évènements A n = {|X n | > ε}, n ∈ N sont indépendants, donc d’après la
loi du zéro-un de E. Borel, la série P (A n ) converge si et seulement si P lim sup (A n ) = 0.
X ¡ ¢
n
On conlut alors gràce à (ii) dans la proposition précédente.

Exemple 3.1 Soit (X n )n≥1 une suite de Bernoulli indépendantes. On note p n le paramètre
de X n . Alors
p.s X
X n −→ 0 ⇐⇒ p n converge.
n

En effet: pour tout ε > 0, on pose

A n = {|X n | > ε} ,

les A n sont mutuellement indépendants, donc d’après la loi du 0 − 1 de Borel :


µ ¶
P lim sup (A n ) = 0 ⇐⇒ P (A n ) < ∞ ,
X
n−→∞ n

d’autre part, P (A n ) = p n pour tout ε ∈ [0, 1[ et P (|X n | > ε) = 0 pour tout ε ≥ 1. Donc

P (A n ) < ∞ ⇐⇒
X X
p n < ∞.
n n

p.s X
Donc X n −→ 0 ⇐⇒ p n converge.
n

page 72
Théorèmes limites

3.1.2 Convergence en probabilité

Définition 3.2 On dit qu’une suite (X n )n≥1 de variables aléatoires réelles converge en
probabilité vers la variable aléatoire réelle X si

∀ε > 0 : lim P (|X n − X | > ε) = 0.


n−→∞

On note alors
P
X n −→ X .

Remarque 3.2 (Unicité de la limite) De la définition il n’est pas évident que la limite est
unique ! Néanmoins, c’est juste.

En effet: Si ∀ε > 0 : lim P (|X n − X | > ε) = lim P (|X n − Y | > ε) = 0, alors pour tout ε > 0,
n−→∞ n−→∞

n εo n εo
{|X − Y | > ε} ⊂ |X − X n | > ∪ |X n − Y | > ,
2 2
³n ε o´ ³n ε o´
donc P ({|X − Y | > ε}) ≤ P |X − X n | > + P |X n − Y | > −→ . Par conséquent
2 2 n−→∞

∀ε > 0, P ({|X − Y | > ε}) = 0 ,

ce qui signifie que X = Y P−p.s.

Exemple 3.2 Soit (X n )n≥1 une suite de Bernoulli. On note p n le paramètre de X n . Alors

P
X n −→ 0 ⇐⇒ p n −→ 0.
n−→∞

En effet, P (|X n | > ε) = p n pour tout ε ∈ [0, 1[ et P (|X n | > ε) = 0 pour tout ε ≥ 1.

Proposition 3.3 (compatibilité avec les opérations) La convergence en probabilité est com-
patible avec les opérations algébriques élémentaires.

Preuve: La compatibilité avec la multiplication par un scalaire est évidente. Examinons


P P
la compatibilté avec la somme. Supposons X n −→ X et Yn −→ Y et soit ε > 0, posons
Zn = X n + Yn et Z = X + Y , comme ci-dessus, on a
n εo n εo
{|Zn − Z | > ε} ⊂ |X n − X | > ∪ |Yn − Y | > ,
2 2
³n ε o´ ³n ε o´
donc P ({|Zn − Z | > ε}) ≤ P |X n − X | > + P |Yn − Y | > .
2 2
Exercice 3.1 Démontrer la compatibilité avec le produit et le quotient.

page 73
Convergences de suites de variables aléatoires

D’après la proposition 3.1, on a :

Proposition 3.4 Soient X n , n ∈ N et X des variables aléatoires réelles. Alors

p.s P
X n −→ X ⇐⇒ Yn = sup |X k − X | −→ 0.
k≥n

On déduit alors que la convergence presque sûre implique la convergence en probabilité.

P
Proposition 3.5 Soient X n , n ∈ N et X des variables aléatoires réelles. Si X n −→ X alors il
¡ ¢ p.s
existe un sous suite X ϕ(n) n telle que X ϕ(n) −→ X . Réciproquement, si de toute sous suite
P
de (X n ) on peut extraire une sous suite qui converge p.s vers X alors X n −→ X .

Remarque 3.3 On a donc la caractérisation de la convergence en probabilité par la conver-


gence p.s. :
P
X n −→ X si et seulement si de toute sous suite de (X n ) on peut extraire une sous suite qui
converge p.s vers X .

Ce qui permet de conclure que la convergence en probabilité est compatible avec la compo-
sition par fonctions continues.

P
Preuve: On suppose que X n −→ X . Pour tout ε > 0, il existe N ∈ N tel que, ∀n ≥ N , P(|X n −
X | > ε) ≤ ε2 .

Pour ε = 1, il existe ϕ(1) tel que pour tout k ≥ ϕ(1)

P(|X k − X | > 1) ≤ 12

de même pour ε = 1/2, il existe ϕ(2) > ϕ(1) tel que pour tout k ≥ ϕ(2)

P(|X k − X | > 1/2) ≤ (1/2)2

ainsi, avec ε = 1/n, n ≥ 1, on peut donc construire une sous suite X ϕ(n) n telle que
¡ ¢

µ½ ¾¶
P ¯ X ϕ(n) − X ¯ > 1 1
¯ ¯
≤ ,
n n2

Soit ε > 0, il existe N ∈ N tel que, ∀n ≥ N , ε ≥ 1/n, de sorte que, pour tout n ≥ N ,

1 1
P({|X ϕ(n) − X | > ε}) ≤ P({|X ϕ(n) − X | > }) ≤ 2
n n

P ¯ X ϕ(n) − X ¯ > ε converge. Donc d’après le lemme de Borel Cantelli,


X ¡©¯ ¯ ª¢
et donc la série
p.s
X ϕ(n) −→ X .

page 74
Théorèmes limites

Réciproquement, si on suppose que de toute sous suite de (X n ) on peut extraire une


P
sous suite qui converge p.s vers X et, par absurde que X n ↛ X ; alors il existe ε0 tel que
P ({|X n − X | > ε0 }) ↛ 0. Par conséquent, il existe ε1 > 0 et une sous suite X ϕ(n) n tels que
¡ ¢

∀n ∈ N : P ¯ X ϕ(n) − X ¯ > ε0 > ε1 ,


¡©¯ ¯ ª¢

¡ ¢
donc X ϕ(n) n n’admet aucune aucune sous suite convergente p.s. , ce qui est absurde.

3.1.3 Convergence en loi

Définition 3.3 On dit qu’une suite (X n )n≥1 de variables aléatoires réelles converge en loi
vers la variable aléatoire réelle X si pour toute fonction g continue et bornée sur R, à
valeur dans R, on a :
lim E g (X n ) = E g (X ) .
¡ ¢ ¡ ¢
n−→∞

L
On note alors X n −→ X .

Remarque 3.4 Il s’agit d’une convergence de lois mais pas vraiment de variables aléatoires !
Donc il n’est pas indispensable que les variables aléatoires soit définies sur le même espace
probabilisé.

L L
Proposition 3.6 Si f est une fonction continue sur R et X n −→ X , alors f (X n ) −→ f (X ) .

En effet: Pour toute fonction g continue et bornée sur R et pour toute fonction f continue
sur R , la fonction g ◦ f est continue et bornée sur R .

Lemme 3.2 La convergence p.s implique la convergence en loi.

p.s p.s
Preuve: On suppose que X n −→ X et g : R −→ R continue et bornée, alors g (X n ) −→ g (X )
et par le TCD lim E g (X n ) = E g (X ) .
¡ ¢ ¡ ¢
n−→∞

Caractérisations de la convergence en loi

Théorème 3.1 Soient X n , n ∈ N et X des variables aléatoires réelles, il y’a équivalence


entre les trois propositions suivantes :

(a) la suite (X n )n converge en loi vers X ;


¡ ¢
(b) la suite F X n n converge simplement vers F X sur l’ensemble de ses points de conti-
nuité. i.e.
∀x ∈ C (X ) : lim F X n (x) = F X (x) ,
n−→∞

page 75
Convergences de suites de variables aléatoires

où C (X ) est l’ensemble des points de continuité de F X ;


³ ´
(c) il existe un espace probabilisé Ω, b et des Yn , n ∈ N et Y des variables aléatoires
b Ac, P
réelles sur cet espace telles que :

(i) Y est de même loi que X ,


(ii) pour tout n ∈ N, Yn est de même loi que X n ,
(iii) la suite (Yn ) convergence p.s vers Y .

Remarque 3.5 Le (3) du théorème est du à Skorokhod.

Démonstration du théorème 3.1

(3) implique (1)

L’implication est conséquence du lemme 3.2 et du fait que la convergence en loi ne dépend
que des lois et non des variables aléatoires.

(1) implique (2)

Rappelons que
∀t ∈ R : F X (t ) = P ({X ≤ t }) = E 1]−∞,t ] (X ) .
¡ ¢

L
Supposons que X n −→ X , c’est à dire, pour toute fonction g : R −→ R continue et bornée,

lim E g (X n ) = E g (X ) .
¡ ¢ ¡ ¢
n−→∞

Soit t ∈ C (F ) et α > 0, on considère deux fonctions continues et bornées sur R, g et h telles


que
1]−∞,t −α] ≤ g ≤ 1]−∞,t ] ≤ h ≤ 1]−∞,t +α] ,

par exemple
 

 1 si x ≤ t −α 
 1 si x≤t

 t −x  t +α−x

g (x) = si t −α ≤ x ≤ t et h (x) = si t ≤ x ≤ t +α .

 α 
 α
 0 si x≥t  0 si x ≥ t +α
 

On a alors

g ◦ X n ≤ 1]−∞,t ] ◦ X n ≤ h ◦ X n et 1]−∞,t −α] ◦ X ≤ g ◦ X ≤ h ◦ X ≤ 1]−∞,t +α] ◦ X ,

et par conséquent

E g (X n ) ≤ F X n (t ) ≤ E (h (X n )) et F X (t − α) ≤ E g (X ) ≤ E (h (X )) ≤ F X (t + α) .
¡ ¢ ¡ ¢

page 76
Théorèmes limites

Par suite, par passage à la limite

F X (t − α) ≤ E g (X ) ≤ lim inf F X n (t ) ≤ lim supF X n (t ) ≤ E (h (X )) ≤ F X (t + α) .


¡ ¢
n−→+∞ n−→+∞

Finalement, pour tout α > 0

F X (t − α) ≤ lim inf F X n (t ) ≤ lim supF X n (t ) ≤ F X (t + α) .


n−→+∞ n−→+∞

Le résultat découle par continuité de F X en t en faisant tendre α vers 0.

Pour la démonstration de (2) implique (3), on a besoin de résultats concernant l’inverse de


Lévy.

Définition 3.4 (inverse de Lévy) Soit F une fonction de répartition (càdlàg). On appelle
inverse de Lévy de F la fonction F ∗ définie sur ]0, 1[ par

F ∗ y = inf F ≥ y := inf F −1 y, +∞ = min F −1 y, +∞ .


¡ ¢ © ª ¡ £ £¢ ¡ £ £¢

Elle est caractérisée par


F (x) ≥ y ⇐⇒ x ≥ F ∗ y ,
¡ ¢

ou aussi par
F (a) < y ≤ F (b) ⇐⇒ a < F ∗ y ≤ b.
¡ ¢

Remarque 3.6 Il n’est pas difficile (le faire en exercice) de justifier qu’il s’agit bien d’un
minimum et de montrer que

(a) La fonction F ∗ est croissante.


(b) Si F est continue strictement croissante alors F ∗ = F −1 .
(c) Si F est constante égale à γ ∈ ]0, 1[ sur un intervalle [a, b[ alors γ est un point de
discontinuité de F ∗ .
(d) Si x ∈ C (F ) et y ∈ C F ∗ alors
¡ ¢

F (x) > y ⇐⇒ x > F ∗ y .


¡ ¢

En effet: Montrons par exemple le dernier point :

Supposons F (x) > y d’après la définition x ≥ F ∗ y , et si on suppose par absurde que


¡ ¢

F ∗ y = x alors Im (F ) ∩ y, F (x) = ; contredit la continuité de F en x.


¡ ¢ ¤ £

Supposons x > F ∗ y d’après la définition F (x) ≥ y, et si on suppose par absurde que


¡ ¢

page 77
Convergences de suites de variables aléatoires

F (x) = y alors F est constante égale à y sur F ∗ y , x , car


£ ¡ ¢ ¤

F ∗ y ≤ t ≤ x =⇒ y ≤ F (t ) ≤ F (x) = y ;
¡ ¢

ce qui contredit la continuité de F ∗ en y.

Exemple 3.3 (cas de v.a.r discrète) (a) Si X ,→ B (p) alors

F X (t ) = 0 si t <0
F X (t ) = 1 − p si 0≤t <1
F X (t ) = 1 si 1≤t

et par suite F X∗ est définie sur ]0, 1[ par

F X∗ (s) = 0 si s ≤ 1−p
F X∗ (s) = 1 si 1 − p < s < 1.

(b) En général, si X est une variable discrète prenant des valeurs x 1 < x 2 < · · · < x n avec
les probabilités respectives p 1 , · · · , p n alors

F X∗ (s) = x 1 si s ≤ p1
F X∗ (s) = x 2 si p1 < s ≤ p1 + p2
F X∗ (s) = x 3 si p1 + p2 < s ≤ p1 + p2 + p3
······
F X∗ (s) = x n si p 1 + · · · + p n−1 < s < 1.

Lemme 3.3 (simulation de loi) Soit ³X une variable


´ aléatoire réelle sur Ω et U une variable
aléatoire sur un espace probabilisé Ω,
b T
c, P
b de loi uniforme sur ]0, 1[ , alors la variable
Y = F X∗ (U ) est de même loi que X , c’est à dire F Y = F X . En d’autres termes

F F X∗ (U ) = F X .

En particulier, avec Ω
b = ]0, 1[ ; Ac= B (]0, 1[) la tribu borélienne sur ]0, 1[ et P
b la mesure de
Lebesgue ; Y = F X∗ = F X∗ I d ]0,1[ on a F F X∗ = F X .
¡ ¡ ¢¢

Exemple 3.4 (Simulation d’une v.a.r discrète) (a) Pour simuler une variable X telle que
X ,→ B (p), on peut donc considérer la variable Y = F X∗ définie sur ]0, 1[ par

Y (s) = 0 si s ≤ 1−p
Y (s) = 1 si 1 − p < s < 1.

page 78
Théorèmes limites

(b) En général, pour simuler une variable X discrète prenant des valeurs x 1 < x 2 < · · · < x n
avec les probabilités respectives p 1 , · · · , p n , on peut considérer la variable Y = F X∗
définie sur ]0, 1[ par

Y (s) = x 1 si s ≤ p1
Y (s) = x 2 si p1 < s ≤ p1 + p2
Y (s) = x 3 si p1 + p2 < s ≤ p1 + p2 + p3
······
Y (s) = x n si p 1 + · · · + p n−1 < s < 1.

Pour simuler donc une réalisation de X , on simule une réalisation u de la loi uniforme
sur ]0, 1[ (en Python l’appelle à la fonction rand() le permet) puis on calcule Y (u)
qui donne alors une réalisation de X .

Preuve du lemme 3.3 : D’après la définition de F X∗ , on a

t ≥ F X∗ (u) ⇐⇒ F X (t ) ≥ u,

donc pour tout t ∈ R,

b | F ∗ (U (ω)) ≤ t = ω ∈ Ω
{Y ≤ t } := ω ∈ Ω
© ª © ª
b | U (ω) ≤ F X (t ) := {U ≤ F X (t )}
X

F Y (t ) = P
b ({Y ≤ t }) = P
b ({U ≤ F X (t )}) = F X (t ) .

Lemme 3.4 (convergence des inverses de Lévy) Soit F n , n ∈ N et F des fonctions de ré-
partition telles que (F n )n converge simplement vers F sur C (F ) , alors F n∗ n converge
¡ ¢

simplement vers F ∗ sur C F ∗ .


¡ ¢

Preuve du lemme 3.4 : Les fonctions F et F ∗ sont croissantes, donc C (F ) et C F ∗ sont


¡ ¢

denses dans R .

Soit y ∈ C F ∗ et soit ε > 0. Par densité, il existe a, b ∈ C (F ) tels que


¡ ¢

a < b < a + ε et a < F ∗ y < b.


¡ ¢

Par définition de F ∗ et le point 4. dans la remarque ci-dessus

F (a) < y < F (b) .

page 79
Convergences de suites de variables aléatoires

Comme lim F n (a) = F (a) et lim F n (b) = F (b) alors il existe N ∈ N tel que
n−→+∞ n−→+∞

∀n ≥ N : F n (a) < y < F n (b) ,

ce qui implique
∀n ≥ N : a < F n∗ y ≤ b.
¡ ¢

Par conséquent ∀n ≥ N : ¯F n∗ y − F ∗ y ¯ < ε.


¯ ¡ ¢ ¡ ¢¯

(2) implique (3)


³ ´
On considère les variables aléatoires Yn = F X∗n et Y = F X∗ définies sur Ω,
b Ac, P
b ;Ω
b = ]0, 1[ ,
Ac= B (]0, 1[) la tribu borélienne sur ]0, 1[ et P
b la mesure de Lebesgue.

D’après le lemme 3.3 Yn est de même loi que X n et Y de même loi que X ; et d’après le
lemme 3.4, (Yn )n converge simplement vers Y sur C F X∗ qui est au plus dénombrable, par
¡ ¢

P
b −p.s
suite Yn −→ Y .

Exemples

(a) Soit (X n )n≥1 une suite de variables aléatoires réelles discrètes telles que X n = ε 1 :
n

µ ¶
1
P Xn = = 1.
n

Alors
L
X n −→ ε0 .

On voit bien que F X n (0) = 0, pour tout n, mais F X (0) = 1.


(b) Soit (X n )n≥1 une suite de variables aléatoires réelles discrètes uniformes

n 1
εk .
X
Xn =
k=1 n
n

Alors
L
X n −→ X ,→ U ([0, 1]) .

En effet, pour tout x ≤ 0,


F X n (x) = 0

et pour tout x > 1,


F X n (x) = 1

page 80
Théorèmes limites

pour tout x ∈ ]0, 1] , ⌊nx⌋ ≤ nx < ⌊nx⌋ + 1

X 1 ⌊nx⌋
F X n (x) = = −→ x.
k n n n−→∞
k:x≤ n

Donc F X n −→ F U ([0,1]) .
n−→∞

Cas de variables discrètes

Théorème 3.2 Soient X n , n ∈ N et X des variables aléatoires à valeurs dans Z.

L
X n −→ X ⇐⇒ ∀k ∈ Z : P (X n = k) −→ P (X = k) .
n−→+∞

L
Preuve: Supposons que X n −→ X . Pour tout k ∈ Z :
µ¶ µ ¶ µ ¶ µ ¶
1 1 1 1
P (X n = k) = P X n ≤ k + − P X n ≤ k − = F Xn k + − F Xn k − ,
2 2 2 2
µ ¶ µ ¶
1 1
et puisque F X n et F X sont continues sur R\Z alors P (X n = k) −→ F X k + −F X k − =
n−→+∞ 2 2
P (X = k) .

Réciproquement, supposons que ∀k ∈ Z : P (X n = k) −→ P (X = k) . Il faut montrer que


n−→+∞
pour tout t ∈ R
P (X n = k) −→ F X (t ) = P (X = k) .
X X
F X n (t ) =
n−→+∞
k≤t k≤t
X
Il s’agit d’une question d’interversion lim u n,k . On utilise le Théorème de Convergence
n
k
Dominée avec les séries 1.1.,avec u n,k = P (X n = k) , u k = P (X = k) on a 0 ≤ u k − u n,k + ≤
¡ ¢
X X¡ ¢ X X
u k et u k = 1. Donc lim u k − u n,k + = 0 et puisque u n,k = u k = 1 alors
n−→+∞
k∈Z k∈Z k∈Z k∈Z
X¡ ¢
lim u k − u n,k − = 0. Par conséquent
n−→+∞
k∈Z

X
lim |u k − u| = 0.
n−→+∞
k∈Z

page 81
Convergences de suites de variables aléatoires

Donc pour tout t ∈ R


¯ ¯ ¯ ¯
¯X ¯ ¯X ¯
¯ P (X n = k) − P (X = k)¯ = ¯ (P (X n = k) − P (X = k))¯
¯ X ¯ ¯ ¯
¯k≤t k≤t
¯ ¯k≤t ¯

|P (X n = k) − P (X = k)|
X

k≤t

|P (X n = k) − P (X = k)| .
X

k∈Z

¯ ¯
L
¯X ¯
Donc lim ¯ P (X n = k) − P (X = k)¯ = 0. Par conséquent X n −→ X .
¯ X ¯
n−→∞ ¯
k≤t k≤t
¯

λ
Exemple 3.5 Si X n suit une binômiale B n, p n , lim np n = λ (en particulier si p n = ),
¡ ¢ ¡ ¢
n−→∞ n
alors la suite (X n ) converge en loi vers la variable aléatoire suivant la loi de poisson P (λ).

Preuve: Il s’agit de montrer que pour tout n ∈ N :

e−λ λk
lim P (X n = k) = .
n−→∞ k!

D’abord, lim p n = 0 et
n−→∞

¢n 2
= en ln(1−p n ) = en (−p n +O (p n ))
¡
1 − pn
2
= e−np n +O (np n )
2
= e−np n eO (np n )

¢n
donc lim 1 − p n = e−λ et
¡
n−→∞

à !
n ¡ ¢k ¡ ¢n−k 1 1 n (n − 1) ... (n − k + 1) ¡ ¢k ¡ ¢n
pn 1 − pn = ¡ ¢k k
np n 1 − p n
k k! 1 − p n n
1 1 n (n − 1) ... (n − k + 1) ¡ ¢k ¡ ¢n
= ¢k k
np n 1 − p n
k! 1 − p n n
¡

λk e−λ
−→ .
n−→+∞ k!

C.Q.F.D.

Cas de variables à densité

Théorème 3.3 Soient X n , n ∈ N et X des variables aléatoires de densités respectives f n


L
pour n ∈ N et f . Si f n n converge vers f presque partout sur R alors X n −→ X .
¡ ¢

page 82
Théorèmes limites

Z
cv−s
Preuve: On suppose f n −→ f sur R , donc d’après le TCD,
¡ ¢
f − fn −→
+ n−→∞ 0 et avec
Z Z R
¡ ¢ ¡ ¢
f − f n = 0 on a aussi f − f n − −→ 0 et donc
R R n−→∞

Z
¯ ¯ L1
¯ f − f n ¯ −→ 0 i.e. f n −→ f.
R n−→∞

Puis pour tout x ∈ R


¯Z ¯
¯ ¯ ¯ ¡ ¢¯
¯F X (x) − F X (x)¯ = ¯ f − f n ¯¯
n ¯
Z ]−∞,x]
¯ ¯
≤ ¯ f − fn ¯
Z]−∞,x]
¯ ¯
≤ ¯ f − f n ¯ −→ 0
R n−→∞

L
donc X n −→ X .

Remarque 3.7 La réciproque du théorème précédent est fausse (voir [4]).

Convergence en loi et convergence en probabilité

Proposition 3.7 La convergence en probabilité implique la convergence en loi.

P
Preuve: On suppose X n −→ X ; Soit x ∈ C (F X ) .

Première preuve. Soit ε > 0,

P (X n ≤ x) = P (X n ≤ x, |X n − X | > ε) + P (X n ≤ x, |X n − X | ≤ ε)
≤ P (|X n − X | > ε) + P (X ≤ x + ε)

de même
P (X ≤ x − ε) ≤ P (|X n − X | > ε) + P (X n ≤ x)

de sorte que

F X (x − ε) − P (|X n − X | > ε) ≤ F X n (x) ≤ P (|X n − X | > ε) + F X (x + ε)

ce qui permet d’avoir

F X (x − ε) ≤ lim infF X n (x) ≤ lim sup F X n (x) ≤ F X (x + ε)


n−→∞ n−→∞

on conclut alors par continuité de F X en x.

page 83
Convergences de suites de variables aléatoires

Seconde preuve (lim sup et lim inf). Pour ε > 0, il existe η > 0, tel que

FX x + η − FX x − η ≤ ε
¡ ¢ ¡ ¢

or lim P |X n − X | > η = 0, donc il existe N ∈ N tel que pour tout n ≥ N


¡ ¢
n−→∞

P |X n − X | > η ≤ ε
¡ ¢

par conséquent, pour tout n ≥ N ,

¯F X (x) − F X (x)¯ ≤ F X x + η − F X x − η + P |X n − X | > η ≤ 2ε.


¯ ¯ ¡ ¢ ¡ ¢ ¡ ¢
n

En effet

F X n (x) = P (X n ≤ x)
= P (X n ≤ x) ∩ X ≤ x + η + P (X n ≤ x) ∩ X > x + η
¡ ¡ ¢¢ ¡ ¡ ¢¢

≤ P X ≤ x + η + P |X n − X | > η
¡¡ ¢¢ ¡ ¢

= F X x + η + P |X n − X | > η
¡ ¢ ¡ ¢

donc
F X n (x) ≤ F X x + η + P |X n − X | > η
¡ ¢ ¡ ¢

de même
F X x − η ≤ F X n (x) + P |X n − X | > η
¡ ¢ ¡ ¢

on déduit alors que

F X n (x) − F X (x) ≤ F X x + η − F X (x) + P |X n − X | > η


¡ ¢ ¡ ¢

≤ F X x + η − F X x − η + P |X n − X | > η
¡ ¢ ¡ ¢ ¡ ¢

et

F X (x) − F X n (x) ≤ F X x + η − F X n (x)


¡ ¢

≤ F X x + η − F X x − η + P |X n − X | > η
¡ ¢ ¡ ¢ ¡ ¢

ce qui permet de conclure.

Remarque 3.8 La convergence en loi n’implique pas, en général, la convergence en probabi-


lité. Il y’a tout de même un cas particulier :

Proposition 3.8 Soient (X n )n∈N une suite de variables aléatoires réelles sur (Ω, A , P) qui

page 84
Théorèmes limites

converge en loi vers une variable constante a , alors elle converge aussi en probabilité vers
a.

Preuve: La fonction de répartition F de la constante a est définie par :

F (x) = 0 si x < a et F (x) = 1 si x ≥ a.

L
On suppose X n −→ a, c’est à dire, F n (x) −→ F (x) pour tout x ̸= a. Soit ε > 0,
n−→∞

({|X n − a| > ε}) ⊂ ({X n > a + ε}) ∪ ({X n ≤ a − ε}) ,

donc

P ({|X n − a| > ε}) ≤ P ({X n > a + ε}) + P ({X n ≤ a − ε})


³ ε´
≤ 1 − F n a + + F n (a − ε)
³ 2 ε´
−→ 1 − F a + + F (a − ε) = 0 .
n−→∞ 2

Par suite P({|X n − a| > ε}) −→ 0. Par conséquent, (X n )n converge en probabilité vers a.
n→∞

Convergence en loi et opérations algébriques

En général, la convergence en loi n’est pas compatible avec les opérations algébriques ;
toute fois on a :

Théorème 3.4 (Slutsky) Soient X n , Yn , n ∈ N et X des variables aléatoires réelles sur


L L
(Ω, A , P) telles que : X n −→ X et Yn −→ a une variable constante , alors

L L
X n Yn −→ a X et X n + Yn −→ a + X .

Remarque 3.9 En fait le théorème de Slutsky est plus général ; il affirme que, sous les hypo-
L
thèses du théorème précédent, (X n , Yn ) −→ (X , a) .

La preuve du théorème précédent utilise le lemme suivant :

L
Lemme 3.5 Si X n −→ X alors P (X n = x) −→ 0 , pour tout x ∈ C (F X ) .
n−→∞

Preuve du lemme: Soit x ∈ C (F X ), par continuité de F X en x et la densité de C (F X ) dans R,


pour tout ε > 0 , il existe y ∈ C (F X ) , y < x tel que F X (x)−F X y < ε et puisque F X n (x) −→
¡ ¢
n−→∞

page 85
Convergences de suites de variables aléatoires

F X (x) et F X n (y) −→ F X (y) alors il existe N ∈ N tel que ∀n > N


n−→∞

P (X n = x) ≤ P y < X n ≤ x = F X n (x) − F X n y < 2ε.


¡ ¢ ¡ ¢

Par conséquent P (X n = x) −→ 0.
n−→∞

Preuve du théorème: On procède par étapes : d’abord pour Yn = a puis pour a = 0 et on


résume par "linéarité".
L L
1- X n −→ X =⇒ X n + a −→ a + X ? Pour tout x ∈ R

x ∈ C (F a+X ) ⇐⇒ x − a ∈ C (F X )

et ∀x ∈ C (F a+X ) , F X n +a (x) = F X n (x − a) −→ F X (x − a) = F X +a (x)


L L
2- X n −→ X =⇒ −X n −→ −X ? pour tout x ∈ R

x ∈ C (F X ) ⇐⇒ −x ∈ C (F −X )

et pour tout x ∈ C (F X ) ,

F −X n (−x) = P (X n ≥ x) = 1 − F X n (x) + P (X n = x)

on conclut alors le lemme précédent.


L L
3- X n −→ X =⇒ a X n −→ a X ? on procède en deux étapes a > 0 et a < 0 ...
L L L
4- X n −→ X et Yn −→ 0 =⇒ X n +Yn −→ X ? Soit x ∈ C (F X ) , pour ε > 0, P (|Yn | ≥ ε) −→ 0 et
n−→∞

F X n +Yn (x) = P (X n + Yn ≤ x, |Yn | ≥ ε) + P (X n + Yn ≤ x, |Yn | < ε)


≤ P (|Yn | ≥ ε) + P (X n ≤ x + ε)

donc
F X n +Yn (x) ≤ P (|Yn | ≥ ε) + F X n (x + ε)

de même
F X n (x − ε) − P (|Yn | ≥ ε) ≤ F X n +Yn (x)

On choisit alors εk ↘ 0 telle que x + εk ∈ C (F X ) pour avoir avec ce qui précède

lim supF X n +Yn (x) ≤ F X (x)


n−→∞

page 86
Théorèmes limites

puis εk ↘ 0 telle que x − εk ∈ C (F X ) pour avoir avec ce qui précède

F X (x) ≤ lim infF X n +Yn (x) .


n−→∞

L L L
5- X n −→ X et Yn −→ 0 =⇒ X n Yn −→ 0 ? On montre que

 P (X n Yn ≤ x) −→ 0 si x <0
n−→∞
 P (X n Yn ≤ x) −→ 1 si x >0
n−→∞

Soit x < 0 et soit ε > 0,

x x
µ ¶ µ ¶
P (X n Yn ≤ x) = P Yn ≤ , X n > 0 + P Yn ≥ , Xn < 0
Xn Xn
| {z } | {z }
(I ) (I I )

Pour (I ) avec lim F x (x) = 1 et la densité de C (F X ) dans R , il existe y > 0, y ∈ C (F X ) tel


¢ x−→+∞
que P X > y ≤ ε.
¡

x x
µ ¶ µ ¶
(I ) = P Yn ≤ , 0 < X n ≤ y + P Yn ≤ , Xn > y
Xn Xn
x
µ ¶
≤ P Yn ≤ + P X n > y −→ 0 + P X > y ≤ ε
¡ ¢ ¡ ¢
y n−→+∞

donc il existe N1 ∈ N tel que pour tout n ≥ N1 , (I ) ≤ 2ε.

Pour (I I ) avec lim F x (x) = 0 et la densité de C (F X ) dans R , il existe y < 0, y ∈ C (F X ) tel


¢ x−→−∞
que P X ≤ y ≤ ε.
¡

x x
µ ¶ µ ¶
(I I ) = P Yn ≥ , y < X n < 0 + P Yn ≥ , Xn ≤ y
Xn Xn
x
µ ¶
≤ P Yn > + P X n ≤ y −→ 0 + P X ≤ y ≤ ε
¡ ¢ ¡ ¢
y n−→+∞

donc il existe N2 ∈ N tel que pour tout n ≥ N2 , (I I ) ≤ 2ε.

On conclut alors que P (X n Yn ≤ x) −→ 0.


n−→+∞
Pour x > 0, on applique ce qui précède avec −X n et Yn :

0 ≤ P ((−X n ) Yn < −x) ≤ P ((−X n ) Yn ≤ −x) −→ 0


n−→+∞

par suite

P (X n Yn ≤ x) = P ((−X n ) Yn ≥ −x) = 1 − P ((−X n ) Yn < −x) −→ 1.


n−→+∞

page 87
Convergences de suites de variables aléatoires

On conclut alors en combinant les étapes précédentes.

3.1.4 Convergence en moyenne

Définition 3.5 Soit r ∈ R∗+ . Soient une suite (X n )n≥1 de variables aléatoires réelles et X
une variable aléatoire réelle telles que E |X |r et E |X n |r existent pour tout n. On dit que
£ ¤ £ ¤

(X n )n≥1 converge en moyenne d’ordre r vers X si

lim E |X n − X |r = 0.
£ ¤
n−→∞

On note alors
Lr
X n −→ X .

Remarque 3.10 Il s’agit de la convergence dans l’espace de Lebesgue Lr . Dans le cas r = 2,


on parle de convergence en moyenne quadratique.

Proposition 3.9 La convergence en moyenne d’ordre r > 0 implique la convergence en


probabilité.

Preuve: l’implication utilise l’inégalité de MARKOV, pour tout ε > 0,

P (|X n − X | > ε) = P |X n − X |r > εr


¡ ¢

≤ P |X n − X |r ≥ εr
¡ ¢

E [|X n − X |r ]

εr

Comparaison des modes de convergence

Le graphe suivant est plus complet et résume la comparaison des modes de convergence :

Convergence de copie (Théorème de Skorohod)

Sous suite Si la limite est constante

Convergence presque sûre Convergence en probabilité Convergence en loi

Avec uniforme intégrabilité

Avec hypothèse de domination (TCD) Convergence dans L1


\\ou équi-intégrabilité (Vitali)

Convergence dans Lp , p > 1

page 88
Théorèmes limites

Convergence de suites de variables aléatoires indépendantes

Le cas particulier des suites de variables aléatoires indépendantes est très intéressant (voir
[4]). On a, entre autre, les deux résultats suivant :

(a) Une suite de v.a.r indépendantes converge presque sûrement ou diverge presque
sûrement. Et dans le cas où elle converge presque sûrement, sa limite est presque
sûrement constante.
X1 + · · · Xn
µ ¶
(b) Soit (X n )n∈N une suite de v.a.r indépendantes. La suite converge
n n≥1
presque sûrement ou diverge presque sûrement. Et dans le cas où elle converge
presque sûrement, sa limite est presque sûrement constante.

3.2 Lois des grands nombres et théorème central limite

Soit (X n )n≥1 une suite de variables aléatoires réelles. On cherche des conditions suffisantes
pour que la suite de variables aléatoires

Sn
Xn = appelée moyenne empirique des X k ,
n

converge vers E [X 1 ] au sens de l’un des types de convergence de suites de variables aléa-
toires. Où on a posé
n
X
S n := Xk .
k=1

Définition 3.6 On dit que la suite (X n )n≥1 "i".i.d, satisfait la loi faible des grands nombres,
si
P
X n −→ E [X 1 ] ,

on dit qu’elle satisfait la loi forte des grands nombres, si

p.s
X n −→ E [X 1 ] .

Remarque 3.11 La convergence en probabilité vers E [X 1 ] équivaut à la convergence en loi,


donc la loi faible implique la convergence en loi. Et la convergence presque sûre implique,
via le théorème de Vitali et grâce à l’équi-intégrabilité, la convergence dans L1 .

page 89
Lois des grands nombres et théorème central limite

3.2.1 Loi faible des grands nombres

Théorème 3.5 (Loi faible des grands nombres) Soit une suite (X n )n≥1 de variables aléa-
toires réelles deux à deux indépendantes, à carrées intégrables, et de même loi. Alors

L2 P
X n −→ E [X 1 ] et donc X n −→ E [X 1 ] .

Preuve: Les variables aléatoires réelles X n sont indépendantes donc


õ Pn ¶2 !
k=1 (X k
− E [X k ])
µ³ ´2 ¶
E X n − E [X 1 ] =E
n
Pn
k=1
Var (X k )
=
n2
σ2
= −→ 0,
n n−→∞

c.q.f.d.

3.2.2 Théorème central limite

Théorème 3.6 (TCL) Soit une suite (X n )n≥1 de variables aléatoires réelles deux à deux
indépendantes, et de même loi, telles que Var (X 1 ) = σ2 < ∞ ; µ = E [X 1 ] . Alors

Xn − µ L
σ −→ N (0, 1) ,
p
n

c’est à dire  
 Xn − µ x1
Z
u2
P p e − 2 du.

 σ ≤ x  n−→∞
 −→
p −∞ 2π
n

Preuve: On pose ϕ = ϕ( X 1 −µ) (= ϕ( X k −µ) pour tout k ∈ N∗ ) et pour tout n ∈ N∗ ,

X n − µ S n − nµ 1 X n ¡
Xk − µ
¢
Zn = σ = p = p
p σ n σ n k=1
n

alors, par indépendance, pour tout t ∈ R ,


¶¶n
t
µ µ
ϕ Zn (t ) = ϕ p
σ n

page 90
Théorèmes limites

Et puisque X 1 est à carré intégrable alors ϕ est de classe C 2 et admet le DL 2 (0) suivant :

σ2 2
ϕ (t ) = 1 − t + t 2 ε (t ) (avec ε (t ) −→ 0).
2 t −→0

Par conséquent, pour tout t ∈ R ,

2 ¶¶n t2
t t
µ µ
1 2 −
ϕ Zn (t ) = 1 − t + 2 ε p −→ e 2 = ϕN (0,1) (t )
2n σ n σ n n−→+∞

on conclût alors grace au théorème de Lévy.

3.2.3 Loi forte des grands nombres

Théorème 3.7 (Loi forte des grands nombres) Soit une suite (X n )n≥1 de variables aléa-
toires réelles deux à deux indépendantes, intégrables, et de même loi. Alors

p.s L1
X n −→ E [X 1 ] et X n −→ E [X 1 ] .

Remarque 3.12 Le fait que X n+ n et X n− n vérifient les mêmes propriétés que X n n on peut
¡ ¢ ¡ ¢ ¡ ¢

se limiter, dans la démonstration, au cas où X n ≥ 0.

Preuve: On suppose que les X n sont à valeur dans R+ . Avec les notations ci-dessus, on
considère la suite de v.a.r (Yn )n≥1 définie par

Yn = X n .1(X n ≤n)

n
X
et Tn = Y1 + · · · + Yn . Par indépendance, V (Tn ) = V (Yk ) .
k=1

Soit α > 1, pour tout n ∈ N, on pose k n = αn la partie entière de αn ; on va démontrer que


¥ ¦

S kn
µ ¶
converge presque sûrement vers E (X 1 ) ?
kn n

page 91
Lois des grands nombres et théorème central limite

X E Yn2
¡ ¢
Etape 1 : La série est convergente. En effet, par positivité, on a
n2

X E Yn2
¡ ¢
X 1 Z n 2
= x dP X
n≥1 n2 n≥1 n
2
0
à !
X 1 X Z k 2
= 2
x dP X
n≥1 n 1≤k≤n k−1
à !
X X 1 Z k 2
= 2
x dP X
k≥1 n≥k n k−1
X 2Z k 2
µ ¶
≤ x dP X
k≥1 k k−1
X Z k
µ ¶
≤ 2 xdP X = 2E (X )
k≥1 k−1

X E Yn2
¡ ¢
donc la série est convergente.
n2
Tkn − E Tkn
µ ¡ ¢¶
Etape 2 : La suite converge presque sûrement vers 0.
kn n
X ¯ Tkn − E Tkn ¯
µ¯ ¡ ¢¯ ¶
Soit ε > 0 , on montre que P ¯¯
¯ > ε est convergente.
¯
n≥1 kn
Par l’inégalité de B.T
¯ Tkn − E Tkn ¯
¡ ¢¯ ¡ ¢
V Tkn
µ¯ ¶
P ¯¯ ¯>ε ≤
kn ε2 (k n )2
¯

et par positivité

¯ Tkn − E Tkn ¯
¡ ¢¯ ¡ ¢
1 X V Tkn
µ¯ ¶
P ¯ ¯ > ε ≤ ε2
X
¯ ¯
kn 2
n≥1 n≥1 (k n )
à !
1 X 1 X
= 2 V (Yi )
ε n≥1 (k n )2 1≤i ≤kn
 
 
1 X V (Yi )
X 1 
= 2 
ε i ≥1  (k n )2
 ln i 
n≥
ln α

par définition des k n (αn − 1 < k n ≤ αn ), en plus

¶ ln i
α4
µ
1 1 2 1 ln α 1 1
¢ ≤α
X X
≤ = 2 × 2
2 n−1 2 α2 1 α −1 i
ln i α
¡
ln i (k n ) 1− 2
n≥ n≥ α
ln α ln α

page 92
Théorèmes limites

donc
¯ Tkn − E Tkn ¯
¯>ε ≤ α × 1
¡ ¢¯
µ¯ ¶ 4 X V (Yi )
P ¯¯
X
n≥1 k n
¯ α2 − 1 ε2 i2 i ≥1

¯ Tkn − E Tkn ¯
µ¯ ¡ ¢¯ ¶
P ¯¯ ¯ > ε et conver-
X
Par conséquent, d’après le résultat de l’étape 1, la série
n k ¯
¢ ¶ n≥1
Tkn − E Tkn
µ ¡
gente. On en déduit alors que la suite converge presque sûrement vers
kn n
0.
Tkn
µ ¶
Etape 3 : La suite converge presque sûrement vers E (X 1 ) .
kn n
Pour celà, on a Z Z n +∞
E (Yn ) = xdP X −→ xdP X = E (X 1 )
0 n−→+∞ 0

E (Tk )
µ ¶
et par les moyennes de Césaro et la linéarité de l’espérance, converge vers E (X 1 ) .
k k
Tkn
µ ¶
Enfin, par le résultat de l’étape 2, converge presque sûrement vers E (X 1 ) .
kn n
S kn
µ ¶
Etape 4 : La suite converge presque sûrement vers E (X 1 ) .
kn n
Pour tout n ∈ N∗
P (X n ̸= Yn ) = P (X n > n) = P (X 1 > n)

et puisque X 1 est intégrable alors (voir lemme ??) la série P (X 1 > n) est convergente et
X
n
par conséquent, la série P (X n ̸= Yn ) est aussi convergente.
X

p.s
Par conséquent la suite (X n − Yn ) −→ 0 et encore une fois, d’après Césaro,

S n − Tn p.s
−→ 0
n

S kn
µ ¶
et donc converge presque sûrement vers E (X 1 ) .
kn n
Sn
µ ¶
Etape 5 : Toute la suite converge presque sûrement vers E (X 1 ) .
n n
Soit n ∈ N∗ , il existe m ∈ N tel que αm ≤ n < αm+1 et donc

αm − 1 S km k m S km S n S km+1 k m+1 S km+1 αm+1


× ≤ × ≤ ≤ × ≤ × m
αm+1 km n km n k m+1 n k m+1 α

et par passage aux limites (n −→ +∞) , on a

1 Sn Sn
E (X 1 ) ≤ lim inf ≤ lim sup ≤ αE (X 1 )
α n n

On conclût par passage à la limite quand α −→ 1+ .


¡ ¢

page 93
Bibliographie

[1] André Gramain. INTÉGRATION. Hermann, Paris 1988.


[2] Dominique Foata, Aimé Fuchs. CALCUL DES PROBABILITÉS – Cours, exercices et
problèmes corrigés –. Dunod, Paris 1998.
[3] Philippe Barbe, Michel Ledoux. PROBABILITÉ. EDP sciences, France 2007.
[4] Bernard Candelpergher. Théorie des probabilités – Une introduction élémentaire –.
Calvage & Mounet, Paris, 2013.
[5] Patrick Billingsley. Convergence of probability measures. JOHN WILEY & SONS, New
York, 1968.
[6] Vivek S. Borkar. Probability theory An Advanced Course. SPRINGER-VERLAG, New York,
1995.
[7] R. Durrett. Probability : Theory and Examples. CAMBRIDGE UNIVERSITY PRESS, New
York, 2010.
[8] Marc Briane et Gilles Pagès, Théorie de l’intégration, Vuibert, 2006 (4ème edition).

94

Vous aimerez peut-être aussi