Mathematics">
Nothing Special   »   [go: up one dir, main page]

correction-repeche-dec17-fev18

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 3

1ère année Probabilités générales - Cursus Mathématiques ENSAI

Correction du rattrapage du 1er mars 2018 - 2h30

Exercice 1 (6 points)
1. La fonction h est mesurable positive. De plus,
Z Z ∞ ∞
h(x) dx = αcα x−α−1 dx = −cα x−α c = 1.

R c

Ainsi, h est une densité de probailité.


2. Notons F la fonction de répartition de X1 . Alors, F (t) = 0 pour tout t ≤ c. Pour t > c, on a
Z t  c α
F (t) = h(x) dx = 1 − .
c t

3. (a) Soit t > c, on peut calculer  c nα


P(mn > t) = (1 − F (t))n =
.
t
d’où l’on déduit en passant au complémentaire que mn suit une loi de Pareo de paramètre nα et c.
(b) On calcule
n
!  
\ 3 2 nα
P {Xk > c} = .
2 3
k=1

4. (a) La variable aléatoire Nn suit une loi binomiale de paramètre n et p = 2/3.


(b) Ainsi, P(Nn ≥ 2) = 1 − [(1 − p)n + np(1 − p)n−1 ].

Exercice 2 (3 points)
1. Il s’agit de la loi forte des grands nombres cadre L2 . La limite presque-sûre est E(X1 ).
2. La fonction x −→ x2 est continue ce qui implique que la suite des moyennes au carré converge vers E(X1 )2 .
3. On calcule !2
n
X X n
X X
Xi = Xi Xj = Xi2 + 2 Xi Xj .
i=1 i,j i=1 1≤i<j≤n

Ainsi,
 !2   !2 
n n n n
1 X X n 1  X X
Yn =  Xi − Xi2  = Xi − Xi2  = E(X1 )2 ,
n(n − 1) n − 1 n2
k=1 i=1 k=1 i=1

car la somme des carrés dans le crochet renormalisée par n tends vers E(X12 ) par la loi des grands nombres.
Donc, cette même somme renormalisée par n2 tend vers 0.

Exercice 3 (5 points)
1. On vérifie les trois propriétés définissant une fonction de répartition.
(a) G est croissante : soit a < b, alors puisque F est croissante
Z b+p Z a+p (
F (b) − F (a) si a + p < b
p[G(b) − G(a)] = F (ξ) dξ − F (ξ) dξ ≥ R b+p Rb
b a a+p F (ξ) dξ − a F (ξ) dξ sinon.

Dans le premier cas, la croissance de F implique que le second membre est positif. Dans le second cas,
le second membre est minoré par F (a + p) − F (b) qui est encore positif. Finalement, G est croissante.
(b) G est continue à droite : soit h ∈]0, p[, alors
Z x+p+h Z x+h
1 1
G(x + h) − G(x) = F (ξ) dξ − F (ξ) dξ.
p x+p p x

Lorsque h tends vers 0, ces deux intégrales tendent vers 0 montrant ainsi la continuité à droite de G.
(c) G →−∞ 0 et G →∞ 1 : Enfin, G(x) ≥ F (x) donc limx→∞ G(x) ≥ limx→∞ F (x) = 1. De même,
G(x) ≤ F (x + p) si bien que limx→−∞ G(x) ≤ limx→−∞ F (x + p) = 0. On conclut en remarquant que
0 ≤ G(x) ≤ 1 pour tout x ∈ R.
(d) En posant y = x + h dans la preuve de la continuité à droite de G, on obtient que G(y) − G(y − h)
tends vers 0 lorsque h tends vers 0. Autrement dit, G est continue à gauche en tout point y ∈ R.
Ceci montre que la loi caractérisée par G est diffuse.
2. Par définition, la loi caractérisée par G est diffuse si G est continue. En fait, elle est même à densité par
rapport à la mesure de Lebesgue ; c’est l’objet de la question suivante.
3. On va montrer que la dérivée de G existe en tout point et on vérifie que c’est une densité de probabilité.
On conclura en rappelant que la densité (à égalité presque sûre près) caractérise la loi.
On s’intéresse à la dérivée à droite de G. Soit donc h ∈]0, p[ et calculons pour tout x ∈ R
Z x+p+h x+h 
G(x + h) − G(x) F (x + p) − F (x)
Z
1
lim = lim F (ξ) dξ − F (ξ) dξ = .
h→0 + h h→0 ph
+
x+p x p

De la même façon que précédemment, en posant y = x + h, on calcule la dérivée à gauche


Z y+p Z y 
G(y) − G(y − h) F (y + p) − F (y)
lim = F (ξ) dξ − F (ξ) dξ = .
h→0+ h y+p−h y−h p

La dérivée à gauche de G est donc égale à la dérivée à droite de G. Donc G est dérivable de dérivée
G0 (x) = F (x+p)−F
p
(x)
qui est clairement positive. On calcule par convergence monotone (l’intégrande est
positive)
n Z n Z n
F (x + p) − F (x) F (x + p) − F (x)
Z Z
F (x + p) F (x)
dx = lim dx = lim dx − dx
R p n→∞ −n p n→∞ −n p −n p
Z n+p Z n
F (x) F (x)
= lim dx − dx = lim G(n) − G(−n) = 1.
n→∞ −n+p p −n p n→∞

Ainsi G est dérivable et G0 est une densité de probabilité.

Exercice 4 (5 points)
1. (a) Les variables aléatoires U et V sont i.i.d. ainsi la densité du couple (U, V ) notée h(u, v) est symétrique
h(u, v) = h(v, u). À l’aide de fonction tests, on vérifie facilement l’égalité en loi annoncée.
(b) Par définition du maximum,

E(max(U, V )) = E(U 1U >V ) + E(V 1V >U ).

La question précédente permet de conclure.


(c) On applique le théorème de transfert
2 2 )/2
r Z Z ∞
e−(u +v
Z
2 2 2
E[max(U, V )] = 2 u1u>v dudv = ue−u /2 due−v /2 dv
R2 2π π R v
r Z r
2 −v 2 1
= e dv = .
π R π
 
U
2. Soit W ∼ N (0, 1) indépendant du vecteur .
V
√
 
√    U
1−ρ 0 ρ X
(a) Posons A = √ √ . Alors, il est clair que = A V . Comme U, V, W sont

0 1−ρ ρ Y
W
 
U
des variables aléatoires gaussiennes indépendantes, cela implique  V  est un vecteur gaussien. Il
W
 
X
en va de même pour comme toute transformation linéaire de vecteurs gaussiens.
Y
Un vecteur gaussien est caractérisée par sa moyenne et sa matrice de covariance. Or, clairement,
l’espérance de (X, Y ) est nulle, V(X) = V(Y ) = 1 et cov (X, Y ) = ρV(W ) = ρ.
√ √
(b) Il est immédiat que max(X, Y ) = W ρ + 1 − ρ max(U, V ) (c’est au sens partout égales !). La
linéarité de l’espérance permet de conclure.

Ce document est mis à disposition selon les termes de la licence Creative Commons
“Attribution - Partage dans les mêmes conditions 4.0 International”.

Vous aimerez peut-être aussi