Nothing Special   »   [go: up one dir, main page]

2020 Cours Proba1 L2AL2P

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 28

Ecole Supérieure Année académique 2020-2021

des Travaux Publics ------------------


de Ouagadougou
(ESTPO)
-----------

Probabilités et Statistiques I
NOTES DE COURS

Classes : 2ème année Licence Académique (L2A)


2ème année Licence Professionnelle (L2P)

Volume horaire :
- Cours théorique : 20 heures
- Travaux dirigés : 10 heures

Objectifs du cours :
L’étudiant doit être capable de :
- Calculer une probabilité
- Caractériser une variable aléatoire
- Identifier les lois usuelles

Contenu du cours :
Chapitre 1 : Notions de base en probabilités
Chapitre 2 : Notion de variables aléatoires
Chapitre 3 : Lois usuelles
Chapitre 4 : Couple de variables aléatoires

Chargé de cours : SAWADOGO S. Paul

Novembre 2020

1
Chapitre 1
Notions de base en probabilités
_______________________________________

L’origine du calcul des probabilités remonte aux années 1800 avec les jeux du hasard. Au
20ème siècle, Andreï Kolmogorov (1903-1987) donna le cadre théorique dans lequel
s’exprime encore aujourd’hui le calcul des probabilités. Les applications sont nombreuses et
concernent presque tous les dommaines : physique (modélisation de phénomènes physiques),
biologique, démographie, épidémiologie, informatique (analyse d’algorithmes, d’images ou
de réseaux), économie, assurances, sciences de l’ingénieur (fiabilité, optimisation, analyse de
risque)...

I. Analyse combinatoire
I.1 Rappel sur les ensembles
Considérons un ensemble E, c’est-à-dire une collection d’objets appelés “éléments” ou
“points” de E. L’appartenance d’un élément x à l’ensemble E est notée 𝑥𝜖𝐸. Une partie F de
E est aussi un ensemble, appelé sous-ensemble de E : on écrit 𝐹 ⊂ 𝐸 (on dit aussi que F est
“inclus” dans E).
Rappelons les opérations élémentaires sur les parties d’un ensemble :

Cardinal d’un ensemble fini :


E étant un ensemble fini, le cardinal de E, noté cardE, désigne le nombre d’élement de E.
Si E et F sont deux ensembles finis, ExF (produit cartésien) désigne l’ensmble de tous les
couples (x,y) avec x dans E et y dans F, et on a :
Card(ExF)=cardExcardF.

Intersection :
A ∩ B est l’intersection des ensembles A et B, c’est-à-dire l’ensemble des points appartenant
à la fois à A et à B.

Réunion :
A∪B est la réunion des ensembles A et B, c’est-à-dire l’ensemble des points appartenant à au
moins l’un de ces deux ensembles.

Complémentaire :
Si A ⊂ E, son complémentaire (dans E) est l’ensemble des points de E n’appartenant pas à A.
On le note AC ou E\A ou 𝐴.

Différence :
Si A et B sont deux parties de E, on note A\B la “différence” entre A et B, c’est-à-dire
l’ensemble des points qui sont dans A mais pas dans B. On note aussi A\B=A∩BC .

Différence symétrique :
A∆B est l’ensemble des points appartenant à l’un des deux ensembles A ou B, mais pas aux
deux (à la fois), on a donc : A∆B=(A\(A ∩ B))∪(B\(A∩B)) .

2
Ensemble vide :
C’est l’ensemble ne contenant aucunn élément; on le note : ∅.

Ensembles disjoints :
Les ensembles A et B sont dits disjoints si A ∩ B = ∅.

Propriétés :
La réunion et l’intersection sont des opérations commutatives :
A∪B=B∪A
A ∩ B=B ∩ A
Elles sont également associatives :
A∪(B∪C)=(A∪B)∪C
A ∩ (B ∩ C)=(A ∩ B) ∩ C
On note naturellement A∪B∪C et A ∩ B ∩ C (sans parenthèses).

Lois de Morgan
Le complémentaire de l’intersection est égal à la réunion des complémentaires
𝐴∩𝐵 =𝐴∪𝐵

Le complémentaire de l’union est égal à l’intersection des complémentaires


𝐴∪𝐵 =𝐴∩𝐵

I.2 Arrangements
L'analyse combinatoire (A.C.) est le dénombrement des dispositions que l'on peut former à
l'aide des éléments d'un ensemble fini. Elle fournit des méthodes de dénombrement
particulièrement utiles en théorie des probabilités.

Soit E un ensemble fini de n éléments et p un entier avec 1≤ p≤ n.

a) Arrangements (sans répétition)


Définition
Un arrangement de p éléments de E est une liste ordonnée de p éléments distincts de E.

Cette définition implique que, pour obtenir un arrangement, il faut choisir p éléments parmi n
et les ordonner, par exemple en leur attribuant une place parmi p ou un numéro de 1 à p.
Deux arrangements formés de p éléments peuvent donc être distincts soit par la nature des
éléments, soit par l’ordre des éléments. On précise parfois « arrangement sans répétition »,
parce qu’à un élément ne peut être attribué qu’une place.

Le nombre d’arrangements de p éléments distincts d’un ensemble à n éléments est :


n(n-1)(n-2)…(n-p+1).
On note : 𝐴!! = 𝑛 𝑛 − 1 𝑛 − 2 … 𝑛 − 𝑝 + 1 .
𝐴!! 𝑠𝑒 𝑙𝑖𝑡 ∶ 𝐴, 𝑛, 𝑝.

Exemple
E = {a, b, c, d}
Les arrangements de deux éléments de E sont :
ab, ba, ac, ca, ad, da, bc, cb, bd, db, cd, dc.
3
Ils sont au nombre de 𝐴!! = 4 ∗ 3 = 12.

b) Arrangements (avec répétition)


On peut imaginer un type de tirage entièrement différent : on tire d’abord un élément, on le
remet parmi les n après avoir noté sa nature, et on répète p fois l’opération. La suite obtenue
s’appelle un « arrangement avec répétition » de p éléments parmi n. Il est clair que le
nombre d’arrangements avec répétition de p éléments parmi n est np.
On a en effet n possibilités pour chaque place, soit n × n × · · · × n = np possibilités
d’arrangements.

I.3 Permutations
Définition
Une permutation de n éléments de E est toute suite ordonnée de ses n éléments.

Une permutation est donc un arrangement particulier où tous les éléments sont choisis. Deux
permutations de n éléments donnés ne peuvent donc différer que par l’ordre de ces éléments.

Le nombre de permutations des n éléments d’un ensemble E est : n(n-1)(n-2)…1.


Que l’on note : n! = n(n-1)(n-2)…1.
Par convention, on pose 0!=1.
n! se lit « factorielle n ».

Exemple
Avec deux éléments x et y, on peut obtenir 2 ∗ 1 = 2 permutations qui sont : xy et yx.
Avec trois éléments x, y et z, on a 3 ∗ 2 = 6 permutations : xyz, xzy, yxz, yzx, zxy, zyx.

Remarque
!!
𝐴!! = 𝑛 𝑛 − 1 𝑛 − 2 … 𝑛 − 𝑝 + 1 peut encore s’écrire : 𝐴!! = !!! !
. On a : 𝐴!! = 𝑛!

Certaines calculatrices ont une touche nPr qui permet de calculer 𝐴!! et une touche x!
qui permet de calculer n!

Quand n>10, on peut approximer n! par la formule de Stirling :

𝑛! ≈ 𝑛! 𝑒 !! 2𝜋𝑛
I.4 Combinaisons
Définition
E est un ensemble fini de n éléments et p est un entier tel que 0≤ p≤ n.
Une combinaison de p éléments de E est une partie de E qui contient p éléments distincts.

La notion d’ordre a maintenant complètement disparu. Deux combinaisons contenant p


éléments peuvent donc seulement différer par la nature des éléments et non pas par leur ordre.

Exemple
Soient les nombre 1, 2 , 3, 4. En choisissant 2 nombres, on peut obtenir 6 combinaisons :
{1, 2}, {1, 3}, {1, 4}, {2, 3}, {2, 4}, {3, 4}.

4
Le nombre de combinaisons possibles de p éléments pris parmi n est noté 𝐶!! ou parfois !
!
.
𝐶!! se lit : C, n, p.

On remarque qu’on peut ordonner une combinaison contenant p éléments donnés de p!


manières (autant que de permutations). En procédant de même pour chacune des 𝐶!!
combinaisons, on doit obtenir 𝐴!! arrangements. On a donc : 𝑝! 𝐶!! = 𝐴!!
Ainsi le nombre de combinaisons de p éléments d’un ensemble E à n éléments (avec 0≤ p≤ n)
est :
!
!! !!
𝐶!! = !!
ce que l’on peut écrire : 𝐶!! = !! !!! !

Dans l’exemple précédant, avec quatre éléments on a :


4! 4! 4∗3∗2∗1
𝐶!! = = = =6
2! 4 − 2 ! 2! 2! (2 ∗ 1)(2 ∗ 1)
combinaisons de deux éléments.
Pour tout entier n : 𝐶!! = 1 𝑒𝑡 𝐶!! = 1

Deux égalités importantes


Pour tous entiers naturels non nuls p, n ( p ≤ n ), on a les égalités :
𝐶!! = 𝐶!!!!
𝐶!! = 𝐶!!!
! !!!
+ 𝐶!!!

Démonstration

I.5 Permutations d’objets partiellement distinguables


Si on a n objets, dont n1 sont de type 1, n2 sont de type 2, …, nK sont de type K, alors le
nombre de manières de permuter ces n objets est :
𝑛 𝑛!
𝑛! 𝑛! … 𝑛! =
𝑛! ! 𝑛! ! … 𝑛! !
Exemple
On donne des jetons portant les chiffres suivants 2, 2, 2, 0, 0, 0, 3, à un enfant qui ne connaît
pas encore la signification des chiffres. Il s’amuse à les aligner. De combien de manières
peut-il les aligner ?

I.6 Applications

Le triangle de Pascal
La deuxième égalité ci-dessus permet de calculer rapidement de proche en proche les
!!
nombres 𝐶!! sans utiliser l’égalité 𝐶!! = !! !!! !
Sur le tableau ci-dessous, appelé triangle de Pascal, à l’intersection de la ligne « n » et de la
colonne « p » on lit le naturel 𝐶!! . On complète le tableau en commençant à remplir la
colonne « p = 0 » à l’aide de chiffres 1 et la diagonale à l’aide de chiffres 1 également. On
complète ensuite en utilisant la relation 𝐶!! = 𝐶!!!
! !!!
+ 𝐶!!! de sorte que 𝐶!! est la somme du
nombre « situé au-dessus de lui » et du nombre « situé au-dessus à gauche de lui ».

5
P 0 1 2 3 4 5 6 7
N
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1
7 1 7 21 35 35 21 7 1

La formule du binôme
Pour deux nombres réels a et b, et pour tout entier naturel non nul n, le développement de
n
( a +b ) donne l’égalité :
!
!
𝑎+𝑏 = 𝐶!! 𝑎! 𝑏 !!!
!!!
Démonstration

Exemple
Quel est le coefficient de x3y2 dans le développement de (3x+2y)5 ?

La formule multinomiale
Le développement de la puissance nième de la somme de K nombres est donné par la formule
suivante, appelée formule multinomiale :

!
𝑛 !! !! !!
𝑥! + 𝑥! + ⋯ + 𝑥! = 𝑛! 𝑛! … 𝑛! 𝑥! 𝑥! … 𝑥!
!! !!! !⋯!!! !!
Exemple
Quel est le coefficient de x3y3z4 dans le développement de (x+y+z)10 ?

Remarque :
Tirage un à un sans remise arrangements sans répétition
Tirage un à un avec remise arrangements avec répétition
Tirage simultané combinaisons

II. Calcul de probabilités


II.1 Définitions
• On appelle expérience aléatoire ou épreuve aléatoire toute épreuve dont on ne
connait pas le résultat à l’avance. Pour définir une épreuve aléatoire il suffit de
recenser l’ensemble de ses résultats possibles appelés éventualités ou évènements
élémentaires.
• On appelle univers l’ensemble de ces éventualités. Il est généralement désigné par Ω
• Un évènement est un ensemble d’éventualités noté A, C’est donc un sous-ensemble
(ou partie) de Ω .
• L’univers Ω est l’évènement certain.
• L’ensemble vide ∅ est l’évènement impossible.

6
• Le couple Ω, 𝒫 Ω est appelé espace probabilisable.
• L’évènement A est réalisé lorsque A ne l’est pas.
• L’évènement A ∪ B est réalisé quand l’un au moins des évènements A et B l’est.
• L’évènement A ∩ B est réalisé quand les évènements A et B sont tous réalisés.

Exemple
On choisit au hasard une famille parmi les familles de 2 enfants, et on note le sexe des
enfants, celui du plus jeune, puis celui de l’aîné. L’univers associé à cette épreuve est Ω =
{FF, FG, GF, GG}. Si on note seulement le sexe des enfants sans se préoccuper de l’ordre
des naissances, on aura un univers différent Ω = {FF, FG, GG}.

II.2 Définition de probabilité dans le cas où Ω est fini


Définition
Soit (Ω, ℘(Ω)) un espace probabilisable. Une application P de ℘(Ω) dans R (où ℘(Ω)
désigne l’ensemble des parties de Ω ) définit une probabilité si les trois axiomes (d’Andreï
Kolmogorov (1903-1987)) sont vérifiés :
i. Axiome de positivité : P( A) ≥ 0 , pour tout évènement A.
ii. Axiome de certitude : 𝑃 Ω = 1.
iii. Axiome d'additivité : P ( A ∪ B ) = P ( A) + P ( B ) , pour tous évènements A et B tels
que A ∩ B = ∅
(on dit que A et B sont incompatibles lorsque A ∩ B = ∅ )

Qualitativement la probabilité 𝑃 𝐴 exprime le degré de « chance » d’obtenir la réalisation de


l’évènement A.

Conséquences de la définition
• P (∅) = 0
• P (A) = 1− P A( )
• Si A ⊂ B , P ( A) ≤ P ( B )
• Si A et B sont deux évènements quelconques alors
P ( A ∪ B ) = P ( A) + P ( B ) − P ( A ∩ B )

Autre définition
On considère que l’univers Ω contient n éléments : Ω = 𝑎! , 𝑎! , 𝑎! , … 𝑎! .
Toute application P définie par la donnée des n nombres positifs ou nuls
𝑃 𝑎! , 𝑃 𝑎! , … , 𝑃 𝑎! tels que 𝑃 𝑎! + 𝑃 𝑎! + ⋯ + 𝑃 𝑎! = 1 détermine une probabilité
sur Ω . On obtient la probabilité d’un évènement A en ajoutant les probabilités des
évènements dont la réunion est A.

Probabilité sur un univers infini dénombrable


Ω est dénombrable si on peut numéroter ses éléments. Notons Ω = 𝑎! , 𝑎! , 𝑎! , … 𝑎! , … .
La donnée de n nombres positifs ou nuls 𝑃 𝑎! , 𝑃 𝑎! , … , 𝑃 𝑎! , … tels que
!!

𝑃 𝑎! = 𝑃 𝑎! + 𝑃 𝑎! + ⋯ + 𝑃 𝑎! + ⋯ = 1
!!!
définit une probabilité sur Ω .

7
On obtient la probabilité d’un évènement A en ajoutant les probabilités des évènements
dont la réunion est A.
Par définition :
!! !

𝑃 𝑎! = lim 𝑃 𝑎!
!→!!
!!! !!!
Exemple :
Notons ℕ∗ l’ensemble des entiers naturels non nuls, et considérons l’application P définie sur
! !
ℕ∗ par : 𝑃 𝑘 = ! . Montrer que P définit une probabilité sur ℕ∗ , puis calculer la
probabilité de l’évènement : 𝐴 = 2, 4, 6, 8 .

II.3 Equiprobabilité sur un univers fini

Définition
Soit Ω un univers fini. Si tous les évènements élémentaires ont la même probabilité
d’apparition on dit qu’il y a équiprobabilité. Dans ces conditions, pour tout évènement A, on
Card ( A)
a : P( A) = .
Card (Ω)

Exemple
Dans un jeu de 32 cartes on tire une carte au hasard. Quelle est la probabilité d’avoir tiré un
Roi ou un Trèfle ?

II.4 Probabilité conditionnelle

Définition
Soit deux évènements A et B de probabilités non nulles. La probabilité conditionnelle de A
par rapport à B est la probabilité que A se réalise sachant que B est réalisé. Elle est notée
P( A ∩ B)
P ( A / B ) et s’écrit : P( A / B) = .
P( B)
Remarques
• P( A ∩ B) = P( A / B).P( B) = P( B / A).P( A)
• P( A / B) = 1 − P( A / B)
• Si A et B sont incompatibles et de probabilités non nulles alors
P( A / B) = P( B / A) = 0
P( A)
• Si A ⊂ B alors P( A / B) =
P( B)

II.5 Evènements indépendants

Définition
Si la probabilité de B ne change pas selon que l’évènement A soit ou non réalisé, on dit que
les deux évènements A et B sont indépendants. On a alors : 𝑃(𝐵/𝐴) = 𝑃(𝐵), ce qui revient à
dire que : 𝑃 𝐴 ∩ 𝐵 = 𝑃 𝐴 𝑃(𝐵).

8
Remarque
Si A et B sont deux évènements indépendants alors les évènements A et B , A et B , A et B
sont indépendants.

Définition
Considérons une famille A1, A2, …, An d’évènements (contenus dans un même univers).

Les évènements A1, A2, …, An sont indépendants deux à deux si l’on a :


pour tout Ai et tout Aj (avec i≠j) : P(Ai∩Aj)= P(Ai)* P(Aj)

Les évènements A1, A2, …, An sont mutuellement indépendants si l’on a, pour toute famille
Ai, Aj, …, Ak (k≥2) :
P(Ai∩…∩Ak)= P(Ai)* P(Aj) )*…* P(Ak).

Exemple
On lance une pièce de monnaie jusqu’à ce que l’on obtienne le côté pile.
Déterminer la probabilité d’obtenir pile pour la première fois au 5ème essai.

Remarque
L’indépendance est différente de l’incompatibilité :
Indépendance ↔ P(B/A)=P(B)
Incompatibilité ↔ 𝐴 ∩ 𝐵 = ∅

II.6 Formule des probabilités composées

Définition
• Cas n=2 :
Soit A et B deux évènements de probabilités non nulles, alors P( A ∩ B) = P( A).P( B / A)
• Cas n=3 :
Soit A, B et C trois évènements de probabilités non nulles, alors
P( A ∩ B ∩ C ) = P( A).P( B / A).P(C / A ∩ B)
• Cas général (n>3) :
Soit 𝐴! , 𝐴! , 𝐴! , … , 𝐴! , n évènements de probabilités non nulles, alors :
𝑃(𝐴! ∩ 𝐴! ∩ … ∩ 𝐴! )
= 𝑃(𝐴! )𝑃(𝐴! / 𝐴! )𝑃(𝐴! /𝐴! ∩ 𝐴! ). . . 𝑃(𝐴! /𝐴! ∩ 𝐴! ∩ 𝐴! ∩ … ∩ 𝐴!!! )

Exemple
A partir d’un jeu de 52 cartes, on forme 3 paquets, respectivement de 12 cartes, de 15 cartes
et de 25 cartes. Le premier paquet contient 3 carreaux, le second 4 carreaux et le troisième 6
carreaux. En tirant au hasard une carte de chaque paquet, quelle est la probabilité d’obtenir 3
carreaux ?

II.7 Formule de Bayes ou formule des probabilités des causes

Partition d’un ensemble


Une famille 𝐴! , 𝐴! , 𝐴! , … , 𝐴! forme un système complet d’évènements ou partition de
l’univers Ω si on a :
- l’intersection de deux éléments distincts de la famille est vide, c'est-à-dire :
𝐴! ∩ 𝐴! = ∅ , ∀ 𝑖 ≠ 𝑗

9
- la réunion de tous les éléments est égale à Ω, c'est-à-dire :
!

𝐴! = Ω
!!!

Définition
Soit 𝐴! , 𝐴! , 𝐴! , … , 𝐴! un système complet d’évènements. Soit B un évènement quelconque de
probabilité non nulle, alors :
𝑃 𝐴! . 𝑃(𝐵/𝐴! )
𝑃(𝐴! /𝐵) = !
!!! 𝑃 𝐴! . 𝑃(𝐵/𝐴! )

Exemple
Une entreprise utilise trois machines différentes pour fabriquer le même produit (pièces
identiques). 40% des pièces sont fabriquées par la machine M1, 35% par la machine M2 et
25% par la machine M3. Malgré des réglages fréquents, les machines produisent des pièces
défectueuses compte tenu des normes de fabrication.

Machine M1 M2 M3
% des pièces défectueuses 2% 4% 5%

On a prélevé une pièce au hasard dans la production et l’on a constaté qu’elle était
défectueuse. Quelle est la probabilité qu’elle ait été fabriquée par la machine M1 ?

II.8 Formule des probabilités totales


B1, B2, …, Bn forment une partition de Ω et tous les P(Bi) sont non nuls. Alors la probabilité
d’un évènement A est donnée par :
P(A) = P(𝐴 ∩ 𝐵! ) + P 𝐴 ∩ 𝐵! + ⋯ + P(𝐴 ∩ 𝐵! )
C'est-à-dire :
P 𝐴 = P 𝐴/𝐵! P 𝐵! + P 𝐴/𝐵! P 𝐵! + ⋯ + P 𝐴/𝐵! P 𝐵!

10
Chapitre 2
Notion de variable aléatoire
_______________________________________________

A. CAS DISCRET
1. Variable aléatoire discrète
Définitions
Soit Ω un univers fini ou infini. On appelle variable aléatoire sur Ω , toute application X de
Ω vers R qui, à chaque éventualité fait correspondre un réel.
L’ensemble des valeurs de la variable aléatoire est noté X (Ω) , et est appelé ensemble des
observables.

Lorsque X (Ω) est un ensemble fini ou formé exclusivement de nombres entiers (fini ou
infini), alors on dit que X est une variable aléatoire discrète.
Une variable aléatoire est dite continue si elle peut prendre toutes les valeurs d'un intervalle.

Exemple
Variable aléatoire discrète :
Nombre de "face" apparaissant après 10 jets d'une pièce ;
Nombre de véhicules passant à un carrefour dans une journée ;
Nombre de clients entrant dans un magasin.
Variable aléatoire continue :
Intervalle de temps entre 2 passages de train ;
Durée de vie en secondes d'une pièce mécanique

Autrement dit, lorsqu’à chaque évènement élémentaire on associe un nombre, on dit que l’on
définit une variable aléatoire.
Une variable aléatoire est généralement notée par une lettre majuscule X, Y, Z, … Si a1,
a2,…, an sont les valeurs prises par une variable aléatoire X, on note (X = ai) l’évènement « X
prend la valeur ai ».

Exemple
On considère un groupe de 12 étudiants composé de 8 garçons et 4 filles. On choit au hasard
5 étudiants pour un exposé. Soit X la variable aléatoire qui, à chaque tirage, associe le
nombre de filles parmi les 5 et Y la variable aléatoire qui associe le nombre de garçons parmi
les 5.
Déterminer X (Ω) et Y (Ω) .

2. Loi de probabilité d’une variable aléatoire


Définition
La loi de probabilité d’une variable aléatoire X (ou distribution de X), est le mode de
répartition de la probabilité de X sur l’ensemble des observables.
Plus précisément :
Soit X une variable aléatoire sur un espace probabilisé (Ω℘ , (Ω), P) . On appelle loi de
probabilité de X, l’ensemble des couples (xi, P(X=xi)) avec x i ∈ X (Ω)

11
Autrement dit :
Lorsqu’à chaque valeur ai prise par une variable aléatoire X, on associe la probabilité pi de
l’évènement (X = ai), on dit que l’on définit la loi de probabilité de X.

Exemple
Déterminons la loi de probabilité de la variable aléatoire X définie dans l’exemple précédent.

3. Fonction de répartition d’une variable aléatoire


x est un nombre quelconque. Pour une variable aléatoire X, on note (X ≤ x) l’évènement « X
prend des valeurs inférieures ou égales à x ».

Définition
Soit X une variable aléatoire sur un espace probabilisé (Ω℘ , (Ω), P) . On appelle fonction de
répartition de X, la fonction F définie de R dans R par 𝐹 𝑥 = 𝑃(𝑋 ≤ 𝑥).

Dans le cas d’une variable aléatoire discrète, lorsque nous classons les 𝑥! par ordre croissant
(𝑥!!! > 𝑥! , ∀𝑖), nous pouvons écrire :
𝐹(𝑥! ) = 𝑃 𝑋 ≤ 𝑥! = 𝑃(𝑋 = 𝑥! 𝑜𝑢 𝑋 = 𝑥! … 𝑜𝑢 𝑋 = 𝑥! )
Cela donne donc :
!

𝐹(𝑥! ) = 𝑃(𝑋 = 𝑥! )
!!!
Par conséquent :
𝑃 𝑋 = 𝑥! = 𝐹(𝑥!!! ) − 𝐹(𝑥! )
Une loi de probabilité est donc entièrement définie par sa fonction de répartition

Propriétés
• 𝑃 𝑎 < 𝑋 ≤ 𝑏 = 𝐹 𝑏 − 𝐹 𝑎 , ∀𝑎 ≤ 𝑏
• F est une fonction croissante
• F ( x) ∈ [0,1]
• lim F ( x) = 0 et lim F ( x) = 1
x →− ∞ x →+ ∞

Exemple
Déterminons la fonction de répartition de la variable aléatoire X définie dans l’exemple
précédent.

4. Caractéristiques usuelles d’une variable aléatoire


a) Espérance mathématique
Définition
Soit X une variable aléatoire sur un espace probabilisé (Ω℘
, (Ω), P) telle que
𝑋 Ω = 𝑥! , 𝑖𝜖𝐼 . On appelle espérance mathématique de X (si elle existe) le réel
𝐸 𝑋 = 𝑥! 𝑃(𝑋 = 𝑥! )
!"#
Lorsque X ne peut prendre qu’un nombre fini de valeurs, l’espérance de X est donc la
moyenne arithmétique des valeurs de X pondérées par leurs probabilités. E(X) est donc un
paramètre de position (ou de tendance centrale) de X.

12
Si la variable aléatoire X définit le gain d’une personne dans un jeu de hasard, E(X)
représente le gain moyen au cours du jeu :
- Si E(X)>0, on a plus de chances de gagner que de perdre;
- E(X=0), le jeu est équitable ;
- Si E(X)<0, on a plus de chances de perdre que de gagner.

Propriétés
Soient X et Y deux variables aléatoires, a et b deux réels. Si les espérances mathématiques de
X et Y (E(X) et E(Y)) existent alors elles vérifient :
• E(a)=a
• E(aX+b)=aE(X)+b
• E(X+Y)=E(X)+E(Y)
• E(X-Y)=E(X)-E(Y)
• E(XY)=E(X)E(Y) si X et Y sont des variables aléatoires indépendantes.

b) Variance
Définition
Soit X une variable aléatoire sur un espace probabilisé (Ω℘
, (Ω), P) telle que
𝑋 Ω = 𝑥! , 𝑖𝜖𝐼 . On appelle variance de X (si elle existe) le réel positif
𝑉 𝑋 = 𝑥! − 𝐸(𝑋) ! 𝑃(𝑋 = 𝑥! )
!"#
!
La variance de X est donc l’espérance de la variable aléatoire 𝑋 − 𝐸(𝑋) :
𝑉 𝑋 = 𝐸 𝑋 − 𝐸(𝑋) !

Propriétés
Pour toute variable aléatoire X,
2 2
• V ( X ) = E( X ) − E( X )
Cette formule est connue sous le nom de « théorème de König ».

Soient X et Y deux variables aléatoires, a et b deux réels. Si V(X) et V(Y) existent alors elles
vérifient :
• V(a)=0
• V(aX+b)=a2V(X)
• V(X+Y)=V(X)+V(Y) si X et Y sont indépendantes
• V(X-Y)=V(X)+V(Y) si X et Y sont indépendantes

Ecart type
On appelle écart type d’une variable aléatoire X, le réel positif σ ( X ) = V ( X ) .

Exemple
Soit X une variable aléatoire discrète définie par :
xi -2 -1 0 1 2
pi 1/8 1/4 1/5 1/8 3/10
Calculons E(X), V(X) et σ ( X ) .

c) Variable centrée réduite associée à X


Soit X une variable aléatoire d’espérance m et d’écart type 𝜎.

13
La variable aléatoire 𝑋! définie par : 𝑋! = 𝑋 − 𝑚 est appelée variable centrée associée à X.
Son espérance est nulle.
!
La variable aléatoire 𝑋! définie par : 𝑋! = ! est appelée variable réduite associée à X. son
écart type vaut 1.
!!!
La variable aléatoire 𝑇 définie par : 𝑇 = ! est appelée variable centrée réduite associée à
X. Son espérance est nulle et son écart type vaut 1.

B. CAS CONTINU
1. Définition d’une variable aléatoire continue
Soit X une variable aléatoire définie sur un univers Ω . X est dite continue si X ( Ω ) est un
intervalle ou une réunion d’intervalles.

2. Fonction densité de probabilité


Définition
Soit f une fonction définie sur R. f est une fonction densité de probabilité si on a :
(i) ∀ 𝑥 ∈ 𝑅, 𝑓(𝑥) ≥ 0 (sauf éventuellement en un nombre fini de points)
!!
(ii) !! 𝑓 𝑥 𝑑𝑥 = 1

Remarque
Soit X une variable aléatoire continue, de fonction densité f définie sur R. Alors :
• 𝑃 𝑋 = 𝑎 = 0 ∀𝑎 ∈ 𝑅
!
• 𝑃 𝑎 < 𝑋 < 𝑏 = 𝑃 𝑎 ≤ 𝑋 < 𝑏 = 𝑃 𝑎 < 𝑋 ≤ 𝑏 = 𝑃 𝑎 ≤ 𝑋 ≤ 𝑏 = ! 𝑓 𝑥 𝑑𝑥
!
• 𝑃 𝑋≤𝑎 =𝑃 𝑋<𝑎 = !!
𝑓 𝑥 𝑑𝑥 ∀𝑎 ∈ 𝑅
!!
• 𝑃 𝑋≥𝑎 =𝑃 𝑋>𝑎 = !
𝑓 𝑥 𝑑𝑥 ∀𝑎 ∈ 𝑅

Exemple
Soit f la fonction définie par :
0 𝑠𝑖 𝑥 ≤ −1
𝑥+1 𝑠𝑖 − 1 < 𝑥 ≤ 0
𝑓 𝑥 =
1−𝑥 𝑠𝑖 0 < 𝑥 ≤ 1
0 𝑠𝑖 𝑥 > 1
a) Montrons que f est une fonction densité de probabilité.
b) Soit X la variable aléatoire dont f est la fonction densité de probabilité, calculons
! !! !
𝑃 𝑋 ≤ ! et 𝑃 ! < 𝑋 ≤ !

3. Fonction de répartition
Définition
Soit X une variable aléatoire continue de fonction densité f. On appelle fonction de
répartition de X, la fonction F définie sur R par :
!

∀𝑥 ∈𝑅, 𝐹 𝑥 =𝑃 𝑋≤𝑥 = 𝑓 𝑡 𝑑𝑡
!!

Remarque
• F est une fonction continue
• F est dérivable en tout point où f est continue

14
• f(x)=F’(x) si F est dérivable
• P(X>a)=1-F(a)
• P(a<X<b)=F(b)-F(a)

Premier exemple
Reprenant l’exemple du paragraphe précédant, déterminons la fonction de répartition de X
! !! !
puis calculons 𝑃 𝑋 ≤ ! et 𝑃 ! < 𝑋 ≤ ! .

Deuxième exemple
Soit X une variable aléatoire, à valeurs dans ℝ , de fonction de répartition FX définie par :

0 𝑠𝑖 𝑥 ≤ 0
1
𝐹! 𝑥 = 𝑥 𝑠𝑖 0 < 𝑥 ≤ 2
2
1 𝑠𝑖 𝑥 > 2

Déterminons la fonction densité de probabilité de X.

4. Caractéristiques d’une variable aléatoire continue


a) Mode
On appelle mode de la variable aléatoire X, ou de la distribution de X, une valeur réelle x
pour laquelle la densité de probabilité de X présente un maximum. Les distributions à densité
usuelles sont, en général, unimodales.

b) Espérance mathématique
Définition
On appelle espérance mathématique de la variable aléatoire X, et on note E(X) ou µX le
nombre réel, s’il existe, défini par :
+∞
E ( X ) = µ X = ∫ xf ( x)dx
−∞

L’existence de E(X) est liée à la convergence de l’intégrale.

Premier exemple
Reprenant l’exemple du paragraphe 2, calculons E(X).

Deuxième exemple
Soit X une variable aléatoire de densité de probabilité :
1
𝑓 𝑥 = , ∀𝑥 ∈𝑅
𝜋(1 + 𝑥 ! )
On dit que X suit une loi de Cauchy.
La variable aléatoire X n’a pas d’espérance mathématique car l’intégrale diverge. E(X)
n’existe donc pas.

c) Moment d’ordre k
On appelle moment d’ordre k (entier naturel) de la variable aléatoire X, et on note E(Xk), le
nombre réel s’il existe, défini par :
+∞
E ( X k ) = ∫ x k f ( x)dx
−∞

15
d) Variance
Définition
On appelle variance de la variable aléeatoire X, et on note V(X), le nombre réel positif, s’il
existe, défini par :
!!
!
𝑉 𝑋 = 𝑥−𝐸 𝑋 𝑓 𝑥 𝑑𝑥
!!
Une valeur élevée de la variance signifie que les valeurs éloignées de l’espérance ont une
forte densité de probabilité. Une faible valeur de la variance signifie que les valeurs de forte
densité de probabilité sont situées près de l’espérance. La variance est donc un paramètre de
dispersion autour de l’espérance.

e) Ecart-type
Définition
On appelle écart-type de X la racine carrée de sa variance. On le note σ ( X ) . Un écart-type
est donc un réel positif ; il s’agit d’un indice de dispersion qui présente l’avantage d’avoir la
même unité que les observables.

f) Médiane
Définition
On appelle médiane d’une variable aléatoire X, à valeurs dans R et de distribution continue,
un nombre 𝑚! vérifiant la propriété :
1
𝑃 𝑋 ≥ 𝑚! = 𝑃 𝑋 ≤ 𝑚! =
2
Pour les distributions à densité usuelles la médiane est unique.

16
Chapitre 3
Les lois usuelles
____________________________________________

Les lois usuelles (discrètes ou continues) sont des modèles théoriques qui permettent d’avoir
une meilleure approximation du phénomène aléatoire étudié en ce sens quelles le décrivent
assez bien. La modélisation d’un phénomène aléatoire par une loi de probabilité théorique est
plus riche que la représentation par une variable statistique car on peut calculer la probabilité
de tous les évènements associés au phénomène aléatoire étudié.

I. LOIS USUELLES DISCRETES


1.1. Loi de Bernoulli ou variable indicatrice
Jacques Bernoulli (1654-1705)
Définition
On réalise une expérience aléatoire qui n’a que deux résultats possibles : le succès S de
probabilité p et l’échec E de probabilité 1-p. La variable aléatoire associée à cette expérience
aléatoire est appelée variable aléatoire de Bernoulli et est définie par :
1 𝑠𝑖 𝑠𝑢𝑐𝑐è𝑠
𝑋=
0 𝑠𝑖 é𝑐ℎ𝑒𝑐
La loi de probabilité de la variable aléatoire de Bernoulli est appelée loi de Bernoulli.

Caractéristiques
Lorsqu’une variable aléatoire X suit une loi de Bernoulli, alors son espérance mathématique
et sa variance vérifient E(X)=p et V(X)=p(1-p).

1.2. Loi binomiale


Définition
On réalise n fois successivement d’une manière indépendante une épreuve aléatoire qui a
deux résultats possibles : le succès S de probabilité p et l’échec E de probabilité 1-p. Soit X la
variable aléatoire comptant le nombre de succès obtenu. X est dite variable aléatoire
binomiale, de paramètres n, p. on a :
𝑃 𝑋 = 𝑘 = 𝐶!! 𝑝! (1 − 𝑝)!!! ; 𝑘 = 0, 1,2, … , 𝑛
On note ℒ 𝑋 = 𝐵(𝑛, 𝑝).

Caractéristiques
Soit X une variable aléatoire qui suit une loi binomiale de paramètres n, p. Alors l’espérance
mathématique et la variance de X vérifient E(X)=np et V(X)=np(1-p).

Il s’agit en fait de la somme de n variables aléatoires indépendantes qui suivent une loi de
Bernoulli de même paramètre p.

Propriété
Somme de deux lois binomiales. Soient deux variables aléatoires indépendantes : X 1 qui suit
B(n1 , p ), et X 2 qui suit B(n2 , p ) . Alors la variable aléatoire X définie par X = X1 + X 2 suit une
loi B(n1 + n2 , p) .

17
1.3. Loi de Poisson
Denis Poisson (1781-1840) magistrat français du 19ème siècle
Définition
On dit qu’une variable aléatoire X, à valeurs dans R suit une loi de Poisson de paramètre
positif λ si la loi de probabilité de X est définie par :
𝜆! 𝑒 !!
𝑃 𝑋=𝑘 = ; 𝑘𝜖ℕ
𝑘!
On note ℒ 𝑋 = 𝒫! .

Remarque
La loi de Poisson est parfois appelée loi des petites probabilités ou encore loi des
« phénomènes rares » et se rencontre souvent pour des phénomènes accidentels. Citons par
exemple :
- nombre de pièces défectueuses dans un lot ;
- nombre d’erreurs dans une comptabilité, une page,…
- le nombre de pannes d’une machine dans une centrale électrique,
- le nombre de triplets, de quadruplets par an dans un pays donné.

Caractéristiques
Si une variable aléatoire X suit une loi de Poisson de paramètre λ alors son espérance
mathématique et sa variance vérifient :
E(X)= λ et V(X)= λ .

Propriété
Somme de deux lois de poisson. Soient X 1 et X 2 deux variables aléatoires indépendantes
suivant respectivement les lois P(λ1 ) et P(λ 2 ). La variable aléatoire Z = X1 + X 2 suit une loi
P(λ1 + λ 2 ) .

Approximation de la loi binomiale par la loi de Poisson


La loi Binomiale dépend de deux paramètres, ce qui est lourd à manipuler. De plus, il est
fréquent que le paramètre n soit grand et p petit. Dans ce contexte, on montre qu’on peut
approcher la loi 𝐵 𝑛, 𝑝 par 𝒫!" sous réserve que 𝑛 ≥ 50, 𝑝 < 0,1 (𝑛𝑝 < 5).
On peut écrire :
ℒ 𝑋 = 𝐵 𝑛, 𝑝
𝑛 ≥ 50 ⇒ ℒ 𝑋 ≅ 𝒫!"
𝑝 < 0,1
Ces conditions ne sont pas « rigides ». Plus n est grand et p petit (np restant de l’ordre de
quelques unités), meilleure sera l’approximation.

L’intérêt d’utiliser une telle approximation est :


- de remplacer une loi à 2 paramètres par une loi à un seul paramètre ;
- de simplifier les calculer numériques.
Remarquons qu’il ne faut pas, lorsque l’on utilise une approximation, donner les résultats
avec une trop grande précision.

Exemple
Lors d’un sondage portant sur un grand nombre d’individus, 2% des personnes interrogées
acceptent de ne pas rester anonyme. Un des sondeurs a interrogé 250 personnes.
Après avoir réalisé une approximation par la loi de Poisson, calculer la probabilité que :

18
a) Ces 250 personnes souhaitent rester anonymes,
b) Trois personnes acceptent de ne pas rester anonymes,
c) Au moins deux personnes acceptent de ne pas rester anonymes.

1.4. Loi uniforme discrète


Définition
Soit une expérience aléatoire à laquelle est associée une variable aléatoire X dont l’ensemble
des observables contient un nombre fini de valeurs réelles : X (Ω) = {x1 , x2 , x3 , ..., xn }. La loi
1
de probabilité de X est dite uniforme si elle est définie par : P( X = xi ) = , ∀ i ∈ {1, 2, ..., n}
n

Caractéristiques
n +1 n2 − 1
Si X suit la loi uniforme et si X ( Ω) = {1, 2, 3, ... , n} alors E ( X ) = et V ( X ) = .
2 12

Exemple
On jette une fois un dé non truqué. Soit X la variable aléatoire correspondant au numéro
inscrit à la face supérieure du dé. Calculons E(X) et V(X).

1.5. Loi géométrique


Définition
Soit une suite d’expériences aléatoires obéissant aux conditions du schéma de Bernoulli :
a) chaque expérience peut entraîner l’observation d’un évènement ou de son contraire ;
b) la probabilité de E, notée p, (0 < 𝑝 < 1) est la même pour chaque expérience ;
c) le résultat d’une expérience est indépendant des résultats des autres expériences.
On note Ek l’évènement « E se réalise à la kième expérience ».
Si on considère maintenant la variable aléatoire X qui associe à toute suite de résultats le rang
du premier évènement E, on a :
𝑃 𝑋 = 𝑘 = 𝑝(1 − 𝑝)!!! ; 𝑘 ∈ ℕ∗

Caractéristiques
1 1− p
Si X suit une loi géométrique alors E ( X ) = et V ( X ) = 2
p p

II. LOIS USUELLES CONTINUES


2.1. Loi uniforme continue
Définition
Une variable aléatoire X suit une loi uniforme sur [a,b] si sa fonction densité de probabilité
est définie par :
⎧ 1
⎪ si x ∈ [ a, b ]
f ( x) = ⎨ b − a
⎪ 0 si ∉ [ a, b ]

Fonction de répartition
Une variable aléatoire X qui suit la loi uniforme sur [a,b] a pour fonction de répartition F
définie par :

19
0 𝑠𝑖 𝑥 < 𝑎
𝑥−𝑎
𝐹 𝑥 = 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏
𝑏−𝑎
1 𝑠𝑖 𝑥 > 𝑏

Caractéristiques
Une variable aléatoire X qui suit la loi uniforme sur [a,b] a pour espérance mathématique et
variance définies par :

a+b
E(X ) =
2
2

V (X ) =
(b − a )
12

2.2. Loi exponentielle


Définition
On dit qu’une variable aléatoire X, à valeurs dans R suit une loi exponentielle de paramètre
positif 𝜆 si sa densité de probabilité f est définie par :
!!"
𝑓 𝑥 = 𝜆𝑒 𝑠𝑖 𝑥 ≥ 0
0 𝑠𝑖𝑛𝑜𝑛

Fonction de répartition
Une variable aléatoire X qui suit une loi exponentielle de paramètre positif 𝜆 a une fonction
de répartition F définie par :
!!"
𝐹 𝑥 = 1−𝑒 𝑠𝑖 𝑥 ≥ 0
0 𝑠𝑖𝑛𝑜𝑛

Caractéristiques
Une distribution exponentielle a pour :
Mode=0
ln 2
Médiane η =
λ
1
E ( x) =
λ
1
V ( x) =
λ2
La loi exponentielle s’applique en particulier dans les cas suivants :
- temps écoulé entre deux pannes de certains types d’appareils ;
- temps d’attente dans une file d’attente où les arrivées suivent une loi de Poisson
(arrivées poissonniennes) ;
- temps de service après une attente du type précédent ;
- durée de vie de certains types d’éléments (lorsque le futur est indépendant du passé).

2.3. Loi normale (ou loi de Laplace-Gauss)


Pierre-Simon Laplace (1749-1827)
Carl Friedrich Gauss (1777-1855)

Dans toute la suite le 2ème paramètre d'une loi Normale correspond toujours à l’écart-type, et
non pas à la variance.

20
a) Loi normale
Définition
Une variable aléatoire X suit une loi normale de paramètres m et σ si sa fonction densité de
probabilité est définie par :
2
1 ⎛ x−m ⎞
1 − ⎜
σ ⎟⎠
f ( x) = e 2⎝ , x∈°
σ 2π

On dit également que X est une variable aléatoire normale.

Caractéristiques
Le mode, la médiane et l’espérance d’une variable aléatoire normale X ont pour valeur
commune m.
E( X ) = m
V (X ) = σ 2

b) Loi normale centrée réduite


Une variable aléatoire suit la loi normale centrée réduite si elle suit la loi normale de
paramètre 0, 1. Ainsi sa fonction densité est donnée par :
2
1 −2x
f ( x) = e , x∈°

c) Lecture directe de la table de la fonction intégrale de la loi de Laplace-Gauss


(Probabilité d’une valeur inférieure à t)
Soit X une variable aléatoire continue qui suit la loi normale centrée réduite. Désignons par
t
Π sa fonction de répartition. Π (t ) = P( X p t ) = ∫ f ( x)dx .
−∞
La table n°4 donne les valeurs de Π (t ) pour t positif. Lorsque t est négatif il faut prendre le
complément à l’unité de la valeur lue dans la table.

Premier exemple
Donner la valeur de Π(1,37) puis calculer la Π (−1,37) .
Rép. 0,9147 et 0,0853.

Lorsque la valeur de t ne figure pas dans la table alors on procède par interpolation linéaire à
partir des valeurs lues, valeurs correspondant aux deux réels (de la table) encadrant la valeur
de t.

Deuxième exemple
Calculer Π(1,375) .

d) Lecture inverse de la table


Π (t ) étant connu, comment avoir la valeur de t. Pour cela posons p = Π(t ) , alors t = Π −1 ( p)
Si p ≥ 0,5 alors on lit directement dans la table et on a la valeur de t.
Si 𝑝 ≤ 0,5 alors t = − Π −1 (1 − p) .

21
Exemple
Déterminer la valeur de t telle que π (t ) = 0,1.
Déterminer la valeur de t telle que π (t ) = 0,9

Exemple
T est une variable aléatoire continue de loi normale centrée réduite.
Déterminer les probabilités suivantes : P(-1<T<2) et P(-1<T<1).
Déterminer h tel que P(-h<T<h)=0,95.
Exprimer en fonction de Π (t ) : la probabilité de l’évènement ( 𝑇 ≤ 𝑡), puis de l’évènement
( 𝑇 > 𝑡).

e) Cas général
Soit X une variable aléatoire continue qui suit une loi normale de paramètres m, σ . Posons
X −m
Y= . Alors Y est une variable aléatoire continue qui suit la loi normale centrée réduite
σ
!!! !!!
et l’on a : 𝑃 𝑋 ≤ 𝑡 = 𝑃 𝑌 ≤ ! = 𝜋( ! ).
Enfin si
𝑠𝑖 ℒ 𝑋 = 𝒩 𝑚, 𝜎 𝑎𝑙𝑜𝑟𝑠 ℒ 𝑎𝑋 + 𝑏 = 𝒩 𝑎𝑚 + 𝑏, 𝑎𝜎
Autrement dit, le caractère Gaussien est conservé par une combinaison linéaire.

Exemple
Pour un lot important d’ampoules électriques, les durées de vie ont une distribution normale
(gaussienne) de moyenne 1 006 heures et d’écart type 18 heures. Quelle est la probabilité
pour qu’une ampoule prise au hasard dans le lot soit hors d’usage avant 970 heures ?

f) Situation où s’applique la loi normale


Lorsque les valeurs prises par une variable aléatoire X résultent d’un très grand nombre de
causes aléatoires qui s’ajoutent, dont les variations sont petites, mutuellement indépendantes,
et dont aucune ne domine, X suit une loi normale.
Considérons par exemple, la variable aléatoire X qui, à chaque paquet de riz marqué « 1kg »,
associe le poids de riz, mesuré avec précision, effectivement contenu dans ce paquet. Le
poids de riz contenu dans un paquet est la somme des poids (indépendants) des grains de riz
contenu dans ce paquet. Ces grains sont en grand nombre, et chacun d’eux contribue au poids
total, sans qu’aucun ne domine : X suit une loi normale.

2.4. Approximations
a) Approximation de la loi binomiale par la loi normale
Soit X une variable aléatoire qui suit une loi binomiale de paramètres n, p.
Si l’une des conditions suivantes est réalisée :
- n « grand » (𝑛 ≥ 30) et p et q voisins de 0,5 ;
- np>15 et nq>15 ;
- npq>10 ;
- np ≥ 10 et np(1 − p) ≥ 10 ;
alors la loi de X peut être approchée par une loi normale de paramètres
m = np et σ = np(1 − p) . On peut alors écrire : 𝐵 𝑛, 𝑝 ≅ 𝒩 𝑛𝑝, 𝑛𝑝 1 − 𝑝 .
L’approximation est bonne dès que 𝑛 ≥ 30.

22
Exemple
On joue 10 000 fois à pile ou face. Calculer la probabilité pour que le nombre de piles soit
dans l’intervalle [4900, 5100].

b) Approximation de la loi de Poisson par la loi normale


Soit X une variable aléatoire qui suit une loi de Poisson de paramètre λ .
Si λ ≥ 20 alors la loi de Poisson peut être approchée par une loi normale de paramètres
m = λ et σ = λ . On peut écrire :
𝒫! ≅ 𝒩 𝜆, 𝜆 ; 𝑑è𝑠 𝑞𝑢𝑒 𝜆 ≥ 20
L’approximation est bonne dès que 𝜆 > 10.

Exemple
Soit une variable aléatoire X telle que ℒ 𝑋 = 𝒫!"" , (X suit une loi de Poisson de paramètre
100). Evaluer P(90 ≤ X ≤ 100) .

23
Chapitre 4
Couple de variables aléatoires
________________________________________________

1. Notion de couple de variables aléatoires


1.1. Définition
Soit Ω un univers fini ou infini. On appelle couple de variables aléatoires (ou variables
aléatoires simultanées) sur Ω , toute application (X,Y) de Ω vers ℝ! qui, à chaque
éventualité ω fait correspondre un couple de réels ( X (ω), Y (ω) ) .
Autrement, on appelle couple de variables aléatoires, deux variables aléatoires X et Y
définies sur le même univers (issues de la même expérience) à valeurs respectivement dans E
et F.

1.2. Exemple
Considérons l’expérience aléatoire qui consiste à choisir un individu dans une population et à
noter sa taille et son poids. En désignant par X la taille et par Y le poids de l’individu choisi
alors on définit un couple de variables aléatoires.

1.3. Loi de probabilité


La loi de probabilité d’un couple (X, Y ) de variables aléatoires à valeurs dans ℝ! est
l’application qui permet d’associer à tout couple d’intervalles I et J, de ℝ, la probabilité de
l’évènement ( X ∈ I ∩ Y ∈ J ) .

1.4. Fonction de répartition


Définition
Si (X, Y) est un couple de variables aléatoires à valeurs dans ℝ! , il résulte de la définition
d’un tel couple, qu’il existe, en particulier, une fonction F, telle que :
ℝ! → 0,1
𝐹∶
𝑥, 𝑦 ↦ 𝑃 𝑋 ≤ 𝑥 ∩ 𝑌 ≤ 𝑦
Cette fonction s’appelle la fonction de répartition du couple (X, Y).

Propriétés
• F est une fonction croissante au sens large, relativement à chacune des variables x et
y:
𝐹 𝑎, 𝑦 ≤ 𝐹 𝑏, 𝑦 , 𝑠𝑖 𝑎 ≤ 𝑏 , ∀𝑦 ∈ ℝ
𝐹 𝑥, 𝑐 ≤ 𝐹 𝑥, 𝑑 , 𝑠𝑖 𝑐 ≤ 𝑑 , ∀𝑥 ∈ ℝ

• lim F ( x, y) = lim F ( x, y) = P(∅) = 0


x →−∞ y →−∞

lim F ( x, y) = P(Ω) = 1
x , y →+∞

• a ≤ b et c ≤ d, P X ∈ a, b ∩ c, d = F b, d − F a, d − F b, c + F(a, c)

La fonction de répartition F définit complètement la loi de probabilité du couple (X, Y). Elle
permet en effet d’attribuer une probabilité à tout pavé semi-ouvert comme dans le cas des
variables aléatoires à valeurs dans ℝ, l’étude des discontinuités de F permet d’ouvrir, ou de
fermer, ces pavés à volonté.

24
2. Couples de variables discrètes

2.1. Loi de probabilité


La loi de probabilité du couple (X, Y) est parfaitement définie par l’application :
⎪⎧ X (Ω) × Y (Ω) → [0,1]
P:⎨
⎪⎩( xi , y j ) a P( X = xi ∩ Y = y j ) = Pij

On vérifie que :
𝑃!" = 𝑃 Ω = 1
! !
2.2. Exemple
Une urne contient trois boules numérotés 1, 2, 3. On tire successivement et sans remise, deux
boules (tirage exhaustif). On associe à cette expérience un couple (X, Y) de variables
aléatoires discrètes, X représentant le numéro que l’on peut obtenir en premier et Y
représentant le numéro que l’on peut obtenir en second.
On calcule les différentes probabilités en utilisant l’égalité :
P( X = i ∩ Y = j ) = P( X = i ) P(Y = j / X = i )
La loi du couple (X, Y) est donnée par le tableau à double entrée :
X 1 2 3
Y
1 0 1/6 1/6
2 1/6 0 1/6
3 1/6 1/6 0

2.3. Exemple
Si, avec la même urne, on tire, successivement et avec remise, deux boules (tirage non
exhaustif), alors que vaut la loi du couple (X, Y) ?

2.4. Lois marginales


A partir de la loi d’un couple (X, Y), il est possible de déduire la loi de chacune des deux
variables aléatoires X et Y. On dit que ces deux lois de probabilité sont des lois marginales,
ce qui signifie qu’elles ne sont qu’une conséquence de la loi du couple.

La loi de probabilité de X est donnée par l’ensemble des (xi, Pi*) où les probabilités Pi* sont
définies par :
𝑃!∗ = 𝑃!"
!
De même, la loi de probabilité de Y est donnée par l’ensemble des (yj, P*j) où les probabilités
P*j sont définies par :
𝑃∗! = 𝑃!"
!

2.5. Variables aléatoires indépendantes


On dit que les variables aléatoires X et Y sont indépendantes si et seulement si :

25
P( X = xi ∩ Y = y j ) = P( X = xi ) P(Y = y j ) , ∀( xi , y j ) ∈ X (Ω) × Y (Ω)

2.6. Lois conditionnelles


Comme nous l’avons vu, de la loi d’un couple de variables aléatoires, on peut toujours
déduire la loi de chacune des deux variables. Il convient maintenant de s’intéresser à la
liaison entre ces deux variables, c’est-à-dire à la manière dont les observables sont appariées
dans la loi du couple. L’indépendance, ou absence de liaison, décrit une situation particulière;
les lois conditionnelles vont permettre une description plus générale de la liaison entre deux
variables.

Une loi conditionnelle donne, pour une valeur fixée de l’une des variables, la loi de
probabilité de l’autre. On conçoit l’intérêt des lois conditionnelles. Si par exemple, on
s’intéresse à la taille et au poids d’un individu choisi au hasard dans une population donnée, il
est important de pouvoir décrire la distribution de la taille des individus de même poids et de
suivre l’évolution de cette distribution en fonction du poids.

On appelle loi conditionnelle de Y sachant que X a la valeur xi, l’application définit par :
⎧ Y (Ω) → [0,1]

⎨ Pij
⎪ y j a P(Y = y j / X = xi ) = P
⎩ i.
Il existe autant de lois conditionnelles de Y que de valeurs de X de probabilité non nulle.

On peut définir de même, pour tout observable yj, de probabilité non nulle, la loi
conditionnelle de X sachant que Y a la valeur yj, par l’application :
⎧ X (Ω) → [0,1]

⎨ Pij
⎪ xi a P(Y = xi / Y = y j ) = P
⎩ .j

3. Couples de variables aléatoires continues (L2A uniquement)

3.1. Définition
On dit qu’un couple (X, Y) de variables aléatoires à valeurs réelles, est un couple à densité,
s’il existe une fonction numérique de deux variables réelles, g possédant la propriété
suivante : quel que soit le domaine D, de ℝ! ,
P [( X , Y ) ∈ D] = ∫∫ g ( x, y)dxdy
D

On dit, encore, que le couple (X, Y) est de distribution absolument continue. Il est clair que la
loi de probabilité du couple (X, Y) est complètement définie par sa densité g. En particulier,
si F est la fonction de répartition du couple (X, Y), on a :
u v
F (u, v) = P( X p u ∩ Y p v) = ∫ ∫ g ( x, y )dxdy
−∞ −∞

Réciproquement, on peut montrer que, en tout point (x, y) où g est continue, on a :


∂ 2 F ( x, y)
= g ( x, y)
∂x∂y

26
La fonction densité g d’un couple de variables aléatoires à valeurs réelles est, par définition,
une fonction intégrable sur ℝ! . Elle possède les propriétés suivantes, que l’on rapprochera
de celles de la densité d’une variable aléatoire à valeurs dans ℝ.

3.2. Exemple
Soit (X, Y) un couple de variables aléatoires, à valeurs réelles, de densité de probabilité :
⎧( x, y ) a e− x , si ( x, y ) ∈ D
g :⎨
⎩ ( x, y) a 0, si ( x, y) ∉ D
où D = (𝑥, 𝑦) ∈ ℝ! /0 ≤ 𝑦 ≤ 𝑥 .
On vérifie que
g 𝑥, 𝑦 ≥ 0, ∀(𝑥, 𝑦) ∈ ℝ!
et que
!! !! !! !
!!
g 𝑥, 𝑦 𝑑𝑥𝑑𝑦 = 𝑒 𝑑𝑥 𝑑𝑦 = ⋯ = 1
!! !! ! !
On considère l’ensemble ∆= (𝑥, 𝑦) ∈ ℝ! /0 ≤ 𝑥 + 𝑦 ≤ 𝑡 et l’évènement E= (𝑋, 𝑌) ∈ ∆ .
Calculons la probabilité de l’évènement E.
!!
𝑃 𝐸 = 𝑃 𝑋, 𝑌 ∈ ∆ = g 𝑥, 𝑦 𝑑𝑥𝑑𝑦 = 1 − 2𝑒 ! + 𝑒 !!
∆∩!

3.3. Lois marginales


Pour un couple de variables aléatoires à valeurs réelles (X,Y) et de densité de probabilité g,
les lois marginales sont définies par :
+∞
Loi de X, f X : x a ∫ g ( x, y )dy , ∀x ∈ °
−∞
+∞
Loi de Y, fY : y a ∫ g ( x, y)dx , ∀y ∈ °
−∞

3.4. Variables aléatoires indépendantes


Soit (X, Y) un couple de variables aléatoires à valeurs réelles et de densité g. On désigne par
fX la densité de X et par fY la densité de Y.
Les variables aléatoires X et Y sont indépendantes si et seulement si :
g ( x, y) = f X ( x) fY ( y)
L’indépendance de X et de Y implique, en particulier,
∀ 𝑢, 𝑣 ∈ ℝ! , 𝑃 𝑋 ≤𝑢∩𝑌 ≤𝑣 =𝑃 𝑋 ≤𝑢 𝑃 𝑌 ≤𝑣

3.5. Probabilité conditionnelle


Pour tout réel x tel que f X ( x) ≠ 0 , on peut définir une fonction fY|X=x :
g ( x, y )
fY / X = x : y a fY / X = x ( y ) =
f X ( x)
Cette fonction s’appelle la densité conditionnelle de Y sachant que X a la valeur x.

De même, pour tout réel y tel que fY ( y) ≠ 0 , on peut définir une fonction fX|Y =y
g ( x, y )
f X / Y = y : y a f X / Y = y ( x) =
fY ( y )

27
Exercice
On donne
𝑓 𝑥, 𝑦 = 𝑘𝑥𝑦 𝑒𝑡 ∆= (𝑥, 𝑦) ∈ ℝ! /𝑥 ≥ 0, 𝑦 ≥ 0, 𝑥 + 𝑦 ≤ 1 .
Déterminer k pour que f soit une fonction densité.
Déterminer les lois marginales et conditionnelles de X et Y.

++++++++++++++++++++++++++++++++++++

Bibliographie :
- Avner Bar-Hen, Probabilités et Statistiques, Cours de DEUG, Université Aix-Marseille
III, 2002–2003

- Bernard GOLDFARD, Cathérine PARDOUX : introduction à la méthode statistique,


1995.

- Epreuve 5 du DECF,annales corrigées,2000,2001,2002

- Fodiyé Bakary DOUCOURE : statistiques et probabilités pour économistes et


gestionnaires. Tome 2, éditions ARIMA.

- Hubert Carnec, René Seroux, Jean Michel Dagoury, Marc Thomas : Itinéraires en
statistique et probabilités, Ellipses,Paris 2000

- Michèle Avnel, Jean-François Riffault : mathématiques appliquées à la gestion. Manuel-


Synthèses-Exercices. Collection LMD Référence.

- Rachid ZOUHHAD, Jean Laurent VIVANT ,François BOUFFARD DCEF


Mathématiques appliquées 1996

- Walder MASIERI, Statistique et calcul de probabilité, cours, Paris 2003

- Walder MASIERI, Statistique et calcul de probabilité, travaux pratiques, Paris 2003

28

Vous aimerez peut-être aussi