Cours + Exo Corrigés - PDF (Abdi) PDF
Cours + Exo Corrigés - PDF (Abdi) PDF
Cours + Exo Corrigés - PDF (Abdi) PDF
Inférence Statistique I
Description des programmes
1. Distributions d’échantillonnage
2. Estimation paramétrique
2.1. Introduction
2.2. Estimation ponctuelle
a. Définition
b. Qualités d’un estimateur
c. Quelques méthodes de construction d’un estimateur
ponctuel (méthode des moments, méthodes des moindres
carrées, méthode du maximum de vraisemblance)
4. Tests de khi-deux
4.1. Test d'ajustement
4.2. Test d'indépendance
4.3. Test d’homogénéité
Références Bibliographiques
1. David V. Huntsberger et P. Billingsley. Elements of Statistical Inference.
4th Edition. Allyn and Bacon, Inc.
2. Gérald Baillargeon. Introduction à l'Inférence Statistique. 2ème edition.
Les édistions SMG, 1982.
3. Hogg R. V. and A.T. Craig. Introduction to mathematical Statistics. 5 th
ed, Printice Hall, NJ, 1997.
4. Hogg R. V. and E. A. Tanis. Probability and Statistical Inference. Sixth
edition, Prentice Hall, NJ, 1997.
5. Pascal Kaufmann. Statistique. Dunod, Paris, 1994.
6. LARSEN R. J. and M. L. MARX; An Introduction to mathematical statistics
and its applications. Second edition, Printice-Hall NJ., 1986.
7. T. Wonnacott et R. Wonnacott. Statistique. 4ème édition. Economica
1. Echantillonnage
2. Estimation
3. Tests
4. Idée générale pour la résolution de ces 3 problématiques
Chap 1 :
I. Echantillonnage
Le but est de déduire les informations sur la population concerné (taille 𝑁) par
l’étude statistique à travers celle d’un échantillon (taille 𝑛) qui en est extrait.
Pour une étude statistique donnée, une fois la population (taille 𝑁) cible choisit,
il faut en extraire un échantillon (taille 𝑛) qui reproduit le plus fidèlement
possible les caractères étudiés de la population.
La théorie des sondages est une discipline statistique qui répond à cette
problématique :
Soient :
Exemples :
a. (Ρθ = 𝒩(𝜇, 𝜎 2 ))θ= (𝜇,𝜎2)∈ℝxℝ∗
+
𝑋2 , … , 𝑋𝑛 , 𝑇 = 𝑇(𝑋1 , 𝑋2 , … , 𝑋𝑛 ).
𝑒𝑚𝑝é𝑟𝑖𝑞𝑢𝑒
1
h. 𝑇(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) = ∑𝑛1 (𝑋𝑖 )𝑘 𝑚𝑜𝑚𝑒𝑛𝑡 𝑒𝑚𝑝é𝑟𝑖𝑞𝑢𝑒 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒 𝑘
𝑛−1
1
i. 𝑇(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) = ∑𝑛1 (𝑋𝑖 − 𝑋̅)𝑘 𝑚𝑜𝑚𝑒𝑛𝑡 𝑒𝑚𝑝𝑖𝑟𝑖𝑞𝑢𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒
𝑛−1
𝑑 ′ 𝑜𝑟𝑑𝑟𝑒 𝑘
j. 𝑇(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) = (𝑋̅ , 𝑆 2 )
̅ et 𝑺𝟐
A. Propriétés des statistiques 𝑿
𝜇3 𝜇4 + 3 (𝑛−1) 𝜎 4
𝑏. 𝜇3 (𝑋̅) = et 𝜇4 (𝑋̅) =
𝑛2 𝑛3
𝑛−1
𝑐. 𝐸(𝑆 2 ) = 𝜎2 ; 𝐸(𝑆 ′ 2 ) = 𝜎 2 ;
𝑛
𝑛−1
𝑉(𝑆 2 ) = 3
[(𝑛 − 1)𝜇4 − (𝑛 − 3) 𝜎 4 ]
𝑛
1
𝑉(𝑆 ′ 2 ) = [(𝑛 − 1)𝜇4 − (𝑛 − 3) 𝜎 4 ]
𝑛(𝑛 − 1)
1
𝑉(𝑆 2 ) ≈ 𝑉(𝑆 ′ 2 ) ≈ [𝜇 − 𝜎 4 ] 𝑝𝑜𝑢𝑟 𝑛 𝑎𝑠𝑠𝑒𝑧 𝑔𝑟𝑎𝑛𝑑
𝑛 4
̅ ) et d’aplatissement 𝛾 (𝑋
d. Les coefficients d’asymétrie 𝛾1 (𝑋 ̅ ) de 𝑋̅ sont
2
donnés par :
̅
𝑋−𝑚 3
𝛾 (𝑋) 𝑋−𝑚̅ 4 𝛾2 (𝑋)−3
𝛾1 (𝑋̅) = 𝐸 (( ) ) = 1 et 𝛾2 (𝑋̅) = 𝐸 (( ) )= 3+
𝜎 𝑛 √ 𝜎 𝑛
2. Covariance entre 𝑋̅ et 𝑆 2
𝑛−1 2 𝑛−1
̅ , 𝑆 2 ) = 𝐸 [(𝑋̅ − 𝑚) (𝑆 2 −
cov(X 𝜎 )] = 𝜇3
𝑛 𝑛2
3. Loi des grands nombres
𝑝𝑠 𝑝𝑠
𝑋̅ → 𝑚 et 𝑆2 → 𝜎2
4. Convergence en loi
(𝑋̅−𝑚) ℒ
𝑎. √𝑛 → 𝒩(0,1)
𝜎
𝑛−1 2
𝑆2 − 𝜎 ℒ
𝑏. 𝑛 → 𝒩(0,1)
√𝑉(𝑆 2 )
de plus avec l’approximation on a :
2)
1 (𝑆 2 − 𝜎 2 ) ℒ
𝑉(𝑆 ≈ [𝜇4 − 𝜎 4 ] 𝑒𝑡 √𝑛 → 𝒩(0,1)
𝑛 √𝜇4 − 𝜎 4
Remarques :
a. La démonstration peut se faire dans le cas de variables aléatoires continues soit
par calcul directe, soit en utilisant les dérivées successives (lorsqu’elles existent)
de la fonction génératrice de 𝑋̅ au point 𝑡 = 0. Les relations montrées dans le
cours de probabilité
𝑛
𝑡 𝑑𝑘 𝜑𝑋 (𝑡) (𝑘)
𝜑𝑋̅ (𝑡) = 𝐸(𝑒 𝑡𝑋̅ ) = ( 𝜑𝑋 ( )) 𝐸 (𝑋 𝑘 ) = ⁄𝑡 = 0 = 𝜑𝑋 (0).
𝑛 𝑑 𝑡𝑘
a. 𝝈𝟐 𝒄𝒐𝒏𝒏𝒖
(𝑋̅−𝑚)
Si on décide que 𝑃 (|√𝑛 | < 𝐶𝛼 ) = 𝑃(|𝒩(0,1)| < 𝐶𝛼 ) = 1 − α alors
𝜎
on aura :
𝜎 𝜎
𝑚 ∈ ]𝑋̅ − 𝜙1−α , 𝑋̅ + 𝜙1−α [
√𝑛 2 √𝑛 2
b. 𝝈𝟐 𝒊𝒏𝒄𝒐𝒏𝒏𝒖
(𝑋̅−𝑚)
Si 𝑃 (|√𝑛 | < 𝐶𝛼 ) = 𝑃(|𝒩(0,1)| < 𝐶𝛼 ) = 1 − α alors on aura :
𝑆
𝑆 𝑆
𝑚 ∈ ]𝑋̅ − 𝜙1−α , 𝑋̅ + 𝜙1−α [
√𝑛 2 √𝑛 2
(𝑋̅−𝑚)
Pour cela si on choisit un 𝛼 assez petit de sorte que 𝑃 (|√𝑛 | < 𝐶𝛼 )
𝜎
𝜎 𝜎 𝑆
0n doit comprendre les intervalles ]𝑋̅ − 𝐶𝛼 , 𝑋̅ + 𝐶𝛼 [ et ]𝑋̅ − 𝐶𝛼 , 𝑋̅ +
√𝑛 √𝑛 √𝑛
𝑆
𝐶𝛼 [ comme des intervalles aléatoires qui ont une probabilité de 1 − α de contenir
√𝑛
Population Échantillons
Paramètres et 100 % 20 % 40 % 80 %
statistiques
Population Échantillons
Paramètres et 100 % 20 % 20 % 20 %
statistiques
562385 5147 2457 1579
Individus 1433579
2578641
I. Cas où 𝑿 ↝ 𝓝(𝒎, 𝝈𝟐 )
1 1 𝑥−𝑚 2
𝑓𝑋 (𝑥) = 𝜎√2𝜋 𝑒𝑥𝑝 (− 2 ( ) ) 𝑥𝜖ℝ
𝜎
𝑥
Pas de forme analytique explicite de la f.r de 𝑋 donnée par 𝐹𝑋 (𝑥) = ∫−∞ 𝑓𝑋 (𝑡)𝑑𝑡
𝐸(𝑋) = 𝑚 et 𝑉(𝑋) = 𝜎 2
𝑡2 𝜎2
( + 𝑡𝑚)
La fonction génératrice est donnée par : 𝑀𝑋 (𝑡) = 𝑒 2 𝑡𝜖ℝ
𝑥 𝑥 1 1
Pour 𝑋 ↝ 𝒩(0,1) on notera 𝜙 sa f.r : 𝜙(𝑥) = ∫−∞ 𝑓𝑋 (𝑡)𝑑𝑡 = ∫−∞ 𝑒𝑥𝑝 (− 2 𝑡 2 ) 𝑑𝑡
√2𝜋
𝑡2
La fonction génératrice est donnée par ∶ 𝑀𝑋 (𝑡) = 𝑒 2 𝑡𝜖ℝ
Remarques :
1 1
𝑓𝑍 (𝑧) = 𝑒𝑥𝑝 (− 𝑧 2 ) ∀𝑧𝜖ℝ
√2𝜋 2
1
𝑠𝑖 𝑥𝜖[𝑎 , 𝑏]
1 𝑏 − 𝑎
𝑓𝑋 (𝑥) = 𝕝[𝑎 ,𝑏] (𝑥) =
𝑏 − 𝑎
0 𝑠𝑖 𝑥 ∉ [𝑎 , 𝑏]
{
1 𝑠𝑖 𝑥 ≥ 𝑏
𝑥−𝑎
𝐹𝑋 (𝑥) = { 𝑠𝑖 𝑥𝜖[𝑎 , 𝑏]
𝑏−𝑎
0 𝑠𝑖 𝑥 ≤ 𝑎
𝑏−𝑎 (𝑏−𝑎)2 𝑏 𝑘+1 −𝑎𝑘+1
𝐸(𝑋) = 𝑉(𝑋) = 𝐸(𝑋 𝑘 ) = (𝑏−𝑎)
2 12
𝑒 𝑡𝑏 − 𝑒 𝑡𝑎
𝑠𝑖 𝑡 ≠ 0
𝑀𝑋 (𝑡) = (𝑏 − 𝑎) 𝑡
{ 1 𝑠𝑖 𝑡 = 0
+∞
où Γ(𝑎) = ∫0 𝑥 𝑎−1 𝑒𝑥𝑝(−𝑥) 𝑑𝑥
𝑎 𝑎
𝐸(𝑋) = 𝑏 et 𝑉(𝑋) = 𝑏2
𝑏𝑎
𝑀𝑋 (𝑡) = 𝑡<𝑏
(𝑏 − 𝑡)𝑎
𝑛 1
Définition 4 : Pour 𝑛 ∈ ℕ∗ , la loi 𝐺(2 , 2) est appelée loi khi-deux à 𝒏 degrés de
libertés elle est notée 𝒳𝑛2 et on a ;
𝑛
1 1
𝑓𝑋 (𝑥) = 𝑛
𝑛
𝑥 ( 2 −1) 𝑒𝑥𝑝 (− 2 𝑥) 𝑥 𝜖 ℝ+
22 Γ( )
2
𝐸(𝑋) = 𝑛 et 𝑉(𝑋) = 2𝑛
1 1
𝑀𝑋 (𝑡) = 𝑛 𝑡<2
(1 − 2𝑡) 2
Définition 5 : Pour 𝜆 ∈ ℝ∗+ , la loi 𝐺(1 , 𝜆) est appelée loi exponentielle de paramètre 𝜆
𝑓𝑋 (𝑥) = 𝜆 𝑒𝑥𝑝(−𝜆𝑥) ∀ 𝑥 𝜖 ℝ+
1 1
𝐸(𝑋) = 𝜆 et 𝑉(𝑋) = 𝜆2
𝜆
𝑀𝑋 (𝑡) = (𝜆−𝑡)𝑎
𝑡 <𝜆
𝑋 𝑋
𝑇𝑛 = = √𝑛
√𝑌
√𝑌⁄𝑛
est appelé loi de Student à 𝑛 degrés de liberté et elle est notée 𝑇𝑛 ; 𝑡𝑛 ou 𝑡(𝑛).
𝑛+1 −
𝑛+1
Γ( 2 )
1 𝑥2 2
𝑓𝑇𝑛 (𝑥) = (1 + ) 𝑥𝜖ℝ
√𝑛𝜋 Γ (𝑛) 𝑛
2
𝑛
𝐸(𝑇𝑛 ) = 0 pour 𝑛 > 1 et 𝑉(𝑇𝑛 ) = 𝑛−2 pour 𝑛 > 2
𝑝 2𝑝2 (𝑛+𝑝−2)
𝐸(ℱ𝑛,𝑝 ) = pour 𝑝 > 2 et 𝑉(ℱ𝑛,𝑝 ) = pour 𝑝 > 4
𝑝−2 𝑛(𝑝−2)2 (𝑝−4)
Conséquences :
1
a. La v.a.r. ↝ ℱ𝑝,𝑛
ℱ𝑛,𝑝
b. La v.a.r. (𝑇𝑛 )2 ↝ ℱ1,𝑛
1
2
‖Π𝑖 (𝑋)‖22 ↝ 𝒳𝑟2𝑖 𝑖 = 1; 𝑝
𝜎
:
Soit (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) un 𝑛 − échantillon de 𝑋 ↝ 𝒩(𝑚, 𝜎 2 )
𝜎2
𝑎. 𝑋̅ ↝ 𝒩 (𝑚, )
𝑛
𝑏. 𝑋̅ et 𝑆 2 sont indépendants
(𝑛 − 1) 𝑆 ′2 𝑛 𝑆 2 2
𝑐. 2
= 2 ↝ 𝒳𝑛−1
𝜎 𝜎
(𝑋̅ − 𝑚) (𝑋̅ − 𝑚)
√𝑛 − 1 = √𝑛 ↝ 𝑇𝑛−1
𝑆 𝑆′
Démonstration :
a. Si 𝝈𝟐 𝒄𝒐𝒏𝒏𝒖
(𝑋̅−𝑌̅)−(𝑚1 −𝑚2 )
1 1
↝ 𝒩(0 , 1)
𝜎√ +
𝑛1 𝑛2
b. Si 𝝈𝟐 𝒊𝒏𝒄𝒐𝒏𝒏𝒖
′2
𝑛1 + 𝑛2
2. 𝑆𝑋𝑌 = 𝑆2
𝑛1 + 𝑛2 − 2 𝑋𝑌
′2 )
Alors on a : 𝑖. 𝐸(𝑆𝑋𝑌 = 𝜎2
2
(𝑛1 + 𝑛2 )𝑆𝑋𝑌 ′2
(𝑛1 + 𝑛2 − 2)𝑆𝑋𝑌 2
𝑖𝑖. 2
= 2
↝ 𝒳(𝑛 1 +𝑛2 −2)
𝜎 𝜎
(𝑋̅−𝑌̅ )−( 𝑚1 − 𝑚2 )
↝ 𝒩(0 , 1)
𝜎2 𝜎2
√ 1+ 2
𝑛1 𝑛2
Démonstration : on a :
𝜎 2 𝜎 2
𝑋̅ ↝ 𝒩 (𝑚1 , 1 ) et 𝑌̅ ↝ 𝒩 (𝑚2 , 2 ) de plus 𝑋̅ et 𝑌̅ sont indépendant
𝑛1 𝑛2
𝜎 𝜎 2 2 (𝑋̅−𝑌̅ )−( 𝑚1 − 𝑚2 )
⇒ (𝑋̅ − 𝑌̅ ) ↝ 𝒩 ( 𝑚1 − 𝑚2 , 1 + 2 ) ⇒ ↝ 𝒩(0 , 1)
𝑛1 𝑛2
𝜎2 𝜎2
√ 1+ 2
𝑛1 𝑛2
Dans le cas où 𝜎12 = 𝜎22 la statistique précédente ne dépend plus des variances
des deux échantillons et on a :
Et si de plus 𝑛1 = 𝑛2 = 𝑛 on a :
𝑆𝑋′2 𝑆𝑋2
= ↝ ℱ(𝑛−1) ,(𝑛−1)
𝑆𝑌′2 𝑆𝑌2
Démonstration :
Exemple :
a. Dans une usine, une machine sous contrôle fabrique des pièces avec un
poids 𝑋 qui suit une loi normale 𝒩(10 , (0,1)2 ).
d. On suppose que dans la même usine une seconde machine produit les mêmes
𝑌 de taille 𝑛2 .
Réponse :
−0,3 𝑋 − 10 0,3 𝑋 − 10
1. 𝑃(9,7 < 𝑋 < 10,3) = 𝑃 ( < < ) = 2𝑃( < 3) − 1
0,1 0,1 0,1 0,1
Cela signifie que lorsque la machine est contrôlée, on doit s’attendre à ce que 0,9962
des pièces ait un poids entre 9,7 g et 10,3 g.
−0,3 𝑋̅ − 10 0,3
2. 𝑖. 𝑃(9,7 < 𝑋̅ < 10,3) = 𝑃 ( <
√16 √16 ( )< √16)
0,1 0,1 0,1
= 2 (𝑃 (𝒩 (0 , 1) < 12)) − 1 = 1
𝑋 −10 0,5 ̅
𝑖𝑖. 𝑃(𝑋̅ > 10,5) = 1 − 𝑃(𝑋̅ < 10,5) = 1 − 𝑃 (√16 ( ) < √16)
0,1 0,1
La population est supposée être composée de deux parties. Les individus possédant
la modalité 𝐴 et ceux possédant la modalité 𝐵 = 𝐴̅ avec les proportions respectives
𝑝 et (1 − p). On tire un 𝑛-échantillon (EAS) au hasard de la population
(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) où :
1 𝑆𝑖 𝑖 𝑝𝑜𝑠𝑠è𝑑𝑒 𝑙𝑎 𝑚𝑜𝑑𝑎𝑙𝑖𝑡é 𝐴
𝑋𝑖 = {
0 𝑆𝑖𝑛𝑜𝑛
Alors on a :
✓ (𝑋𝑖 )𝑖=1,𝑛 𝑠𝑜𝑛𝑡 𝑖. 𝑖. 𝑑 𝑑𝑒 loi de bernouilli 𝑏(𝑝).𝐸 (𝑋𝑖 ) = 𝑝 ; 𝑉 (𝑋𝑖 ) = 𝑝(1 − 𝑝)
✓ 𝑆𝑛 = ∑𝑛𝑖=1 𝑋𝑖 suit une loi binomiale 𝐵(𝑛 , 𝑝). C’est une statistique.
𝑆𝑛 ∑𝑛
𝑖=1 𝑋𝑖
Définition 2 : la statistique définie par : 𝐹𝑛 = =
𝑛 𝑛
Propriétés
𝑝(1−𝑝)
1. 𝑛𝐹𝑛 suit une loi binomiale 𝐵(𝑛 , 𝑝) de plus 𝐸 (𝐹𝑛 ) = 𝑝 et 𝑉 (𝐹𝑛 ) =
𝑛
𝑝𝑠
2. 𝐹𝑛 → 𝑝 (𝑙𝑜𝑖 𝑑𝑒𝑠 𝑔𝑟𝑎𝑛𝑑𝑠 𝑛𝑜𝑚𝑏𝑟𝑒𝑠)
(𝐹𝑛 −𝑝) ℒ
3. √𝑛 → 𝒩 (0,1) (𝑡ℎé𝑜𝑟è𝑚𝑒 𝑑𝑒 𝑙𝑖𝑚𝑖𝑡𝑒 𝑐𝑒𝑛𝑡𝑟𝑎𝑙𝑒)
√𝑝(1−𝑝)
𝑆𝑛 ∑𝑛
𝑖=1 𝑍𝑖
Définition 3 : la statistique définie par : 𝐹𝑛 = =
𝑛 𝑛
Propriétés
1. 𝑛𝐹𝑛 suit une loi binomiale 𝐵(𝑛 , 𝐹𝑋 (𝑥)) et donc 𝐸(𝐹𝑛 ) = 𝐹𝑋 (𝑥) et
𝐹𝑋 (𝑥)(1 − 𝐹𝑋 (𝑥))
𝑉(𝐹𝑛 ) =
𝑛
𝑝𝑠
2. 𝐹𝑛 → 𝐹𝑋 (𝑥) (𝑙𝑜𝑖 𝑓𝑜𝑟𝑡𝑒 𝑑𝑒𝑠 𝑔𝑟𝑎𝑛𝑑𝑠 𝑛𝑜𝑚𝑏𝑟𝑒𝑠)
(𝐹𝑛 −𝐹𝑋 (𝑥)) ℒ
3. √𝑛 → 𝒩(0,1) (𝑡ℎé𝑜𝑟è𝑚𝑒 𝑑𝑒 𝑙𝑖𝑚𝑖𝑡𝑒 𝑐𝑒𝑛𝑡𝑟𝑎𝑙𝑒)
√𝐹𝑋 (𝑥)(1−𝐹𝑋 (𝑥))
Remarque :
• La statistique 𝑍 est à valeurs dans l’ensemble suivant :
̃ 𝑛 = {(𝑦1 , 𝑦2 , … , 𝑦𝑛 ) ∈ ℝ𝑛 / 𝑦1 ≤ 𝑦2 ≤ ⋯ ≤ 𝑦𝑛 }
ℝ
• 𝑋(1) = min 𝑋𝑖 et 𝑋(𝑛) = max 𝑋𝑖
𝑖=1;𝑛 𝑖=1;𝑛
𝑅𝑖 = 1 + ∑ 𝕝𝑋𝑗< 𝑋𝑖
𝑗=1
On constate que s'il n'y a pas d'ex-aequo dans l'échantillon, les rangs seront les
entiers de 1 à 𝑛 dans un ordre quelconque. On est sûrs de ne pas avoir d'ex-aequo si
et seulement ∀ (𝑖, 𝑗) ∈ {1 ; 2 ; … ; 𝑛}2 𝑖 ≠ 𝑗 ⇒ 𝑃(𝑋𝑖 = 𝑋𝑗 ) = 0. En théorie,
c'est bien ce qui se passe si la loi des 𝑋𝑖 est continue. Mais en pratique, même si
cette loi est continue, il est possible qu'il y ait des ex-aequo, du fait de la
limitation de la précision des mesures et des erreurs d'arrondis. Il faudra donc
être très attentifs à la présence d'ex-aequo dans les données. Sur le plan
théorique, nous éviterons cette difficulté en nous limitant aux lois continues.
1. 𝑅 suit une loi uniforme sur l'ensemble Σ𝑛 des permutations des entiers de
1 à 𝑛.
2. Les statistiques d'ordre et de rang sont indépendantes.
Démonstration :
a. La loi est continue donc il n'y a pas d'ex-aequo. Les 𝑅𝑖 prennent toutes les
valeurs entières de 1 à 𝑛, donc 𝑅 est bien à valeurs dans Σ𝑛 . Puisque les
𝑋𝑖 sont indépendantes et de même loi, elles sont interchangeables et les
permutations sont équiprobables, d'où le résultat.
∀ 𝑟 = (𝑟1 , 𝑟2 , … , 𝑟𝑛 ) ∈ Σ𝑛 , 𝑜𝑛 𝑎 :
1 1
𝑃(𝑅 = 𝑟) = 𝑃(𝑅1 = 𝑟1 , 𝑅2 = 𝑟2 , … , 𝑅𝑛 = 𝑟𝑛 ) = =
𝑐𝑎𝑟𝑑(Σ𝑛 ) 𝑛!
Exemple : Pour 𝑛 = 3, on a :
𝑃(𝑋1 < 𝑋2 < 𝑋3 ) = 𝑃 (𝑋2 < 𝑋1 < 𝑋3 ) = 𝑃(𝑋1 < 𝑋3 < 𝑋2 ) = 𝑃(𝑋2 < 𝑋3 < 𝑋1 )
1
= 𝑃(𝑋1 < 𝑋2 < 𝑋3 ) = 𝑃(𝑋3 < 𝑋2 < 𝑋1 ) = 𝑃(𝑋3 < 𝑋1 < 𝑋2 ) =
6
̃ 𝑛 et 𝑟 ∈ Σ𝑛 on a :
b. Il faut montrer que pour tout borélien 𝐵 de ℝ
𝑃 ((𝑋(1) , 𝑋(2) , … , 𝑋(𝑛) ) ∈ 𝐵 , 𝑅 = 𝑟) = 𝑃 ((𝑋(1) , 𝑋(2) , … , 𝑋(𝑛) ) ∈ 𝐵) 𝑃(𝑅 = 𝑟)
Remarque :
➢ La principale conséquence de ce théorème est que la loi de 𝑅 ne dépend
pas de la loi des 𝑋𝑖 . On en déduit que toute variable aléatoire qui ne
s'exprime qu'à l'aide des rangs des observations a une loi de probabilité
indépendante de la loi de ces observations. C'est bien ce qu'on cherche à
obtenir en statistique non paramétrique, où la loi des observations
n'appartient pas à une famille paramétrée connue. On pourra donc faire
de l'estimation et des tests non paramétriques à partir des rangs des
observations.
➢ Il n'y a pas d’équivalent de ce théorème pour les lois non continues, ce
qui limite beaucoup l'intérêt de la statistique non paramétrique basée sur
les rangs dans ce cas.
➢ Toute fonction symétrique des observations initiales est une fonction des
statistiques d'ordre. Par exemple, 𝑇 = ∑𝑛𝑖=1 𝑋𝑖 = ∑𝑛𝑖=1 𝑋(𝑖)
̃𝑛 :
Démonstration : On a montré que pour tout borélien 𝐵 de ℝ
𝑃 ((𝑋(1) , 𝑋(2) , … , 𝑋(𝑛) ) ∈ 𝐵 ) = 𝑛! 𝑃((𝑋1 , 𝑋2 , … , 𝑋𝑛 ) ∈ 𝐵)
⇓
∫ 𝑓𝑍 (𝑧1 , 𝑧2 , … , 𝑧𝑛 ) 𝕝𝐵 (𝑧1 , 𝑧2 , … , 𝑧𝑛 ) 𝑑𝑧1 𝑑𝑧1 … 𝑑𝑧𝑛
𝑛
Démonstration :
𝑛!
𝑓𝑋(𝑖) (𝑥) = [𝐹(𝑥)](𝑖−1) [1 − 𝐹(𝑥)](𝑛−𝑖) 𝑓(𝑥) ∀𝑥 ∈ℝ
(𝑖−1)! (𝑛−𝑖)!
Une autre façon de faire, qui permet de mieux comprendre le sens des
statistiques d'ordre, est la suivante
∀ 𝑥 = (𝑥1 , 𝑥2 , … , 𝑥𝑘 ) ∈ ℝ𝑘
Exercice :
1. Montrer la proposition précédente pour 𝑘 = 2
2. Pour 𝑋 ↝ 𝜉(𝜆) , donner la loi de 𝑋(𝑖) dans les cas suivants :
𝑖. 𝑋 ↝ 𝜉(𝜆)
𝑖𝑖. 𝑋 ↝ 𝑈]0 , 1[
Chap2
A. Estimation ponctuelle
I. Généralités
̅ 𝑠2
Les lois des grands nombres justifient l’usage des valeurs observées 𝑥̅ de 𝑋,
de 𝑆 2 et 𝑓 de 𝐹𝑛 comme approximation de 𝑚 , de 𝜎 2 et 𝑝 respectivement.
On sait que :
𝑝𝑠 𝑝𝑠 𝑝𝑠
𝑋̅ → 𝑚 ; 𝑆2 → 𝜎2 ; 𝐹𝑛 → 𝑝
Exemples :
a. (Ρθ = 𝒩(𝜇, 𝜎 2 ))θ= (𝜇,𝜎2)∈ℝxℝ∗
+
𝑏𝜃 (𝑇) = (𝐸(𝑇) − 𝜃)
sans biais.
𝑝
Définition 3 : Un estimateur 𝑇 est dit Convergent si 𝑇 → 𝜃 ∀𝜃 ∈Θ
𝑇 est convergent
𝜀
⇒ lim 𝐸(𝑇) = 𝜃 ⇒ (∃ 𝑁 > 0 𝑡𝑞 ∀ 𝑛 > 𝑁 𝑜𝑛 𝑎 |𝐸(𝑇) − 𝜃| < )
𝑛→+∞ 2
⇒ ∃ 𝑁 > 0 𝑡𝑞 ∀ 𝑛 > 𝑁 𝑜𝑛 𝑎
𝜀 4 2 4
𝑃(|𝑇 − 𝜃| > 𝜀) ≤ 𝑃 (|𝑇 − 𝐸(𝑇)| > ) ≤ 2 𝐸(𝑇 − 𝐸(𝑇)) ≤ 2 𝑉(𝑇)
2 𝜀 𝜀
Or lim 𝑉(𝑇) = 0 ⇒ lim 𝑃(|𝑇 − 𝜃| > 𝜀) = 0 c.q.f.d.
𝑛→+∞ 𝑛→+∞
Réponse :
𝑝.𝑠 1 1 𝑝.𝑠 1
1. 𝑋̅ → 𝐸 (𝑋 ) = ⇒ 𝜆̂1 = → 𝜆 𝑔(𝑥 ) =
𝜆 𝑋̅ 𝑥
1 𝑝.𝑠 1 1 1 𝑝.𝑠 1
2. ∑𝑛𝑖=1 𝑋𝑖2 → 𝐸(𝑋 2 ) = ⇒ 𝜆̂2 = → 𝜆 𝑔(𝑥) =
2𝑛 2 𝜆2 1 𝑛 √𝑥
√ ∑ 𝑋2
2𝑛 𝑖=1 𝑖
Remarques :
➢ Entre deux estimateurs sans biais, le “meilleur” (le plus efficace) sera
celui dont la variance est minimale.
➢ Le critère d’erreur quadratique moyenne n’est pas parfait mais il est
préféré à d’autres critères qui semblent plus naturels comme l’erreur
absolue moyenne |𝐸(𝑇) − 𝜃| car il s’exprime en fonction de notions
simples comme le biais et la variance et est relativement facile à
manipuler analytiquement.
l’échantillon.
d. Si 𝑝 est la fréquence d’un caractère, 𝐹𝑛 constitue un estimateur sans
biais et consistant de 𝑝. Son estimation est 𝑓 qui est la fréquence
empirique observé dans une réalisation de l’échantillon.
𝜃
e. Pour le (𝑈[0 , 𝜃] )𝜃∈ℝ∗ on a 𝐸(𝑋) = , les estimateurs suivants
+ 2
𝑖
sont tous sans biais de 𝜃 : 𝜃̂ = 2𝑋1 ; 𝜃̂ = 2𝑋̅ ; 𝜃̂ = 𝑋(𝑖) 𝑖 = 1; 𝑛
𝑛−𝑖
Exercice :
1
Montrer que si la moyenne 𝑚 de 𝑋 est connue, alors 𝑇 = 𝑛 ∑𝑛𝑖=1(𝑋𝑖 − 𝑚)2
est un meilleur estimateur de 𝜎 2 que 𝑆 ′2 .
1 1 𝑛−3
On montrera que : 𝑉(𝑇) = [𝜇4 − 𝜎 4 ] 𝑒𝑡 𝑉(𝑆 ′2 ) = [𝜇4 − 𝜎 4]
𝑛 𝑛 𝑛−1
Remarque : Il est possible dans certains cas de trouver des estimateurs biaisés
plus précis, au sens de l’erreur quadratique, que le meilleur estimateur sans
biais.
𝑓𝑋 ( 𝑥 ; 𝜃) 𝑑𝑒𝑛𝑠𝑖𝑡é 𝑑𝑒 𝑋 𝑠𝑖 𝑋 𝑣. 𝑎. 𝑐
𝑓(𝑥 ; 𝜃) = {
𝑃𝜃 (𝑋 = 𝑥) 𝑠𝑖 𝑋 𝑣. 𝑎. 𝑑
𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = ∏ 𝑓(𝑥𝑖 ; 𝜃)
𝑖=1
Exemples :
▪ Cas de lois discrètes :
𝑃𝜃 ((𝑋1 = 𝑥1 , 𝑋2 = 𝑥2 , … , 𝑋𝑛 = 𝑥𝑛 )⁄𝑇 = 𝑡)
𝑃𝜃 ((𝑋1 = 𝑥1 , 𝑋2 = 𝑥2 , … , 𝑋𝑛 = 𝑥𝑛 ) ∩ (𝑇 = 𝑡))
=
𝑃(𝑇 = 𝑡)
𝑛
𝑃𝜃 (𝑋1 = 𝑥1 , 𝑋2 = 𝑥2 , … , 𝑋𝑛 = 𝑥𝑛 )
𝑆𝑖 ∑ 𝑥𝑖 = 𝑡
= 𝑃 (𝑇 = 𝑡 )
𝑖=1
{ 0 𝑆𝑖𝑛𝑜𝑛
𝑛 𝑛
𝑝∑𝑖=1 𝑥𝑖 (1−𝑝)𝑛−∑𝑖=1 𝑥𝑖
𝑆𝑖 ∑𝑛𝑖=1 𝑥𝑖 = 𝑡
𝐶𝑛𝑡 𝑝𝑡 (1−𝑝)𝑛−𝑡
=
{ 0 𝑆𝑖𝑛𝑜𝑛
1
𝑆𝑖 ∑𝑛𝑖=1 𝑥𝑖 = 𝑡
𝐶𝑛𝑡
={
0 𝑆𝑖𝑛𝑜𝑛
{ 0 𝑠𝑖𝑛𝑜𝑛
Cette probabilité est indépendante de 𝜆 donc 𝑇 = ∑𝑛𝑖=1 𝑋𝑖 est exhaustive
:
Pour qu'une statistique 𝑇 soit exhaustive pour 𝜃, il faut et il suffit qu'il existe
deux fonctions mesurables 𝑔 et ℎ telles que :
𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = 𝑔(𝑡; 𝜃) ℎ(𝑥1 , 𝑥2 , … , 𝑥𝑛 )
Démonstration
➢ Cas d'un modèle discret
Posons : 𝑍 = (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) et 𝑧 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) On a donc :
(⇒ ) Si 𝑇 est exhaustive 𝑃𝜃 (𝑍 = 𝑧 ; 𝜃⁄𝑇 = 𝑡) ne dépend pas de 𝜃
(⇐ ) On suppose que :
𝑃𝜃 ((𝑋1 = 𝑥1 , 𝑋2 = 𝑥2 , … , 𝑋𝑛 = 𝑥𝑛 ) ∩ (𝑇 = 𝑡))
=
𝑃(𝑇 = 𝑡)
𝑃𝜃 (𝑋1 = 𝑥1 , 𝑋2 = 𝑥2 , … , 𝑋𝑛 = 𝑥𝑛 )
𝑠𝑖 𝑇 = 𝑡
= 𝑃(𝑇 = 𝑡)
{ 0 𝑠𝑖𝑛𝑜𝑛
𝑔(𝑡; 𝜃) ℎ(𝑥1 , 𝑥2 , … , 𝑥𝑛 )
𝑠𝑖 𝑇 = 𝑡
= 𝑃(𝑇 = 𝑡)
{ 0 𝑠𝑖𝑛𝑜𝑛
Proposition 2 :
Si 𝑇 et exhaustive et ∃ 𝜑 𝑚𝑒𝑠𝑢𝑟𝑎𝑏𝑙𝑒 𝑡𝑞 𝑇 = 𝜑𝑜𝑅 ⇒ 𝑅 est exhaustive.
En effet on a :
𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = 𝑔(𝑡; 𝜃) ℎ(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = 𝑔(𝜑𝑜𝑟 ; 𝜃) ℎ(𝑥1 , 𝑥2 , … , 𝑥𝑛 )
= 𝑙(𝑟 ; 𝜃) ℎ(𝑥1 , 𝑥2 , … , 𝑥𝑛 )
Exemples :
1
➢ 𝑋 ↝ 𝑈[0 , 𝜃] ⇒ 𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = ∏𝑛𝑖=1 𝕝[0 , 𝜃] (𝑥𝑖 )
𝜃𝑛
1
=
𝜃𝑛
𝕝[0 , 𝜃] (max (𝑥𝑖 ))
𝑖=1;𝑛
⇒ 𝑇 = max(𝑋𝑖 ) est exhaustive pour 𝜃 car :
𝑖=1;𝑛
1
𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = 𝑔(𝑇(𝑥1 , 𝑥2 , … , 𝑥𝑛 ); 𝜃) = 𝕝[0 , 𝜃] (𝑇(𝑥1 , 𝑥2 , … , 𝑥𝑛 ))
𝜃𝑛
1 𝑛
➢ 𝑋 ↝ 𝜉(𝜃) ⇒ 𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = 𝜃𝑛 𝑒 −𝜃 (∑𝑖=1 𝑥𝑖) (∏𝑛𝑖=1 𝕝ℝ+ (𝑥𝑖 ))
⇒ 𝑇 = ∑𝑛𝑖=1 𝑋𝑖 est exhaustive pour 𝜃 car :
𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = 𝑔(𝑡; 𝜃)ℎ(𝑥1 , 𝑥2 , … , 𝑥𝑛 )
1
avec 𝑔(𝑡; 𝜃) = 𝑒 −𝜃 𝑡 et ℎ(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = (∏𝑛𝑖=1 𝕝ℝ+ (𝑥𝑖 ))
𝜃𝑛
➢ 𝑋 ↝ 𝒩(𝑚 , 𝜎2 ) ⇒ 𝜃 = (𝑚 , 𝜎2 ) (𝜎 > 0)
1
1 − (∑𝑛 𝑋 2 − 2 𝑚 ∑𝑛
𝑖=1 𝑋𝑖 + 𝑛𝑚)
⇒ 𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = 𝑛 𝑒 2𝜎2 𝑖=1 𝑖
(2𝜋𝜎 2 ) 2
➢ 𝑋 ↝ 𝐺(𝑎, 𝑏) ⇒ 𝜃 = (𝑎 , 𝑏)
𝑏𝑛𝑎 𝑛
⇒ 𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = (∏𝑛𝑖=1 𝑥𝑖 )𝑎−1 𝑒 −𝑏(∑𝑖=1 𝑥𝑖) (∏𝑛𝑖=1 𝕝ℝ+ (𝑥𝑖 ))
Γ(𝑎)𝑛
➢ 𝑋 ↝ 𝛽(𝑝, 𝑞) ⇒ 𝜃 = (𝑝, 𝑞)
1
⇒ 𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃 ) = (∏𝑛𝑖=1 𝑥𝑖 )𝑝−1 (∏𝑛𝑖=1(1 − 𝑥𝑖 ))𝑞−1 (∏𝑛𝑖=1 𝕝]0 , 1[ (𝑥𝑖 ))
𝛽(𝑝,𝑞)𝑛
𝑛 𝑛
Remarque :
La plupart des lois usuelles font partie de ce qu’on appelle la famille
exponentielle
𝑛 𝑛 𝑛
Démonstration :
exhaustive pour 𝜃 ∈ ℝ
⇒ 𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = ∏𝑛𝑖=1 𝑓(𝑥𝑖 ; 𝜃) = 𝑔(𝑇(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ; 𝜃)ℎ(𝑥1 , 𝑥2 , … , 𝑥𝑛 )
𝑛
𝜕 𝜕
⇒ ln(𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃)) = ∑𝑛𝑖=1 ln(𝑓(𝑥𝑖 ; 𝜃))
𝜕𝜃 𝜕𝜃
𝜕
ln(𝑔(𝑇(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ; 𝜃))
=
𝜕𝜃
𝜕2 𝜕2
⇒ ln(𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃)) = ln(𝑓(𝑥𝑖 ; 𝜃))
𝜕𝜃𝜕𝑥𝑖 𝜕𝜃𝜕𝑥𝑖
𝜕2
= ln(𝑔(𝑇(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ; 𝜃))
𝜕𝜃𝜕𝑥𝑖
2
𝜕 𝜕 𝜕
⇒ ln(𝑓(𝑥𝑖 ; 𝜃)) = 𝑇(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ln(𝑔(𝑦 ; 𝜃))/ 𝑦 = 𝑇(𝑥1 , 𝑥2 , … , 𝑥𝑛 )
𝜕𝜃𝜕𝑥𝑖 𝜕𝑥𝑖 𝜕𝜃
Pour 𝑖 ≠ 𝑗 on a :
𝜕2 𝜕
ln(𝑓(𝑥𝑖 ; 𝜃)) 𝑇(𝑥1 , 𝑥2 , … , 𝑥𝑛 )
𝜕𝜃𝜕𝑥𝑖 𝜕𝑥𝑖
= 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡 𝑑𝑒 𝜃
𝜕2 𝜕
ln (𝑓(𝑥𝑗 ; 𝜃)) 𝑇(𝑥1 , 𝑥2 , … , 𝑥𝑛 )
𝜕𝜃𝜕𝑥𝑗 𝜕𝑥𝑗
𝜑(𝑥 ,𝜃)
On est dans le cas d’une fonction 𝜑 𝑣é𝑟𝑖𝑓𝑖𝑎𝑛𝑡 ne dépend pas de 𝜃
𝜑(𝑦 ,𝜃)
2
𝜕
⇒ 𝜑(𝑥 , 𝜃) = 𝑢(𝑥)𝑣(𝜃) ⇒ ln(𝑓(𝑥 ; 𝜃)) = 𝑢(𝑥)𝑣(𝜃)
𝜕𝜃𝜕𝑥
𝜕
⇒ ln(𝑓(𝑥 ; 𝜃)) = 𝑎(𝑥)𝑣(𝜃) + 𝑤(𝜃)
𝜕𝜃
⇒ ln(𝑓( ; 𝑥 𝜃)) = (𝑎(𝑥) 𝛼(𝜃) + 𝑏(𝑥) + 𝛽(𝜃))
⇒ 𝑓(𝑥 ; 𝜃) = 𝑒𝑥𝑝(𝑎(𝑥) 𝛼(𝜃) + 𝑏(𝑥) + 𝛽(𝜃)) c.q.f.d
Exercice :
1. Utiliser le théorème précédent pour les lois usuelles traitées auparavant
2. Montrer que pour 𝑋 ↝ 𝑤(𝛼 , 𝛽) 𝑙𝑜𝑖 𝑑𝑒 𝑊𝑒𝑖𝑏𝑢𝑙𝑙 de paramètres (𝛼 , 𝛽) = 𝜃 et
𝛽
de densité : 𝑓(𝑥 ; 𝛼, 𝛽) = 𝛼 𝛽 𝑥 𝛽−1 𝑒 −𝛼 𝑥 𝕝𝑥>0 où 𝛼 > 0 𝑒𝑡 𝛽 > 0
𝑉𝜃 (𝑇) ≤ 𝑉𝜃 (𝑇 ′ ) ∀𝜃 ∈Θ
S'il existe une statistique exhaustive 𝑇 et si 𝜃̂ est un estimateur sans biais de 𝜃, alors
̂
𝐸 (𝜃⁄𝑇) est un estimateur sans biais de 𝜃 de variance inférieure à celle de 𝜃̂
(𝜃̂ − 𝑍)⁄ 𝜃̂ 𝑍 𝜃̂
▪ 𝐸[ 𝑇] = 𝐸 [ ⁄𝑇] − 𝐸[ ⁄𝑇] = 𝐸 [ ⁄𝑇] − 𝑍 = 𝑍 − 𝑍 = 0
2 2
⇒ 𝑉(𝜃̂) = 𝐸 [(𝜃̂ − 𝜃) ] = 𝐸 [(𝜃̂ − 𝑍) ] + 𝐸 [(𝑍 − 𝜃)2 ] + 2𝐸[(𝜃̂ − 𝑍)(𝑍 − 𝜃)]
2 2
= 𝐸 [(𝜃̂ − 𝑍) ] + 𝐸 [(𝑍 − 𝜃)2 ] = 𝐸 [(𝜃̂ − 𝑍) ] + 𝑉(𝑍)
̂
⇒ 𝑉(𝑍) ≤ 𝑉(𝜃̂) est donc 𝑍 = 𝐸 (𝜃⁄𝑇) est un meilleur estimateur de 𝜃 que 𝜃̂.
I.6 Complétude
Démonstration
Supposons qu'il existe deux estimateurs sans biais fonction de 𝑇, 𝜃̂1 (𝑇) et 𝜃̂2 (𝑇).
𝐸 (𝜃̂1 (𝑇)) = 𝐸 (𝜃̂2 (𝑇)) = 𝜃 ⇒ 𝐸 (𝜃̂1 (𝑇) − 𝜃̂2 (𝑇)) = 𝐸 ((𝜃̂1 − 𝜃̂2 )(𝑇)) = 0 ∀ 𝜃
comme est une statistique complète, alors (𝜃̂1 − 𝜃̂2 ) = 0 presque partout sur le
support de 𝑇 (c.à.d) 𝜃̂1 = 𝜃̂2
𝜕2 𝑓(. ; 𝜃) 𝜕2 𝑓(. ; 𝜃)
=( ) les dérivées et les dérivées secondes de la
𝜕𝜃2 𝜕𝜃𝑖 𝜕𝜃𝑗
1;𝑗=1;𝑑
vraisemblance.
Définition 12 :
a. On appelle Information de Fisher de 𝑋 la matrice, si elle existe, définie par :
𝜕 ln 𝑓(𝑋 ; 𝜃) 2
𝐼(𝜃) = 𝐸𝜃 [( ) ]
𝜕𝜃
(𝑋1 , 𝑋2 , … , 𝑋𝑛 )
Remarques :
a. 𝐼(𝜃) mesure la quantité totale d’information apportée par chaque
variable de l’échantillon 𝑋𝑖
b. 𝐼𝑛 (𝜃) mesure la quantité totale d’information apportée par l’échantillon
entier (𝑋1 , 𝑋2 , … , 𝑋𝑛 )
Définition 13 : Un modèle (𝑃𝜃 )𝜃∈Θ qui vérifie les hypothèses suivantes est
appelé modèle régulier :
H1 : Θ est un ouvert et ∀ 𝜃 ∈ Θ, 𝑓(. ; 𝜃) > 0
H2 : Le supports de la lois 𝑃𝜃 est indépendant de 𝜃, ∀ 𝜃 ∈ Θ
𝜕 𝑓(. ; 𝜃) 𝜕2 𝑓(. ; 𝜃)
H3 : ∀ 𝜃 ∈ Θ ∶ et existent et sont intégrables et que les
𝜕𝜃 𝜕𝜃2
𝜕 ln 𝑓(𝑋 ; 𝜃) 𝜕 ln(𝐿(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) ; 𝜃)
𝐸𝜃 [ ] = 𝐸𝜃 [ ]=0
𝜕𝜃 𝜕𝜃
𝜕 ln 𝑓(𝑋 ; 𝜃) 𝜕2 ln 𝑓(𝑋 ; 𝜃)
2. 𝐼(𝜃) = 𝑉𝜃 [ ] = −𝐸𝜃 [ ]
𝜕𝜃 𝜕𝜃2
2
𝜕 ln(𝐿(𝑋1 ,𝑋2 ,…,𝑋𝑛 ) ; 𝜃) 𝜕 ln(𝐿(𝑋1 ,𝑋2 ,…,𝑋𝑛 ) ; 𝜃)
3. 𝐼𝑛 (𝜃) = 𝑉𝜃 [ ] = −𝐸𝜃 [ ] = 𝑛 𝐼(𝜃)
𝜕𝜃 𝜕𝜃2
4. 𝐼𝑛 (𝜃) ≥ 𝐼𝑇 (𝜃) ∀𝜃∈Θ ∀ 𝑇 = 𝑇(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) où 𝐼𝑇 (𝜃) est la
quantité d’information apportée la statistique 𝑇
5. (𝐼𝑛 (𝜃) = 𝐼𝑇 (𝜃) ∀𝜃∈Θ) ⇐ 𝑇 est exhaustive
Exemples :
➢ Le modèle normale (𝒩(𝑚 , 𝜎 2 ) , 𝑚 ∈ ℝ) est régulier et on a :
1
𝐼(𝑚) = (plus 𝜎 2 est petit plus l′ information apportée par chaque
𝜎2
𝑛 𝑛
variable de l′ échantillon est grande). 𝑈𝑛 = − 𝜎2 (𝑋̅ − 𝑚) ; 𝐼𝑛 (𝑚) = 𝜎2
Borne de Fréchet-Darmois-Cramer-Rao
Soient (𝑃𝜃 )𝜃∈Θ⊂ℝ un modèle régulier et 𝜃̂ un estimateur sans biais de ℎ(𝜃) tel
que :
1. ℎ de classe 𝐶 1 et 𝐼(𝜃) > 0
𝜕𝐿(. ; 𝜃) 𝜕𝐿(. ; 𝜃)
2. 𝑉𝜃 (𝜃̂) 𝑓𝑖𝑛𝑖𝑒 ; et 𝜃̂ intégrables par rapport à la mesure
𝜕𝜃 𝜕𝜃
de Lebesgue, alors on a :
[ℎ′ (𝜃)]2
𝑉𝜃 (𝜃̂) ≥ ∀𝜃∈Θ
𝐼𝑛 (𝜃)
[ℎ′ (𝜃)]2
La borne est appelé la borne FDCR du modèle d’échantillonnage
𝐼𝑛 (𝜃)
Démonstration :
L’inégalité de Cauchy-Schwarz nous donne :
2
𝜕 ln(𝐿( . ; 𝜃) 𝜕 ln(𝐿( . ; 𝜃)
[𝐶𝑜𝑣𝜃 (𝜃̂ ; )] ≤ 𝑉𝜃 (𝜃̂) 𝑉𝜃 ( )
𝜕𝜃 𝜕𝜃
𝜕 ln(𝐿( . ; 𝜃)
or on a : 1. 𝑉𝜃 (
𝜕𝜃
) = 𝐼𝑛 (𝜃)
𝜕 ln(𝐿( .; 𝜃) 𝜕 ln(𝐿( .; 𝜃) 𝜕𝐿( .; 𝜃)
2. 𝐶𝑜𝑣𝜃 (𝜃̂ ; ) = 𝐸𝜃 (𝜃̂ ) = ∫ 𝜃̂(. ) 𝑑𝜆
𝜕𝜃 𝜕𝜃 𝜕𝜃
𝜕 𝜕
=
𝜕𝜃
[∫ 𝜃̂(. ) 𝐿( . ; 𝜃) 𝑑𝜆(. )] = 𝜕𝜃 𝐸𝜃 (𝜃̂) = ℎ′ (𝜃)
Exercice : Monter que 𝑋̅ est efficace pour le modèle de poisson (P (𝜆) , 𝜆 ∈ ℝ∗+ )
Soit (𝑃𝜃 )𝜃∈Θ⊂ℝ𝑑 un modèle régulier. Soit 𝜃̂ un estimateur sans biais de ℎ(𝜃)
tel que :
1. ℎ de classe 𝐶 1 et 𝐼(𝜃) 𝑖𝑛𝑣𝑒𝑟𝑠𝑠𝑖𝑏𝑙𝑒
𝜕𝐿(. ; 𝜃) 𝜕𝐿(. ; 𝜃)
2. 𝑉𝜃 (𝜃̂) 𝑒𝑥𝑖𝑠𝑡𝑒 ; et 𝜃̂ intégrables par rapport à la mesure
𝜕𝜃 𝜕𝜃
de Lebesgue, alors on a :
𝜕 ℎ(𝜃) −1 𝜕 ℎ(𝜃) 𝑡
𝑉𝜃 (𝜃̂) ≥ (𝐼𝑛 (𝜃)) ( ) ∀𝜃 ∈Θ
𝜕𝜃 𝜕𝜃
différentiable.
b. cas de paramètre 𝜽 dans ℝ𝒅 (Admis) :
Soit (𝑃𝜃 )𝜃∈Θ⊂ℝ𝑑 un modèle régulier,
1. La borne FDCR ne peut être atteinte que si le modèle (𝑃𝜃 )𝜃∈Θ⊂ℝ𝑑 est
exponentiel, c.à.d. :
𝑓(𝑥 ; 𝜃) = 𝑒𝑥𝑝[ ∑𝑑𝑗=1 𝑎𝑗 (𝑥)𝛼𝑗 (𝜃) + 𝑏(𝑥) + 𝛽(𝜃)] ∀ 𝜃 ∈ Θ ⊂ ℝ𝑑
2. Si la loi de 𝑋 est exponentielle, il n’existe (à une transformation linéaire près)
qu’une seule fonction ℎ du paramètre 𝜃 qui peut être estimer efficacement
par un estimateur 𝑇, cette fonction ℎ et son estimateur efficace 𝑇 sont
définis par :
𝜕
ℎ(𝜃) = −[𝐴(𝜃)]−1 𝛽(𝜃)
𝜕𝜃
𝑡
𝜕𝛼𝑘 (𝜃) 𝜕 𝜕 𝜕 𝜕
avec : 𝐴(𝜃) = ( ) 𝑒𝑡 𝛽 (𝜃 ) = ( 𝛽 (𝜃 ), 𝛽 (𝜃 ) , … , 𝛽 (𝜃 ))
𝜕𝜃𝑙 𝑘,𝑙=1 ;𝑑 𝜕𝜃 𝜕𝜃1 𝜕𝜃2 𝜕𝜃𝑑
1
et 𝑇 = (𝑇1 , 𝑇2 , … , 𝑇𝑛 ) où 𝑇𝑗 = ∑𝑛𝑖=1 𝑎𝑗 (𝑋𝑖 )
𝑛
Remarques :
➢ le fait que 𝐴(𝜃) soit inversible suppose que l’application :
𝛼∶𝜃→ 𝛼(𝜃) = (𝛼1 (𝜃), 𝛼2 (𝜃), … , 𝛼𝑑 (𝜃)) est un difféomorphisme
de Θ vers un ouvert de ℝ𝑑 .
➢ Le théorème montre qu’on ne peut estimer efficacement qu’une seule
fonction de ℎ(𝜃) qui risque de ne pas être intéressante.
Remarques :
telle équation peut ne pas donner la solution, on sera alors obligé de chercher
des solutions intuitives ou numériques.
➢ Dans le cas de modèles non réguliers, il peut exister plusieurs estimateurs qui
maximisent la vraisemblance.
Exemples :
▪ (𝒩(𝑚 , 𝜎 2 ) , 𝑚 ∈ ℝ ) ; ̂ = 𝑋̅ est l′ EMV sans biais
𝑚
1
▪ (𝒩(𝑚 , 𝜎 2 ) , 𝜎 > 0) ; 𝜎̂ 2 = ∑𝑛𝑖=1(𝑋𝑖 − 𝑚)2 est l′ EMV sans biais
𝑛
▪ (𝒩(𝑚 , 𝜎 2 ) , 𝑚 ∈ ℝ , 𝜎 > 0)
1 𝑛
̂ = 𝑋̅ EMV sans biais et 𝜎̂ 2 =
𝑚 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2 EMV (𝐸(𝜎̂ 2 ) = 𝜎 2)
𝑛 𝑛−1
▪ Pour le modèle (𝑃𝜃 )𝜃∈ℝ où la loi 𝑃𝜃 est une loi de Cauchy décentrée de
1
densité 𝑓 (𝑥 ; 𝜃 ) = le calcul de l’EMV est pratiquement
𝜋(1+(𝑥−𝜃)2 )
▪ (𝑈[𝜃−1 1
, 𝜃+ ]
; 𝜃 > 0) (modèle non régulier)
2 2
1 1
1 𝑆𝑖 𝜃 − ≤ min (𝑋𝑖 ) ≤ max(𝑋𝑖 ) ≤ 𝜃 +
𝐿((𝑋1 , 𝑋2 , … , 𝑋𝑛 ) ; 𝜃) = { 2 𝑖=1;𝑛 𝑖=1;𝑛 2
0 𝑆𝑖𝑛𝑜𝑛
1 1
1 𝑆𝑖 𝜃 − ≤ 𝑋(1) ≤ 𝑋(𝑛) ≤ 𝜃 +
= { 2 2
0 𝑆𝑖𝑛𝑜𝑛
1 1
1 𝑆𝑖 𝑋(𝑛) − ≤ 𝜃 ≤ 𝑋(1) +
= { 2 2
0 𝑆𝑖𝑛𝑜𝑛
1 1
par conséquent toute valeur comprise entre 𝑋(𝑛) − et 𝑋(1) + maximise la
2 2
Démonstration :
Remarque :
S’il existe une statistique exhaustive complète 𝑇 et si 𝜃̂ est sans biais de 𝜃, alors
l’EMV 𝜃̂ est le meilleur estimateur de 𝜃.
Proposition 4 : Dans le cas où le modèle (𝑃𝜃 )𝜃∈Θ est régulier. Si l’EMV 𝜃̂ est
sans biais de 𝜃 et s’il existe un estimateur efficace de 𝜃 alors cet estimateur est
l’EMV 𝜃̂ (𝑐. à. 𝑑) 𝑉𝜃 (𝜃̂) = (𝐼𝑛 (𝜃))−1
Pr. El Abdi F. INSEA
77
1
Exemple : (𝒩(𝑚 , 𝜎 2 ) , 𝜎 > 0) ; 𝜎̂ 2 = 𝑛 ∑𝑛𝑖=1(𝑋𝑖 − 𝑚)2 est l’EMV de 𝜎̂ 2 ,
1
l’EMV de 𝜎 est 𝜎̂ = √ ∑𝑛𝑖=1(𝑋𝑖 − 𝑚)2
𝑛
ℒ 𝑡
𝜕𝑔 𝜕𝑔
par conséquent √𝑛 (𝑔(𝜃̂) − 𝑔(𝜃)) → 𝒩 (0 , (𝜃)Σ(𝜃) ( (𝜃)) )
𝜕𝜃 𝜕𝜃
Définition 16 :
Soient (𝑃𝜃 )𝜃∈Θ un modèle statistique paramétrique et 𝑔 une fonction réelle ou
vectorielle de classe 𝐶 1 de ℝ𝑑 vers ℝ𝑘 (𝑘 ≤ 𝑑). Un estimateur 𝑇̂𝑛 de 𝑔(𝜃) est
dit asymptotiquement efficace de si et seulement si 𝑇̂𝑛 est asymptotiquement
normale de matrice de variance asymptotique
𝑡
𝜕𝑔 𝜕𝑔
(𝜃)(𝐼(𝜃))−1 ( (𝜃))
𝜕𝜃 𝜕𝜃
6.
Monter que les deux suites (𝑛(𝜃 − 𝜃̂1 )) et (𝑛(𝜃 − 𝜃̂2 )) convergent
𝑛∈ℕ 𝑛∈ℕ
1 𝑆
4. En déduire que 𝑇̂ ∗ = (1 − ) est l’estimateur optimal de 𝑃𝜃 (𝑋 = 0). Est-
𝑛
il convergent ?
5. Calculer le score et l’information de Fisher.
6. En déduire la borne FDCR pour l’estimation de 𝑃𝜃 (𝑋 = 0). Est-elle atteinte
par 𝑇̂ ∗ ?
On lit selon une verticale les intervalles de probabilité et, selon l’horizontale issue de
𝑡, l’intervalle de confiance.
[𝑎 , 𝑏] est un intervalle de confiance de niveau 1 − 𝛼 (Coefficient de confiance), il est
aléatoire car il dépend de 𝑡 puisque 𝑎 et 𝑏 s’obtiennent par :
𝑎 = 𝑡1−1 (𝑡)
{
𝑏 = 𝑡2−1 (𝑡)
Si on augmente 1 − 𝛼, on augmente la longueur de l’intervalle de probabilité, don les
courbes s’écartent. Si 𝑛 augmente, comme 𝑇est supposé convergent, 𝑉 (𝑇) diminue,
donc [𝑡1 , 𝑡2 ] diminue et les courbes se rapprochent de la bissectrice.
a. 𝝈𝟐 𝒄𝒐𝒏𝒏𝒖
𝜎 2
𝑋̅ est le meilleur estimateur de 𝑚 et suit la loi 𝒩 (𝑚 , ), par conséquent on a :
𝑛
α
où 𝜙(1−α) = quantile de la loi 𝒩 (0 ,1) associée à (1 − ) et il est donné par :
2 2
𝜎 𝜎
𝑋̅ ∈ ]𝑚 − 𝜙(1−α) , 𝑚 + 𝜙(1−α) [
√𝑛 2 √𝑛 2
𝜎 𝜎
En particulier on a 𝑚 ∈ ]𝑋̅ − 1,96 , 𝑋̅ + 1,96 [ avec une probabilité de 0,95.
√𝑛 √𝑛
b. 𝝈𝟐 𝒊𝒏𝒄𝒐𝒏𝒏𝒖
(𝑋̅ − 𝑚)
𝑃 (|√𝑛 − 1 | < 𝑡(1−α) ) = 𝑃 (|𝑡𝑛−1 | < 𝑡(1−α) ) = 1 − α
𝑆 2 2
α
où 𝑡(1−α) = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑇𝑛−1 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 à (1 − ) et il est donné par :
2 2
𝑆 𝑆
𝑚 ∈ IC1−𝛼 (𝑚) = ]𝑋̅ − 𝑡(1−α) , 𝑋̅ + 𝑡(1−α) [
√𝑛 − 1 2 √𝑛 − 1 2
𝑆′ 𝑆′
= ]𝑋̅ − 𝑡(1−α) , 𝑋̅ + 𝑡(1−α) [
√𝑛 2 √𝑛 2
Remarque : Dans le cadre non normal on utilise le théorème de limite centrale pour
avoir des intervalles de confiance asymptotiques de niveau 1 − 𝛼.
a. 𝒎 𝒄𝒐𝒏𝒏𝒖
1 𝑛
𝑆2 = ∑𝑛𝑖=1(𝑋𝑖 − 𝑚)2 est le meilleur estimateur de 𝜎 2 et 𝑆 2 suit une loi 𝒳𝑛2 .
𝑛 𝜎2
Soient 𝑘1 et 𝑘2 les bornes de l’intervalle de probabilité d’un 𝒳𝑛2 telles que :
𝑛 2
𝑃 (𝑘1 < 𝑆 < 𝑘2 ) = 1 − 𝛼
𝜎2
𝛼
𝑘2 = 𝒳𝑛2 ;1− 𝛼 le quantile de la loi 𝒳𝑛2 associé à 1 −
2 2
b. 𝒎 𝒊𝒏𝒄𝒐𝒏𝒏𝒖
1 𝑛
On utilise l’estimateur 𝑆 2 = ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅ )2 et on sait que 2
𝑆 2 suit une loi 𝒳𝑛−1 .
𝑛 𝜎2
2
Soient 𝑘1 et 𝑘2 les bornes de l’intervalle de probabilité d’un 𝒳𝑛−1 telles que :
𝑛 2
𝑃 (𝑘1 < 𝑆 < 𝑘2 ) = 1 − 𝛼
𝜎2
2 2 𝛼
𝑘1 = 𝒳𝑛−1 ;
𝛼 est le quantile de la loi 𝒳𝑛 associé à
2 2
2 2 𝛼
𝑘2 = 𝒳𝑛−1 ;1−
𝛼 le quantile de la loi 𝒳𝑛 associé à 1 −
2 2
Etant donné une population infinie (ou finie si le tirage est avec remise EAS) où une
proportion 𝑝 d’individus possédant un certain caractère, il s’agit de trouver un
intervalle de confiance pour 𝑝 à partir de la fréquence empirique 𝑓, proportion trouvée
dans un échantillon de taille 𝑛 représenté par (𝑋1 , 𝑋2 , … , 𝑋𝑛 ). On sait que 𝐹𝑛 = 𝑋̅ est
le meilleur estimateur de 𝑝 et que 𝑛𝐹𝑛 suit une loi binomiale 𝐵(𝑛, 𝑝), si 𝑛 est faible on
utilisera les tables de la loi binomiale ou l’abaque.
Si 𝑛 est grand (𝑛 ≥ 30) on utilisera le théorème de limite centrale qui nous donne :
(𝐹𝑛 − 𝑝) ℒ
√𝑛 → 𝒩 (0,1)
√𝑝(1 − 𝑝)
𝑝 (1 − 𝑝 ) 𝑝 (1 − 𝑝 )
𝐹𝑛 ∈ ]𝑝 − √ 𝜙(1−α) , 𝑝 + √ 𝜙(1−α) [
𝑛 2 𝑛 2
α
𝜙(1−α) = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝒩 (0 ,1) 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 à (1 − )
2 2
Pr. El Abdi F. INSEA
108
𝑝(1−𝑝) 𝑝(1−𝑝) 𝑘2 𝑘2
𝑦 = 𝑝 ± 𝑘√ ⇒ (𝑦 − 𝑝)2 = 𝑘 2 ⇒ 𝑦 2 + 𝑝2 (1 + ) − 2𝑝𝑦 − 𝑝=0
𝑛 𝑛 𝑛 𝑛
𝑘2 𝑘2 𝑘2 𝑘2
𝑓 2 + 𝑝2 (1 + ) − 2𝑝𝑓 − 𝑝=0 ⇐ 𝑝2 (1 + ) − 𝑝 (2𝑓 + ) + 𝑓2 = 0
𝑛 𝑛 𝑛 𝑛
𝑘2 𝑘2 𝑘2
(2𝑓 + ) ± √ ( + 4𝑓 (1−𝑓2 ))
𝑛 𝑛 𝑛
𝑓(1−𝑓)
𝑝= 𝑘2
≈ 𝑘√ pour n assez grand
2 (1+ ) 𝑛
𝑛
𝐹𝑛 (1 − 𝐹𝑛 ) 𝐹𝑛 (1 − 𝐹𝑛 )
𝑝 ∈ ]𝐹𝑛 − √ 𝜙(1−α) , 𝐹𝑛 + √ 𝜙(1−α) [ = IC1−𝛼 (𝑝)
𝑛 2 𝑛 2
Supposons que l’on désire connaître 𝑝 avec une incertitude ±∆𝑝 pour un niveau de
confiance 1 − 𝛼 à risque symétrique, la formule précédente nous donne que :
𝑓(1 − 𝑓)
𝑛 = (𝐶𝛼 )2
(∆𝑝)2
1
Si 𝑓 est inconnue, on obtient une majoration de 𝑛 en posant 𝑓 = par conséquent
2
(𝐶𝛼 )2
𝑛≤
4 (∆𝑝)2
donc la taille maximale de l’échantillon d’étude est donnée par la partie entière de
(𝐶𝛼 )2
+1
4 (∆𝑝)2
Dans le cas d’un intervalle à 95%, 𝐶𝛼 = 1,96 ≅ 2, ce qui donne la formule approchée :
1
𝑛𝑚𝑎𝑥 =
(∆𝑝)2
(𝑋̅ −𝑌̅ ) − ( 𝑚1 − 𝑚2 )
1 1
↝ 𝒩 (0 , 1)
𝜎√ +
𝑛1 𝑛2
1 1 1 1
𝑇 = (𝑋̅ − 𝑌̅ ) ∈ ]( 𝑚1 − 𝑚2 ) − 𝜎√ + 𝜙(1−α) , ( 𝑚1 − 𝑚2 ) + 𝜎√ + 𝜙 α[
𝑛1 𝑛2 2 𝑛1 𝑛2 (1−2)
α
𝜙(1−α) = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝒩 (0 , 1) 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 à (1 − )
2 2
1 1 1 1
(𝑚1 − 𝑚2 ) ∈ ](𝑋̅ − 𝑌̅) − 𝜎√ + 𝜙(1−α) , (𝑋̅ − 𝑌̅ ) + 𝜎√ + 𝜙(1−α) [ = IC1−𝛼(𝑚1 − 𝑚2 )
𝑛1 𝑛2 2 𝑛1 𝑛2 2
α
𝑡(1−α) = 𝑡(𝑛 α = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑇𝑛1+𝑛2−2 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 à (1 − )
2 1 +𝑛2 −2 ); 1− 2 2
1 1 1 1
(𝑚1 − 𝑚2 ) ∈ ](𝑋̅ − 𝑌̅) − 𝑆𝑋𝑌
′
√ +
𝑛1 𝑛2
𝑡(1−α) ; (𝑋̅ − 𝑌̅) + 𝑆𝑋𝑌
′
√ +
𝑛1 𝑛2
𝑡(1−α)[ = IC1−𝛼 (𝑚1 − 𝑚2)
2 2
𝜎12 𝜎22 𝜎2 𝜎2
̅−𝑌
𝑇 = (𝑋 ̅ ) ∈ ](𝑚1 − 𝑚2 ) − √ + 𝜙(1−α) , (𝑚1 − 𝑚2 ) + √ 1 + 2 𝜙(1−α) [
𝑛1 𝑛2 2 𝑛1 𝑛2 2
α
𝜙(1−α) = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝒩 (0 ,1) 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 à (1 − )
2 2
𝜎2 𝜎2 𝜎2 𝜎2
(𝑚1 − 𝑚2 ) ∈ ](𝑋̅ − 𝑌̅) − √ 1 + 2 𝜙(1−α) ; (𝑋̅ − 𝑌̅) + √ 1 + 2 𝜙(1−α) [ = IC1−𝛼 (𝑚1 − 𝑚2 )
𝑛1 𝑛2 2 𝑛1 𝑛2 2
(𝑋̅ −𝑌̅ ) − ( 𝑚1 − 𝑚2 )
↝ 𝒩 (0 , 1)
𝑆′2 𝑆′2
√ 𝑋 + 𝑌
𝑛1 𝑛2
(𝑋̅ − 𝑌̅ ) − ( 𝑝1 − 𝑝2 )
𝑍= ↝ 𝒩 (0 , 1)
𝑋̅ (1 − 𝑋̅ ) 𝑌̅(1 − 𝑌̅)
√ +
𝑛1 𝑛2
]−𝜙(1−α) ; 𝜙(1−α) [
2 2
Exercice : Donner les intervalles de confiance de la différence des moyennes des deux
populations indépendantes lorsque 𝑛1 = 𝑛2
peuvent se produire :
g. 𝒎𝟏 et 𝒎𝟐 𝒄𝒐𝒏𝒏𝒖𝒔
1 1
𝜎̂12 = 𝑆𝑋2 = ∑𝑛𝑖=1
1
(𝑋𝑖 − 𝑚1 )2 et 𝜎̂22 = 𝑆𝑌2 = ∑𝑛𝑖=1
2
(𝑌𝑖 − 𝑚2 )2
𝑛1 𝑛2
2
𝜎22 𝑆𝑌
on estime alors le rapport 2 par 2 et on utilise la statistique suivante :
𝜎1 𝑆𝑋
𝜎22 𝑆𝑋2 1
ℱ= 2 2 ↝ ℱ𝑛1 ; 𝑛2 =
𝜎1 𝑆𝑌 ℱ𝑛2 ; 𝑛1
L’intervalle de probabilité de ℱ de niveau 1 − 𝛼 est donné par :
𝛼
𝑘1 = ℱ𝑛1 ; 𝑛2 ; 𝛼 = quantile de la loi ℱ𝑛1 ; 𝑛2 associé à
2 2
𝛼
𝑘2 = ℱ𝑛1 ; 𝑛2 ; 1− 𝛼 = quantile de la loi ℱ𝑛1 ; 𝑛2 associé à 1 − .
2 2
1
Il est à remarquer que ℱ𝑛1 ; 𝑛2 ;1− 𝛽 =
ℱ𝑛2 ; 𝑛1 ; 𝛽
𝜎22
L’intervalle de confiance pour de niveau 1 − 𝛼 est donné par :
𝜎12
𝜎12
L’intervalle de confiance pour de niveau 1 − 𝛼 est donné par :
𝜎22
h. 𝒎𝟏 𝒄𝒐𝒏𝒏𝒖 et 𝒎𝟐 𝒊𝒏𝒄𝒐𝒏𝒏𝒖
1 1
𝜎̂12 = 𝑆𝑋2 = ∑𝑛𝑖=1
1
(𝑋𝑖 − 𝑚1 )2 et 𝜎̂22 = 𝑆𝑌′2 = ∑𝑛𝑖=1
2
(𝑌𝑖 − 𝑌̅)2 )
𝑛1 𝑛2 −1
′2
𝜎22 𝑆𝑌
on estime alors le rapport par 2 et on utilise la statistique suivante :
𝜎12 𝑆𝑋
𝜎22 𝑆𝑋2 1
ℱ = 2 ′2 ↝ ℱ𝑛1 ; (𝑛2 −1) =
𝜎1 𝑆𝑌 ℱ(𝑛2−1) ; 𝑛1
𝛼
𝑘2 = ℱ𝑛1 ; (𝑛2−1) ;1− 𝛼 = quantile de la loi ℱ𝑛1 ; (𝑛2−1) associé à 1 − .
2 2
𝜎22
L’intervalle de confiance pour de niveau 1 − 𝛼 est donné par :
𝜎12
𝜎12
L’intervalle de confiance pour de niveau 1 − 𝛼 est donné par :
𝜎22
i. 𝒎𝟏 𝒊𝒏𝒄𝒐𝒏𝒏𝒖 et 𝒎𝟐 𝒄𝒐𝒏𝒏𝒖
1 1
𝜎̂12 = 𝑆𝑋′2 = ∑𝑛𝑖=1
1
(𝑋𝑖 − 𝑋̅ )2 et 𝜎̂22 = 𝑆𝑌2 = ∑𝑛𝑖=1
2
(𝑌𝑖 − 𝑚2 )2
𝑛1 −1 𝑛2 −1
′2
𝜎22 𝑆𝑌
on estime alors le rapport par 2 et on utilise la statistique suivante :
𝜎12 𝑆𝑋
𝜎22 𝑆𝑋′2 1
ℱ = 2 2 ↝ ℱ(𝑛1−1) ; 𝑛2 =
𝜎1 𝑆𝑌 ℱ𝑛2 ; (𝑛1−1)
𝛼
𝑘1 = ℱ(𝑛1−1) ; 𝑛2 ;
𝛼 = quantile de la loi ℱ(𝑛1−1) ; 𝑛2 associé à
2 2
𝛼
𝑘2 = ℱ(𝑛1−1) ; 𝑛2 ; 1−
𝛼 = quantile de la loi ℱ(𝑛1−1) ; 𝑛2 associé à 1 − .
2 2
𝜎22
L’intervalle de confiance pour de niveau 1 − 𝛼 est donné par :
𝜎12
𝜎12
L’intervalle de confiance pour de niveau 1 − 𝛼 est donné par :
𝜎22
j. 𝒎𝟏 et 𝒎𝟐 𝒊𝒏𝒄𝒐𝒏𝒏𝒖
Le meilleur estimateur de 𝜎12 (resp. 𝜎22 ) est 𝑆𝑋′2 ( resp. 𝑆𝑌′2 ), on estime alors le rapport
′2
𝜎22 𝑆𝑌
par ′2 et on utilise la statistique suivante :
𝜎12 𝑆𝑋
𝜎22 𝑆𝑋′2 1
ℱ= 2 ′2 ↝ ℱ(𝑛1 −1) ; (𝑛2 −1) =
𝜎1 𝑆𝑌 ℱ(𝑛2−1) ; (𝑛1−1)
L’intervalle de probabilité de ℱ de niveau 1 − 𝛼 est donné par :
𝑃(𝑘1 < ℱ(𝑛1−1) ; (𝑛2−1) < 𝑘2 )
𝛼
𝑘1 = ℱ(𝑛1−1) ; (𝑛2−1) ; 𝛼 = quantile de la loi ℱ(𝑛1−1),(𝑛2−1) associé à 2
2
𝛼
𝑘2 = ℱ(𝑛 𝛼 = quantile de la loi ℱ(𝑛1 −1),(𝑛2−1) associé à 1 − 2 .
1 −1) ; (𝑛2 −1) ;1− 2
𝜎22
L’intervalle de confiance pour de niveau 1 − 𝛼 est donné par :
𝜎12
𝜎12
L’intervalle de confiance pour de niveau 1 − 𝛼 est donné par :
𝜎22
Chap3
I. Exemple Introductif
Des relevés effectués pendant un année sur une chaine de production d’un certain
article ont permis d’établir que le nombre d’article produit par semaine suit loi normale
𝒩 (3000 , 𝜎 2 ) avec 𝜎 = 400.
Semaine 1 2 3 4 5 6 7 8
Nbre d’articles 2900 3030 2955 2870 3100 3025 2850 3450
Semaine 9 10 11 12 13 14 15 16
Nbre d’articles 2920 3190 2970 3500 2850 3225 3150 3420
➢ Si 𝑋̅ est trop grand c.à.d. si 𝑋̅ est supérieur à un seuil 𝑘 qui n’a que 5
chance sur 100 d’être dépassé, on optera pour 𝐻1 avec une probabilité de
0,05 de se tromper.
➢ Si 𝑋̅ < 𝑘 on conservera 𝐻0 faute de preuves suffisantes. Il est facile de
calculer 𝑘 grâce à la table de loi normale et on trouve en utilisant le fait
que sous 𝐻0 , 𝑋̅~ 𝒩 (3000 , 10000) :
400
𝑘 = 3000 + 1,64 = 3164
4
Les données relevées sur les 16 semaines indiquent que la valeur observée de 𝑋̅
est 𝑥̅ = 3087,81. La décision du directeur de production était donc de conserver
les techniques initiales de gestion des ressources humaines.
Cependant rien ne dit que conserver les conditions initiales (𝐻0 ) mette à l’abri
de se tromper : en effet, la nouvelle équipe a peut-être raison, mais on ne s’en
est pas aperçu.
160000
Supposons que la nouvelle équipe ait raison, alors 𝑋̅~𝒩 (3200 , ). On 16
commet une erreur chaque fois que 𝑋̅ prend une valeur inférieure à 3164 c.à.d.
avec une probabilité :
̅
𝑋−3200 3164−3200
𝛽 = 𝑃(𝑋̅ < 3164) = 𝑃 ( < ) = 𝑃(𝒩(0 , 1) < −0,36)
√10000 100
Les deux hypothèses ne jouent pas un rôle symétrique, 𝑘 est déterminé par 𝐻0
et 𝛼 ; 𝛽 sont déterminés par la considération supplémentaire de 𝐻1 .
Soient 𝐻0 et 𝐻1 deux hypothèses dont une et une seule est vraie. La décision
aboutira à choisir 𝐻0 ou 𝐻1 . Il y a quatre cas possibles schématisés dans le
tableau suivant avec les probabilités correspondantes :
Vérité 𝑯𝟎 𝑯𝟏
Décision 𝑯𝟎 1 − 𝛼 = 𝑃𝑐ℎ𝑜𝑖𝑠𝑖𝑟𝐻0 (𝐻0 𝑣𝑟𝑎𝑖𝑒) 𝛽 = 𝑃𝑐ℎ𝑜𝑖𝑠𝑖𝑟𝐻0 (𝐻1 𝑣𝑟𝑎𝑖𝑒)
erreur de deuxième espèce
une nouvelle technique de gestion des ressources humaines plus onéreuse sans
effet sur l’augmentation de la productivité ; le risque de la deuxième espèce à
laisser perdre une occasion d’augmenter le nombre de pièces produites et donc
le profit.
Dans la pratique des tests statistiques, il est de règle de se fixer 𝛼 comme donné
( les valeurs courantes sont 0,05 ; 0,01 ; 0,1) de préférence en fonction du risque
de première espèce couru, ce qui fait jouer à 𝐻0 un rôle prééminent.
𝛼 étant fixé, 𝛽 sera déterminé comme résultat d’un calcul (ceci n’est possible
que si l’on connait la loi de probabilité sous 𝐻1 )
Cependant il faut savoir que 𝛽 varie au sens contraire de 𝛼. Si l’on veut diminuer
𝛼 (risque d’erreur de première espèce), on augmente 1 − 𝛼 probabilité
d’accepter 𝐻0 si 𝐻0 est vraie ; mais surtout on est conduit à une règle de décision
plus stricte qui aboutit à n’abandonner 𝐻0 que dans des cas rarissimes et donc à
conserver 𝐻0 bien souvent à tort.
𝛼 étant fixé, il est important de choisir une variable de décision : variable qui doit
apporter le maximum d’information sur le problème posé et dont la loi sera
différente selon que 𝐻0 ou 𝐻1 est vraie. Il faut que sa loi soit entièrement connue
au moins si 𝐻0 est vraie.
̅ et l’on a :
La région d’acceptation est son complémentaire 𝑊
̅) = 1−𝛼
𝑃𝐻0 (𝑊 et 𝑃𝐻1 (𝑊) = 1 − 𝛽
1. Choix de 𝐻0 et 𝐻1 .
2. Détermination de la variable de décision.
3. Calcul de la région critique 𝑊 en fonction de 𝛼.
4. Calcul de la puissance 1 − 𝛽.
5. Calcul de la valeur expérimentale de la variable de décision.
6. Conclusion : rejet ou acceptation de 𝐻0 .
𝐻0 ∶ " 𝜃 = 𝜃0 "
Il s’agit de tester : { 𝑐𝑜𝑛𝑡𝑟𝑒
𝐻1 ∶ " 𝜃 = 𝜃1 "
∫ 𝐿(𝐱 , 𝜃0 ) 𝑑𝐱 = 𝛼 = 𝑃 (𝑊⁄𝐻 )
𝑊 0
𝐿(𝐱 ,𝜃1 )
Nous pouvons écrire : 1 − 𝛽 = ∫𝑊 𝐿(𝐱 , 𝜃0 )𝑑𝐱
𝐿(𝐱 ,𝜃0 )
La région critique optimale est définie par l’ensemble des points de ℝ𝑛 tels que :
𝐿(𝐱 , 𝜃1 )
> 𝑘𝛼
𝐿(𝐱 , 𝜃0 )
Démonstration :
𝐿(𝐱 ,𝜃1 )
𝑊 = {𝐱 ∈ ℝ𝑛 / > 𝑘𝛼 } vérifie : 𝑃𝐻0 (𝑊) = 𝛼
𝐿(𝐱 ,𝜃0 )
alors cette région réalise le maximum de 1 − 𝛽. En effet, soit 𝑊 ′ une autre région
de ℝ𝑛 telle que 𝑃𝐻0 (𝑊′) = 𝛼 ; 𝑊 ′ diffère de 𝑊 par des points où
𝐿(𝐱 ,𝜃1 )
≤ 𝑘𝛼 . On a alors :
𝐿(𝐱 ,𝜃0 )
à 𝑊 et à 𝑊 ′ . Or on a :
′ 𝐿(𝐱 , 𝜃1 ) 𝐿(𝜌 , 𝜃1 )
∃ 𝜌 ∈ 𝑊 − 𝑊 𝑡𝑞 ∫ 𝐿(𝐱 , 𝜃0 )𝑑𝐱 = 𝑃𝐻0 (𝑊 − 𝑊′ )
𝑊−𝑊 ′ 𝐿 (𝐱 , 𝜃0 ) 𝐿(𝜌 , 𝜃0 )
et
𝐿(𝐱 , 𝜃1 ) 𝐿(𝜌′ , 𝜃1 )
∃ 𝜌′ ∈ 𝑊′ − 𝑊 𝑡𝑞 ∫ 𝐿(𝐱 , 𝜃0 )𝑑𝐱 = ′ ,𝜃 )
𝑃𝐻0 (𝑊′ − 𝑊)
′
𝑊 −𝑊 𝐿 ( 𝐱 , 𝜃0 ) 𝐿 ( 𝜌 0
Démonstration :
𝐿(𝐱 , 𝜃1 )
> 𝑘𝛼 ⇒ 𝐿(𝐱 , 𝜃1 ) > 𝑘𝛼 𝐿(𝐱 , 𝜃0 ) ⇒ ∫ 𝐿(𝐱 , 𝜃1 ) 𝑑𝐱 > 𝑘𝛼 ∫ 𝐿(𝐱 , 𝜃0 ) 𝑑𝐱
𝐿(𝐱 , 𝜃0 ) 𝑊 𝑊
̅)
𝛽 = 𝑃𝐻1 (𝑊 et ̅)
1 − 𝛼 = 𝑃𝐻0 (𝑊
𝐿(𝐱 ,𝜃1 )
̅ est tel que
𝑊 < 𝑘𝛼 , donc ∫𝑊̅ 𝐿(𝐱 , 𝜃1 ) 𝑑𝐱 < 𝑘𝛼 ∫𝑊̅ 𝐿(𝐱 , 𝜃0 ) 𝑑𝐱
𝐿(𝐱 ,𝜃0 )
c.q.f.d.
1. Quel test peut-on effectuer pour avoir une région critique optimale ? Ce test
est-il sans biais ?
2. Donner cette région critique de niveau 1 − 𝛼
3. On suppose que (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) est issu d’un modèle de poisson de
paramètre 𝜃, (Ρθ = P (𝜃))𝜃∈ℝ∗+ . Donner la région critique optimale pour le
test précédent, calculer sa puissance.
A.N : 𝜃0 = 1 ; 𝜃1 = 2 ; 𝑛 = 4 ; 𝛼 = 0,05
Remarque : pour 𝑛𝜃 > 20 on peut approcher la loi de poisson P (𝜃) par une
loi normale
2
√𝑛 1 √𝑛 (𝑡−𝑚)
𝑔(𝑡, 𝑚) = 𝑒𝑥𝑝 [− ( ) ] avec 𝑡 = 𝑥̅
𝜎√2𝜋 2 𝜎
𝑔(𝑡,𝑚1 ) 𝑛
Le rapport des densités est = 𝑒𝑥𝑝 [− ((𝑡 − 𝑚1 )2 − (𝑡 − 𝑚0 )2 )]
𝑔(𝑡,𝑚0 ) 2 𝜎2
𝑔(𝑡,𝑚1 )
> 𝑘𝛼 ⇐ ((𝑡 − 𝑚0 )2 − (𝑡 − 𝑚1 )2 ) > 𝑘𝛼′
𝑔(𝑡,𝑚0 )
̅ on a :
En représentant sur le même graphique les densités de 𝑋
(𝑋̅ − 𝑚0 ) (𝑘 − 𝑚0 )
̅ > 𝑘) = 𝑃𝐻0 (√𝑛
𝑃𝐻0 (𝑋 > √𝑛 )=𝛼
𝜎 𝜎
(𝑘 − 𝑚0 )
⇒ 𝑃𝐻0 (𝒩(0 ,1) < √𝑛 )=1−𝛼
𝜎
(𝑘−𝑚0 )
⇒ √𝑛 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝒩(0 ,1) associé à 1 − 𝛼
𝜎
(𝑘−𝑚1 )
̅ > 𝑘) = 𝑃𝐻 (𝒩(0 ,1) > √𝑛
1 − 𝛽 = 𝑃𝐻1 (𝑋 ) = 𝑃𝐻1 (𝒩(0 ,1) > 4 (0,41 − 2))
1 𝜎
Exemples :
Tout test d’hypothèse simple contre composite est caractérisé par le niveau 𝛼 et
une fonction puissance : 𝜋 ∶ Θ1 → [0 , 1]
𝜃 → 𝜋(𝜃) = 1 − 𝛽(𝜃)
𝐻0 ∶ » 𝑚 = 𝑚0 » contre 𝐻1 ∶ » 𝑚 = 𝑚1 »
Test unilatéral à droite : 1) 𝐻0 : " 𝑚 = 𝑚0 " contre 𝐻1 : " 𝑚 = 𝑚1 " (𝑚1 > 𝑚0 )
Test unilatéral à gauche :1) 𝐻0 : " 𝑚 = 𝑚0 " contre 𝐻1 ∶ " 𝑚 = 𝑚1 " (𝑚1 < 𝑚0 )
̅>𝑘
𝑋 𝑠𝑖 𝑚1 > 𝑚0 𝑜𝑢 𝑚 > 𝑚0
{ 𝑒𝑡 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
̅<𝑘
𝑋 𝑠𝑖 𝑚1 < 𝑚0 𝑜𝑢 𝑚 < 𝑚0
(𝑋̅−𝑚0 )
l’utilisation de la statistique √𝑛 qui suit sous 𝐻0 une loi normale 𝒩 (0 , 1)
𝜎
𝜎
𝑊 = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 / 𝑥̅ 𝜖 ]𝑚0 + 𝜙1−𝛼 ; +∞[}
√𝑛
𝜎
𝑊 = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 / 𝑥̅ 𝜖 ]−∞ ; 𝑚0 − 𝜙1−𝛼 [}
√𝑛
̅>𝑘
𝑋 𝑠𝑖 𝑚1 > 𝑚0 𝑜𝑢 𝑚 > 𝑚0
{ 𝑒𝑡 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
̅<𝑘
𝑋 𝑠𝑖 𝑚1 < 𝑚0 𝑜𝑢 𝑚 < 𝑚0
(𝑋̅ −𝑚 )
l’utilisation de la statistique √𝑛 𝑆 0 qui suit sous 𝐻0 une loi de Student à
(𝑛 − 1) degrès de liberté nous donne la région critique 𝑊 de niveau 𝛼 :
̅ > 𝑘1
𝑋 𝑠𝑖 𝑚 > 𝑚0
{ 𝑜𝑢 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
̅ < 𝑘2
𝑋 𝑠𝑖 𝑚 < 𝑚0
(𝑋̅−𝑚0 )
l’utilisation de la statistique √𝑛 qui suit une loi normale 𝒩 (0 , 1) sous
𝜎
̅ de niveau 𝛼 :
𝐻0 , nous donne la région d’acceptation symétrique 𝑊
𝜎 𝜎
̅ = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 / 𝑥̅ 𝜖 ]𝑚0 −
𝑊 𝜙1−𝛼 , 𝑚0 + 𝜙1−𝛼 [}
√𝑛 2 √𝑛 2
̅ 𝑐.
La région critique de niveau 𝛼 est 𝑊 = 𝑊
𝛼
𝜙1−𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝒩(0 , 1) 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 à 1 −
2 2
𝑆′ 𝑆′
̅ = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 / 𝑥̅ 𝜖 ]𝑚0 −
𝑊 𝑡(𝑛−1),1−𝛼 ; 𝑚0 + 𝑡(𝑛−1),1−𝛼 [}
√𝑛 2 √𝑛 2
̅𝑐
La région de rejet de niveau 𝛼 est 𝑊 = 𝑊
𝛼
𝑡(𝑛−1),1−𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 à 𝑛 − 1 𝑑𝑒𝑔𝑟è𝑠 𝑑𝑒 𝑙𝑖𝑏é𝑟𝑡é 𝑎𝑠𝑠𝑜𝑐𝑖é (1 − )
2 2
Remarques :
par 𝜙1−𝛼
2
Test unilatéral à droite : 1) 𝐻0 ∶ " 𝜎2 = 𝜎20 " contre 𝐻1 ∶ " 𝜎2 = 𝜎21 " (𝜎21 > 𝜎20 )
Test unilatéral à gauche :1) 𝐻0 ∶ " 𝜎2 = 𝜎20 " contre 𝐻1 ∶ " 𝜎2 = 𝜎21 " (𝜎21 < 𝜎20 )
1
▪ 𝒎 connu : On utilise la statistique 𝑆 2 = 𝑛 ∑𝑛𝑖=1(𝑋𝑖 − 𝑚)2 , la règle de
décision est la suivante :
𝑛
l’utilisation de la statistique 𝑆 2 qui suit une loi 𝒳𝑛2 sous 𝐻0 , nous donne la région
𝜎02
critique 𝑊 de niveau 𝛼 :
𝜎20
𝑊 = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 / 𝑆2 𝜖 ] 𝜒2𝑛,1−𝛼 ; +∞[}
𝑛
𝜎20
𝑊 = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 / 𝑆2 𝜖 ]0 ; 𝜒2𝑛,𝛼 [}
𝑛
2 2
𝜒𝑛,𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 à 𝜒𝑛 au niveau 𝛼
2 2
𝜒𝑛,1− 𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 à 𝜒𝑛 au niveau 1 − 𝛼
1
▪ 𝒎 inconnu : On utilise la statistique 𝑆 2 = 𝑛 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅ )2 , la règle de
décision est la suivante :
𝑛 2
l’utilisation de la statistique 𝑆 2 qui suit une loi 𝒳𝑛−1 sous 𝐻0 , nous donne la région
𝜎02
critique 𝑊 de niveau 𝛼 :
𝜎20
𝑊 = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 / 𝑆2 𝜖 ] 𝜒2𝑛−1,1−𝛼 ; +∞[}
𝑛
𝑛 2
𝜎20
𝑊 = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ / 𝑆 𝜖 ]0 ; 𝜒2𝑛−1,𝛼 [}
𝑛
2 2
𝜒𝑛−1,𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 à 𝜒𝑛−1 au niveau 𝛼
2 2
𝜒𝑛−1,1− 𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 à 𝜒𝑛−1 au niveau 1 − 𝛼
1
▪ 𝒎 connu : On utilise 𝑆 2 = 𝑛 ∑𝑛𝑖=1(𝑋𝑖 − 𝑚)2 , la règle de décision est la
suivante :
̅ de niveau 𝛼 :
d’acceptation symétrique 𝑊
𝜎20 𝜎20
̅ = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ / 𝑆 𝜖 ]
𝑊 𝑛 2 2
𝜒 𝛼 , 𝜒
2
𝛼 [}
𝑛 𝑛; 𝑛 𝑛 ; (1− )
2 2
̅ 𝑐.
La région de rejet de niveau 𝛼 est 𝑊 = 𝑊
𝛼
𝜒𝑛2 ; 𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 à 𝜒𝑛2 au niveau
2 2
𝛼
𝜒𝑛2 ; (1−𝛼) = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 à 𝜒𝑛2 au niveau 1 −
2 2
1
▪ 𝒎 inconnu : On utilise la statistique 𝑆 2 = 𝑛 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅ )2 , la règle de
décision est la suivante :
𝑛 2
l’utilisation de la statistique 𝑆 2 qui suit une loi 𝒳𝑛−1 sous 𝐻0 , nous donne la région
𝜎02
̅ de niveau 𝛼 :
d’acceptation symétrique 𝑊
𝜎20 𝜎20
̅ = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ / 𝑆 𝜖 [
𝑊 𝑛 2 2
𝜒 𝛼 ; 𝜒
2
𝛼 ]}
𝑛 𝑛−1, 𝑛 𝑛−1,(1− )
2 2
̅ 𝑐.
La région critique de niveau 𝛼 est 𝑊 = 𝑊
2 2
𝛼
𝜒𝑛−1 ;
𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 à 𝜒𝑛−1 au niveau
2 2
2 2 𝛼
𝜒𝑛−1 𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 à 𝜒𝑛−1 au niveau 1 −
; 1−
2 2
Remarques :
(𝑆 2 − 𝜎20 ) ℒ
√𝑛 ̂ 4 − (𝑆 2 )2
√𝜇
→ 𝒩(0 ,1) (Sous 𝐻0 )
1
où 𝜇̂ 4 = 𝑛 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)4 est le moment centré empirique d’ordre 4.
Test unilatéral à droite : 1) 𝐻0 : " 𝑝 = 𝑝0 " contre 𝐻1 : " 𝑝 = 𝑝1 " (𝑝1 > 𝑝0 )
Test unilatéral à gauche : 1) 𝐻0 ∶ " 𝑝 = 𝑝0 " contre 𝐻1 ∶ " 𝑝 = 𝑝1 " (𝑝1 < 𝑝0 )
̅≥𝑘
𝑋 𝑠𝑖 𝑝1 > 𝑝0 𝑜𝑢 𝑝 > 𝑝0
{ 𝑒𝑡 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
̅≤𝑘
𝑋 𝑠𝑖 𝑝1 < 𝑝0 𝑜𝑢 𝑝 < 𝑝0
1 + 𝐵(𝑛 ; 𝑝0),1−𝛼
𝑊 = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 / 𝑥̅ 𝜖 [ ; 1]}
𝑛
1 + 𝐵(𝑛 ; 𝑝0),1−𝛼
⇐ 𝑘=
𝑛
𝐵(𝑛 ; 𝑝0),𝛼
𝑊 = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 / 𝑥̅ 𝜖 [0 ; ]}
𝑛
𝐵(𝑛 ; 𝑝0) ; 𝛼
⇐ 𝑘=
𝑛
̅ ≥ 𝑘1
𝑋 𝑠𝑖 𝑝 > 𝑝0
{ 𝑜𝑢 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
̅ ≤ 𝑘2
𝑋 𝑠𝑖 𝑝 < 𝑝0
𝛼
On prend 𝑃𝐻0 (𝑛𝐹𝑛 ≤ 𝑛𝑘2 ) = 𝑃𝐻0 (𝑛𝐹𝑛 ≥ 𝑛𝑘1 ) =
2
𝛼
𝑛𝑘2 = 𝐵(𝑛 ; 𝑝0) ; 𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝐵(𝑛 , 𝑝0 ) 𝑎𝑠𝑠𝑜𝑐𝑖é à
2 2
⇒ {
𝛼
𝑛𝑘1 − 1 = 𝐵(𝑛 ; 𝑝0) ;1− 𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝐵(𝑛 , 𝑝0 )𝑎𝑠𝑠𝑜𝑐𝑖é à 1 −
2 2
𝐵(𝑛 𝛼
; 𝑝0 ) ;
2
𝑘2 =
𝑛
⇒
1 + 𝐵(𝑛 𝛼
; 𝑝0 ) ;1−
2
{𝑘1 = 𝑛
𝐵(𝑛 ; 𝑝 𝛼 1 + 𝐵(𝑛 ; 𝑝 𝛼
0) ; 2 0 ) ; 1− 2
̅ = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ / 𝑥̅ 𝜖 ]
𝑊 𝑛
; [}
𝑛 𝑛
Remarque : Si la variable aléatoire 𝑋 ne suit pas une loi normale les tests
précédents s’appliquent encore dès que 𝑛 est assez grand (𝑛 > 30), en raison
du théorème centrale limite, en utilisant le fait que la statistique :
(𝐹𝑛 − 𝑝0 ) ℒ
√𝑛 √ 𝑝0 (1−𝑝0 )
→ 𝒩(0 ,1) (Sous 𝐻0 )
Test unilatéral à droite : 𝑃𝐻0 (𝑊) = 𝑃𝐻0 (𝐹𝑛 ≥ 𝑘) = 𝛼 ⇐ 𝑃𝐻0 (𝑛𝐹𝑛 ≥ 𝑛𝑘) = 𝛼
0,5 1
𝑊 = {(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 / 𝑥̅ 𝜖 [𝑝0 + + √ 𝑝0 (1−𝑝0 ) 𝜙1−𝛼 ; 1[}
𝑛 √𝑛
Test unilatéral à gauche : 𝑃𝐻0 (𝑊) = 𝑃𝐻0 (𝐹𝑛 ≤ 𝑘) = 𝛼 ⇐ 𝑃𝐻0 (𝑛𝐹𝑛 ≤ 𝑛𝑘) = 𝛼
̅ )𝑐 .
avec 𝐱 = (𝑥1 , … , 𝑥𝑛 ), 𝑊 = (𝑊
1
Remarque : Si 𝑛 ≈ 0, la décision du test bilatéral précédent peut se faire à
travers les intervalles de confiance IC1−𝛼 (𝑝) de la proportion 𝑝 de niveau 𝛼. En
effet, le rejet de 𝐻0 se fera si 𝑝0 ∉ IC1−𝛼 (𝑝).
Test unilatérale à droite : 1) 𝐻0 ∶ " 𝜃 = 𝜃0 " contre 𝐻1 : " 𝜃 = 𝜃1 " (𝜃1 > 𝜃0 )
Test unilatérale à gauche : 1) 𝐻0 ∶ " 𝜃 = 𝜃0 " contre 𝐻1 ∶ " 𝜃 = 𝜃1 " (𝜃1 < 𝜃0 )
𝑛1 +𝑛2 1 1
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / (𝑥
̅ − 𝑦̅ ) ∈ ]𝜃0 + 𝜎√ + 𝜙 ; +∞ [}
𝑛1 𝑛2 1−𝛼
1 1
𝑊 = {(𝐱 , 𝐲) ∈ ℝ𝑛1+𝑛2 / (𝑥̅ − 𝑦̅ ) ∈ ]−∞ ; 𝜃0 − 𝜎√ + 𝜙1−𝛼 [}
𝑛1 𝑛2
′2 (𝑋̅ −𝑌̅ ) − 𝜃0
On estime 𝜎 2 par 𝑆𝑋𝑌 , l’utilisation de la statistique 1 1
qui suit sous 𝐻0 la
′
𝑆𝑋𝑌 +
√ 𝑛1 𝑛2
′
1 1
𝑊 = {(𝐱 , 𝐲) ∈ ℝ𝑛1+𝑛2 / (𝑥̅ − 𝑦̅ ) ∈ ]𝜃0 + 𝑆𝑋𝑌 √ + 𝑡 ; +∞ [}
𝑛1 𝑛2 (𝑛1+𝑛2−2) ; 1−𝛼
′
1 1
𝑊 = {(𝐱 , 𝐲) ∈ ℝ𝑛1+𝑛2 / (𝑥̅ − 𝑦̅ ) ∈ ]−∞ ; 𝜃0 − 𝑆𝑋𝑌 √ + 𝑡(𝑛1+𝑛2−2) ; 1−𝛼 [}
𝑛1 𝑛2
𝑛1 +𝑛2
𝜎12 𝜎22
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / (𝑥̅ − 𝑦̅ ) ∈ ]𝜃0 + √ + 𝜙 ; +∞ [}
𝑛1 𝑛2 1−𝛼
𝑛1 +𝑛2
𝜎12 𝜎22
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / (𝑥̅ − 𝑦̅ ) ∈ ]−∞ ; 𝜃0 − √ + 𝜙1−𝛼 [}
𝑛1 𝑛2
normale 𝒩(0 , 1) lorsque 𝑚𝑖𝑛(𝑛1 ; 𝑛2 ) est assez grand (le théorème central
limite) nous donne la région critique 𝑊 de niveau 𝛼 suivante :
𝑛1 +𝑛2
𝑆𝑋′2 𝑆𝑌′2
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / (𝑥̅ − 𝑦̅ ) ∈ ]𝜃0 + √ + 𝜙 ; +∞ [}
𝑛1 𝑛2 1−𝛼
𝑛1 +𝑛2
𝑆𝑋′2 𝑆𝑌′2
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / (𝑥̅ − 𝑦̅ ) ∈ ]−∞ ; 𝜃0 − √ + 𝜙1−𝛼 [}
𝑛1 𝑛2
1 1 1 1
̅ = {(𝐱 , 𝐲) ∈ ℝ𝑛1 +𝑛2 / (𝑥
𝑊 ̅ − 𝑦̅ ) ∈ ]𝜃0 − 𝜎√ + 𝜙1−𝛼 ; 𝜃0 + 𝜎√ + 𝜙 𝛼 [}
𝑛1 𝑛2 2 𝑛1 𝑛2 1− 2
̅ )𝑐
avec (𝐱 , 𝐲) = (𝑥1 , . . , 𝑥𝑛1 , 𝑦1 , . . , 𝑦𝑛2 ) ; 𝑊 = (𝑊
𝛼
𝜙1−𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝒩(0 , 1) 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 à 1 −
2 2
▪ 𝝈𝟐𝟏 = 𝝈𝟐𝟐 = 𝝈𝟐 ; 𝝈𝟐 𝒊𝒏𝒄𝒐𝒏𝒏𝒖
′2 (𝑋̅ −𝑌̅ ) − 𝜃0
On estime 𝜎 2 par 𝑆𝑋𝑌 et l’utilisation de la statistique 1 1
qui suit sous
′
𝑆𝑋𝑌 +
√ 𝑛1 𝑛2
1 1 1 1
̅ = {(𝐱 , 𝐲) ∈ ℝ𝑛1 +𝑛2 / (𝑥̅ − 𝑦̅ ) ∈ ]𝜃0 − 𝑆𝑋𝑌
𝑊 ′ √
+ ′ √
𝑡1−𝛼 ; 𝜃0 + 𝑆𝑋𝑌 + 𝑡 𝛼 [}
𝑛1 𝑛2 2 𝑛1 𝑛2 1− 2
̅ )𝑐
avec (𝐱 , 𝐲) = (𝑥1 , . . , 𝑥𝑛1 , 𝑦1 , . . , 𝑦𝑛2 ) ; 𝑊 = (𝑊
𝛼
𝑡1−𝛼 = 𝑡(𝑛 𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑇𝑛1+𝑛2 −2 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 à 1 −
2 1 +𝑛2 −2) ; 1− 2 2
la loi normale 𝒩(0 , 1) lorsque 𝑚𝑖𝑛(𝑛1 ; 𝑛2 ) est assez grand (le théorème central
̅ de niveau 𝛼 suivante :
limite) nous donne la région d’acceptation symétrique 𝑊
𝑆′2
𝑋 𝑆′2
𝑌 𝑆′2
𝑋 𝑆′2
𝑌
̅ = {(𝐱 , 𝐲) ∈ ℝ𝑛1 +𝑛2 / (𝑥
𝑊 ̅ − 𝑦̅ ) ∈ ]𝜃0 − √ + 𝜙1−𝛼 ; 𝜃0 + 𝜎 √ + 𝜙 𝛼 [}
𝑛1 𝑛2 2 𝑛1 𝑛2 1− 2
̅ )𝑐
avec (𝐱 , 𝐲) = (𝑥1 , . . , 𝑥𝑛1 , 𝑦1 , . . , 𝑦𝑛2 ) ; la région critique est 𝑊 = (𝑊
𝛼
𝜙1−𝛼 = 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝒩(0 , 1) 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 à 1 −
2 2
Remarque : la décision du test bilatéral précédent peut se faire à travers les
intervalles de confiance IC1−𝛼 (𝜃) de la différence 𝜃 = (𝑚1 − 𝑚2 ) de niveau 𝛼.
En effet, le rejet de 𝐻0 se fera si 𝜃0 ∉ IC1−𝛼 (𝜃).
On se propose d’effectuer les tests sur l’égalité des variances 𝜎12 et 𝜎22 pour se
faire on distingue les tests suivants :
𝜎22 𝜎22
1) 𝐻0 ∶ " 𝜎12 = 𝜎22 " contre 𝐻1 ∶ " 𝜎22 > 𝜎12 " ⇐ 𝐻0 : " = 1" contre 𝐻1 ∶ " > 1"
𝜎12 𝜎12
𝜎22 𝜎22
2) 𝐻0 ∶ " 𝜎12 = 𝜎22 " contre 𝐻1 ∶ " 𝜎22 < 𝜎12 " ⇐ 𝐻0 : " = 1" contre 𝐻1 ∶ " < 1"
𝜎12 𝜎12
▪ 𝒎𝟏 et 𝒎𝟐 connus
1 1
𝜎̂12 = 𝑆𝑋2 = ∑𝑛𝑖=1
1
(𝑋𝑖 − 𝑚1 )2 et 𝜎̂22 = 𝑆𝑌2 = ∑𝑛𝑖=1
2
(𝑌𝑖 − 𝑚2 )2
𝑛1 𝑛2
𝑆𝑌2 𝜎22
On utilise la variable 2 qui est le meilleurs estimateur de comme variable de
𝑆𝑋 𝜎12
𝑆𝑌2
>𝑘 𝑠𝑖 𝜎22 > 𝜎12
𝑆𝑋2
𝑒𝑡 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
𝑆𝑌2
<𝑘 𝑠𝑖 𝜎22 < 𝜎12
{ 𝑆𝑋2
2
𝜎22 𝑆𝑋
L’utilisation de la statistique ℱ = qui suit une loi de Fisher ℱ𝑛1 ; 𝑛2 nous
𝜎12 𝑆𝑌2
𝑛1 +𝑛2
𝜎22 𝑆𝑌2
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / 2 ∈ ] 2 ℱ𝑛1 ; 𝑛2 ; 1− 𝛼 ; +∞ [}
𝜎1 𝑆𝑋
𝑛1 +𝑛2
𝜎22 𝑆𝑌2
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / 2 ∈ ] 0 ; 2 ℱ𝑛1 ; 𝑛2 ; 𝛼 [ }
𝜎1 𝑆𝑋
▪ 𝒎𝟏 𝐜𝐨𝐧𝐧𝐮 et 𝒎𝟐 inconnu
1 1
𝜎̂12 = 𝑆𝑋2 = ∑𝑛𝑖=1
1
(𝑋𝑖 − 𝑚1 )2 et 𝜎̂22 = 𝑆𝑌′2 = ∑𝑛𝑖=1
2
(𝑌𝑖 − 𝑌̅)2
𝑛1 𝑛2 −1
𝑆𝑌′2 𝜎22
On utilise la variable 2 qui est le meilleurs estimateur de comme variable
𝑆𝑋 𝜎12
𝑆𝑌′2
>𝑘 𝑠𝑖 𝜎22 > 𝜎12
𝑆𝑋2
𝑒𝑡 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
𝑆𝑌′2
<𝑘 𝑠𝑖 𝜎22 < 𝜎12
{ 𝑆𝑋2
2
𝜎22 𝑆𝑋
L’utilisation de la statistique ℱ = qui suit une loi de Fisher ℱ𝑛1; (𝑛2−1)
𝜎12 𝑆𝑌′2
𝑛1 +𝑛2
𝜎22 𝑆𝑌′2
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / 2 ∈ ] 2 ℱ𝑛1; (𝑛2 −1); 1− 𝛼 ; +∞ [}
𝜎1 𝑆𝑋
𝑛1 +𝑛2
𝜎22 𝑆𝑌′2
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / 2 ∈]0 ; ℱ (𝑛 [}
𝜎1 𝑆𝑋2 𝑛1 ; 2−1); 𝛼
▪ 𝒎𝟏 inconnu et 𝒎𝟐 connu
1 1
𝜎̂12 = 𝑆𝑋′2 = ∑𝑛𝑖=1
1
(𝑋𝑖 − 𝑋̅ )2 et 𝜎̂22 = 𝑆𝑌2 = ∑𝑛𝑖=1
2
(𝑌𝑖 − 𝑚2 )2
𝑛1 −1 𝑛2
𝑆𝑌2 𝜎22
On utilise la variable ′2 qui est le meilleurs estimateur de comme variable
𝑆𝑋 𝜎12
𝑆𝑌2
>𝑘 𝑠𝑖 𝜎22 > 𝜎12
𝑆𝑋′2
𝑒𝑡 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
𝑆𝑌2
<𝑘 𝑠𝑖 𝜎22 < 𝜎12
{ 𝑆𝑋′2
′2
𝜎22 𝑆𝑋
L’utilisation de la statistique ℱ = qui suit une loi de Fisher ℱ(𝑛1 −1) ; 𝑛2
𝜎12 𝑆𝑌2
𝑛1 +𝑛2
𝜎22 𝑆𝑌2
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / 2 ∈ ] ′2 ℱ(𝑛1 −1) ; 𝑛2 ; 1− 𝛼 ; +∞ [}
𝜎1 𝑆𝑋
𝑛1 +𝑛2
𝜎22 𝑆𝑌2
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / 2 ∈ ] 0 ; ′2 ℱ(𝑛1 −1) ; 𝑛2 ; 𝛼 [ }
𝜎1 𝑆𝑋
▪ 𝒎𝟏 et 𝒎𝟐 inconnus
1 1
𝜎̂12 = 𝑆𝑋′2 = ∑𝑛𝑖=1
1
(𝑋𝑖 − 𝑋̅ )2 et 𝜎̂22 = 𝑆𝑌′2 = ∑𝑛𝑖=1
2
(𝑌𝑖 − 𝑌̅)2
𝑛1 −1 𝑛2 −1
𝑆𝑌′2 𝜎22
On utilise la variable ′2 qui est le meilleurs estimateur de comme variable
𝑆𝑋 𝜎12
𝑆𝑌′2
>𝑘 𝑠𝑖 𝜎22 > 𝜎12
𝑆𝑋′2
𝑒𝑡 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
𝑆𝑌′2
<𝑘 𝑠𝑖 𝜎22 < 𝜎12
{ 𝑆𝑋′2
′2
𝜎22 𝑆𝑋
L’utilisation de la statistique ℱ = qui suit une loi de Fisher ℱ(𝑛1 −1) ; (𝑛2 −1)
𝜎12 𝑆𝑌2
𝑛1 +𝑛2
𝜎22 𝑆𝑌′2
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / 2 ∈ ] ′2 ℱ(𝑛1 −1) ; (𝑛2 −1) ; 1− 𝛼 ; +∞ [}
𝜎1 𝑆𝑋
𝑛1 +𝑛2
𝜎22 𝑆𝑌′2
𝑊 = {(𝐱 , 𝐲) ∈ ℝ / 2 ∈ ] 0 ; ′2 ℱ(𝑛1 −1) ; (𝑛2 −1) ; 𝛼 [ }
𝜎1 𝑆𝑋
𝜎22 𝜎22
𝐻0 ∶ " 𝜎12 = 𝜎22 " contre 𝐻1 ∶ " 𝜎22 ≠ 𝜎12 " ⇐ 𝐻0 ∶ " = 1" contre 𝐻1 ∶ " ≠ 1"
𝜎21 𝜎21
▪ 𝒎𝟏 et 𝒎𝟐 connus
1 1
𝜎̂12 = 𝑆𝑋2 = ∑𝑛𝑖=1
1
(𝑋𝑖 − 𝑚1 )2 et 𝜎̂22 = 𝑆𝑌2 = ∑𝑛𝑖=1
2
(𝑌𝑖 − 𝑚2 )2
𝑛1 𝑛2
𝑆𝑌2 𝜎22
On utilise la variable 2 qui est le meilleurs estimateur de comme variable de
𝑆𝑋 𝜎12
𝑆𝑌2
> 𝑘1 𝑠𝑖 𝜎22 > 𝜎12
𝑆𝑋2
𝑜𝑢 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
𝑆𝑌2
< 𝑘2 𝑠𝑖 𝜎22 < 𝜎12
{ 𝑆𝑋2
2
𝜎22 𝑆𝑋
L’utilisation de la statistique ℱ = qui suit une loi de Fisher ℱ𝑛1 ; 𝑛2 nous
𝜎12 𝑆𝑌2
̅ de niveau 1 − 𝛼 suivante :
donne la région d’acceptation 𝑊
̅ )𝑐
avec (𝐱 , 𝐲) = (𝑥1 , . . , 𝑥𝑛1 , 𝑦1 , . . , 𝑦𝑛2 ) et 𝑊 = (𝑊
𝛼
ℱ𝑛 𝛼 = quantile de la loi ℱ𝑛1 ; 𝑛2 associé à
1 ; 𝑛2 ; 2 2
𝛼
ℱ𝑛 𝛼 = quantile de la loi ℱ𝑛1 ; 𝑛2 associé à 1 −
1 ; 𝑛2 ;1− 2 2
▪ 𝒎𝟏 𝐜𝐨𝐧𝐧𝐮 et 𝒎𝟐 inconnu
1 1
𝜎̂12 = 𝑆𝑋2 = ∑𝑛𝑖=1
1
(𝑋𝑖 − 𝑚1 )2 et 𝜎̂22 = 𝑆𝑌′2 = ∑𝑛𝑖=1
2
(𝑌𝑖 − 𝑌̅)2
𝑛1 𝑛2 −1
𝑆𝑌′2 𝜎22
On utilise la variable 2 qui est le meilleurs estimateur de comme variable
𝑆𝑋 𝜎12
𝑆𝑌′2
> 𝑘1 𝑠𝑖 𝜎22 > 𝜎12
𝑆𝑋2
𝑜𝑢 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
𝑆𝑌′2
< 𝑘2 𝑠𝑖 𝜎22 < 𝜎12
{ 𝑆𝑋2
2
𝜎22 𝑆𝑋
L’utilisation de la statistique ℱ = qui suit une loi de Fisher ℱ𝑛1; (𝑛2−1)
𝜎12 𝑆𝑌′2
̅ de niveau 1 − 𝛼 suivante :
nous donne la région d’acceptation 𝑊
𝜎22 𝑆𝑌′2 𝑆𝑌′2
̅ = {(𝐱 , 𝐲) ∈ ℝ𝑛1+𝑛2 /
𝑊 ∈ ] 2 ℱ𝑛 ; (𝑛 −1) ; 𝛼 ; 2 ℱ𝑛 ; (𝑛 −1) ;1− 𝛼 [}
𝜎12 𝑆𝑋 1 2 2 𝑆𝑋 1 2 2
̅ )𝑐
avec (𝐱 , 𝐲) = (𝑥1 , . . , 𝑥𝑛1 , 𝑦1 , . . , 𝑦𝑛2 ) et 𝑊 = (𝑊
𝛼
ℱ𝑛 𝛼 = quantile de la loi ℱ𝑛1; (𝑛2−1) associé à
1 ; (𝑛2 −1); 2 2
𝛼
ℱ𝑛 𝛼 = quantile de la loi ℱ𝑛1; (𝑛2−1) associé à 1 −
1 ; (𝑛2 −1);1− 2 2
▪ 𝒎𝟏 inconnu et 𝒎𝟐 connu
Les meilleurs estimateurs de 𝜎12 et 𝜎22 sont donnés par :
1 1
𝜎̂12 = 𝑆𝑋′2 = ∑𝑛𝑖=1
1
(𝑋𝑖 − 𝑋̅ )2 et 𝜎̂22 = 𝑆𝑌2 = ∑𝑛𝑖=1
2
(𝑌𝑖 − 𝑚2 )2
𝑛1 −1 𝑛2
𝑆𝑌2 𝜎22
On utilise la variable ′2 qui est le meilleurs estimateur de comme variable
𝑆𝑋 𝜎12
de décision et la règle de décision est la suivante :
𝑆𝑌2
>𝑘 𝑠𝑖 𝜎22 > 𝜎12
𝑆𝑋′2
𝑜𝑢 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
𝑆𝑌2
<𝑘 𝑠𝑖 𝜎22 < 𝜎12
{ 𝑆𝑋′2
′2
𝜎22 𝑆𝑋
L’utilisation de la statistique ℱ = qui suit une loi de Fisher ℱ(𝑛1 −1) ; 𝑛2
𝜎12 𝑆𝑌2
̅ de niveau 1 − 𝛼 suivante :
nous donne la région d’acceptation 𝑊
𝜎22 𝑆𝑌2 𝑆𝑌2
̅ = {(𝐱 , 𝐲) ∈ ℝ
𝑊 𝑛1 +𝑛2
/ 2 ∈ ] ′2 ℱ(𝑛 −1) ; 𝑛 ; 𝛼 ; ′2 ℱ(𝑛 −1) ; 𝑛 ;1− 𝛼 [}
𝜎1 𝑆𝑋 1 2 2 𝑆𝑋 1 2 2
̅ )𝑐
avec (𝐱 , 𝐲) = (𝑥1 , . . , 𝑥𝑛1 , 𝑦1 , . . , 𝑦𝑛2 ) et 𝑊 = (𝑊
𝛼
ℱ(𝑛 𝛼 = quantile de la loi ℱ(𝑛1−1) ; 𝑛2 associé à
1 −1) ; 𝑛2 ; 2 2
𝛼
ℱ(𝑛 𝛼 = quantile de la loi ℱ(𝑛1−1) ; 𝑛2 associé à 1 −
1 −1) ; 𝑛2 ;1− 2 2
▪ 𝒎𝟏 et 𝒎𝟐 inconnus
𝑆𝑌′2 𝜎22
On utilise la variable ′2 qui est le meilleurs estimateur de comme variable
𝑆𝑋 𝜎12
𝑆𝑌′2
>𝑘 𝑠𝑖 𝜎22 > 𝜎12
𝑆𝑋′2
𝑜𝑢 (𝑟𝑒𝑗𝑒𝑡 𝑑𝑒 𝐻0 )
𝑆𝑌′2
<𝑘 𝑠𝑖 𝜎22 < 𝜎12
{ 𝑆𝑋′2
′2
𝜎22 𝑆𝑋
L’utilisation de la statistique ℱ = qui suit une loi de Fisher ℱ(𝑛1 −1) ; (𝑛2 −1)
𝜎12 𝑆𝑌2
̅ de niveau 1 − 𝛼 suivante :
nous donne la région d’acceptation 𝑊
̅ )𝑐
avec (𝐱 , 𝐲) = (𝑥1 , . . , 𝑥𝑛1 , 𝑦1 , . . , 𝑦𝑛2 ) et 𝑊 = (𝑊
𝛼
ℱ(𝑛 𝛼 = quantile de la loi ℱ(𝑛1−1) ; (𝑛2−1) associé à
1 −1) ; (𝑛2 −1); 2 2
𝛼
ℱ(𝑛 𝛼 = quantile de la loi ℱ(𝑛1−1) ; (𝑛2−1) associé à 1 −
1 −1) ; (𝑛2 −1);1− 2 2
𝜎2
de 𝐻0 se fera si 1 ∉ IC1−𝛼 ( 22).
𝜎1
Test unilatéral : 1) 𝐻0 ∶ " 𝑝 = 𝑝0 " contre 𝐻1 : " 𝑝 = 𝑝01 " (𝑝01 > 𝑝0 )
𝑝1 (1−𝑝1 ) 𝑝2 (1−𝑝2 )
𝑉(𝐹1,𝑛1 − 𝐹2,𝑛2 ) = 𝑉(𝐹1,𝑛1 ) + 𝑉(𝐹2,𝑛2 ) = +
𝑛1 𝑛2
Il n’est donc pas facile de trouver une statistique de décision qui a une loi connue
sous 𝐻0 . Cependant, si min (𝑛1 , 𝑛2 ) est assez grand on peut utiliser le théorème
de limite central qui nous assure que la variable 𝑍𝑛1,𝑛2 définie par :
Tests de la forme :
Test 1) 𝐻0 ∶ " 𝜃 ≤ 𝜃0 " contre 𝐻1 : " 𝜃 > 𝜃0 "
ou Test 2) 𝐻0 ∶ " 𝜃 ≥ 𝜃0 " contre 𝐻1 : " 𝜃 < 𝜃0 "
Exemples :
1. Soit (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) un 𝑛-échantillon issu de 𝑋 ↝ 𝑏(𝑝)
Tester : 𝐻0 ∶ " 𝑝 ≤ 𝑝0 " contre 𝐻1 : " 𝑝 > 𝑝0 "
𝑝
𝑓(𝑥 , 𝑝) = 𝑝 𝑥 (1 − 𝑝)(1−𝑥) ⇒ ln 𝑓(𝑥 , 𝜃) = 𝑥 ln ( ) + ln(1 − 𝑝)
1−𝑝
= 𝑎(𝑥)𝑞(𝑝) + 𝐴(𝑝)
𝑝 1 1
Avec 𝑞(𝑝) = ln ( )⇒ 𝑞 ′ (𝑝) = + >0 ⇒ 𝑞(. )𝑒𝑠𝑡 𝑐𝑟𝑜𝑖𝑠𝑠𝑎𝑛𝑡𝑒 𝑒𝑛 𝑝
1−𝑝 𝑝 1−𝑝
𝑊 = {𝐱 ∈ ℝ𝑛 / ∑ 𝑥𝑖 > 𝑘𝛼 }
𝑖=1
𝑛 𝑛
𝑊 = {𝐱 ∈ ℝ𝑛 / ∑ 𝑥𝑖 < 𝑘𝛼 } = 𝑊 = {𝐱 ∈ ℝ𝑛 / ∑ 𝑥𝑖 ≤ [𝑘𝛼 ]}
𝑖=1 𝑖=1
𝑊 = {𝐱 ∈ ℝ𝑛 / ∑ 𝑥𝑖 < 𝑘𝛼 }
𝑖=1
Tests de la forme :
Test 1) 𝐻0 ∶ " 𝜃 ≤ 𝜃0 𝑜𝑢 𝜃 ≥ 𝜃1 " contre 𝐻1 : " 𝜃0 < 𝜃 < 𝜃1 "
Test 2) 𝐻0 ∶ " 𝜃0 ≤ 𝜃 ≤ 𝜃1 " contre 𝐻1 : " 𝜃 < 𝜃0 𝑜𝑢 𝜃 > 𝜃1 "
Démonstration : pour 𝑑 = 1
𝑝𝑠
ln Λ = ln 𝐿(𝐱 , 𝜃0 ) − ln 𝐿(𝐱 , 𝜃̂) où 𝜃̂ est l’EMV de 𝜃, On a 𝜃̂ → 𝜃0 sous 𝐻0
Le développement de Taylor à l’ordre au voisinage de 𝜃̂ nous assure l’existence
d’une constante 𝜃 ∗ ∈ [ 𝜃0 ; 𝜃̂ ] tel que :
2
𝜕 1 2 𝜕
ln 𝐿(𝐱 , 𝜃0 ) = ln 𝐿(𝐱 , 𝜃̂) + (𝜃0 − 𝜃̂) ̂ ̂
ln 𝐿(𝐱 , 𝜃) + (𝜃0 − 𝜃) ln 𝐿(𝐱 , 𝜃 ∗ )
𝜕𝜃 2 𝜕𝜃 2
1 2 𝜕 2
⇒ ln Λ =
2
(𝜃0 − 𝜃̂) 𝜕𝜃2 ln 𝐿(𝐱 , 𝜃 ∗ ) avec 𝜃 ∗ ∈ [ 𝜃0 ; 𝜃̂ ]
1 2 𝜕2
⇒ ln Λ =
2
(𝜃0 − 𝜃̂ ) 𝜕𝜃2
∑𝑛𝑖=1 ln 𝑓(𝑥𝑖 , 𝜃 ∗ ) avec 𝜃 ∗ ∈ [ 𝜃0 ; 𝜃̂ ]
1 2 𝜕2
⇒ ln Λ =
2
(𝜃0 − 𝜃̂ ) ∑𝑛𝑖=1 𝜕𝜃2 ln 𝑓(𝑥𝑖 , 𝜃 ∗ ) avec 𝜃 ∗ ∈ [ 𝜃0 ; 𝜃̂ ]
𝑛 2 1 𝜕 2
⇒ ln Λ =
2
(𝜃0 − 𝜃̂) [ 𝑛 ∑𝑛𝑖=1 𝜕𝜃2 ln 𝑓(𝑥𝑖 , 𝜃 ∗ ) ]
𝑝𝑠 𝑝𝑠
Or 𝜃̂ → 𝜃0 sous 𝐻0 ⇒ 𝜃∗ → 𝜃0 sous 𝐻0
1 𝜕2 1 𝜕2
⇒ ∑𝑛𝑖=1 2
ln 𝑓(𝑥𝑖 , 𝜃 ∗ ) ≈ ∑𝑛𝑖=1 ln 𝑓(𝑥𝑖 , 𝜃0 ) sous 𝐻0
𝑛 𝜕𝜃 𝑛 𝜕𝜃2