Leçon 249 : Loi normale en probabilités et statistique.

249
Probabilités
249 - L OI
NORMALE EN PROBABILITÉS ET EN STATISTIQUE
Prérequis : Indépendance, moments
Notations : (Ω, F , P) espace probabilisé.
I)
Loi normale : définition et premières propriétés
Déf 1 : Soit µ ∈ R et σ > 0. On dit qu’une v.a.r. X suit une loi normale ou gaussienne de paramètres µ et σ2 si elle
·
¸
¡
¢
(x − µ)2
1
admet pour densité la fonction x 7→ p exp −
. On note alors X ∼ N µ ; σ2 .
2
2σ
σ 2π
Lorsque µ = 0 et σ = 1, on dit que X suit une loi gaussienne ou normale centrée réduite ou encore standard. On note
alors Φ sa fonction de répartition, et parfois ϕ sa densité.
Prop 1 : Si X suit une loi normale de paramètres µ et σ2 , alors la variable aléatoire Z =
standard.
X−µ
suit une loi normale
σ
h
i
(x−µ)2
exp − 2σ2 d x . On fait alors un changement
Rz
2
x−µ
■
de variable : t = σ , d t = σ1 d x . Alors x = µ + zσ ⇔ t = z et donc P(Z ≤ z) = p1 −∞ e −t /2 d t et Z ∼ N (0 ; 1).
Preuve : Soit z ∈ R, P(Z ≤ z) = P
³
X−µ
σ
´
R µ+zσ
≤ z = P(X ≤ µ + zσ) = −∞ p
1
2πσ2
2π
Rem 1 : Grâce à cette propriété, on peut déduire des propriétés d’une loi normale quelconque à partir de la centrée
réduite associée.
¡
¢
Prop 2 : Si X ∼ N µ ; σ2 , E(X) = µ et V(X) = σ2 .
³ 2´
X−µ
Preuve : Soit Z = σ . La fonction x 7→ px exp − x2 est intégrable sur R et est impaire, donc E(Z) = 0.
2π
³ 2´
R∞
2
2
x
x
x 7→ p exp − 2 est tout aussi intégrable sur R et est paire, donc V(Z) = p2 0 x 2 e −x /2 d x . On intègre alors par
2π
2π
³h
i∞ R
³
´
p ´
R∞
2
2
2
∞
parties, et on obtient : V(Z) = p2 0 x · xe −x /2 d x = p2
−xe −x /2 + 0 e −x /2 d x = p2 0 + 22π = 1.
2π
2π
0
2π
On en déduit que E(X) = E(σZ + µ) = σE(Z) + µ = µ, et que V(X) = V(σZ + µ) = σ2 V(Z) = σ2 .
■
¡
¢
¡
¢
¡
¢
Prop 3 : Si X 1 ∼ N µ1 ; σ21 et X 2 ∼ N µ2 ; σ22 sont indépendantes, alors X 1 + X 2 ∼ N µ1 + µ2 ; σ21 + σ22 .
Preuve : Ultra gonflante si on ne connait pas les fonctions caractéristiques, c’est un produit de convolution.
■
Prop 4 : (Moments d’ordres supérieurs)
La loi normale centrée réduite admet des moments à tous les ordres et si X ∼ N (0 ; 1), alors ∀n ∈ N, E(X 2n+1 ) = 0 et
(2n)!
E(X 2n ) = n .
n n!
Preuve : Soit n ∈ N∗ , E(X n ) existe, et si n est impair, on obtient bien E(X n ) = 0.
h
i+∞
R
R 2n−2 −x 2 /2
2
2
p
E(X 2n ) = p1 R x 2n−1 · xe −x /2 d x = p1 −x 2n−1 e −x /2
+ 2n−1
e
d x = (2n − 1)E(X 2n−2 ). Mais alors, par
Rx
2π
2π
2π
−∞
|
{z
}
=0
récurrence descendante, on obtient, E(x 2n ) = (2n − 1)(2n − 3) · · · 3 · E(X 0 ) = (2n)!
.
| {z } 2n n!
■
=1
Rem 2 : La loi normale a un rôle fondamental en probabilités et en statistiques parce qu’elle permet d’approcher des
suites de lois.
1
249
Probabilités
II )
Théorème limite central et applications
A)
Théorème limite central
Thm 1 : (Limite Central)
Soit (X n )n∈N∗ une suite de variables aléatoires réelles indépendantes et de même loi, de variance non nulle et finie σ2
S n − E(S n ) S n − nµ
P
et de moyenne µ. Notons ∀n ∈ N∗ S n = ni=1 X i et Z n =
=
p .
σS n
σ n
Z
x2
1
Alors pour tout I intervalle de R, P(Z n ∈ I) −→ p
e− 2 d x
n→∞
2π I
Rem 3 : Dans le cas où (X n ) est une suite de variables aléatoires de même loi de Bernoulli, S n suit une loi binomiale
et on retrouve le théorème de De Moivre-Laplace.
Thm 2 : (De Moivre-Laplace)
¡
¢
S n − E(S n ) S n − np
Soit p ∈]0, 1[, posons q = 1 − p . Soit encore ∀n ∈ N∗ S n ∼ B n ; p . Posons ∀n ∈ N∗ , Z n =
= p
.
σS n
npq
Z
1 b − x2
Alors ∀(a, b) ∈ R2 , a < b , P(a ≤ Z n ≤ b) −→
e 2 d x.
n→∞ 2π a
B)
Intervalles de fluctuation
Déf 2 : (Quantile)
Soit X une variable aléatoire de fonction de répartition FX . Pour tout réel α ∈]0, 1[ et x ∈ R, si FX (x − ) ≤ α et FX (x) ≥ α
(donc si FX est continue, la condition est FX (x) = α), on dit que x est un quantile d’ordre α de X .
¤ 1£
ex 1 : Si X ∼ N (0 ; 1), on note Φ sa fonction de répartition. £Soit α ∈ 0,
. On note q α le
quantile
positif d’ordre 1 − α2
¤2
¡
¢
α
de X . On a alors P(−q α ≤ X ≤ q α ) = Φ(q α ) − Φ(−q α ) = Φ(q α ) − 1 − Φ(q α ) = 2Φ(q α ) − 1 = 2 1 − 2 − 1 = 1 − α.
£
¤
£
¤
Déf 3 : Soit α ∈ 0, 12 et q α le quantile positif d’ordre 1− α2 de Z ∼ N (0 ; 1). On dit que IF (α) = −q α , q α est un intervalle
de fluctuation au niveau 1 − α de la variable Z.
Rem 4 : Le théorème limite central implique que P [Z n ∈ IF (α)] −→ 1 − α. Un Intervalle de fluctuation est un intervalle
n→∞
dans lequel le paramètre que l’on observe (une proportion pour un échantillon par exemple) a une forte probabilité de
se trouver.
ex 2 : Si par exemple l’apparition d’un caractère dans une population suit une loi binomiale de paramètres n et p
connus, on peut estimer la fréquence f n , donc la moyenne empirique de l’échantillon de taille n à l’aide d’un intervalle
de fluctuation. Si α = 0, 05
· , 1 − α = 95 % et q α ' 1,¸ 96. On a alors IF (0, 05) = [−1, 96 ; 1, 96] et P [Z n ∈ IF (0, 05)] ' 0, 95.
£
¤
S n − np
p
p
Or P [Z n ∈ IF (0, 05)] = P −1, 96 ≤ p
≤ 1, 96 = P np − 1, 96 npq ≤ S n ≤ np + 1, 96 npq , d’où P [Z n ∈ IF (0, 05)] =
npq
r
r
·
¸
pq S n
pq
P p − 1, 96
≤
≤ p + 1, 96
' 0, 95.
n
n
n
Sn
Mais la moyenne empirique pour l’échantillon de taille n est exactement la quantité
. Ceci implique donc que
n
q
q i´
³
h
pq
pq
P f n ∈ p − 1, 96 n ; p + 1, 96 n
' 0, 95. On dit que l’intervalle de fluctuation au seuil 95 % de la fréquence f n
r
r
·
¸
pq
pq
est p − 1, 96
; p + 1, 96
. Autrement dit, pour un échantillon de taille n suffisamment grand, la fréquence f n
n
n
est dans l’intervalle décrit ci-dessus avec une probabilité de 0, 95.
C)
Intervalles de confiance
Rem 5 : D’un point de vue statistique, on procède dans le sens inverse. Chaque individu d’échantillon de taille n est
une variable aléatoire X i . Les (X i ) sont indépendantes et identiquement distribuées selon certaine loi connue mais
dont les paramètres nous sont inconnus (par exemple une loi de Bernoulli de paramètre p inconnu). On cherche alors
2
249
Probabilités
à les estimer. La notion d’intervalle de confiance répond partiellement à ce problème : on va estimer l’espérance m de
la loi. On se sert alors de la moyenne empirique connue des n premiers termes X n (c’est à dire que c’est la moyenne
pour les n premiers résultats de l’expérience) qui, d’après la loi faible des grands nombres, converge en probabilité
vers m .
Ã
! µ
¶ µ
¶
¡
¢
Xn − m
σ
σ
σ
σ
On a alors −q α ≤ Z n ≤ q α = −q α ≤
≤ q α = −q α p ≤ X n − m ≤ q α p = X n − q α p ≤ m ≤ X n + q α p .
pσ
n
n
n
n
n
·
¸
¤
£
σ
σ
Déf 4 : Soit α ∈ 0, 12 . On appelle intervalle de confiance de m au seuil 1−α l’intervalle InC (α) = X n − q α p ; X n + q α p .
n
n
Rem 6 : Le problème est que la définition de l’intervalle de confiance dépend de la connaissance de l’écart-type σ de
la loi qui est sensée être inconnue. En pratique, on cherche donc un majorant de σ.
ex 3 : Si la variable aléatoire modèle X suit une loi de Bernoulli, sa variance σ2 = p(1 − p) est classiquement majorée
par 41 (on étudie la fonction x 7→ x(1 − x) sur [0, 1]). Mais alors on peut définir un autre intervalle JCn (α) qui ne dépend
·
¸
qα
qα
pas de σ : X n − p ; X n + p .
2 n
2 n
·
¸
1, 96
1, 96
n
Au seuil de 95 %, on obtient donc JC (α) = X n − p ; X n + p . On peut donc estimer que pour n suffisamment
2 n
2 n
grand, le paramètre inconnu p se trouve dans l’intervalle JCn (α) avec une probabilité de 0, 95.
Sources :
1. Probabilités 1, J-Y. Ouvrard, Cassini
2. Probabilités pour l’agrégation interne, Chafaï-Zitt
3. Probability and random processes, Grimmet-Stirzaker, OUP
3