249 Probabilités 249 - L OI NORMALE EN PROBABILITÉS ET EN STATISTIQUE Prérequis : Indépendance, moments Notations : (Ω, F , P) espace probabilisé. I) Loi normale : définition et premières propriétés Déf 1 : Soit µ ∈ R et σ > 0. On dit qu’une v.a.r. X suit une loi normale ou gaussienne de paramètres µ et σ2 si elle · ¸ ¡ ¢ (x − µ)2 1 admet pour densité la fonction x 7→ p exp − . On note alors X ∼ N µ ; σ2 . 2 2σ σ 2π Lorsque µ = 0 et σ = 1, on dit que X suit une loi gaussienne ou normale centrée réduite ou encore standard. On note alors Φ sa fonction de répartition, et parfois ϕ sa densité. Prop 1 : Si X suit une loi normale de paramètres µ et σ2 , alors la variable aléatoire Z = standard. X−µ suit une loi normale σ h i (x−µ)2 exp − 2σ2 d x . On fait alors un changement Rz 2 x−µ ■ de variable : t = σ , d t = σ1 d x . Alors x = µ + zσ ⇔ t = z et donc P(Z ≤ z) = p1 −∞ e −t /2 d t et Z ∼ N (0 ; 1). Preuve : Soit z ∈ R, P(Z ≤ z) = P ³ X−µ σ ´ R µ+zσ ≤ z = P(X ≤ µ + zσ) = −∞ p 1 2πσ2 2π Rem 1 : Grâce à cette propriété, on peut déduire des propriétés d’une loi normale quelconque à partir de la centrée réduite associée. ¡ ¢ Prop 2 : Si X ∼ N µ ; σ2 , E(X) = µ et V(X) = σ2 . ³ 2´ X−µ Preuve : Soit Z = σ . La fonction x 7→ px exp − x2 est intégrable sur R et est impaire, donc E(Z) = 0. 2π ³ 2´ R∞ 2 2 x x x 7→ p exp − 2 est tout aussi intégrable sur R et est paire, donc V(Z) = p2 0 x 2 e −x /2 d x . On intègre alors par 2π 2π ³h i∞ R ³ ´ p ´ R∞ 2 2 2 ∞ parties, et on obtient : V(Z) = p2 0 x · xe −x /2 d x = p2 −xe −x /2 + 0 e −x /2 d x = p2 0 + 22π = 1. 2π 2π 0 2π On en déduit que E(X) = E(σZ + µ) = σE(Z) + µ = µ, et que V(X) = V(σZ + µ) = σ2 V(Z) = σ2 . ■ ¡ ¢ ¡ ¢ ¡ ¢ Prop 3 : Si X 1 ∼ N µ1 ; σ21 et X 2 ∼ N µ2 ; σ22 sont indépendantes, alors X 1 + X 2 ∼ N µ1 + µ2 ; σ21 + σ22 . Preuve : Ultra gonflante si on ne connait pas les fonctions caractéristiques, c’est un produit de convolution. ■ Prop 4 : (Moments d’ordres supérieurs) La loi normale centrée réduite admet des moments à tous les ordres et si X ∼ N (0 ; 1), alors ∀n ∈ N, E(X 2n+1 ) = 0 et (2n)! E(X 2n ) = n . n n! Preuve : Soit n ∈ N∗ , E(X n ) existe, et si n est impair, on obtient bien E(X n ) = 0. h i+∞ R R 2n−2 −x 2 /2 2 2 p E(X 2n ) = p1 R x 2n−1 · xe −x /2 d x = p1 −x 2n−1 e −x /2 + 2n−1 e d x = (2n − 1)E(X 2n−2 ). Mais alors, par Rx 2π 2π 2π −∞ | {z } =0 récurrence descendante, on obtient, E(x 2n ) = (2n − 1)(2n − 3) · · · 3 · E(X 0 ) = (2n)! . | {z } 2n n! ■ =1 Rem 2 : La loi normale a un rôle fondamental en probabilités et en statistiques parce qu’elle permet d’approcher des suites de lois. 1 249 Probabilités II ) Théorème limite central et applications A) Théorème limite central Thm 1 : (Limite Central) Soit (X n )n∈N∗ une suite de variables aléatoires réelles indépendantes et de même loi, de variance non nulle et finie σ2 S n − E(S n ) S n − nµ P et de moyenne µ. Notons ∀n ∈ N∗ S n = ni=1 X i et Z n = = p . σS n σ n Z x2 1 Alors pour tout I intervalle de R, P(Z n ∈ I) −→ p e− 2 d x n→∞ 2π I Rem 3 : Dans le cas où (X n ) est une suite de variables aléatoires de même loi de Bernoulli, S n suit une loi binomiale et on retrouve le théorème de De Moivre-Laplace. Thm 2 : (De Moivre-Laplace) ¡ ¢ S n − E(S n ) S n − np Soit p ∈]0, 1[, posons q = 1 − p . Soit encore ∀n ∈ N∗ S n ∼ B n ; p . Posons ∀n ∈ N∗ , Z n = = p . σS n npq Z 1 b − x2 Alors ∀(a, b) ∈ R2 , a < b , P(a ≤ Z n ≤ b) −→ e 2 d x. n→∞ 2π a B) Intervalles de fluctuation Déf 2 : (Quantile) Soit X une variable aléatoire de fonction de répartition FX . Pour tout réel α ∈]0, 1[ et x ∈ R, si FX (x − ) ≤ α et FX (x) ≥ α (donc si FX est continue, la condition est FX (x) = α), on dit que x est un quantile d’ordre α de X . ¤ 1£ ex 1 : Si X ∼ N (0 ; 1), on note Φ sa fonction de répartition. £Soit α ∈ 0, . On note q α le quantile positif d’ordre 1 − α2 ¤2 ¡ ¢ α de X . On a alors P(−q α ≤ X ≤ q α ) = Φ(q α ) − Φ(−q α ) = Φ(q α ) − 1 − Φ(q α ) = 2Φ(q α ) − 1 = 2 1 − 2 − 1 = 1 − α. £ ¤ £ ¤ Déf 3 : Soit α ∈ 0, 12 et q α le quantile positif d’ordre 1− α2 de Z ∼ N (0 ; 1). On dit que IF (α) = −q α , q α est un intervalle de fluctuation au niveau 1 − α de la variable Z. Rem 4 : Le théorème limite central implique que P [Z n ∈ IF (α)] −→ 1 − α. Un Intervalle de fluctuation est un intervalle n→∞ dans lequel le paramètre que l’on observe (une proportion pour un échantillon par exemple) a une forte probabilité de se trouver. ex 2 : Si par exemple l’apparition d’un caractère dans une population suit une loi binomiale de paramètres n et p connus, on peut estimer la fréquence f n , donc la moyenne empirique de l’échantillon de taille n à l’aide d’un intervalle de fluctuation. Si α = 0, 05 · , 1 − α = 95 % et q α ' 1,¸ 96. On a alors IF (0, 05) = [−1, 96 ; 1, 96] et P [Z n ∈ IF (0, 05)] ' 0, 95. £ ¤ S n − np p p Or P [Z n ∈ IF (0, 05)] = P −1, 96 ≤ p ≤ 1, 96 = P np − 1, 96 npq ≤ S n ≤ np + 1, 96 npq , d’où P [Z n ∈ IF (0, 05)] = npq r r · ¸ pq S n pq P p − 1, 96 ≤ ≤ p + 1, 96 ' 0, 95. n n n Sn Mais la moyenne empirique pour l’échantillon de taille n est exactement la quantité . Ceci implique donc que n q q i´ ³ h pq pq P f n ∈ p − 1, 96 n ; p + 1, 96 n ' 0, 95. On dit que l’intervalle de fluctuation au seuil 95 % de la fréquence f n r r · ¸ pq pq est p − 1, 96 ; p + 1, 96 . Autrement dit, pour un échantillon de taille n suffisamment grand, la fréquence f n n n est dans l’intervalle décrit ci-dessus avec une probabilité de 0, 95. C) Intervalles de confiance Rem 5 : D’un point de vue statistique, on procède dans le sens inverse. Chaque individu d’échantillon de taille n est une variable aléatoire X i . Les (X i ) sont indépendantes et identiquement distribuées selon certaine loi connue mais dont les paramètres nous sont inconnus (par exemple une loi de Bernoulli de paramètre p inconnu). On cherche alors 2 249 Probabilités à les estimer. La notion d’intervalle de confiance répond partiellement à ce problème : on va estimer l’espérance m de la loi. On se sert alors de la moyenne empirique connue des n premiers termes X n (c’est à dire que c’est la moyenne pour les n premiers résultats de l’expérience) qui, d’après la loi faible des grands nombres, converge en probabilité vers m . Ã ! µ ¶ µ ¶ ¡ ¢ Xn − m σ σ σ σ On a alors −q α ≤ Z n ≤ q α = −q α ≤ ≤ q α = −q α p ≤ X n − m ≤ q α p = X n − q α p ≤ m ≤ X n + q α p . pσ n n n n n · ¸ ¤ £ σ σ Déf 4 : Soit α ∈ 0, 12 . On appelle intervalle de confiance de m au seuil 1−α l’intervalle InC (α) = X n − q α p ; X n + q α p . n n Rem 6 : Le problème est que la définition de l’intervalle de confiance dépend de la connaissance de l’écart-type σ de la loi qui est sensée être inconnue. En pratique, on cherche donc un majorant de σ. ex 3 : Si la variable aléatoire modèle X suit une loi de Bernoulli, sa variance σ2 = p(1 − p) est classiquement majorée par 41 (on étudie la fonction x 7→ x(1 − x) sur [0, 1]). Mais alors on peut définir un autre intervalle JCn (α) qui ne dépend · ¸ qα qα pas de σ : X n − p ; X n + p . 2 n 2 n · ¸ 1, 96 1, 96 n Au seuil de 95 %, on obtient donc JC (α) = X n − p ; X n + p . On peut donc estimer que pour n suffisamment 2 n 2 n grand, le paramètre inconnu p se trouve dans l’intervalle JCn (α) avec une probabilité de 0, 95. Sources : 1. Probabilités 1, J-Y. Ouvrard, Cassini 2. Probabilités pour l’agrégation interne, Chafaï-Zitt 3. Probability and random processes, Grimmet-Stirzaker, OUP 3
© Copyright 2024 Paperzz