2016 PC* Variables aléatoires discrètes I. Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . I.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . I.2 Loi de probabilité d’une variable aléatoire discrète . . . . I.3 Fonction de répartition . . . . . . . . . . . . . . . . . . . II. Couple de variables aléatoires . . . . . . . . . . . . . . . . . . . . II.1 Lois conjointes et lois marginales . . . . . . . . . . . . . . II.2 Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . . II.3 Variables aléatoires indépendantes . . . . . . . . . . . . . II.4 Suite de variables indépendantes . . . . . . . . . . . . . . III. Espérance d’une v.a.d. . . . . . . . . . . . . . . . . . . . . . . . . III.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . III.2 Cas X à valeurs dans N . . . . . . . . . . . . . . . . . . . III.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . III.4 Variance et écart-type d’une v.a.d. réelle . . . . . . . . . . IV. Variables aléatoires à valeurs dans N . . . . . . . . . . . . . . . . IV.1 Série génératrice ou fonction génératrice . . . . . . . . . . IV.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . IV.3 Fonction génératrice et somme . . . . . . . . . . . . . . . V. Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V.1 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . V.2 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . V.3 Résumé des différentes lois . . . . . . . . . . . . . . . . . V.4 Représentation graphique des lois, simulation avec Python VI. Résultats asymptotiques . . . . . . . . . . . . . . . . . . . . . . . VI.1 Loi binomiale et loi de Poisson . . . . . . . . . . . . . . . VI.2 Loi faible des grands nombres . . . . . . . . . . . . . . . . VII. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VIII. Annexe 1 : quelques extraits de tables de fonctions de répartition VIII.1 Binomial distribution table . . . . . . . . . . . . . . . . . Cumulative distribution function for p 6 0.09 . . . . . . . . . . . Cumulative distribution function for 0.1 6 p 6 0.5 . . . . . . . . VIII.2 Poisson distribution table . . . . . . . . . . . . . . . . . . Cumulative distribution function . . . . . . . . . . . . . . . . . . IX. Annexe 2 : illustration des différentes lois . . . . . . . . . . . . . IX.1 La loi géométrique . . . . . . . . . . . . . . . . . . . . . . IX.2 La loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . IX.3 Et la binomiale ? . . . . . . . . . . . . . . . . . . . . . . . 2015-2016 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 6 7 9 9 10 11 12 13 13 14 15 16 20 20 21 22 22 22 24 25 25 25 25 26 28 34 34 34 35 36 36 37 37 38 39 1/40 2016 PC* Variables aléatoires discrètes Tester ses connaissances 1. Qu’est-ce que l’image réciproque d’un ensemble B par l’application f ? Que peut-on dire de f −1 (B ∪ B 0 ), de f −1 (B ∩ B 0 ), de f −1 (B) ? 2. Lois usuelles dans le cadre des probabilités finies (= cours de 1ère année) : Nom X(Ω) P (X = k), k ∈ X(Ω) Espérance Variance Loi uniforme B(p) B(n, p) 3. Si X1 , . . . , Xn suivent la même loi de Bernoulli de paramètre p et sont mutuellement indépendantes, alors S = X1 + . . . + Xn ,→ 4. Définitions de l’espérance, de la variance, de l’écart-type dans le cadre des probabilités finies ? 5. Formule de transfert (dans le cadre des probabilités finies) ? 6. Propriétés de l’espérance ? De la variance ? (dans le cadre des probabilités finies) 7. Inégalité de Bienaymé-Tchebychev (dans le cadre des probabilités finies) ? X xn 8. Quel est le rayon de cv et la somme de ? n! X X 9. Si an xn0 converge, que peut-on dire du rayon de convergence de an xn ? 10. Propriétés de régularité de la somme d’une série entière ? Si f est la somme d’une série entière de rayon de cv non nul, que valent les an en fonction de f ? 11. +∞ X +∞ X q i−1 où q ∈]0, 1[ ? i=n+1 k=1 kq k−1 ? +∞ X k(k − 1)q k−2 ? k=2 Lu dans le programme officiel La construction d’espaces probabilisés modélisant une suite d’expériences aléatoires est hors programme, on admet l’existence de tels espaces. Les différents types de convergence probabiliste (presque sûr, en probabilité, en loi, en moyenne) sont hors programme. Toutes les variables aléatoires mentionnées dans le programme sont implicitement supposées discrètes. L’étude des propriétés de continuité des fonctions de répartition n’est pas au programme. Plusieurs démonstrations hors programme, mentionnées comme tel dans le cours. La démonstration de l’existence d’un espace probabilisé portant sur une suite de variables aléatoires mutuellement indépendantes de lois discrètes données est hors programme. On admet que la somme 2/40 +∞ P n=0 xn P (X = xn ) ne dépend pas de l’ordre d’énumération. 2015-2016 2016 PC* Variables aléatoires discrètes Dans ce chapitre, (Ω, A , P ) désigne un espace probabilisé. I. I.1 I.1.a Variables aléatoires discrètes Généralités Définition En première année, on a défini et étudié les variables aléatoires associées à une expérience dont l’univers Ω est fini et pour lequel la tribu considérée est toujours P(Ω). On a pu ainsi définir (pour X v.a.d. de Ω dans E), pour tout sous-ensemble A de E, X −1 (A) (noté X ∈ A) qui est élément de P(Ω), donc un événement, donc P (X ∈ A) est défini. Dans le cadre d’un univers non fini, et d’une tribu qui peut être différente de P(Ω), la définition d’une variable aléatoire va donc devoir inclure une propriété sur les images réciproques afin que l’on puisse encore calculer ces probabilités. Définition. Soit (Ω, A , P ) un espace probabilisé, E un ensemble. Une application X : Ω→E est appelée variable aléatoire discrète sur (Ω, A , P ) lorsqu’elle vérifie : 1. X(Ω) est fini ou dénombrable. 2. Pour tout x ∈ X(Ω), X −1 ({x}) ∈ A , i.e. X −1 ({x}) est un événement. On note en général (X = x) plutôt que X −1 ({x}). Lorsque E ⊂ R, X est appelée variable aléatoire réelle. Lorsque E = R2 (ou plus généralement Rk (k > 2)), X est appelé couple de variables aléatoires réelles (ou vecteur aléatoire réel). Exemple. On lance indéfiniment un dé et l’on note Xn la valeur obtenue lors du nème lancer. (Xn )n>1 est une suite de variables aléatoires discrètes. On pose T = Min{n ∈ N∗ / Xn = 6} ou T = +∞ si le min porte sur l’ensemble vide ; T est une variable aléatoire discrète à valeurs dans N∗ ∪ {+∞} : T correspond au temps d’attente du premier 6. Comme dans l’exemple ci-dessus, il est fréquent de manipuler des variables aléatoires sans même avoir précisé l’espace probabilisé d’étude. Remarques. • L’appellation variable aléatoire est usuelle bien que malheureuse. En effet, X n’est pas une variable, mais bien une fonction et celle-ci n’est pas aléatoire, mais plutôt complètement déterministe. Ce sont les valeurs prises par X qui correspondent à des quantités qui vont varier selon le résultat de l’expérience aléatoire. • L’image réciproque (X = x) désigne {ω ∈ Ω/ X(ω) = x}. • La définition d’une variable aléatoire ne dépend pas de la probabilité P mais uniquement de l’espace probabilisable (Ω, A ). • Bien entendu, toutes les variables aléatoires considérées en première année (= application de prennent un nombre fini de valeurs et sont donc des variables aléatoires discrètes (au sens de la puisque la tribu considérée a toujours été P(Ω). Ω dans E) 2ème année) • En revanche, une application définie sur Ω n’est pas toujours une variable aléatoire (et ceci repose sur la tribu choisie et non sur le fait que X(Ω) soit au plus dénombrable). 2015-2016 3/40 2016 PC* Variables aléatoires discrètes Exemple. On considère deux lancers d’une pièce équilibrée, Ω = {P P, P F, F P, F F } ; et on prend comme tribu A = {∅, Ω, {P P }, {P P }}. Soit X de Ω dans R qui à chaque résultat associe le nombre de Pile obtenus : ce n’est pas une variable aléatoire, car (X = 1) ∈ / A. I.1.b Propriétés Remarque. Soit X une variable aléatoire discrète définie sur Ω à valeurs dans un ensemble E. On remarque que pour U partie de E, X −1 (U ) = {ω ∈ Ω/ X(ω) ∈ U } = X −1 (U ∩ X(Ω)) ; | {z } | {z } ∈X(Ω) ∈P(X(Ω)) donc que l’on prenne une partie U de E ou une partie de X(Ω), ça ne change rien pour l’image réciproque ! Proposition. (1) Soit X une variable aléatoire discrète définie sur Ω à valeurs dans un ensemble E. On pose X(Ω) = {xk / k ∈ K} (K ⊂ N, puisque X(Ω) est au plus dénombrable). Dans la pratique, K sera explicité (fini ou infini) et les xk seront dans la pratique 2 à 2 distincts. • Pour tout U ⊂ E (qu’on peut remplacer par U ⊂ X(Ω)), X −1 (U ) (noté (X ∈ U )) est un événement. • Pour tout U ⊂ E et pour toute suite (Ui )i∈I de sous-ensembles de E, on a (X ∈ U ) = (X ∈ U ), (X ∈ [ Ui ) = i∈I [ (X ∈ Ui ), (X ∈ i∈I \ Ui ) = i∈I \ (X ∈ Ui ) i∈I • (X = ∅) = ∅, (X ∈ E) = Ω. • Les événements (X = xk )k∈K forment un système complet d’événements. Preuve. Cette démonstration repose sur les propriétés des images réciproques (l’image réciproque d’un complémentaire est le complémentaire d’une image réciproque, l’image réciproque d’une réunion quelconque (resp. d’une intersection quelconque) est la réunion (resp. l’intersection) des images réciproques). • (X ∈ U ) = X −1 (U ) = {ω ∈ Ω/ X(ω) ∈ U } = X −1 (U ∩ X(Ω)) ; or U ∩ X(Ω) ⊂ X(Ω), donc U ∩ X(Ω) est au plus | {z } ∈X(Ω) dénombrable, donc est une réunion au plus dénombrable de singletons : U ∩ X(Ω) = S {xj } où J est au plus j∈J dénombrable. Ainsi, (X ∈ U ) = [ (X = xj ) ∈ A j∈J | {z } ∈A (car la tribu A est stable par réunion dénombrable). • cf propriétés des images réciproques. S • On remarque que les événements (X = xk ) sont deux à deux disjoints et vérifient Ω = (X = xk ). k∈K Remarque. Une application X : Ω → R est une variable aléatoire discrète ssi : • X(Ω) est au plus dénombrable • Pour tout intervalle I de R, (X ∈ I) ∈ A . En effet, le sens direct découle de la proposition précédente. Pour la réciproque, on remarque que si x ∈ R, alors ∃[a, b] ⊂ R tel que x ∈ [a, b] = [a, x] ∪ [x, b], donc (X = x) = (X ∈ ([a, x] ∩ [x, b])) = (X ∈ [a, x]) ∩ (X ∈ [x, b]) ∈ A par hypothèse. Définition. Soit X une variable aléatoire réelle discrète. On note • (X > x) = X −1 ([x, +∞[) et (X > x) = X −1 (]x, +∞[). • (X 6 x) = X −1 (] − ∞, x]) et (X < x) = X −1 (] − ∞, x[). 4/40 2015-2016 2016 PC* Variables aléatoires discrètes Définition. Soit A un événement et 1A l’application définie par 1A (ω) = 1 si ω ∈ A et 1A (ω) = 0 si ω ∈ / A. L’application 1A est appelée fonction indicatrice de A. C’est une variable aléatoire réelle discrète. En effet, 1A (Ω) = {0, 1} fini, donc au plus dénombrable et (1A = 0) = A, (1A = 1) = A donc ce sont des événements. I.1.c Fonction d’une variable aléatoire Proposition. (2) Si X : Ω → E est une variable aléatoire discrète, si f f ◦ X = f (X) est une variable aléatoire discrète. Preuve. Notons Y = f (X). Alors Y (Ω) = f ( X(Ω) : E → F est une fonction, alors ) est au plus dénombrable. | {z } Soit y ∈ Y (Ω) ; alors (Y = y) = = = −1 au plus dénombrable Y ({y}) = {ω ∈ Ω/ Y (ω) = y} {ω ∈ Ω/ X(ω) ∈ f −1 ({y})} (X ∈ f −1 ({y})) ∈ A | {z } ⊂E Exemple. Si X ,→ B(n, p), alors Y = n − X ,→ B(n, q). Remarque. Cette proposition va donc permettre de manipuler le carré d’une variable aléatoire réelle discrète, mais aussi de justifier que les composantes d’un vecteur aléatoire sont des variables aléatoires, comme le précise le corollaire suivant : Corollaire. (3) Soit X un vecteur aléatoire discret à valeurs dans R2 , défini sur Ω. Soient π1 et π2 les applications définies sur R2 par : ∀x = (x1 , x2 ) ∈ R2 , π1 (x) = x1 , π2 (x) = x2 Soit X1 = π1 (X) et X2 = π2 (X). Alors X1 et X2 sont deux variables aléatoires discrètes définies sur Ω. Réciproquement, Proposition. (4) Soient X1 et X2 deux variables aléatoires réelles discrètes, définies sur Ω. Soit X : ω ∈ Ω 7→ (X1 (ω), X2 (ω)). Alors X est un vecteur aléatoire discret, noté X = (X1 , X2 ). Preuve. Le produit cartésien de deux ensembles au plus dénombrables étant au plus dénombrable, l’ensemble X(Ω) = X1 (Ω) × X2 (Ω) est au plus dénombrable. Soit (x1 , x2 ) ∈ X(Ω). Alors (X = (x1 , x2 )) = (X1 = x1 ) ∩ (X2 = x2 ) ∈ A . Proposition. (5) Soient X et Y deux variables aléatoires réelles discrètes et soient a et b deux réels. On définit l’application sur Ω, notée aX + bY , par : ∀ω ∈ Ω, (aX + bY )(ω) = aX(ω) + bY (ω) Alors aX + bY est une variable aléatoire réelle discrète. Preuve. Par la proposition précédente, (X, Y ) est un couple aléatoire discret. Il suffit alors d’appliquer la proposition. (2) à f : (x, y) 7→ ax + by. 2015-2016 5/40 2016 PC* I.2 Variables aléatoires discrètes Loi de probabilité d’une variable aléatoire discrète La notion de variable aléatoire discrète permet de s’intéresser à des probabilités d’événements liés à une variable aléatoire X. I.2.a Généralités Définition. Soit X : Ω → E une variable aléatoire telle que X(Ω)(⊂ E) soit au plus dénombrable. L’ensemble P(X(Ω)) est une tribu sur l’ensemble dénombrable X(Ω). On définit l’application PX : P(X(Ω)) → [0, 1] par ∀A ⊂ X(Ω), PX (A) = P (X −1 (A)) =n P (X ∈ A) not Remarque. Cette définition a bien un sens : en effet, pour tout A ⊂ X(Ω), (X ∈ A) = {ω ∈ Ω/ X(ω) ∈ A} est un événement de la tribu P(Ω), donc P (X ∈ A) a bien un sens. Théorème.(6) L’application PX définit une probabilité sur l’espace probabilisable (X(Ω), P(X(Ω))), appelée loi de probabilité de X. Preuve. • PX (X(Ω)) = P (X ∈ X(Ω)) = P (Ω) = 1. • Soit (An ) une famille dénombrable d’éléments de P(Ω), deux à deux disjoints. Alors : ! X∈ [ An n∈N = [ (X ∈ An ) n∈N et la famille (X ∈ An )n∈N est une famille dénombrable d’événements disjoints deux à deux, d’où (σ-additivité de P) : ! PX [ n∈N An = X P (X ∈ An ) = n∈N X PX (An ) n∈N i.e. la σ-additivité pour PX . Corollaire.(7) Soit (Ω, A , P ) un espace probabilisé. Soit X une variable aléatoire discrète définie sur Ω et à valeurs dans un ensemble E. La loi PX de X est entièrement déterminée par la donnée de : • X(Ω) = {xk / k ∈ K}, où K ⊂ N et les xk sont deux à deux distincts. • pour tout k ∈ K, PX ({xk }) = P (X = xk ) PX ({xk }) est encore notée (abusivement) PX (xk ) Preuve. Soit A une partie de X(Ω) ; alors ∃J ⊂ K/ A = {xj / j ∈ J} (J étant au Xplus dénombrable) X; S alors (X ∈ A) = (X = xj ) (union disjointe) et donc (σ-additivité) PX (A) = P (X = xj ) = pj . j∈J 6/40 j∈J j∈J 2015-2016 2016 PC* Variables aléatoires discrètes Remarque. La donnée de la loi de X est donc équivalente à la donnée de son «support» I = X(Ω) et de la famille (pi )i∈I telle que X pi = 1 définie par i∈I ∀i ∈ I, P (X = i) = pi Les probabilités P (X = a), dites parfois «atomiques», caractérisent donc la loi d’une variable aléatoire discrète X. Elles forment une famille dénombrable, ce qui permet d’utiliser la σ-additivité. C’est une spécificité très importante de ces variables aléatoires. Et c’est complètement faux pour les variables aléatoires non discrètes. X Remarque. On admet que la somme pi est indépendante de l’ordre de sommation (cela vient du fait que la i∈I , et c’est heureux car l’expérience étant aléatoire, les valeurs de X sont observées dans un ordre quelconque. série des probabilités est absolument convergente) Réciproquement, on admet le théorème suivant : Théorème.(8) Si X(Ω) = {xn / n ∈ N} (les xn étant deux à deux distincts) et si (pn ) est une suite de réels positifs tels que +∞ X pn = 1, alors il existe une probabilité P sur (Ω, A ) telle que pour tout n n=0 de N, P (X = xn ) = pn . Remarque. Ce théorème a l’énorme avantage de permettre d’étudier des lois sans décrire complètement l’expérience aléatoire sous-jacente (ou encore, on peut donc escamoter l’espace probabilisé (Ω, A , P ) au profit de la seule loi de la v.a. X). I.2.b Exemple : la loi géométrique Reprenons, dans le Pile ou Face infini, la variable aléatoire X : rang du premier lancer qui donne Pile. On suppose qu’à chaque lancer, la probabilité d’obtenir 1 est p, la probabilité d’obtenir 0 est 1 − p. On a alors, si n ∈ N∗ , P (X = n) = On dit que X suit une loi géométrique de paramètre p, ou que X suit une loi G(p). On note X ,→ G(p) Si Y ,→ G(p), X et Y ont même loi, on note X ∼ Y . La connaissance des P (X = n) permet de déterminer P (X ∈ A) pour n’importe quelle partie A de N∗ (ou n’importe quelle partie de Z, de Q, de R…) Par exemple, si n ∈ N∗ , P (X 6 n) = I.3 Fonction de répartition X désigne dans ce paragraphe une v.a.d. à valeurs réelles, et on note X(Ω) = {xk / k ∈ K}. Définition. 2015-2016 7/40 2016 PC* Variables aléatoires discrètes La fonction de répartition de la v.a.d. réelle X est : FX : R → [0, 1] X x 7→ FX (x) = P (X 6 x) = P (X ∈] − ∞, x]) = P (X = xk ) k∈L où L = {k ∈ K/ xk 6 x} Exemple. Fonction de répartition de X ,→ G (p) ? Proposition. (9) 1. FX est croissante sur R. 2. FX (x) −−−−−→ 0 et FX (x) −−−−−→ 1. x→−∞ 3. Soit (a, b) ∈ R2 x→+∞ tels que a 6 b ; alors P (a < X 6 b) = FX (b) − FX (a). Preuve. 1. Soient x 6 y ; alors ] − ∞, x] ⊂] − ∞, y], donc par croissance de P , FX (x) 6 FX (y). 2. • FX est donc croissante, et de plus, FX est minorée par 0, majorée par 1, donc on en déduit par théorème de limite monotone que FX admet des limites finies `±∞ en ±∞. Reste à déterminer ces limites finies ! On va pour cela utiliser la caractérisation séquentielle : puisque ±n −−−−−→ ±∞, FX (±n) −−−−−→ `±∞ . n→+∞ n→+∞ • On pose, pour tout n ∈ N, An = (X 6 −n) ; Alors (An ) est une suite décroissante d’événements, donc d’après le théorème de continuité décroissante : ! FX (−n) = P (An ) −−−−−→ P \ n→+∞ Ai i∈N Or T Ai = ∅, donc FX (−n) = P (An ) −−−−−→ P (∅) = 0 = `−∞ . n→+∞ i∈N • De même, on considère la suite croissante d’événements (Bn ) où Bn = (X 6 n), dont la réunion vaut Ω, pour obtenir `+∞ = 1. 3. On remarque que (X ∈]a, b]) et (X 6 a) sont des événements disjoints dont l’union vaut (X 6 b), donc P (X 6 b) = P (X ∈]a, b]) + P (X 6 a), donc P (a < X 6 b) = P (X 6 b) − P (X 6 a) = FX (b) − FX (a). Exemple. Soit X : Ω → J0, 3K ω 7→ nombre de Pile lors du lancer ω de 3 pièces Alors la loi de probabilité de X est xi 0 1 2 3 P (X = xi ) 1 8 3 8 3 8 1 8 Sa fonction de répartition est y 1 7/8 4/8 1/8 0 8/40 1 2 3 4 2015-2016 x 2016 PC* Variables aléatoires discrètes Remarque. La fonction de répartition tient une place fondamentale en théorie des probabilités… mais pas trop dans le cas des v.a. réelles discrètes, sauf pour l’utilisation de «tables» (cf §VIII.) II. II.1 Couple de variables aléatoires Lois conjointes et lois marginales La question que l’on se pose ici est de savoir : • d’une part, si la connaissance de la loi d’un couple Z = (X, Y ) permet de déterminer les lois des deux variables aléatoires X et Y . • D’autre part, si la connaissance des lois X et Y permet de déterminer la loi du couple Z = (X, Y ) et sinon sous quelles conditions. La réponse à la première question est positive, mais ce n’est pas le cas de la seconde. Définition. Soient X, Y deux variables aléatoires discrètes définies sur un espace probabilisé (Ω, A , P ), à valeurs dans E et F respectivement. La «loi conjointe» de X et Y est la loi du couple (X, Y ), qui est une variable aléatoire discrète à valeurs dans E × F . Elle est déterminée par la donnée, pour tout élément (xi , yj ) de X(Ω) × Y (Ω), de P (X = xi , Y = yj ) = P ((X = xi ) ∩ (Y = yj )) = P (X = xi et Y = yj ) Les lois marginales du couple (X, Y ) sont les lois de X et de Y . Remarque. Pas plus que dans le cas fini les lois marginales ne déterminent la loi conjointe. En revanche, si on connaît la loi conjointe, on connaît les lois marginales : définissons X(Ω) = {xi }i∈I et Y (Ω) = {yj }j∈J (I et J sont deux ensembles dénombrables), on remarque que (Y = yj )j∈J est un système complet d’événements, ce qui permet d’écrire (même si certains de ces événements sont de probabilité nulle) ∀i ∈ I, P (X = xi ) = X P (X = xi et Y = yj ) j∈J car (Y = yj )j∈J est un système complet d’événements + formule des probabilités totales d’où la loi marginale de X connaissant la loi conjointe et, de même, ∀j ∈ J, P (Y = yj ) = X P (X = xi et Y = yj ) i∈I La loi conjointe de deux variables aléatoires peut être visualisée sur un tableau dont le nombre de lignes et/ou de colonnes peut être infini (dénombrable). 2015-2016 9/40 2016 PC* Variables aléatoires discrètes Y y1 ... yj ... p11 ... p1j ... Loi de X X x1 P p1j = P (X = x1 ) j∈J .. . .. . xi .. . pi1 ... .. . pij ... P pij = P (X = xi ) j∈J .. . .. . Loi de Y X .. . pi1 ... i∈I X .. . pij ... 1 i∈I | {z } | {z } =P (Y =y1 ) =P (Y =yj ) La somme des probabilités de la dernière ligne (resp. colonne) vaut 1 ; pij = P ((X = xi ), (Y = yj )). II.2 II.2.a Loi conditionnelle Définition Définition. Soient X, Y deux variables aléatoires discrètes définies sur un espace probabilisé (Ω, A , P ), à valeurs dans E et F respectivement. Soit x ∈ E. On définit la loi conditionnelle de Y sachant (X = x) par ∀B ∈ P(F ), P ((Y ∈ B) ∩ (X = x)) si P (X = x) > 0 P (X = x) PY |(X=x) (B) = P(X=x) (Y ∈ B) = 0 si P (X = x) = 0 Cette «loi conditionnelle», notée PY |(X=x) , est une probabilité. Remarque. La loi conditionnelle de Y sachant (X = x) se caractérise par les probabilités des événements élémentaires (on suppose P (X = x) > 0) : PY |(X=x) ({y}) = P(X=x) (Y = y) = P ((Y = y) ∩ (X = x)) P (X = x) et, ensuite, pour toute partie B de F , PY |(X=x) (B) = X y∈B∩Y (Ω) P(X=x) (Y = y) = X y∈B∩Y (Ω) P ((Y = y) ∩ (X = x)) P (X = x) Exemple. 10/40 2015-2016 2016 PC* II.3 II.3.a Variables aléatoires discrètes Variables aléatoires indépendantes Définition Définition. Soient X, Y deux variables aléatoires discrètes définies sur l’espace probabilisé (Ω, A , P ). On dit que X et Y sont indépendantes ssi ∀(x, y) ∈ X(Ω) × Y (Ω), P (X = x, Y = y) = P (X = x) P (Y = y) i.e. ssi ∀(x, y) ∈ X(Ω) × Y (Ω), les événements (X = x) et (Y = y) sont indépendants. Remarque. Dans le cas de variables indépendantes, la loi conjointe du couple Z = (X, Y ) est égale au produit des lois marginales (PZ (x, y) = P ((X, Y ) = (x, y)) = P (X = x) P (Y = y)). Exemple et contre-exemple. • On lance deux dés discernables. X détermine la valeur du premier et Y celle du second. Il est usuel de modéliser X et Y en tant que variables indépendantes. • Une première urne contient 2 boules blanches et 3 boules noires et une seconde l’inverse. On jette une pièce et si l’on obtient «face», on pioche une boule dans la première urne, sinon, on pioche cette boule dans la seconde urne. On note X la valeur du lancer de la pièce et Y la couleur de la boule tirée. Les variables X et Y ne sont pas indépendantes ! On admet la proposition suivante (la démonstration utilise le th. de Fubini sur les séries, HP) Proposition. (10) Si X et Y sont indépendantes, alors, pour toute partie A ⊂ X(Ω) et toute partie B ⊂ Y (Ω), on a P (X ∈ A, Y ∈ B) = P (X ∈ A) P (Y ∈ B) II.3.b Images de v.a. indépendantes par des fonctions Proposition. (11) Si X et Y sont deux variables aléatoires discrètes indépendantes, alors pour toutes fonctions f et g, les variables f (X) et g(Y ) sont indépendantes. Preuve. Si a et b sont dans l’ensemble d’arrivée de f et g respectivement, on peut écrire P ((f (X), g(Y )) = (a, b)) = P (X, Y ) ∈ f −1 ({a}) × g −1 ({b}) = P X ∈ f −1 ({a}) P Y ∈ g −1 ({b}) = P (f (X) = a) P (g(Y ) = b) ce qui conclut. II.3.c Indépendance mutuelle d’une famille finie de v.a. Définition. Soient X1 , . . . , Xn des variables aléatoires discrètes définies sur (Ω, A , P ). On dit qu’elles sont mutuellement indépendantes ssi ∀(x1 , . . . , xn ) ∈ X1 (Ω) × . . . × Xn (Ω), P n \ ! (Xi = xi ) i=1 2015-2016 = n Y P (Xi = xi ) i=1 11/40 2016 PC* Variables aléatoires discrètes i.e. ssi ∀(x1 , . . . , xn ) ∈ X1 (Ω) × . . . × Xn (Ω), les événements (X1 = x1 ), . . . , (Xn = xn ) sont indépendants. Remarque. Comme pour les événements, le terme «mutuellement» sera souvent omis : on trouvera donc dans les énoncés, «famille de variables indépendantes» au lieu de «famille de variables mutuellement indépendantes». Remarque. On répète n fois la même expérience aléatoire et l’on note X1 , . . . , Xn les résultats successifs. En supposant que le résultat d’une expérience est sans incidence sur les autres, il est usuel de modéliser l’expérience en supposant les variables X1 , . . . , Xn mutuellement indépendantes. • C’est le cas lorsque l’on lance plusieurs fois une même pièce de monnaie que celle-ci soit ou non équilibrée. • C’est le cas lorsque l’on tire des boules avec remise dans une urne (ce n’est plus le cas si le tirage a lieu sans remise !) Comme dans le cas de deux v.a. indépendantes, on admet la proposition suivante : Proposition. (12) Soit (Ω, A , P ) un espace probabilisé et X1 , . . . , Xn n variables aléatoires discrètes indépendantes. Alors, pour toutes parties A1 ⊂ X1 (Ω), . . . , An ⊂ Xn (Ω), P Å n T ã (Xi ∈ Ai ) = i=1 n Y P (Xi ∈ Ai ). i=1 On retrouve, comme dans le programme de sup, la proposition (que l’on donne sans démonstration conformément au programme) : Proposition. (13) Si (Xi )i∈J1,nK est une famille finie de v.a.d. sur (Ω, A , P ) mutuellement indépendantes, alors toutes ses sous-familles sont des familles finies de v.a.d. mutuellement indépendantes ; en particulier, l’indépendance mutuelle implique l’indépendance deux à deux (mais la réciproque est fausse). Complément hors programme, mais utile... Lemme des coalitions. (14) Soient (X1 , . . . , Xn ) une famille de variables aléatoires sur (Ω, A , P ). Soit p ∈ J2, n − 1K (donc n > 3). Soit f : Rp → R et g : Rn−p → R. Soient f1 , . . . , fn : R → R. Si les v.a.r. X1 , . . . , Xn sont mutuellement indépendantes, alors : • les variables aléatoires f (X1 , . . . , Xp ) et g(Xp+1 , . . . , Xn ) sont indépendantes • les variables aléatoires f1 (X1 ), . . . , fn (Xn ) sont mutuellement indépendantes. Exemple. Si X, Y, Z et T sont mutuellement indépendantes, alors : • X + Y + Z et T sont indépendantes • XY et Z + T 2 sont indépendantes • X, Y 2 , Z − sin(Z) et eT sont mutuellement indépendantes. II.4 Suite de variables indépendantes Définition. Soit (Xi )i∈N une suite de variables aléatoires discrètes. On dit que cette suite est • une suite de variables aléatoires deux à deux indépendantes ssi ∀(i, j) ∈ N2 , (i 6= j =⇒ Xi et Xj indépendantes) 12/40 2015-2016 2016 PC* Variables aléatoires discrètes • une suite de variables aléatoires mutuellement indépendantes ssi pour toute partie finie I de N, (Xi )i∈I est une famille finie de variables aléatoires discrètes mutuellement indépendantes. Remarques. • Il suffit de vérifier que, ∀n ∈ N, les variables X0 , . . . , Xn sont mutuellement indépendantes pour en déduire que (Xi )i∈N est une famille de v.a.d. mutuellement indépendantes ; en effet, toute sous-famille finie de (Xi )i∈N est contenue dans une sous-famille de la forme (X0 , . . . , Xn ) et on applique la proposition.(13). • Une suite de v.a.d. mutuellement indépendantes est un modèle pour décrire une succession d’épreuves dont les résultats sont indépendants ; en particulier, la répétition indépendante d’une même épreuve est modélisée par une suite de v.a. mutuellement indépendantes suivant la même loi. Par exemple, un jeu de pile ou face infini est modélisé par (Xn )n∈N , suite de v.a. mutuellement indépendantes suivant chacune la loi de Bernoulli B( 12 ). Le programme admet l’existence d’un espace probabilisé associé à cette suite infinie dénombrable d’expériences. III. III.1 Espérance d’une v.a.d. Définition Définition. La variable aléatoire réelle discrète X à valeursX dans un ensemble dénombrable {xn / n > 0} est dite d’espérance finie si la série numérique xn P (X = xn ) est absolument convergente ; si tel est le cas, on appelle espérance de X le réel E(X) = +∞ X xn P (X = xn ) n=0 Remarques. • On retrouve bien la définition de sup, puisqu’alors X(Ω) est fini, donc la somme définissant l’espérance est alors une somme finie… et donc pas de problème de convergence. • La notion mathématique d’espérance correspond à la notion de moyenne théorique. Exemple. • Si X est une v.a.d. constante égale à a, justifier que X admet une espérance finie et la déterminer. • Soit A un événement ; alors X = 1A est d’espérance finie et E(1A ) = ? • Au loto, un joueur doit choisir 5 numéros parmi 49, plus un numéro chance entre 1 et 10 (cela fait 49 × 10 ' 19 × 106 choix possibles, équiprobables entre eux 1 ). Le temps d’attente pour 5 gagner au loto suit une loi géométrique, et son espérance est donc de l’ordre de 19 × 106 tirages (à raison de trois tirages par semaine, cela fait à peu près 117 000 années !) • Soit X ,→ G (p) : montrer que X a une espérance finie et la déterminer. Remarques. • Une variable aléatoire discrète prenant un nombre fini de valeurs admet toujours une espérance (cf cours de sup), ce qui n’est pas le cas des v.a. prenant un nombre dénombrable de valeurs. 1. Avec l’ancienne règle, il fallait choisir 6 numéros parmi 49, soit presque 14 × 106 grilles possibles ; le numéro «chance» a donc fait exploser le nombre de grilles de 36% … 2015-2016 13/40 2016 PC* Variables aléatoires discrètes Exemple et contre-exemple. ? On lance deux dés ; X est la v.a. égale à la somme des numéros apparaissant sur les deux dés ; alors E(X) = 2P (X = 2) + . . . + 12P (X = 12) = . . . = 7. 1 ? Soit X une v.a. telle que X(Ω) = N∗ et ∀n > 1, P (X = n) = n(n+1) (ce qui a un sens car la somme de cette série à termes positifs vaut 1) ; or cette v.a. n’admet pas d’espérance finie, puisque la série harmonique diverge. X • Si X(Ω) ⊂ R+ ou si X(Ω) ⊂ R− , l’absolue convergence de xn P (X = xn ) équivaut à sa convergence (donc l’existence de l’espérance se fait conjointement au calcul de cette espérance) ; dans le cas où X(Ω) a uneX infinité de valeurs positives et une infinité de valeurs négatives, on prouve d’abord la convergence de |xn |P (X = xn ) avant de faire le calcul de l’espérance. • On admet que la somme +∞ X xn P (X = xn ) ne dépend pas de l’ordre d’énumération (quand il y a cv abs. !) n=0 En particulier, dans le cas où plus = X {n/ xn > 0} et moins = X{n/ xn < 0} sont infinis, et où X admet une espérance finie, on aura E(X) = xn P (X = xn ) − |xn |P (X = xn ). n∈moins n∈plus • Une v.a.d. bornée est d’espérance finie. • Une v.a. X est dite centrée si elle est d’espérance finie, et telle que E(X) = 0. • X admet une espérance ssi |X| admet une espérance (mais a priori les espérances ne sont pas égales). • Deux v.a.d. suivant la même loi (PX = PY ) et admettant une espérance finie ont la même espérance. III.2 Cas X à valeurs dans N La proposition qui suit facilite le calcul de l’espérance (cf exo) dans le cas X(Ω) ⊂ N. Proposition. (15) Soit X une v.a.d., à valeurs dans N , définie sur l’espace probabilisé (Ω, A , P ). La v.a. X admet une espérance finie ssi la série de terme général P (X > n) converge, et dans ce cas, E(X) = +∞ X n= (i.e. P (X > n) +∞ X P (X > n) = n=1 1 +∞ X nP (X = n) = n=1 +∞ X nP (X = n)). n=0 Preuve. Soit donc X une v.a. à valeurs dans N ; on remarque que ∀k ∈ N, P (X = k) = P (X > k) − P (X > k + 1) ; donc, pour tout N ∈ N∗ N X k=1 kP (X = k) = N X N X kP (X > k) − k=1 N +1 kP (X > k + 1) k=1 = = X P (X > k) − (N + 1)P (X > N + 1) (∗) k=1 | N +1 X {z } (p − 1)P (X > p) p=2 • Supposons que X admette une espérance finie ; on remarque que (X > N + 1) est l’union disjointe de (X = k)k>N +1 , donc par σ-additivité, P (X > N + 1) = +∞ X P (X = k), donc (N + 1)P (X > N + 1) = k=N +1 +∞ X (N + 1)P (X = k). k=N +1 D’autre part, pour tout entier k > N + 1, (N + 1)P (X = k) 6 kP (X = k) ; on en déduit : 0 6 (N + 1)P (X > N + 1) 6 +∞ X kP (X = k) = reste d’ordre N d’une série cv k=N +1 N +1 donc la suite ((N + 1)P (X > N + 1))N converge vers 0 et donc, d’après (*), X P (X > k) −−−−−→ E(X). N →+∞ k=1 14/40 2015-2016 2016 PC* Variables aléatoires discrètes • On suppose que la série numérique de t.g. P (X > j) converge ; d’après (*), N X k=1 N +1 kP (X = k) 6 X P (X > k) 6 k=1 ainsi, la suite des sommes partielles quent, X admet une espérance finie. III.3 III.3.a +∞ X P (X > k) ; k=1 N X ! est croissante et majorée, donc convergente, par consé- kP (X = k) k=1 N Propriétés Transfert Soit X une v.a.d. réelle et f une fonction définie sur X(Ω). Le théorème suivant montre qu’il n’est pas nécessaire de déterminer la loi de la v.a.d. réelle f (X) pour calculer l’espérance de f (X). Ce th. est admis. Théorème de transfert.(16) Soit X une v.a.d. à valeurs dans un ensemble dénombrable {xk / k ∈ N}. Soit f une fonction définie sur X(Ω) et à valeurs réelles. La v.a. f (X) a une espérance finie ssi la série numérique de terme général f (xk )P (X = xk ) est absolument convergente. On a alors : E(f (X)) = +∞ X f (xk )P (X = xk ) k=0 Exemples. •Soit X une v.a. prenant les valeurs −1, 0, 1 avec les probabilités resp. 19 , 29 , 23 . Alors X 2 a pour espérance E(X 2 ) = 79 . •Soit X ,→ G (p). Montrer que X(X − 1) admet un espérance finie et E(X(X − 1)) = III.3.b 2(1−p) . p2 Linéarité Proposition. (17) Soient X et Y deux v.a.d. réelles d’espérance finie. ∀λ ∈ R, λX + Y est d’espérance finie et E(λX + Y ) = λE(X) + E(Y ). Preuve. Non exigible (utilise le th. de Fubini). Exemples. • Si X admet une espérance alors la variable Y = X−E(X) est centrée. • Encore le loto ! Le gain d’un joueur est une v.a. G. À chaque tirage perdu, le joueur perd 2€, et au moment où il va gagner le gros lot, le joueur va gagner en moyenne trois millions d’euros. Si on note T le temps d’attente du gros lot, le joueur gagne au bout de T tirages, en ayant perdu 2€ aux T −1 tirages précédents ; ainsi G = −2(T −1)+3×106 , donc E(G) = −2E(T −1)+3×106 ' −35 millions d’euros (d’où le véritable intérêt de la loterie nationale) (en tenant compte des gains avec 2, … bons numéros, l’espérance de gain est moins négative, mais le reste quand même très nettement) • Soit X ,→ G (p) : montrer que X 2 admet une espérance finie et E(X 2 ) = 2015-2016 2−p . p2 15/40 2016 PC* III.3.c Variables aléatoires discrètes Positivité, croissance Proposition. (18) Soient X et Y des v.a.d.r. d’espérance finie. • Si X > 0, i.e. si X ne prend que des valeurs positives, alors E(X) > 0. • Conséquence : si ∀ω ∈ Ω, X(ω) 6 Y (ω), alors E(X) 6 E(Y ) : l’espérance est croissante. Preuve. • Si X(Ω) ⊂ R+ , alors E(X) étant la somme d’une série convergente à termes positifs, est positive. • On a alors Y − X > 0, donc on conclut grâce au 1er point et à la linéarité. Exemple. On lance deux dés. On note X le minimum, et Y le maximum obtenus sur les faces des deux dés. Alors X 6 Y , donc E(X) 6 E(Y ). III.3.d Produit de v.a. indépendantes On admet la proposition suivante : Proposition. (19) Si X et Y sont deux v.a.d. indépendantes (admettant chacune une espérance finie), alors XY admet une espérance finie et E(XY ) = E(X)E(Y ) Remarque. La réciproque de cette proposition est fausse : soit X la v.a.d. de loi uniforme sur {−1, 0, 1} et Y = X 2 : vérifier que E(XY ) = E(X)E(Y ), mais P (X = 0, Y = 0) 6= P (X = 0)P (Y = 0). III.4 III.4.a Variance et écart-type d’une v.a.d. réelle Définition Théorème-définition.(20) • Si la v.a.d. réelle X 2 est d’espérance finie, alors X est elle-même d’espérance finie. • Si X 2 est d’espérance finie, la variance de X est le réel V(X) = E (X − E(X))2 = E(X 2 ) − (E(X))2 Ä ä formule de Huyghens-Koenig L’écart-type de X est le réel, noté σ(X), défini par σ(X) = V(X). » Preuve. •On a ∀(a, b) ∈ R2 , |ab| 6 12 (a2 + b2 ) ; donc si X(Ω) = {xk / k ∈ N}, |xk| 6 12 (1 + x2k ) et donc si X 2 admet une espérance finie, il en est de même de X. •Pour l’égalité E (X − E(X))2 = E(X 2 ) − (E(X))2 , utiliser la linéarité de l’espérance et le fait que l’espérance de a (v.a. constante) vaut a. Å ã •Enfin, puisque par déf. V(X) = E (X − E(X))2 , V(X) > 0, donc l’écart-type est bien défini. | 16/40 {z >0 } 2015-2016 2016 PC* Variables aléatoires discrètes Remarque. Si X, v.a.d. réelle est telle que X m (m ∈ N∗ ) admet une espérance finie, on dit que X admet un moment d’ordre m et ce moment d’ordre m est E(X m ). Ainsi, la première partie du théorème précédent se reformule en si X admet un moment d’ordre 2, alors X admet un moment d’ordre 1. En pratique. Pour calculer une variance, on sera amené à calculer E(X 2 ) ; il sera alors souvent utile de remarquer pour réaliser ce calcul de séries que X(X − 1) = X 2 − X, donc par linéarité de l’espérance, E(X 2 ) = E(X(X − 1)) + E(X). Exemple. Calculer la variance d’une loi géométrique, d’une loi de Poisson. Proposition. (21) Si X admet un moment d’ordre 2, alors ∀(a, b) ∈ R2 , V(aX + b) = a2 V(X) Preuve. La v.a.d. constante égale à b et X admettant une espérance finie (car moment d’ordre 2 =⇒ moment d’ordre 1), aX + b admet une espérance finie ; par linéarité de l’espérance, on obtient : (aX + b − E(aX + b))2 = (aX − aE(X))2 = a2 (X 2 − 2E(X) X + (E(X))2 ), donc par linéarité, (aX + b − E(aX + b))2 admet une espérance finie, et donc V(aX + b) = E (aX + b − E(aX + b))2 = E (aX − aE(X))2 = E a2 (X − E(X))2 = a2 V(X). Remarque. Une v.a. admettant une variance est centrée réduite lorsque E(X) = 0 et V(X) = 1. Par exemple, si V(X) 6= 0, III.4.b X − E(X) est centrée réduite. σ(X) Inégalités Proposition. Inégalités de Markov. (22) Soit X une v.a.d. réelle. Si X 2 est d’espérance finie (i.e. si X admet un moment d’ordre 2), on a ∀t > 0, E(|X|) P (|X| > t) 6 t Cette inégalité majore la probabilité pour une variable aléatoire de prendre de grandes valeurs en valeur absolue. 2 P (|X| > t) 6 E(|X| ) 2 t Preuve. •Soit t > 0. Notons Y = |X|, et rappelons que E(Y ) = X y∈Y (Ω) Notons A = {y ∈ Y (Ω)/ y > t}. Alors E(Y ) > X y P (Y = y). |{z} | >0 {z >0 } yP (Y = y) y∈A >t X P (Y = y) y∈A Mais, par σ-additivité, X P (Y = y) = P (Y ∈ A) = P (Y > t). y∈A •Pour l’autre formule, deux démonstrations : ? On se sert de l’inégalité précédente en remarquant que |X| > t ⇐⇒ X 2 = |X|2 > t2 . ? Notons B = {|X| > t} = {ω ∈ Ω/ |X(ω)| > t}. On a t2 1B 6 |X|2 1B 2015-2016 (1) 17/40 2016 PC* Variables aléatoires discrètes Rappelons que 1B est l’indicatrice de B, c’est une variable aléatoire qui vaut 1 sur B et 0 ailleurs. L’inégalité (1), qui dit que pour tout ω ∈ Ω, on a t2 1B (ω) 6 |X(ω)|2 1B (ω), se vérifie alors en distinguant deux cas : ω ∈ B et ω 6∈ B. Par croissance de l’espérance : E t2 1B 6 E |X|2 1B (2) Mais E t2 1B = t2 E (1B ) = t2 P (B) = t2 P (|X| > t). Et |X|2 1B 6 |X|2 1Ω = |X|2 , d’où, par croissance encore, t2 P (|X| > t) 6 E |X|2 1B 6 E(|X|2 ) Remarque. Il existe encore une autre formulation de Markov : Soit X une v.a.d. réelle positive telle que E(X 2 ) existe, alors P (X > t) 6 E(X) . t Conséquence : inégalité de Bienaymé-Tchebychev. (23) Soit X une v.a.d. réelle telle que X 2 admette une espérance finie. Alors ∀ε > 0, P (|X − E(X)| > ε) 6 V(X) ε2 Preuve. On applique la 2ème inégalité de Markov à la variable aléatoire X − E(X). Remarque. • L’inégalité de Bienaymé-Tchebychev permet de comprendre ce que mesure la variance : pour ε > 0 fixé, la probabilité que l’écart entre X et E(X) soit supérieur à ε est d’autant plus petite que V(X) est faible : la variance donne donc une indication de la dispersion de X autour de son espérance, i.e. sa plus ou moins forte tendance à s’écarter de sa moyenne. L’écart-type, qui mesure aussi la dispersion de X, présente l’intérêt de s’exprimer dans la même unité que les valeurs prises par la v.a. X. • On passe souvent à l’événement contraire pour obtenir l’inégalité : ∀ε > 0, P (|X − E(X)| < ε) > 1 − III.4.c V(X) ε2 Covariance Définition. Soient X et Y deux v.a.d. réelles admettant une espérance finie. On appelle covariance de X et de Y le réel Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))], s’il existe. Afin d’établir l’existence de la covariance pour des v.a. X et Y dont les carrés admettent une espérance finie, montrons la propriété suivante : Proposition. Inégalité de Cauchy-Schwarz. (24) Soient X et Y des v.a. dont les carrés admettent une espérance finie. Alors • XY a une espérance finie • (E(XY ))2 6 E(X 2 )E(Y 2 ). 1 2 (X + Y 2 ) ; 2 et donc, puisque les variables X 2 et Y 2 admettent une espérance finie, la variable XY aussi. Soit λ ∈ R. Introduisons la variable Z = (λX + Y )2 = λ2 X 2 + 2λXY + Y 2 . Par combinaison linéaire, Z admet une espérance finie et puisque Z est positive λ2 E(X 2 ) + 2λE(XY ) + E(Y 2 ) > 0. Cette identité vaut pour tout λ ∈ R. Cas E(X 2 ) 6= 0 : le trinôme associé au premier membre ne peut posséder deux racines réelles distinctes et donc ∆ = 4(E(XY ))2 −4E(X 2 )E(Y 2 ) 6 0. Cas E(X 2 ) = 0 : on a nécessairement E(XY ) = 0 car sinon la constance de signe est impossible. Preuve. Pour tout x, y ∈ R, on a 2|xy| 6 x2 + y 2 ; on en déduit |XY | 6 18/40 2015-2016 2016 PC* Variables aléatoires discrètes Conséquence. (25) Si X et Y sont deux v.a.d. réelles admettant un moment d’ordre 2, alors la covariance de X et Y existe et on a : Cov(X, Y ) = E(XY ) − E(X)E(Y ) Preuve. X 2 et Y 2 admettant une espérance finie, il en est de même de X et Y et aussi de XY . Ainsi, en posant m = E(X) et m0 = E(Y ), on a : Cov(X, Y ) = E((X − m)(Y − m0 )) = E(XY − mY − m0 X + mm0 ) = E(XY ) − mm0 par linéarité de l’espérance. De la définition de la covariance et de la linéarité de l’espérance découlent les règles de calcul suivantes : Proposition. (26) Soient X, X 0 , Y, Y 0 quatre v.a.d. réelles admettant toutes des moments d’ordre 2 ; soient a, b, c, d quatre réels ; alors • Cov(X, Y ) = Cov(Y, X) • Cov(X, X) = V(X) • Cov(aX + b, cY + d) = ac Cov(X, Y ) • Cov(aX + bX 0 , cY + dY 0 ) = ac Cov(X, Y ) + bc Cov(X 0 , Y ) + ad Cov(X, Y 0 ) + bd Cov(X 0 , Y 0 ) La covariance est donc une application bilinéaire symétrique positive sur l’espace vectoriel des v.a.d. réelles admettant un moment d’ordre 2. Conséquence. (27) Soient X et Y deux v.a.d. réelles indépendantes admettant des moments d’ordre 2. Alors Cov(X, Y ) = 0. Preuve. Comme X 2 et Y 2 admettent une espérance finie, il en va de même de X et Y , et leur indépendance assure alors l’égalité E(XY ) = E(X)E(Y ). Remarque. On utilise souvent cette proposition en la contraposant : si Cov(X, Y ) 6= 0, alors X et Y ne sont pas indépendantes. Cependant, si Cov(X, Y ) = 0, on ne peut rien conclure quant à l’indépendance de X et Y . Vocabulaire. Si X et Y sont deux v.a.d. réelles admettant une covariance nulle, on dit alors que les variables X et Y sont non corrélées. III.4.d Variance d’une somme finie de v.a. Proposition. (28) Soient X, Y deux v.a.d. réelles admettant des moments d’ordre 2. Alors • (X + Y )2 admet une espérance finie et V(X + Y ) = V(X) + V(Y ) + 2Cov(X, Y ). • Si X et Y sont indépendantes, alors V(X + Y ) = V(X) + V(Y ). Preuve. • Les v.a. X, Y, X 2 , Y 2 , XY admettent des espérances finies, donc il en est de même de la v.a. (X + Y )2 , donc (X + Y ) admet une variance. On obtient le résultat en utilisant la linéarité de l’espérance. • Si X et Y sont indépendantes, alors Cov(X, Y ) = 0, d’où le résultat. Ce résultat ce généralise par récurrence sans difficulté : 2015-2016 19/40 2016 PC* Variables aléatoires discrètes Proposition. (29) Soit (Xi )16i6n une famille de variables aléatoires réelles discrètes dont les carrés admettent une espérance finie. Alors • la v.a. X1 + . . . + Xn admet une variance et Ü V n X ! Xi i=1 = n X V(Xi ) + E(Xi Xj ) − E(Xi )E(Xj ) X (i,j)∈J1,nK2 i=1 ê | i6=j {z } =Cov(Xi ,Xj ) • si les v.a. X1 , . . . , Xn sont deux à deux indépendantes, alors V n X ! Xi i=1 = n X V(Xi ) i=1 Exemple. Soit n ∈ N∗ . On suppose que n variables aléatoires discrètes X1 , ..., Xn ont les mêmes espérances, les mêmes variances et les mêmes covariances deux à deux, c’est-à-dire qu’il existe (a, b) ∈ R2 tel que, pour tout i ∈ {1, . . . , n}, E(Xi ) = a et que, pour tout (i, j) ∈ {1, . . . , n}2 , Cov (Xi , Xj ) = b. On note S = X1 + · · · + Xn . Calculer l’espérance et la variance de S. Définition. Soient X et Y deux v.a.d. réelles admettant un écart-type non nul. On appelle coefficient de corrélation linéaire de X et Y le réel : ρ(X, Y ) = Cov(X, Y ) σ(X)σ(Y ) Proposition. (30) Soient X et Y deux v.a.d. réelles admettant des moments d’ordre 2. Alors • |Cov(X, Y )| 6 σ(X)σ(Y ) • Si de plus les écarts-types de X et Y sont non nuls, alors −1 6 ρ(X, Y ) 6 1. Preuve. Il suffit donc d’établir le premier point. Comme X 2 et Y 2 admettent une espérance finie, alors pour tout réel t, tX + Y admet une variance finie ; on considère alors ψ : t ∈ R 7→ V(tX + Y ), puis procéder comme dans C-S. Remarque. |ρ(X, Y )| = 1 est un cas d’égalité dans Cauchy-Schwarz ; on peut montrer qu’alors ∃(a, b) ∈ R2 / P (Y = aX + b) = 1 (l’événement Y = aX + b est presque certain). IV. IV.1 Variables aléatoires à valeurs dans N Série génératrice ou fonction génératrice Soit X une variable aléatoire à valeurs dans N. Lemme. (31) X Le rayon de convergence RX de la série entière P (X = n) tn est au moins égal à 1. Preuve. Cela vient de la convergence (sa somme vaut en plus 1) de la série numérique 20/40 X P (X = n) 1n . 2015-2016 2016 PC* Variables aléatoires discrètes Remarque. Par la formule de transfert (f : y 7→ ty ), on remarque que, ∀t ∈] − RX , RX [, E t X = +∞ X P (X = n)tn n=0 Définition. Soit X une v.a. à valeurs dans N. La série génératrice de la v.a. X à valeurs dans N est définie par GX (t) = E(tX ) = +∞ X P (X = n)tn n=0 Remarques. 1. La série génératrice (ou fonction génératrice) d’une v.a. à valeurs dans N est au moins définie et continue sur [−1, 1] (car on a convergence normale sur [−1, 1]). 2. Il faut noter l’abus de langage consistant à confondre une série et sa somme. 3. Si X(Ω) est fini (= X v.a. finie), alors la somme définissant GX est finie, c’est donc un polynôme défini sur R. 4. Par unicité du D.S.E., si deux v.a. ont la même série génératrice, alors elles ont la même loi de probabilité, d’où : Proposition. (32) La loi d’une v.a. à valeurs dans N est caractérisée par sa série génératrice. (k) G (0) On a ∀k ∈ N, P (X = k) = X . k! Preuve. cf cours sur les séries entières. IV.2 Propriétés Proposition. (33) La v.a. X à valeurs dans N admet une espérance finie ssi GX est dérivable en 1 et si tel est le cas, E(X) = G0X (1). Preuve. Non exigible. Dans le sens direct, en notant un : t 7→ nP (X = n)tn , on obtient ku0n k∞ = nP (X = n) = t.g. X de E(X), d’où la convergence normale sur [−1, 1] de la série u0n , donc par th. de dérivation des séries de fonctions, [−1,1] GX est C 1 sur [−1, 1] au moins et E(X) = G0X (1). Dans le sens réciproque, utiliser le th. des accroissements finis. Proposition. (34) Si RX > 1, alors X 2 admet une espérance finie et : G0X (1) = E(X), G00X (1) = E(X(X − 1)) et dans ce cas, V(X) = G00X (1) + G0X (1) − (G0X (1))2 . Preuve. Si RX > 1, alors GX est indéfiniment dérivable sur l’intervalle fermé [−1, 1] ⊂] − RX , RX [ et ∀t ∈ [−1, 1], G0X (t) = +∞ X k=1 ktk−1 P (X = k), G00X (t) = +∞ X k(k − 1)tk−2 P (X = k). k=2 Ces deux séries entières ont un rayon de cv RX > 1, donc +∞ X k=1 kP (X = k) et +∞ X k(k − 1)P (X = k) cv abs. k=2 2 On en déduit que X et X(X − 1) admettent une espérance finie, et par suite X (= X + X(X − 1)) aussi. De plus, G0X (1) = E(X) et G00X (1) = E(X(X − 1)) (donc E(X 2 ) = G00X (1) + G0X (1)). On a ainsi V(X) = E(X 2 ) − (G0X (1))2 = G00X (1) + G0X (1) − (G0X (1))2 . 2015-2016 21/40 2016 PC* IV.3 Variables aléatoires discrètes Fonction génératrice et somme Proposition. (35) • Soient X et Y deux v.a. indépendantes à valeurs dans N. Alors, ∀t ∈] − 1, 1[, GX+Y (t) = GX (t)GY (t). • Soient n v.a. indépendantes X1 , . . . , Xn à valeurs dans N. Alors, en posant Sn = X1 + . . . + Xn , on a : GSn = n Y GXi . i=1 Preuve. Puisque X et Y sont indépendantes, pour tout t ∈] − 1, 1[, tX et tY le sont aussi (comme images de v.a.i. par une fonction), donc GX+Y (t) = E(tX+Y ) = E(tX tY ) = E(tX )E(tY ) = GX (t)GY (t). Ensuite, on procède par récurrence. Exemple. Sachant qu’une loi B(n, p) peut être simulée par la somme de n loi B(p) indépendantes, on retrouve que si X ,→ B(n, p), alors ∀t ∈ R, GX (t) = (1−p + pt)n . V. Lois usuelles V.1 Loi géométrique V.1.a Généralités Épreuve type : on répète des épreuves de Bernoulli identiques et mutuellement indépendantes, jusqu’à l’apparition du premier succès, et on s’intéresse à la v.a. X égale au rang du premier succès, i.e. au nombre d’épreuves nécessaires à la réalisation du premier succès. On admet l’existence d’espaces probabilisés modélisant une telle suite d’expériences aléatoires. La v.a. X de l’épreuve type suit une loi géométrique (définie ci-dessous). Pour la loi binomiale, le nombre d’épreuves était connu, ce qui n’est pas le cas ici. Définition. On dit que la v.a. X suit une loi géométrique de paramètre p ∈]0, 1[ lorsque • X(Ω) = N∗ • Pour tout k ∈ N∗ , P (X = k) = p(1 − p)k−1 On note X ,→ G (p) et on pose q = 1 − p. Remarque. Cette définition a bien un sens, car la série géométrique de raison 1 − p est de somme p1 . Exemple. On répète le lancer d’une pièce de monnaie équilibrée. Quelle est la loi de la variable aléatoire égale au rang d’apparition du premier Pile ? Exemple. On lance une infinité de fois un dé équilibré jusqu’à l’obtention du premier note X la v.a. égale au rang du premier succès. X ,→ G ( 16 ). V.1.b et on Espérance, variance, série génératrice 22/40 2015-2016 2016 PC* Variables aléatoires discrètes Proposition. (36) Soit p ∈]0, 1[, q = 1 − p et X ,→ G (p). 1. Alors la série génératrice GX a un rayon de convergence RX égal à 1 q > 1 et 1 1 pt ∀t ∈] − , [, GX (t) = q q 1 − tq 2. X admet une espérance finie donnée par E(X) = 3. V(X) = 1 . p q . p2 Preuve. Le rayon de convergence de la série entière X q k−1 ptk est RX = 1 q > 1 et k>1 ∀|t| < 1q , GX (t) = +∞ X q k−1 ptk = pt k=0 +∞ X (qt)i = pt i=0 1 . 1 − qt D’autre part, comme RX > 1, X 2 admet une espérance finie, donc X admet une espérance finie et une variance, obtenues 1 q à l’aide des dérivées de GX en 1. On obtient ainsi E(X) = et V(X) = 2 . p p V.1.c Absence de mémoire Proposition. (37) La loi géométrique est la seule loi de probabilité discrète à valeurs dans N∗ vérifiant : ∀(n, k) ∈ N2 , P (X > n + k|X > n) = P (X > k) ou encore P(X>n) (X > n + k) = P (X > k). Remarque. Cette propriété se traduit en disant que la loi géométrique est sans mémoire : le nombre d’épreuves à répéter jusqu’à l’obtention d’un premier succès est le même quel que soit le nombre d’épreuves effectuées auparavant. L’égalité P(X>n) (X > n + k) = P (X > k) peut se traduire par «la probabilité qu’il n’y ait pas encore eu de succès à l’instant n + k, sachant qu’il n’y en a pas eu avant l’instant n, est égale à la probabilité qu’il n’y ait pas eu de succès à l’instant k». Preuve. • Vérifions tout d’abord l’absence de mémoire de la loi géométrique. Soit X ,→ G (p), soient (n, k) ∈ N2 . Alors P (X > n) = +∞ X pq i−1 = q n 6= 0 ; on peut donc calculer la probabilité conditionnelle : i=n+1 P ((X > n) ∩ (X > n + k)) P (X > n + k) q n+k = = n = q k = P (X > k). P (X > n) P (X > n) q Ainsi X est sans mémoire. P(X>n) (X > n + k) = • Soit désormais Y une v.a. à valeurs dans N∗ sans mémoire, à savoir ∀(n, k) ∈ N2 , P(Y >n) (Y > n + k) = P (Y > k). | {z } P ((Y > n) ∩ (Y > n + k)) P (Y > n + k) = = P (Y > n) P (Y > n) Alors P (Y > n + k) = P (Y > n)P (Y > k). Posons q = P (Y > 1) : on obtient (réc. sur n) ∀n > 1, P (Y > n) = q n , d’où P (Y = n) = P (Y > n − 1) − P (Y > n) = q n−1 − q n = q n−1 (1 − q). Ainsi Y suit une loi géométrique de paramètre p = 1 − P (Y > 1). 2015-2016 23/40 2016 PC* V.2 Variables aléatoires discrètes Loi de Poisson La loi de Poisson n’est pas associée à une expérience type. Elle apparaît dans la modélisation de données statistiques. Si durant un laps de temps T un phénomène se produit en moyenne λ fois, il est fréquent de dire que le nombre d’occurrences de ce phénomène durant ce laps de temps suit une loi de Poisson de paramètre λ. Par exemple, le nombre de désintégrations radioactives par seconde, le nombre de passages journalier le long d’une route, le nombre d’accidents annuel, le nombre de personnes arrivant à un guichet en une heure, le nombre de messages reçus par un ordinateur, etc. V.2.a Définition Définition. On dit que la variable aléatoire X suit une loi de Poisson de paramètre λ > 0 lorsque : • X(Ω) = N • Pour tout k ∈ N : P (X = k) = e−λ λk k! On note X ,→ P(λ). cz Remarque. Cette définition a bien un sens, car la série de t.g.positif e−λ V.2.b λk est de somme 1. k! Espérance, variance, série génératrice Proposition. (38) Soit X ,→ P(λ). 1. Alors la série génératrice GX a un rayon de convergence RX égal à +∞ > 1 et ∀t ∈ R, GX (t) = eλ(t−1) . 2. X admet une espérance finie donnée par E(X) = λ. 3. V(X) = λ. Preuve. ∀t ∈ R, GX (t) = +∞ X k=0 e−λ tk λk = eλ(t−1) . k! GX est donc une série entière de rayon infini (> 1), donc X 2 admet une espérance finie, et donc X aussi et … V.2.c Somme de deux Poisson Proposition. (39) Soient X et Y deux v.a. indépendantes suivant des lois de Poisson de paramètres repectifs λ et µ. Alors X + Y suit une loi de Poisson de paramètre λ + µ. Preuve. La somme de deux v.a.d. réelles étant une v.a.d. réelle, Z = X + Y est une v.a.d. réelle, et comme X et Y prennent leurs valeurs dans N, il en est de même de Z. 24/40 2015-2016 2016 PC* Variables aléatoires discrètes Soit k ∈ N ; X et Y étant indépendantes, P (Z = k) = k X P ((X = i) ∩ (Y = k − i)) = i=0 k X e−λ i=0 V.3 k λi −µ µk−i e−(λ+µ) X e = i! (k − i)! k! k X P (X = i)P (Y = k − i) = i=1 k e−(λ+µ) λi µk−i = (λ + µ)k . i k! Ç å i=0 Résumé des différentes lois On trouvera en dernière page un tableau résumant les résultats des cinq lois usuelles à notre programme. V.4 Représentation graphique des lois, simulation avec Python On trouvera en annexe (cf § IX.) le code Python permettant d’illustrer les lois usuelles. VI. Résultats asymptotiques VI.1 Loi binomiale et loi de Poisson Proposition. Approximation de la loi binomiale par la loi de Poisson. (40) Soit (Xn )n∈N une suite de variables aléatoires telle que pour tout n, Xn suit une loi binomiale de paramètres n, pn . λk Si npn −−−−−→ λ > 0, alors ∀k ∈ N, P (Xn = k) −−−−−→ e−λ = P (X = k) où X ,→ P(λ). n→+∞ n→+∞ k! 0.35 Évolution de la binomiale, et comparaison à la Poisson (10,0.1538) (100,0.0194) (1000,0.00199) (10000,0.0002) (2) 0.30 0.25 0.20 0.15 0.10 0.05 0.00 0 1 2 3 4 5 6 7 8 9 Preuve. Soit k ∈ N. pkn nk n n−1 n−k+1 (1 − pn )−k × × ... × k! n n n k étant fixé, chacun des termes du crochet tend vers 1 quand n → +∞, donc le crochet tend vers 1. Puisque npn −−−−−→ λ, pn −−−−−→ 0, donc (1 − pn )−k −−−−−→ 1 P (Xn = k) = n k pkn (1 − pn )n−k = (1 − pn )n n→+∞ n→+∞ h i n→+∞ et n ln(1 − pn ) ∼ −npn −−−−−→ −λ, donc (1 − pn )n = exp(n ln(1 − pn )) −−−−−→ e−λ n→+∞ n→+∞ pk nk λk Enfin, n −−−−−→ . n→+∞ k! k! Remarque. Avec les notations précédentes, on a E(Xn ) = npn −−−−−→ λ = E(X) et V(Xn ) = npn (1 − pn ) −−−−−→ λ = V(X). n→+∞ n→+∞ 2015-2016 25/40 2016 PC* Variables aléatoires discrètes Remarque. Dans la pratique, lorsque Xn ,→ B(n, pn ), le calcul de P (Xn = k) devient difficile lorsque n est grand. On cherche alors une approximation en supposant que Xn suit une loi de Poisson plutôt qu’une loi binomiale. De façon théorique, il faut vérifier que (npn ) converge vers λ > 0, mais en pratique, on se contentera des conditions : n est grand (n > 50), pn petit (pn 6 0.1) et npn 6 15 (npn sera alors une approximation de λ) (B(n, pn ) sera proche de P(npn )). On peut interpréter la loi de Poisson comme la loi du nombre de succès lorsque l’on compte un nombre très élevé d’épreuves avec une probabilité p de succès très faible (Poisson «=» loi des événements rares). Exemple. On dispose, pour tout n ∈ N∗ , d’une urne Un contenant une boule blanche et n − 1 boules noires. Pour tout n ∈ N∗ , on effectue au hasard n tirages successifs dans Un , avec remise de la boule tirée, et on note Xn la variable aléatoire égale au nombre de boules blanches obtenues. Déterminer, pour tout k ∈ N, la limite de la probabilité P (Xn = k) lorsque l’entier n tend vers l’infini. Exemple. Sept millions de joueurs remplissent une grille de loto chaque semaine, en cochant 5 cases (49 numéros) et en choisissant un numéro « chance » entre 1 et 10. 1. Quelle est la loi X décrite par le nombre de joueurs gagnant le gros lot ? 2. Comment utiliser les tables présentées en annexes pour en déduire P (X = 0), P (X = 1), P (X = 2), etc ? 3. Proposer un script Python permettant de vérifier les résultats obtenus. 4. La loi de X, et son espérance, sont représentées sur la figure suivante : Loi du nombre de gagnants au loto 1.0 X = loi du loto E(X) =0.37 0.8 0.6 0.4 0.2 0.0 0 1 2 3 4 Que devient la loi si on fait la moyenne sur 2 tirages du loto ? sur 4 tirages ? sur 8 tirages ? etc. VI.2 Loi faible des grands nombres Proposition. Loi faible des grands nombres. (41) Soit (Xn )n∈N une suite de variables aléatoires discrètes réelles deux à deux indépendantes sur un même espace probabilisé. On suppose que les Xn sont toutes de même loi, et admettent un moment d’ordre 2. On note m = E(X1 )(= . . . = E(Xn )) et, si n > 1, Sn = X1 + X2 + . . . + Xn Alors, pour tout ε > 0, Å ã Sn P − m > ε −−−−−→ 0 n→+∞ n 26/40 2015-2016 2016 PC* Variables aléatoires discrètes Preuve. Appliquer l’inégalité de Tchebychev. En notant Sn n Y = on obtient V (Y ) = σ2 n où σ = V(X1 ) = . . . = p p V(Xn ) Å ã Sn σ2 et on conclut assez rapidement (car 0 6 P − m > ε 6 : inégalité à savoir retrouver, car souvent utilisée n nε2 dans les exercices). Remarque. La moyenne empirique (= la v.a. moyenne d’échantillon = Sn n ) «tend vers» la moyenne théorique (=l’espérance de la v.a.) ; ceci permet d’estimer la valeur de E(X) (si elle n’est pas connue) par une réalisation de Snn . 2 On a aussi V( Snn ) = σn −−−−−→ 0 : ceci confirme que la dispersion de Snn devient de plus en plus petite. n→=∞ Exemple. On considère une suite d’épreuves indépendantes et un événement A, de probabilité p. On note Xn la variable de Bernoulli égale à 1 lorsque A est réalisé à la nième épreuve. Les variables (Xn ) sont indépendantes et de même loi, d’espérance p. La fréquence, notée Fn , de Sn réalisation de l’événement A au cours des n premières épreuves est égale à la v.a. . n D’après la loi faible des grands nombres, ∀ε > 0, P (|Fn − p| > ε) −−−−−→ 0. n→+∞ Ainsi, la fréquence tend en probabilité vers p, ce qui semble naturel. 2015-2016 27/40 Exo 1 Soit X une v.a.d. qui suit une loi de Poisson de paramètre λ > 0 k (i.e. X(Ω) = N et ∀k ∈ N, P (X = k) = e−λ λk! ). Soit Y une v.a. réelle, indépendante de X, définie par P (Y = 1) = P (Y = 2) = 12 . (1) Calculer la loi de T = X 2 + 1. (2) Calculer P (2X < X 2 + 1). (3) Calculer la probabilité que X soit un nombre pair et montrer que X a «plus de chances» d’être paire qu’impaire. (4) On note Z la v.a. XY . Calculer la probabilité que Z soit un nombre pair. 2016 Exo 4 On note, pour tout n ∈ N∗ : pn = (1) Dans cette question, Y suit une loi de Bernoulli de paramètre p ∈]0, 1[. On définit la v.a. Z par Z = 0 si Y = 0, et Z = X sinon. Déterminer la loi de Z, son espérance et sa variance, si elles existent, et la loi de Y conditionnée par (Z = 0). Exo 3 2015-2016 Une urne (de contenance illimitée) contient initialement deux boules blanches et une boule noire. On effectue des tirages successifs selon le protocole suivant : on tire une boule, puis on la remet dans l’urne et on ajoute dans l’urne une boule blanche et une boule noire. Quelle est la loi de probabilité du numéro d’apparition d’une première boule blanche ? . Exo 5 On note p0 = 1 2 et, pour tout n ∈ N∗ : pn = 1 n 3 . (1) Montrer que la famille (n, pn )n∈N est la loi de probabilité d’une variable aléatoire X. (2) Montrer que X admet une espérance et la calculer. (3) Montrer que X admet une variance et la calculer. Exo 6 On dispose d’une pièce déséquilibrée, amenant pile avec la probabilité 23 . On note X le nombre de lancers nécessaires pour obtenir pour la première fois deux piles consécutifs, et pour tout n ∈ N∗ , on note an = P (X = n). (1) Calculer a1 , a2 , a3 . (2) Montrer : ∀n > 3, an = 13 an−1 + 29 an−2 . (3) En déduire la loi de X. Vérifier par le calcul que +∞ X n=1 P (X = n) = 1. (4) La variable aléatoire X admet-elle une espérance ? Si oui, la calculer. Variables aléatoires discrètes (2) On suppose maintenant que Y suit une loi géométrique de paramètre p ∈]0, 1[. Calculer la probabilité que X soit égale à Y. 1 n2n ln 2 (1) Montrer que la famille (n, pn )n∈N∗ est la loi de probabilité d’une variable aléatoire discrète X. (2) X admet-elle une espérance ? Si oui, la calculer. (3) Quelle est l’espérance de la variable aléatoire Y = (ln 2)X − 1 ? Exo 2 Soit X une v.a. qui suit une loi de Poisson de paramètre λ > 0 et Y une v.a. indépendante de X. PC* 28/40 VII. Exercices On considère une variable aléatoire discrète X vérifiant X(Ω) = Z et : 1 ∀n ∈ N, P (X = n+1) = n+1 P (X = n) et P (X = −n) = P (X = n). (1) Exprimer, pour tout n de Z, P (X = n) en fonction de P (X = 0). En déduire P (X = 0) puis la loi de X. (2) Montrer que la variable aléatoire X admet une espérance et une variance, et calculer E(X) et V(X). 1 a. Montrer : ∀n ∈ N∗ , P (T = n) = n(n+1) . En déduire P (T = 0) = 0 et interpréter ce résultat. b. La variable T admet-elle une espérance ? Exo 9 Soit X une variable aléatoire à valeurs naturelles dont la loi est donnée par Ç Un mobile se déplace sur les points à coordonnées entières d’un axe d’origine O. Au départ, le mobile est à l’origine (point d’abscisse 0). Le mobile se déplace selon la règle suivante : s’il est sur le point d’abscisse k à l’instant n, alors, à l’instant (n+1), il sera sur le point d’abscisse (k + 1) avec la probabilité k+1 k+2 ou sur le point d’abscisse 1 0 avec la probabilité k+2 . Pour tout n de N, on note Xn l’abscisse du point où se trouve le mobile à l’instant n et un = P (Xn = 0). (1) Montrer, pour tout n ∈ N et tout k ∈ {1, ..., n + 1} : k P (Xn+1 = k) = k+1 P (Xn = k − 1). n X uj = 1. En déduire n−j+1 j=0 29/40 (4) Montrer, pour tout n ∈ N : E(Xn+1 ) = E(Xn ) + un+1 . En déduire, pour tout n ∈ N∗ , une expression de E(Xn ) sous forme de somme mettant en jeu certains termes de la suite (un )n∈N . Calculer espérance et variance de X. Exo 10 On considère une expérience aléatoire ayant la probabilité p > 0 de réussir et 1 − p d’échouer. On répète l’expérience indépendamment jusqu’à obtention de m succès et on note X le nombre d’essais nécessaires à l’obtention de ces m succès. (1) Reconnaître la loi de X lorsque m = 1. (2) Déterminer la loi de X dans le cas général m ∈ N∗ . (3) Exprimer le développement en série entière de t 7→ 1 (1 − t)m (4) Déterminer la fonction génératrice de X et en déduire l’espérance de X. Exo 11 Un signal est diffusé via un canal et un bruit vient malheureusement s’ajouter à la transmission. Le signal est modélisé par une variable aléatoire discrète réelle S d’espérance mS et de variance σS2 connues. Variables aléatoires discrètes (2) En déduire, pour tout n ∈ N et tout k ∈ {0, ..., n} : P (Xn = 1 k) = k+1 un−k . u0 , u1 , u2 , u3 . å n+k k P (X = k) = a p avec a > 0 et p ∈]0, 1[ k Exo 8 (3) Montrer, pour tout n ∈ N : 2016 PC* 2015-2016 Exo 7 (5) On note T l’instant auquel le mobile se trouve pour la première fois à l’origine (sans compter son positionnement au départ) et on convient que T prend la valeur 0 si le mobile ne revient jamais à l’origine. 2016 Exo 15 Soit p ∈ ]0 , 1[. On définit, pour tout(i, j) ∈ N 2 , les réels ai,j par : ( Exo 12 On effectue une suite infinie de lancers d’une pièce équilibrée. On note X (resp. Y ) la variable aléatoire égale au rang d’apparition du premier pile (resp. face). (1) Déterminer la loi du couple (X, Y ). (2) Montrer que les variables aléatoires X et Y ne sont pas indépendantes. (3) Déterminer la loi de la v.a. Z = X + Y . Exo 13 (1) Montrer qu’il existe un réel a unique, à calculer, tel que la famille i + j a i!j! (i,j)∈N2 soit la loi de probabilité d’un couple (X, Y ) de variables aléatoires discrètes. (2) Calculer Cov (X, Y ). 2015-2016 Soit N ∈ N∗ fixé. Une urne contient N jetons numérotés de 1 à N . On effectue une suite infinie de tirages d’un jeton avec remise dans l’urne du jeton tiré. On note, pour tout i ∈ N∗ , Xi la variable aléatoire égale au numéro du jeton obtenu au i-ème tirage. On note, pour tout n ∈ N∗ : Sn = X1 + · · · + Xn . Calculer, pour tout n ∈ N∗ , l’espérance et la variance de Sn . (1 − p)j−2 p2 0 si 1 6 i < j sinon. (1) Montrer que (i, j, ai,j ) ; (i, j) ∈ N2 est la loi d’un couple (X, Y ) de variables aléatoires discrètes. ¶ © (2) Déterminer les lois marginales de X et de Y . Les variables aléatoires X et Y sont-elles indépendantes ? (3) Soit j > 2. Déterminer la loi conditionnelle de X sachant (Y = j). Exo 16 On lance une pièce amenant pile avec la probabilité p (0 < p < 1), jusqu’à l’obtention de deux piles. On note X le nombre de faces alors obtenues. Si X = n, on met n + 1 boules numérotées de 0 à n dans une urne, et on tire une boule au hasard. On note Y le numéro de la boule obtenue. (1) Déterminer la loi de X. Calculer E(X). (2) Déterminer la loi du couple (X, Y ), et en déduire la loi de Y . Calculer E(Y ). (3) On définit la variable aléatoire Z = X − Y . Montrer que Y et Z sont indépendantes. Exo 17 Deux joueurs A et B procèdent l’un après l’autre à une succession de lancers d’une même pièce, amenant pile avec la probabilité p ∈ ]0 , 1[. On pose q = 1 − p. Variables aléatoires discrètes Exo 14 ai,j = PC* 30/40 Le bruit est modélisé par une variable B indépendante de S d’espé2 > 0. Après diffusion, le signal reçu est rance nulle et de variance σB X = S + B. Déterminer a, b ∈ R pour que Y = aX + b soit au plus proche de S i.e. tel que l’espérance E (Y − S)2 soit minimale. (1) Déterminer la loi de X. (2) Soit n ∈ N∗ . Déterminer la loi conditionnelle de Y sachant (X = n). q (3) En déduire : P (Y = 0) = 1+q et ∀k > 1, P (Y = k) = 1 (1+q)2 Ä äk−1 q . 1+q Vérifier par le calcul que +∞ X P (Y = k) = 1. k=0 (4) Le joueur B gagne s’il obtient au moins un pile, sinon c’est le joueur A qui gagne. Le jeu est-il équitable ? Exo 18 Dans cet exercice, on pourraX utiliser le résultat suivant : pour tout x ∈ ] − 1 ; 1[, la série n(n − 1)(n − 2)xn−3 converge et n>0 +∞ X 31/40 (1) Déterminer la loi du couple (X, Y ). En déduire les lois marginales de X et de Y . (2) Montrer que X et Y admettent une espérance et une variance et calculer E(X), E(Y ), V(X), V(Y ). 2016 Exo 19 Démontrer que la fonction de répartition d’une v.a. X suivant la loi de Poisson de paramètre λ > 0, est donnée par 1 ∀n, P (X 6 n) = n! Z +∞ e−x xn dx λ Exo 20 Le nombre de voitures se présentant en une heure à une barrière de péage est une v.a. X suivant la loi de Poisson de paramètre λ > 0. À cette barrière, il y a N péages ; chaque voiture arrivant choisit un des péages au hasard, de manière équiprobable et indépendamment des autres voitures. On note Y1 le nombre de voitures se présentant au péage numéro 1. (1) Déterminer la loi de Y1 conditionnée par (X = n). (2) Déterminer la loi de Y1 . (3) On note naturellement Yk le nombre de voitures se présentant au péage k (et bien sûr, Y1 et Yk (pour tout k ∈ J2, N K) suivent la même loi). Soit i 6= j ; en considérant la variance de Yi + Yj , déterminer la covariance de Yi et Yj . (4) En déduire la covariance de Y1 et X, puis le coefficient de corrélation linéaire de Y1 et X. Exo 21 Pour chaque question, reconnaître la loi de X et en préciser les paramètres : (1) on lance un dé équilibré à 6 faces et on note X la variable aléatoire égale au numéro obtenu Variables aléatoires discrètes 6 . (1 − x)4 n=0 On répète, de façon indépendante, une expérience aléatoire au cours de laquelle un événement A se réalise, à chaque fois, avec la probabilité p (0 < p < 1). On note X la variable aléatoire égale au rang de la première réalisation de l’événement A, et Y celle égale au rang de sa deuxième réalisation. n(n − 1)(n − 2)xn−3 = (3) Montrer que (X, Y ) admet une covariance et calculer Cov (X, Y ). (4) Soit n > 2. Déterminer la loi conditionnelle de X sachant (Y = n). PC* 2015-2016 Le joueur A commence et il s’arrête dès qu’il obtient le premier pile. On note X la variable aléatoire égale au nombre de lancers effectués par le joueur A. Le joueur B effectue alors autant de lancers que le joueur A et on note Y la variable aléatoire égale au nombre de piles obtenus par le joueur B. 2015-2016 Soient X et Y deux variables aléatoires indépendantes suivant toutes les deux la loi géométrique de même paramètre p, avec p ∈ ]0 , 1[. (1) Déterminer la loi de X + Y , la loi de Min (X, Y ) et la loi de Max (X, Y ). (3) Calculer les probabilités suivantes : P (X = Y ), P (X 6 Y ). 2016 Exo 23 On considère une variable aléatoire X suivant la loi de Poisson de paramètre λ, avec λ > 0. P (X = n + 1) . P (X = n) (2) En déduire le mode de X, c’est-à-dire la valeur que prend X avec la plus grande probabilité. (1) Pour tout n de N, calculer un = Exo 24 Soit n ∈ N∗ . On dispose de n rosiers, sur chacun desquels on opère une greffe. Lorsqu’une greffe est opérée, on sait au bout d’une semaine si elle a pris ou non, et si la greffe ne prend pas, on recommence jusqu’à ce qu’elle prenne effectivement. On suppose que la probabilité qu’une greffe donnée prenne est égale à p, avec 0 < p < 1, et que toutes ces expériences sont mutuellement indépendantes. On note, pour tout k ∈ {1, ..., n}, Xk la variable aléatoire égale au nombre de greffes nécessaires à la prise du rosier numéro k. On définit également : – la variable aléatoire Y égale au nombre de semaines nécessaires à la prise d’au moins une greffe, – la variable aléatoire Z égale au nombre de semaines nécessaires à la prise de toutes les greffes. (1) Déterminer, pour tout k ∈ {1, ..., n}, la loi de Xk , son espérance et sa variance. (2) Calculer, pour tout m > 1, P (Y > m). En déduire la loi de Y et son espérance. (3) a. Calculer, pour tout m > 1, P (Z 6 m). b. En déduire la loi de Z. Variables aléatoires discrètes Exo 22 (2) À quelle situation type peut-on associer les variables aléatoires X et Y ? Que représentent alors X + Y , Min (X, Y ) et Max (X, Y ) ? PC* 32/40 (2) une urne contient 12 boules : 6 boules vertes, 4 boules rouges et 2 boules noires ; on tire au hasard successivement et avec remise 8 boules et on note X la variable aléatoire égale au nombre de boules rouges obtenues (3) une urne contient 12 boules : 6 boules vertes, 4 boules rouges et 2 boules noires ; on effectue des tirages successifs et avec remise jusqu’à obtenir une boule rouge et on note X la variable aléatoire égale au nombre de tirages effectués (4) on range au hasard 10 boules dans 3 sacs de façon équiprobable et on note X le nombre de boules mises dans le premier sac (5) les 32 cartes d’un jeu sont alignées, faces cachées, sur une table de façon aléatoire ; on découvre les cartes, de gauche à droite jusqu’à obtenir la dame de cœur et on note X la variable aléatoire égale au nombre de cartes découvertes (6) une urne contient n jetons numérotés de 1 à n (n ∈ N∗ ) ; on les tire au hasard un à un sans remise jusqu’à obtenir le jeton numéro 1 et on note X le nombre de tirages effectués (7) une urne contient n jetons numérotés de 1 à n (n ∈ N∗ ) ; on les tire au hasard un à un avec remise jusqu’à obtenir le jeton numéro 1 et on note X le nombre de tirages effectués (8) on pose n questions à un élève ; pour chaque question, r réponses sont proposées dont une et une seule est correcte ; l’élève répond au hasard à chaque question et on note X la variable aléatoire égale au nombre de bonnes réponses. (9) Dans un magasin il y a n clients et m caisses. Chaque client choisit une caisse au hasard et on appelle X le nombre de clients choisissant la caisse numéro 1. Donner la loi de X. On note m = E(X1 ), v = V(X1 ), et, pour tout n ∈ N∗ : Mn = Exo 25 Vous faites la queue avec votre ami Arnold à la caisse d’un grand magasin. Comme l’attente est longue, vous observez les gens entrant dans le magasin. (1) Arnold vous parie que le nombre de personnes entrant avant la première femme est pair. Prenez-vous le pari ? (2) Arnold vous parie ensuite que le nombre de personnes entrant dans le magasin durant la prochaine heure est pair. Prenezvous le pari ? (On suppose que le nombre d’arrivants par heure suit une loi de Poisson). Exo 26 Soit X et Y deux variables aléatoires indépendantes suivant des lois géométriques de paramètres p et q > 0. Quelle est la probabilité que la matrice suivante soit diagonalisable ? Ç A= X 1 0 Y å Exo 27 33/40 Exo 28 Soit (Xn )n∈N∗ une suite de variables aléatoires deux à deux indépendantes, de même loi et admettant un moment d’ordre 2. (1) Montrer : ∀n ∈ N∗ , ∀ε > 0, P |Mn − m| > ε 6 Ä ä v . nε2 (2) On suppose ici v = 10−1 . Déterminer un entier N ∈ N∗ tel que, pour tout entier n > N , on ait : P |Mn − m| > 10−2 6 10−3 . Ä ä Exo 29 On considère une suite (Xn )n∈N∗ de variables aléatoires indépendantes suivant toutes la même loi de Bernoulli de paramètre p avec 0 < p < 1. Pour tout n de N∗ , on pose : Sn = X1 + · · · + Xn , n (1) Justifier : ∀ε > 0, (2) Y1 + · · · + Yn . n Yn = Xn + Xn+1 , 2 lim P Sn − p > ε = 0. n→+∞ Tn = a. Soit n ∈ N∗ . Donner la loi et l’espérance de Yn . b. Soient n, m ∈ N∗ tels que n < m. Les variables aléatoires Yn et Ym sont-elles indépendantes ? (3) Montrer : ∀ε > 0, lim n→+∞ P Tn − p > ε = 0. Exo 30 300 personnes vont voir un film projeté dans deux salles de cinéma. Chaque salle contient N places, où 150 6 N 6 300. Déterminer une valeur de N pour que la probabilité que chaque personne trouve une place dans la salle qu’elle a choisie soit supérieure à 0.99. Variables aléatoires discrètes Soit p ∈ ]0 , 1[. On considère une suite (Xn )n∈N∗ de variables aléatoires telle que, pour tout n ∈ N∗ , Xn suit la loi binomiale B(n, p). Xn On note, pour tout n ∈ N∗ : Yn = . Montrer : ∀n ∈ N∗ , ∀ε > n Ä ä 1 0, P |Yn − p| > ε 6 4nε 2. n 1X Xk . n k=1 2016 PC* 2015-2016 c. Montrer que Z admet une espérance. Calculer E(Z) lorsque n = 2. 2016 PC* Variables aléatoires discrètes VIII. Annexe 1 : quelques extraits de tables de fonctions de répartition VIII.1 Binomial distribution table The tables only cover p 6 12 . For p > 12 , the rôles of successes and failures need to be reversed, i.e. if X ,→ B(n, p), and Y ,→ B(n, 1 − p), then P {X 6 x} = 1 − P {Y 6 n − x − 1}. Cumulative distribution function for p 6 0.09 This section tabulates the cumulative distribution function (c.d.f.) of the binomial distribution, i.e. the distribution of the number of successes in n independent trials of an experiment which leads to a success with probability p. The c.d.f. is F (x) = P (X 6 x) = x X P (X = k) = k=0 x X k=0 Ç å n k p (1 − p)n−k . k Source can be found at http://www.stats.gla.ac.uk/~levers/software/tables/ n x 0.001 0.005 0.01 0.02 0.03 p 0.04 0.05 0.06 0.07 0.08 0.09 1 0 1 0.9990 1.0000 0.9950 1.0000 0.9900 1.0000 0.9800 1.0000 0.9700 1.0000 0.9600 1.0000 0.9500 1.0000 0.9400 1.0000 0.9300 1.0000 0.9200 1.0000 0.9100 1.0000 2 0 1 2 0.9980 1.0000 1.0000 0.9900 1.0000 1.0000 0.9801 0.9999 1.0000 0.9604 0.9996 1.0000 0.9409 0.9991 1.0000 0.9216 0.9984 1.0000 0.9025 0.9975 1.0000 0.8836 0.9964 1.0000 0.8649 0.9951 1.0000 0.8464 0.9936 1.0000 0.8281 0.9919 1.0000 3 0 1 2 3 0.9970 1.0000 1.0000 1.0000 0.9851 0.9999 1.0000 1.0000 0.9703 0.9997 1.0000 1.0000 0.9412 0.9988 1.0000 1.0000 0.9127 0.9974 1.0000 1.0000 0.8847 0.9953 0.9999 1.0000 0.8574 0.9928 0.9999 1.0000 0.8306 0.9896 0.9998 1.0000 0.8044 0.9860 0.9997 1.0000 0.7787 0.9818 0.9995 1.0000 0.7536 0.9772 0.9993 1.0000 4 0 1 2 3 4 0.9960 1.0000 1.0000 1.0000 1.0000 0.9801 0.9999 1.0000 1.0000 1.0000 0.9606 0.9994 1.0000 1.0000 1.0000 0.9224 0.9977 1.0000 1.0000 1.0000 0.8853 0.9948 0.9999 1.0000 1.0000 0.8493 0.9909 0.9998 1.0000 1.0000 0.8145 0.9860 0.9995 1.0000 1.0000 0.7807 0.9801 0.9992 1.0000 1.0000 0.7481 0.9733 0.9987 1.0000 1.0000 0.7164 0.9656 0.9981 1.0000 1.0000 0.6857 0.9570 0.9973 0.9999 1.0000 5 0 1 2 3 4 0.9950 1.0000 1.0000 1.0000 1.0000 0.9752 0.9998 1.0000 1.0000 1.0000 0.9510 0.9990 1.0000 1.0000 1.0000 0.9039 0.9962 0.9999 1.0000 1.0000 0.8587 0.9915 0.9997 1.0000 1.0000 0.8154 0.9852 0.9994 1.0000 1.0000 0.7738 0.9774 0.9988 1.0000 1.0000 0.7339 0.9681 0.9980 0.9999 1.0000 0.6957 0.9575 0.9969 0.9999 1.0000 0.6591 0.9456 0.9955 0.9998 1.0000 0.6240 0.9326 0.9937 0.9997 1.0000 6 0 1 2 3 4 0.9940 1.0000 1.0000 1.0000 1.0000 0.9704 0.9996 1.0000 1.0000 1.0000 0.9415 0.9985 1.0000 1.0000 1.0000 0.8858 0.9943 0.9998 1.0000 1.0000 0.8330 0.9875 0.9995 1.0000 1.0000 0.7828 0.9784 0.9988 1.0000 1.0000 0.7351 0.9672 0.9978 0.9999 1.0000 0.6899 0.9541 0.9962 0.9998 1.0000 0.6470 0.9392 0.9942 0.9997 1.0000 0.6064 0.9227 0.9915 0.9995 1.0000 0.5679 0.9048 0.9882 0.9992 1.0000 7 0 1 2 3 4 5 0.9930 1.0000 1.0000 1.0000 1.0000 1.0000 0.9655 0.9995 1.0000 1.0000 1.0000 1.0000 0.9321 0.9980 1.0000 1.0000 1.0000 1.0000 0.8681 0.9921 0.9997 1.0000 1.0000 1.0000 0.8080 0.9829 0.9991 1.0000 1.0000 1.0000 0.7514 0.9706 0.9980 0.9999 1.0000 1.0000 0.6983 0.9556 0.9962 0.9998 1.0000 1.0000 0.6485 0.9382 0.9937 0.9996 1.0000 1.0000 0.6017 0.9187 0.9903 0.9993 1.0000 1.0000 0.5578 0.8974 0.9860 0.9988 0.9999 1.0000 0.5168 0.8745 0.9807 0.9982 0.9999 1.0000 34/40 2015-2016 2016 PC* Variables aléatoires discrètes Cumulative distribution function for 0.1 6 p 6 0.5 n x 0.1 0.125 0.15 0.2 0.25 p 0.3 0.3333 0.35 0.4 0.45 0.5 1 0 1 0.9000 1.0000 0.8750 1.0000 0.8500 1.0000 0.8000 1.0000 0.7500 1.0000 0.7000 1.0000 0.6667 1.0000 0.6500 1.0000 0.6000 1.0000 0.5500 1.0000 0.5000 1.0000 2 0 1 2 0.8100 0.9900 1.0000 0.7656 0.9844 1.0000 0.7225 0.9775 1.0000 0.6400 0.9600 1.0000 0.5625 0.9375 1.0000 0.4900 0.9100 1.0000 0.4444 0.8889 1.0000 0.4225 0.8775 1.0000 0.3600 0.8400 1.0000 0.3025 0.7975 1.0000 0.2500 0.7500 1.0000 3 0 1 2 3 0.7290 0.9720 0.9990 1.0000 0.6699 0.9570 0.9980 1.0000 0.6141 0.9392 0.9966 1.0000 0.5120 0.8960 0.9920 1.0000 0.4219 0.8438 0.9844 1.0000 0.3430 0.7840 0.9730 1.0000 0.2963 0.7407 0.9630 1.0000 0.2746 0.7183 0.9571 1.0000 0.2160 0.6480 0.9360 1.0000 0.1664 0.5748 0.9089 1.0000 0.1250 0.5000 0.8750 1.0000 4 0 1 2 3 4 0.6561 0.9477 0.9963 0.9999 1.0000 0.5862 0.9211 0.9929 0.9998 1.0000 0.5220 0.8905 0.9880 0.9995 1.0000 0.4096 0.8192 0.9728 0.9984 1.0000 0.3164 0.7383 0.9492 0.9961 1.0000 0.2401 0.6517 0.9163 0.9919 1.0000 0.1975 0.5926 0.8889 0.9877 1.0000 0.1785 0.5630 0.8735 0.9850 1.0000 0.1296 0.4752 0.8208 0.9744 1.0000 0.0915 0.3910 0.7585 0.9590 1.0000 0.0625 0.3125 0.6875 0.9375 1.0000 5 0 1 2 3 4 5 0.5905 0.9185 0.9914 0.9995 1.0000 1.0000 0.5129 0.8793 0.9839 0.9989 1.0000 1.0000 0.4437 0.8352 0.9734 0.9978 0.9999 1.0000 0.3277 0.7373 0.9421 0.9933 0.9997 1.0000 0.2373 0.6328 0.8965 0.9844 0.9990 1.0000 0.1681 0.5282 0.8369 0.9692 0.9976 1.0000 0.1317 0.4609 0.7901 0.9547 0.9959 1.0000 0.1160 0.4284 0.7648 0.9460 0.9947 1.0000 0.0778 0.3370 0.6826 0.9130 0.9898 1.0000 0.0503 0.2562 0.5931 0.8688 0.9815 1.0000 0.0312 0.1875 0.5000 0.8125 0.9688 1.0000 6 0 1 2 3 4 5 6 0.5314 0.8857 0.9842 0.9987 0.9999 1.0000 1.0000 0.4488 0.8335 0.9709 0.9970 0.9998 1.0000 1.0000 0.3771 0.7765 0.9527 0.9941 0.9996 1.0000 1.0000 0.2621 0.6554 0.9011 0.9830 0.9984 0.9999 1.0000 0.1780 0.5339 0.8306 0.9624 0.9954 0.9998 1.0000 0.1176 0.4202 0.7443 0.9295 0.9891 0.9993 1.0000 0.0878 0.3512 0.6804 0.8999 0.9822 0.9986 1.0000 0.0754 0.3191 0.6471 0.8826 0.9777 0.9982 1.0000 0.0467 0.2333 0.5443 0.8208 0.9590 0.9959 1.0000 0.0277 0.1636 0.4415 0.7447 0.9308 0.9917 1.0000 0.0156 0.1094 0.3437 0.6562 0.8906 0.9844 1.0000 7 0 1 2 3 4 5 6 7 0.4783 0.8503 0.9743 0.9973 0.9998 1.0000 1.0000 1.0000 0.3927 0.7854 0.9537 0.9938 0.9995 1.0000 1.0000 1.0000 0.3206 0.7166 0.9262 0.9879 0.9988 0.9999 1.0000 1.0000 0.2097 0.5767 0.8520 0.9667 0.9953 0.9996 1.0000 1.0000 0.1335 0.4449 0.7564 0.9294 0.9871 0.9987 0.9999 1.0000 0.0824 0.3294 0.6471 0.8740 0.9712 0.9962 0.9998 1.0000 0.0585 0.2634 0.5706 0.8267 0.9547 0.9931 0.9995 1.0000 0.0490 0.2338 0.5323 0.8002 0.9444 0.9910 0.9994 1.0000 0.0280 0.1586 0.4199 0.7102 0.9037 0.9812 0.9984 1.0000 0.0152 0.1024 0.3164 0.6083 0.8471 0.9643 0.9963 1.0000 0.0078 0.0625 0.2266 0.5000 0.7734 0.9375 0.9922 1.0000 2015-2016 35/40 2016 PC* VIII.2 Variables aléatoires discrètes Poisson distribution table Cumulative distribution function This section tabulates the cumulative distribution function (c.d.f.) of the Poisson distribution with expected value (“rate”) λ, which is F (x) = P (X 6 x) = x X P (X = k) = k=0 x X e−λ k=0 λk . k! Source can be found at http://www.stats.gla.ac.uk/~levers/software/tables/ x 0.02 0.04 0.06 0.08 0.1 0.15 λ 0.2 0.25 0.3 0.35 0.4 0.45 0.5 0 1 2 3 4 5 0.9802 0.9998 1.0000 1.0000 1.0000 1.0000 0.9608 0.9992 1.0000 1.0000 1.0000 1.0000 0.9418 0.9983 1.0000 1.0000 1.0000 1.0000 0.9231 0.9970 0.9999 1.0000 1.0000 1.0000 0.9048 0.9953 0.9998 1.0000 1.0000 1.0000 0.8607 0.9898 0.9995 1.0000 1.0000 1.0000 0.8187 0.9825 0.9989 0.9999 1.0000 1.0000 0.7788 0.9735 0.9978 0.9999 1.0000 1.0000 0.7408 0.9631 0.9964 0.9997 1.0000 1.0000 0.7047 0.9513 0.9945 0.9995 1.0000 1.0000 0.6703 0.9384 0.9921 0.9992 0.9999 1.0000 0.6376 0.9246 0.9891 0.9988 0.9999 1.0000 0.6065 0.9098 0.9856 0.9982 0.9998 1.0000 x 0.55 0.6 0.65 0.7 0.75 0.8 λ 0.85 0.9 0.95 1 1.1 1.2 1.3 0 1 2 3 4 5 6 7 8 0.5769 0.8943 0.9815 0.9975 0.9997 1.0000 1.0000 1.0000 1.0000 0.5488 0.8781 0.9769 0.9966 0.9996 1.0000 1.0000 1.0000 1.0000 0.5220 0.8614 0.9717 0.9956 0.9994 0.9999 1.0000 1.0000 1.0000 0.4966 0.8442 0.9659 0.9942 0.9992 0.9999 1.0000 1.0000 1.0000 0.4724 0.8266 0.9595 0.9927 0.9989 0.9999 1.0000 1.0000 1.0000 0.4493 0.8088 0.9526 0.9909 0.9986 0.9998 1.0000 1.0000 1.0000 0.4274 0.7907 0.9451 0.9889 0.9982 0.9997 1.0000 1.0000 1.0000 0.4066 0.7725 0.9371 0.9865 0.9977 0.9997 1.0000 1.0000 1.0000 0.3867 0.7541 0.9287 0.9839 0.9971 0.9995 0.9999 1.0000 1.0000 0.3679 0.7358 0.9197 0.9810 0.9963 0.9994 0.9999 1.0000 1.0000 0.3329 0.6990 0.9004 0.9743 0.9946 0.9990 0.9999 1.0000 1.0000 0.3012 0.6626 0.8795 0.9662 0.9923 0.9985 0.9997 1.0000 1.0000 0.2725 0.6268 0.8571 0.9569 0.9893 0.9978 0.9996 0.9999 1.0000 36/40 2015-2016 0.9 (0.1) (0.25) (0.5) (0.75) (0.9) 0.8 IX. Annexe 2 : illustration des différentes lois #! /usr/local/bin/python3.4 # -*- coding:utf-8 -*import matplotlib.pyplot as plt import numpy as np from scipy.special import binom # pour calculer (k parmi n) from scipy.misc import factorial as fact # pour calculer k! PC* 2015-2016 2016 La loi géométrique 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0 2 4 6 8 10 12 14 16 IX.1 La loi géométrique Une autre approche consiste à simuler N expériences suivant une loi géométrique, et à dénombrer les résultats obtenus. La fonction On peut définir la fonction permettant de calculer explicitement P (X = numpy.random.geometric(p,N) fournit un tableau numpy contenant k) lorsque X ,→ G (p) : la réalisation de N expériences suivant une loi géométrique. Si N est assez grand, on a par dénombrement une approximation de P (X = k). def geometrique(k, p): """Renvoie $P(X=k)$ pour une géométrique de paramètre p""" # la fonction est déjà vectorialisée, # on peut lui passer comme argument k un tableau numpy return p * (1-p) ** (k-1) Variables aléatoires discrètes 37/40 n = 15 # le nb de valeurs du support qui nous intéressent k = np.arange(1,n+1) # le support (que l'on a tronqué informatiquement) N = 1e3 # le nombre de tirages pour notre échantillon p = .7 # le paramètre de la géométrique echantillon_geometrique = np.random.geometric(p, size=N) nb_geom = np.zeros(n+1,dtype=np.float) # on garde ici 0 dans le support, On peut alors représenter la loi pour différentes valeurs du paramètre p : # comme pour la loi théorique for e in echantillon_geometrique: plt.figure(0) nb_geom[e] += 1 n = 15 # le nb de valeurs du support qui nous intéressent nb_geom /= N # on normalise k = np.arange(1,n+1) # le support (que l'on a tronqué informatiquement) for p in [.1,.25,.5,.75,.9]: plt.figure(1) plt.plot(k, geometrique(k,p), '-', plt.plot(k, geom, '-b', label=r"$\mathscr{{G}}({})$ exact".format(p)) label=r"$\mathscr{{G}}({})$".format(p)) plt.plot(k, nb_geom[1:], 'ob', label=r"$\mathscr{{G}}({})$ plt.legend(loc="best") par échantillon $N={:.0e}$".format(p,N)) plt.title("La loi géométrique") plt.legend(loc="best") plt.savefig("vad_loi_evolution_de_la_geometrique_selon_p.pdf") plt.title("La loi géométrique") plt.savefig("vad_loi_comparaison_geometrique_theorique_et_par_tirage.pdf") 0.7 0.6 2016 La loi de Poisson 0.7 (0.5) (1) (2) (3) (4) (5) (6) 0.6 0.5 0.5 0.4 0.4 PC* 38/40 La loi géométrique (0.7) exact (0.7) par échantillon N =1e +03 0.3 0.3 0.2 0.2 0.1 0.1 0.0 0 IX.2 0.0 0 2 4 6 8 10 12 14 2 4 6 8 10 12 14 16 Comme pour la géométrique, on peut simuler N expériences suivant une loi de Poisson, et dénombrer les résultats obtenus. La fonction numpy.random.poisson(l,N) fournit un tableau numpy contenant la La loi de Poisson réalisation de N expériences suivant une loi géométrique. Si N est assez On peut définir la fonction permettant de calculer explicitement P (X = grand, on a par dénombrement une approximation de P (X = k). k) lorsque X ,→ P(λ) : n = 15 # le nb de valeurs du support qui nous intéressent k = np.arange(0,n) # le support (que l'on a tronqué informatiquement) N = 1e3 # le nombre de tirages pour notre échantillon l = 2 # le paramètre de la Poisson echantillon_poisson = np.random.poisson(l,N) nb_poisson = np.zeros(n,dtype=np.float) for e in echantillon_poisson: nb_poisson[e] += 1 On peut alors représenter la loi pour différentes valeurs du paramètre λ : nb_poisson /= N # on normalise plt.figure(2) n = 15 # le nombre de valeurs du support qui nous intéressent plt.figure(3) plt.plot(k, Poisson(k,l), '-b', k = np.arange(0,n) # le support (que l'on a tronqué informatiquement) label=r"$\mathscr{{P}}({})$ exact".format(l)) for l in [.5,1,2,3,4,5,6]: plt.plot(k, Poisson(k,l), '-', label=r"$\mathscr{{P}}({})$".format(l)) plt.plot(k, nb_poisson, 'ob', label=r"$\mathscr{{P}}({})$ par échantillon $N={:.0e}$".format(l,N)) plt.legend(loc="best") plt.legend(loc="best") plt.title("La loi de Poisson") plt.title("La loi de Poisson") plt.savefig("vad_loi_evolution_de_la_Poisson_selon_lambda.pdf") plt.savefig("vad_loi_comparaison_poisson_theorique_et_par_tirage.pdf") def Poisson(k,l): """renvoie $P(X=k)$ pour une Poisson de paramètre l""" # la fonction est déjà vectorialisée, # on peut lui passer comme argument k un tableau numpy return np.exp(-l) * l**k / fact(k) Variables aléatoires discrètes 2015-2016 0.25 0.35 0.20 0.30 0.15 0.25 0.10 0.20 0.15 0.05 0.00 0 2016 La loi binomiale (10,0.15) exact (10,0.15) par échantillon N =1e +03 0.40 PC* 2015-2016 La loi de Poisson (2) exact (2) par échantillon N =1e +03 0.30 0.10 2 4 6 8 10 12 14 0.05 0.00 0 IX.3 Et la binomiale ? def binomial(k,n,p): """Renvoie $P(X=k)$ pour une binomiale de paramètre n,p peut être utilisée pour une Bernoulli : prendre n=1""" # la fonction est déjà vectorialisée, # on peut lui passer comme argument k un tableau numpy return binom(n,k) * p**k * (1-p) **(n-k) p = .15 # le paramètre de la binomiale n = 10 # le nombre de valeurs du support qui nous intéressent k = np.arange(0,n) bino = binomial(k,n,p) 1 2 3 4 5 6 7 8 9 Et comment évolue la binomiale quand on modifie les paramètres ? cf § VI.1 plt.figure(5) for n,p in [(10,.1538),(100,.0194),(1000,.00199),(10000,.0002)]: plt.plot(k, binomial(k,n,p), '-', label=r"$\mathscr{{B}}({},{})$".format(n,p)) plt.plot(k, Poisson(k,2), ':', lw=3, label=r"$\mathscr{{P}}({})$".format(2)) plt.legend(loc="best") plt.title("Évolution de la binomiale, et comparaison à la Poisson") plt.savefig("vad_loi_evolution_de_la_binomiale_selon_p.pdf") 39/40 plt.figure(4) plt.plot(k, bino, '-b', label=r"$\mathscr{{B}}({},{})$ exact".format(n,p)) plt.plot(k, nb_binomial, 'ob', label=r"$\mathscr{{B}}({},{})$ par échantillon $N={:.0e}$".format(n,p,N)) plt.legend(loc="best") plt.title("La loi binomiale") plt.savefig("vad_loi_comparaison_binomiale_theorique_et_par_tirage.pdf") 0.35 Évolution de la binomiale, et comparaison à la Poisson (10,0.1538) (100,0.0194) (1000,0.00199) (10000,0.0002) (2) 0.30 0.25 0.20 0.15 0.10 0.05 0.00 0 1 2 3 4 5 6 7 8 9 Variables aléatoires discrètes N = 1e3 # le nombre de tirages pour notre échantillon echantillon_binomial = np.random.binomial(n,p,N) nb_binomial = np.zeros(n,dtype=np.float) for e in echantillon_binomial: nb_binomial[e] += 1 nb_binomial /= N # on normalise 2016 PC* 40/40 Résumé des différentes lois Nom Notation Loi uniforme U (n) Choix d’un entier « au hasard » entre 1 et n J1, nK B(p) Succès ou échec (1 ou 0) lors d’une expérience n’ayant que deux issues dont la pro- {0, 1} P (X = 1) = p, P (X = 0) = 1 − p babilité de succès est p Loi de Bernoulli Loi binomiale B(n, p) G (p) Loi de Poisson P(λ) X(Ω) Loi du nombre de succès lors d’une succession de n épreuves de Bernoulli indépen- J0, nK dantes et de même paramètre p Loi du numéro de l’épreuve amenant le premier succès lors d’une succession d’épreuves de Bernoulli indépendantes et de même paramètre p Loi des événements rares. Si, sur une période T , un événement rare arrive en moyenne λ fois, c’est la loi déterminant le nombre de fois où l’événement se produit dans la période T P (X = k), k ∈ X(Ω) Espérance Variance 1 n n+1 2 n2 −1 12 p p(1 − p) np np(1 − p) n k k p (1 − p)n−k N∗ p(1 − p)k−1 1 p q p2 N e−λ λk! λ λ k 2015-2016 Variables aléatoires discrètes Loi géométrique Situation type
© Copyright 2024 Paperzz