Variables aléatoires discrètes

2016
PC*
Variables aléatoires discrètes
I.
Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . .
I.1
Généralités . . . . . . . . . . . . . . . . . . . . . . . . . .
I.2
Loi de probabilité d’une variable aléatoire discrète . . . .
I.3
Fonction de répartition . . . . . . . . . . . . . . . . . . .
II. Couple de variables aléatoires . . . . . . . . . . . . . . . . . . . .
II.1
Lois conjointes et lois marginales . . . . . . . . . . . . . .
II.2
Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . .
II.3
Variables aléatoires indépendantes . . . . . . . . . . . . .
II.4
Suite de variables indépendantes . . . . . . . . . . . . . .
III. Espérance d’une v.a.d. . . . . . . . . . . . . . . . . . . . . . . . .
III.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . .
III.2 Cas X à valeurs dans N . . . . . . . . . . . . . . . . . . .
III.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . .
III.4 Variance et écart-type d’une v.a.d. réelle . . . . . . . . . .
IV. Variables aléatoires à valeurs dans N . . . . . . . . . . . . . . . .
IV.1 Série génératrice ou fonction génératrice . . . . . . . . . .
IV.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . .
IV.3 Fonction génératrice et somme . . . . . . . . . . . . . . .
V. Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
V.1
Loi géométrique . . . . . . . . . . . . . . . . . . . . . . .
V.2
Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . .
V.3
Résumé des différentes lois . . . . . . . . . . . . . . . . .
V.4
Représentation graphique des lois, simulation avec Python
VI. Résultats asymptotiques . . . . . . . . . . . . . . . . . . . . . . .
VI.1 Loi binomiale et loi de Poisson . . . . . . . . . . . . . . .
VI.2 Loi faible des grands nombres . . . . . . . . . . . . . . . .
VII. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
VIII. Annexe 1 : quelques extraits de tables de fonctions de répartition
VIII.1 Binomial distribution table . . . . . . . . . . . . . . . . .
Cumulative distribution function for p 6 0.09 . . . . . . . . . . .
Cumulative distribution function for 0.1 6 p 6 0.5 . . . . . . . .
VIII.2 Poisson distribution table . . . . . . . . . . . . . . . . . .
Cumulative distribution function . . . . . . . . . . . . . . . . . .
IX. Annexe 2 : illustration des différentes lois . . . . . . . . . . . . .
IX.1 La loi géométrique . . . . . . . . . . . . . . . . . . . . . .
IX.2 La loi de Poisson . . . . . . . . . . . . . . . . . . . . . . .
IX.3 Et la binomiale ? . . . . . . . . . . . . . . . . . . . . . . .
2015-2016
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
6
7
9
9
10
11
12
13
13
14
15
16
20
20
21
22
22
22
24
25
25
25
25
26
28
34
34
34
35
36
36
37
37
38
39
1/40
2016
PC*
Variables aléatoires discrètes
Tester ses connaissances
1. Qu’est-ce que l’image réciproque d’un ensemble B par l’application f ?
Que peut-on dire de f −1 (B ∪ B 0 ), de f −1 (B ∩ B 0 ), de f −1 (B) ?
2. Lois usuelles dans le cadre des probabilités finies (= cours de 1ère année) :
Nom
X(Ω) P (X = k), k ∈ X(Ω) Espérance Variance
Loi uniforme
B(p)
B(n, p)
3. Si X1 , . . . , Xn suivent la même loi de Bernoulli de paramètre p et sont mutuellement indépendantes, alors S = X1 + . . . + Xn ,→
4. Définitions de l’espérance, de la variance, de l’écart-type dans le cadre des probabilités finies ?
5. Formule de transfert (dans le cadre des probabilités finies) ?
6. Propriétés de l’espérance ? De la variance ? (dans le cadre des probabilités finies)
7. Inégalité de Bienaymé-Tchebychev (dans le cadre des probabilités finies) ?
X xn
8. Quel est le rayon de cv et la somme de
?
n!
X
X
9. Si
an xn0 converge, que peut-on dire du rayon de convergence de
an xn ?
10. Propriétés de régularité de la somme d’une série entière ?
Si f est la somme d’une série entière de rayon de cv non nul, que valent les an en fonction de f ?
11.
+∞
X
+∞
X
q i−1 où q ∈]0, 1[ ?
i=n+1
k=1
kq k−1 ?
+∞
X
k(k − 1)q k−2 ?
k=2
Lu dans le programme officiel
La construction d’espaces probabilisés modélisant une suite d’expériences aléatoires est
hors programme, on admet l’existence de tels espaces.
Les différents types de convergence probabiliste (presque sûr, en probabilité, en loi, en
moyenne) sont hors programme.
Toutes les variables aléatoires mentionnées dans le programme sont implicitement supposées discrètes.
L’étude des propriétés de continuité des fonctions de répartition n’est pas au programme.
Plusieurs démonstrations hors programme, mentionnées comme tel dans le cours.
La démonstration de l’existence d’un espace probabilisé portant sur une suite de variables
aléatoires mutuellement indépendantes de lois discrètes données est hors programme.
On admet que la somme
2/40
+∞
P
n=0
xn P (X = xn ) ne dépend pas de l’ordre d’énumération.
2015-2016
2016
PC*
Variables aléatoires discrètes
Dans ce chapitre, (Ω, A , P ) désigne un espace probabilisé.
I.
I.1
I.1.a
Variables aléatoires discrètes
Généralités
Définition
En première année, on a défini et étudié les variables aléatoires associées à une expérience dont l’univers
Ω est fini et pour lequel la tribu considérée est toujours P(Ω). On a pu ainsi définir (pour X v.a.d.
de Ω dans E), pour tout sous-ensemble A de E, X −1 (A) (noté X ∈ A) qui est élément de P(Ω), donc
un événement, donc P (X ∈ A) est défini.
Dans le cadre d’un univers non fini, et d’une tribu qui peut être différente de P(Ω), la définition d’une
variable aléatoire va donc devoir inclure une propriété sur les images réciproques afin que l’on puisse
encore calculer ces probabilités.
Définition.
Soit (Ω, A , P ) un espace probabilisé, E un ensemble. Une application
X : Ω→E
est appelée variable aléatoire discrète sur (Ω, A , P ) lorsqu’elle vérifie :
1. X(Ω) est fini ou dénombrable.
2. Pour tout x ∈ X(Ω), X −1 ({x}) ∈ A , i.e. X −1 ({x}) est un événement.
On note en général (X = x) plutôt que X −1 ({x}).
Lorsque E ⊂ R, X est appelée variable aléatoire réelle.
Lorsque E = R2 (ou plus généralement Rk (k > 2)), X est appelé couple de variables aléatoires
réelles (ou vecteur aléatoire réel).
Exemple. On lance indéfiniment un dé et l’on note Xn la valeur obtenue lors du nème lancer.
(Xn )n>1 est une suite de variables aléatoires discrètes.
On pose T = Min{n ∈ N∗ / Xn = 6} ou T = +∞ si le min porte sur l’ensemble vide ; T est
une variable aléatoire discrète à valeurs dans N∗ ∪ {+∞} : T correspond au temps d’attente du
premier 6.
Comme dans l’exemple ci-dessus, il est fréquent de manipuler des variables aléatoires sans même avoir précisé l’espace
probabilisé d’étude.
Remarques.
•
L’appellation variable aléatoire est usuelle bien que malheureuse. En effet, X n’est pas une variable, mais bien une fonction
et celle-ci n’est pas aléatoire, mais plutôt complètement déterministe. Ce sont les valeurs prises par X qui correspondent
à des quantités qui vont varier selon le résultat de l’expérience aléatoire.
• L’image réciproque (X = x) désigne {ω ∈ Ω/ X(ω) = x}.
• La définition d’une variable aléatoire ne dépend pas de la probabilité P mais uniquement de l’espace
probabilisable (Ω, A ).
• Bien entendu, toutes les variables aléatoires considérées en première année (= application de
prennent un nombre fini de valeurs et sont donc des variables aléatoires discrètes (au sens de la
puisque la tribu considérée a toujours été P(Ω).
Ω dans E)
2ème année)
• En revanche, une application définie sur Ω n’est pas toujours une variable aléatoire (et ceci repose sur la
tribu choisie et non sur le fait que X(Ω) soit au plus dénombrable).
2015-2016
3/40
2016
PC*
Variables aléatoires discrètes
Exemple. On considère deux lancers d’une pièce équilibrée, Ω = {P P, P F, F P, F F } ; et on prend
comme tribu A = {∅, Ω, {P P }, {P P }}. Soit X de Ω dans R qui à chaque résultat associe le nombre de
Pile obtenus : ce n’est pas une variable aléatoire, car (X = 1) ∈
/ A.
I.1.b
Propriétés
Remarque. Soit X une variable aléatoire discrète définie sur Ω à valeurs dans un ensemble E.
On remarque que pour U partie de E, X −1 (U ) = {ω ∈ Ω/ X(ω) ∈ U } = X −1 (U ∩ X(Ω)) ;
| {z }
| {z }
∈X(Ω)
∈P(X(Ω))
donc que l’on prenne une partie U de E ou une partie de X(Ω), ça ne change rien pour l’image réciproque !
Proposition. (1)
Soit X une variable aléatoire discrète définie sur Ω à valeurs dans un ensemble E. On pose
X(Ω) = {xk / k ∈ K} (K ⊂ N, puisque X(Ω) est au plus dénombrable).
Dans la pratique, K sera explicité (fini ou infini) et les xk seront dans la pratique 2 à 2 distincts.
• Pour tout U ⊂ E (qu’on peut remplacer par U ⊂ X(Ω)), X −1 (U ) (noté (X ∈ U )) est un événement.
• Pour tout U ⊂ E et pour toute suite (Ui )i∈I de sous-ensembles de E, on a
(X ∈ U ) = (X ∈ U ),
(X ∈
[
Ui ) =
i∈I
[
(X ∈ Ui ),
(X ∈
i∈I
\
Ui ) =
i∈I
\
(X ∈ Ui )
i∈I
• (X = ∅) = ∅, (X ∈ E) = Ω.
• Les événements (X = xk )k∈K forment un système complet d’événements.
Preuve. Cette démonstration repose sur les propriétés des images réciproques (l’image réciproque d’un complémentaire
est le complémentaire d’une image réciproque, l’image réciproque d’une réunion quelconque (resp. d’une intersection
quelconque) est la réunion (resp. l’intersection) des images réciproques).
• (X ∈ U ) = X −1 (U ) = {ω ∈ Ω/ X(ω) ∈ U } = X −1 (U ∩ X(Ω)) ; or U ∩ X(Ω) ⊂ X(Ω), donc U ∩ X(Ω) est au plus
| {z }
∈X(Ω)
dénombrable, donc est une réunion au plus dénombrable de singletons : U ∩ X(Ω) =
S
{xj } où J est au plus
j∈J
dénombrable.
Ainsi,
(X ∈ U ) =
[
(X = xj ) ∈ A
j∈J
| {z }
∈A
(car la tribu A est stable par réunion dénombrable).
• cf propriétés des images réciproques.
S
• On remarque que les événements (X = xk ) sont deux à deux disjoints et vérifient Ω =
(X = xk ).
k∈K
Remarque. Une application X : Ω → R est une variable aléatoire discrète ssi :
• X(Ω) est au plus dénombrable
• Pour tout intervalle I de R, (X ∈ I) ∈ A .
En effet, le sens direct découle de la proposition précédente.
Pour la réciproque, on remarque que si x ∈ R, alors ∃[a, b] ⊂ R tel que x ∈ [a, b] = [a, x] ∪ [x, b],
donc (X = x) = (X ∈ ([a, x] ∩ [x, b])) = (X ∈ [a, x]) ∩ (X ∈ [x, b]) ∈ A par hypothèse.
Définition.
Soit X une variable aléatoire réelle discrète. On note
• (X > x) = X −1 ([x, +∞[) et (X > x) = X −1 (]x, +∞[).
• (X 6 x) = X −1 (] − ∞, x]) et (X < x) = X −1 (] − ∞, x[).
4/40
2015-2016
2016
PC*
Variables aléatoires discrètes
Définition.
Soit A un événement et 1A l’application définie par 1A (ω) = 1 si ω ∈ A et 1A (ω) = 0 si ω ∈
/ A.
L’application 1A est appelée fonction indicatrice de A. C’est une variable aléatoire réelle
discrète.
En effet, 1A (Ω) = {0, 1} fini, donc au plus dénombrable et (1A = 0) = A, (1A = 1) = A donc ce sont
des événements.
I.1.c
Fonction d’une variable aléatoire
Proposition. (2)
Si X : Ω → E est une variable aléatoire discrète, si f
f ◦ X = f (X) est une variable aléatoire discrète.
Preuve. Notons Y = f (X). Alors Y (Ω) = f (
X(Ω)
: E → F est une fonction, alors
) est au plus dénombrable.
| {z }
Soit y ∈ Y (Ω) ; alors
(Y = y)
=
=
=
−1
au plus
dénombrable
Y ({y}) = {ω ∈ Ω/ Y (ω) = y}
{ω ∈ Ω/ X(ω) ∈ f −1 ({y})}
(X ∈ f −1 ({y})) ∈ A
| {z }
⊂E
Exemple. Si X ,→ B(n, p), alors Y = n − X ,→ B(n, q).
Remarque. Cette proposition va donc permettre de manipuler le carré d’une variable aléatoire réelle
discrète, mais aussi de justifier que les composantes d’un vecteur aléatoire sont des variables aléatoires,
comme le précise le corollaire suivant :
Corollaire. (3)
Soit X un vecteur aléatoire discret à valeurs dans R2 , défini sur Ω.
Soient π1 et π2 les applications définies sur R2 par :
∀x = (x1 , x2 ) ∈ R2 , π1 (x) = x1 ,
π2 (x) = x2
Soit X1 = π1 (X) et X2 = π2 (X).
Alors X1 et X2 sont deux variables aléatoires discrètes définies sur Ω.
Réciproquement,
Proposition. (4)
Soient X1 et X2 deux variables aléatoires réelles discrètes, définies sur Ω.
Soit X : ω ∈ Ω 7→ (X1 (ω), X2 (ω)).
Alors X est un vecteur aléatoire discret, noté X = (X1 , X2 ).
Preuve. Le produit cartésien de deux ensembles au plus dénombrables étant au plus dénombrable,
l’ensemble X(Ω) = X1 (Ω) × X2 (Ω) est au plus dénombrable.
Soit (x1 , x2 ) ∈ X(Ω). Alors (X = (x1 , x2 )) = (X1 = x1 ) ∩ (X2 = x2 ) ∈ A .
Proposition. (5)
Soient X et Y deux variables aléatoires réelles discrètes et soient a et b deux réels.
On définit l’application sur Ω, notée aX + bY , par :
∀ω ∈ Ω, (aX + bY )(ω) = aX(ω) + bY (ω)
Alors aX + bY est une variable aléatoire réelle discrète.
Preuve. Par la proposition précédente, (X, Y ) est un couple aléatoire discret.
Il suffit alors d’appliquer la proposition. (2) à f : (x, y) 7→ ax + by.
2015-2016
5/40
2016
PC*
I.2
Variables aléatoires discrètes
Loi de probabilité d’une variable aléatoire discrète
La notion de variable aléatoire discrète permet de s’intéresser à des probabilités d’événements liés à
une variable aléatoire X.
I.2.a
Généralités
Définition.
Soit X : Ω → E une variable aléatoire telle que X(Ω)(⊂ E) soit au plus dénombrable.
L’ensemble P(X(Ω)) est une tribu sur l’ensemble dénombrable X(Ω).
On définit l’application PX : P(X(Ω)) → [0, 1] par
∀A ⊂ X(Ω), PX (A) = P (X −1 (A)) =n P (X ∈ A)
not
Remarque. Cette définition a bien un sens : en effet,
pour tout A ⊂ X(Ω), (X ∈ A) = {ω ∈ Ω/ X(ω) ∈ A} est un événement de la tribu P(Ω), donc P (X ∈ A)
a bien un sens.
Théorème.(6)
L’application PX définit une probabilité sur l’espace probabilisable (X(Ω), P(X(Ω))), appelée
loi de probabilité de X.
Preuve.
• PX (X(Ω)) = P (X ∈ X(Ω)) = P (Ω) = 1.
• Soit (An ) une famille dénombrable d’éléments de P(Ω), deux à deux disjoints. Alors :
!
X∈
[
An
n∈N
=
[
(X ∈ An )
n∈N
et la famille (X ∈ An )n∈N est une famille dénombrable d’événements disjoints deux à deux, d’où (σ-additivité de
P) :
!
PX
[
n∈N
An
=
X
P (X ∈ An ) =
n∈N
X
PX (An )
n∈N
i.e. la σ-additivité pour PX .
Corollaire.(7)
Soit (Ω, A , P ) un espace probabilisé. Soit X une variable aléatoire discrète définie sur Ω et à
valeurs dans un ensemble E.
La loi PX de X est entièrement déterminée par la donnée de :
• X(Ω) = {xk / k ∈ K}, où K ⊂ N et les xk sont deux à deux distincts.
• pour tout k ∈ K, PX ({xk }) = P (X = xk )
PX ({xk }) est encore notée (abusivement) PX (xk )
Preuve. Soit A une partie de X(Ω) ; alors ∃J ⊂ K/ A = {xj / j ∈ J} (J étant au
Xplus dénombrable)
X;
S
alors (X ∈ A) =
(X = xj ) (union disjointe) et donc (σ-additivité) PX (A) =
P (X = xj ) =
pj .
j∈J
6/40
j∈J
j∈J
2015-2016
2016
PC*
Variables aléatoires discrètes
Remarque. La donnée de la loi de X est donc équivalente à la donnée de son «support» I = X(Ω) et de
la famille (pi )i∈I telle que
X
pi = 1 définie par
i∈I
∀i ∈ I, P (X = i) = pi
Les probabilités P (X = a), dites parfois «atomiques», caractérisent donc la loi d’une variable aléatoire
discrète X. Elles forment une famille dénombrable, ce qui permet d’utiliser la σ-additivité. C’est une
spécificité très importante de ces variables aléatoires. Et c’est complètement faux pour les variables aléatoires
non discrètes.
X
Remarque. On admet que la somme
pi est indépendante de l’ordre de sommation (cela vient du fait que la
i∈I
, et c’est heureux car l’expérience étant aléatoire, les valeurs de X sont
observées dans un ordre quelconque.
série des probabilités est absolument convergente)
Réciproquement, on admet le théorème suivant :
Théorème.(8)
Si X(Ω) = {xn / n ∈ N} (les xn étant deux à deux distincts) et si (pn ) est une suite de réels
positifs tels que
+∞
X
pn = 1, alors il existe une probabilité P sur (Ω, A ) telle que pour tout n
n=0
de N, P (X = xn ) = pn .
Remarque. Ce théorème a l’énorme avantage de permettre d’étudier des lois sans décrire complètement
l’expérience aléatoire sous-jacente (ou encore, on peut donc escamoter l’espace probabilisé (Ω, A , P ) au
profit de la seule loi de la v.a. X).
I.2.b
Exemple : la loi géométrique
Reprenons, dans le Pile ou Face infini, la variable aléatoire X : rang du premier lancer qui donne Pile.
On suppose qu’à chaque lancer, la probabilité d’obtenir 1 est p, la probabilité d’obtenir 0 est 1 − p.
On a alors, si n ∈ N∗ ,
P (X = n) =
On dit que X suit une loi géométrique de paramètre p, ou que X suit une loi G(p). On note
X ,→ G(p)
Si Y ,→ G(p), X et Y ont même loi, on note X ∼ Y .
La connaissance des P (X = n) permet de déterminer P (X ∈ A) pour n’importe quelle partie A de N∗
(ou n’importe quelle partie de Z, de Q, de R…) Par exemple, si n ∈ N∗ ,
P (X 6 n) =
I.3
Fonction de répartition
X désigne dans ce paragraphe une v.a.d. à valeurs réelles, et on note X(Ω) = {xk / k ∈ K}.
Définition.
2015-2016
7/40
2016
PC*
Variables aléatoires discrètes
La fonction de répartition de la v.a.d. réelle X est :
FX : R → [0, 1]
X
x 7→ FX (x) = P (X 6 x) = P (X ∈] − ∞, x]) =
P (X = xk )
k∈L
où L = {k ∈ K/ xk 6 x}
Exemple. Fonction de répartition de X ,→ G (p) ?
Proposition. (9)
1. FX est croissante sur R.
2. FX (x) −−−−−→ 0 et FX (x) −−−−−→ 1.
x→−∞
3. Soit (a, b) ∈
R2
x→+∞
tels que a 6 b ; alors P (a < X 6 b) = FX (b) − FX (a).
Preuve.
1. Soient x 6 y ; alors ] − ∞, x] ⊂] − ∞, y], donc par croissance de P , FX (x) 6 FX (y).
2.
• FX est donc croissante, et de plus, FX est minorée par 0, majorée par 1, donc on en déduit par théorème
de limite monotone que FX admet des limites finies `±∞ en ±∞. Reste à déterminer ces limites finies ! On
va pour cela utiliser la caractérisation séquentielle : puisque ±n −−−−−→ ±∞, FX (±n) −−−−−→ `±∞ .
n→+∞
n→+∞
• On pose, pour tout n ∈ N, An = (X 6 −n) ;
Alors (An ) est une suite décroissante d’événements, donc d’après le théorème de continuité décroissante :
!
FX (−n) = P (An ) −−−−−→ P
\
n→+∞
Ai
i∈N
Or
T
Ai = ∅, donc FX (−n) = P (An ) −−−−−→ P (∅) = 0 = `−∞ .
n→+∞
i∈N
• De même, on considère la suite croissante d’événements (Bn ) où Bn = (X 6 n), dont la réunion vaut Ω,
pour obtenir `+∞ = 1.
3. On remarque que (X ∈]a, b]) et (X 6 a) sont des événements disjoints dont l’union vaut (X 6 b),
donc P (X 6 b) = P (X ∈]a, b]) + P (X 6 a), donc P (a < X 6 b) = P (X 6 b) − P (X 6 a) = FX (b) − FX (a).
Exemple. Soit X : Ω → J0, 3K
ω 7→ nombre de Pile lors du lancer ω de 3 pièces
Alors la loi de probabilité de X est
xi
0
1
2
3
P (X = xi )
1
8
3
8
3
8
1
8
Sa fonction de répartition est
y
1
7/8
4/8
1/8
0
8/40
1
2
3
4
2015-2016
x
2016
PC*
Variables aléatoires discrètes
Remarque. La fonction de répartition tient une place fondamentale en théorie des probabilités… mais
pas trop dans le cas des v.a. réelles discrètes, sauf pour l’utilisation de «tables» (cf §VIII.)
II.
II.1
Couple de variables aléatoires
Lois conjointes et lois marginales
La question que l’on se pose ici est de savoir :
• d’une part, si la connaissance de la loi d’un couple Z = (X, Y ) permet de déterminer les lois des
deux variables aléatoires X et Y .
• D’autre part, si la connaissance des lois X et Y permet de déterminer la loi du couple Z = (X, Y )
et sinon sous quelles conditions.
La réponse à la première question est positive, mais ce n’est pas le cas de la seconde.
Définition.
Soient X, Y deux variables aléatoires discrètes définies sur un espace probabilisé (Ω, A , P ), à
valeurs dans E et F respectivement.
La «loi conjointe» de X et Y est la loi du couple (X, Y ), qui est une variable aléatoire discrète
à valeurs dans E × F .
Elle est déterminée par la donnée, pour tout élément (xi , yj ) de X(Ω) × Y (Ω), de
P (X = xi , Y = yj ) = P ((X = xi ) ∩ (Y = yj )) = P (X = xi et Y = yj )
Les lois marginales du couple (X, Y ) sont les lois de X et de Y .
Remarque. Pas plus que dans le cas fini les lois marginales ne déterminent la loi conjointe. En revanche,
si on connaît la loi conjointe, on connaît les lois marginales : définissons X(Ω) = {xi }i∈I et Y (Ω) =
{yj }j∈J (I et J sont deux ensembles dénombrables), on remarque que (Y = yj )j∈J est un système complet
d’événements, ce qui permet d’écrire (même si certains de ces événements sont de probabilité nulle)
∀i ∈ I,
P (X = xi ) =
X
P (X = xi et Y = yj )
j∈J
car (Y = yj )j∈J est un système complet d’événements + formule des probabilités totales
d’où la loi marginale de X connaissant la loi conjointe et, de même,
∀j ∈ J,
P (Y = yj ) =
X
P (X = xi et Y = yj )
i∈I
La loi conjointe de deux variables aléatoires peut être visualisée sur un tableau dont le nombre de
lignes et/ou de colonnes peut être infini (dénombrable).
2015-2016
9/40
2016
PC*
Variables aléatoires discrètes
Y
y1
...
yj
...
p11
...
p1j
...
Loi de X
X
x1
P
p1j = P (X = x1 )
j∈J
..
.
..
.
xi
..
.
pi1
...
..
.
pij
...
P
pij = P (X = xi )
j∈J
..
.
..
.
Loi de Y
X
..
.
pi1
...
i∈I
X
..
.
pij
...
1
i∈I
| {z }
| {z }
=P (Y =y1 )
=P (Y =yj )
La somme des probabilités de la dernière ligne (resp. colonne) vaut 1 ; pij = P ((X = xi ), (Y = yj )).
II.2
II.2.a
Loi conditionnelle
Définition
Définition.
Soient X, Y deux variables aléatoires discrètes définies sur un espace probabilisé (Ω, A , P ), à
valeurs dans E et F respectivement. Soit x ∈ E.
On définit la loi conditionnelle de Y sachant (X = x) par
∀B ∈ P(F ),


 P ((Y ∈ B) ∩ (X = x)) si P (X = x) > 0
P (X = x)
PY |(X=x) (B) = P(X=x) (Y ∈ B) =


0 si P (X = x) = 0
Cette «loi conditionnelle», notée PY |(X=x) , est une probabilité.
Remarque. La loi conditionnelle de Y sachant (X = x) se caractérise par les probabilités des événements
élémentaires (on suppose P (X = x) > 0) :
PY |(X=x) ({y}) = P(X=x) (Y = y) =
P ((Y = y) ∩ (X = x))
P (X = x)
et, ensuite, pour toute partie B de F ,
PY |(X=x) (B) =
X
y∈B∩Y (Ω)
P(X=x) (Y = y) =
X
y∈B∩Y (Ω)
P ((Y = y) ∩ (X = x))
P (X = x)
Exemple.
10/40
2015-2016
2016
PC*
II.3
II.3.a
Variables aléatoires discrètes
Variables aléatoires indépendantes
Définition
Définition.
Soient X, Y deux variables aléatoires discrètes définies sur l’espace probabilisé (Ω, A , P ).
On dit que X et Y sont indépendantes ssi
∀(x, y) ∈ X(Ω) × Y (Ω), P (X = x, Y = y) = P (X = x) P (Y = y)
i.e. ssi ∀(x, y) ∈ X(Ω) × Y (Ω), les événements (X = x) et (Y = y) sont indépendants.
Remarque. Dans le cas de variables indépendantes, la loi conjointe du couple Z = (X, Y ) est égale au
produit des lois marginales (PZ (x, y) = P ((X, Y ) = (x, y)) = P (X = x) P (Y = y)).
Exemple et contre-exemple.
• On lance deux dés discernables. X détermine la valeur du premier et Y celle du second. Il est
usuel de modéliser X et Y en tant que variables indépendantes.
• Une première urne contient 2 boules blanches et 3 boules noires et une seconde l’inverse. On
jette une pièce et si l’on obtient «face», on pioche une boule dans la première urne, sinon, on
pioche cette boule dans la seconde urne.
On note X la valeur du lancer de la pièce et Y la couleur de la boule tirée. Les variables X et
Y ne sont pas indépendantes !
On admet la proposition suivante (la démonstration utilise le th. de Fubini sur les séries, HP)
Proposition. (10)
Si X et Y sont indépendantes, alors, pour toute partie A ⊂ X(Ω) et toute partie B ⊂ Y (Ω), on a
P (X ∈ A, Y ∈ B) = P (X ∈ A) P (Y ∈ B)
II.3.b
Images de v.a. indépendantes par des fonctions
Proposition. (11)
Si X et Y sont deux variables aléatoires discrètes indépendantes, alors pour toutes fonctions f et
g, les variables f (X) et g(Y ) sont indépendantes.
Preuve. Si a et b sont dans l’ensemble d’arrivée de f et g respectivement, on peut écrire
P ((f (X), g(Y )) = (a, b)) = P (X, Y ) ∈ f −1 ({a}) × g −1 ({b})
= P X ∈ f −1 ({a})
P Y ∈ g −1 ({b})
= P (f (X) = a) P (g(Y ) = b)
ce qui conclut.
II.3.c
Indépendance mutuelle d’une famille finie de v.a.
Définition.
Soient X1 , . . . , Xn des variables aléatoires discrètes définies sur (Ω, A , P ).
On dit qu’elles sont mutuellement indépendantes ssi
∀(x1 , . . . , xn ) ∈ X1 (Ω) × . . . × Xn (Ω), P
n
\
!
(Xi = xi )
i=1
2015-2016
=
n
Y
P (Xi = xi )
i=1
11/40
2016
PC*
Variables aléatoires discrètes
i.e. ssi ∀(x1 , . . . , xn ) ∈ X1 (Ω) × . . . × Xn (Ω), les événements (X1 = x1 ), . . . , (Xn = xn ) sont
indépendants.
Remarque. Comme pour les événements, le terme «mutuellement» sera souvent omis : on trouvera donc
dans les énoncés, «famille de variables indépendantes» au lieu de «famille de variables mutuellement indépendantes».
Remarque. On répète n fois la même expérience aléatoire et l’on note X1 , . . . , Xn les résultats successifs.
En supposant que le résultat d’une expérience est sans incidence sur les autres, il est usuel de modéliser
l’expérience en supposant les variables X1 , . . . , Xn mutuellement indépendantes.
• C’est le cas lorsque l’on lance plusieurs fois une même pièce de monnaie que celle-ci soit ou non équilibrée.
• C’est le cas lorsque l’on tire des boules avec remise dans une urne (ce n’est plus le cas si le tirage a lieu
sans remise !)
Comme dans le cas de deux v.a. indépendantes, on admet la proposition suivante :
Proposition. (12)
Soit (Ω, A , P ) un espace probabilisé et X1 , . . . , Xn n variables aléatoires discrètes indépendantes.
Alors, pour toutes parties A1 ⊂ X1 (Ω), . . . , An ⊂ Xn (Ω), P
Å
n
T
ã
(Xi ∈ Ai ) =
i=1
n
Y
P (Xi ∈ Ai ).
i=1
On retrouve, comme dans le programme de sup, la proposition (que l’on donne sans démonstration conformément au
programme) :
Proposition. (13)
Si (Xi )i∈J1,nK est une famille finie de v.a.d. sur (Ω, A , P ) mutuellement indépendantes, alors toutes
ses sous-familles sont des familles finies de v.a.d. mutuellement indépendantes ;
en particulier, l’indépendance mutuelle implique l’indépendance deux à deux (mais la réciproque
est fausse).
Complément hors programme, mais utile... Lemme des coalitions. (14)
Soient (X1 , . . . , Xn ) une famille de variables aléatoires sur (Ω, A , P ).
Soit p ∈ J2, n − 1K (donc n > 3).
Soit f : Rp → R et g : Rn−p → R.
Soient f1 , . . . , fn : R → R.
Si les v.a.r. X1 , . . . , Xn sont mutuellement indépendantes, alors :
• les variables aléatoires f (X1 , . . . , Xp ) et g(Xp+1 , . . . , Xn ) sont indépendantes
• les variables aléatoires f1 (X1 ), . . . , fn (Xn ) sont mutuellement indépendantes.
Exemple. Si X, Y, Z et T sont mutuellement indépendantes, alors :
• X + Y + Z et T sont indépendantes
• XY et Z + T 2 sont indépendantes
• X, Y 2 , Z − sin(Z) et eT sont mutuellement indépendantes.
II.4
Suite de variables indépendantes
Définition.
Soit (Xi )i∈N une suite de variables aléatoires discrètes.
On dit que cette suite est
• une suite de variables aléatoires deux à deux indépendantes ssi
∀(i, j) ∈ N2 , (i 6= j =⇒ Xi et Xj indépendantes)
12/40
2015-2016
2016
PC*
Variables aléatoires discrètes
• une suite de variables aléatoires mutuellement indépendantes ssi pour toute partie
finie I de N, (Xi )i∈I est une famille finie de variables aléatoires discrètes mutuellement
indépendantes.
Remarques.
• Il suffit de vérifier que, ∀n ∈ N, les variables X0 , . . . , Xn sont mutuellement indépendantes pour en déduire
que (Xi )i∈N est une famille de v.a.d. mutuellement indépendantes ;
en effet, toute sous-famille finie de (Xi )i∈N est contenue dans une sous-famille de la forme (X0 , . . . , Xn )
et on applique la proposition.(13).
• Une suite de v.a.d. mutuellement indépendantes est un modèle pour décrire une succession d’épreuves
dont les résultats sont indépendants ; en particulier, la répétition indépendante d’une même épreuve est
modélisée par une suite de v.a. mutuellement indépendantes suivant la même loi.
Par exemple, un jeu de pile ou face infini est modélisé par (Xn )n∈N , suite de v.a. mutuellement indépendantes suivant chacune la loi de Bernoulli B( 12 ). Le programme admet l’existence d’un espace probabilisé associé à cette suite infinie
dénombrable d’expériences.
III.
III.1
Espérance d’une v.a.d.
Définition
Définition.
La variable aléatoire réelle discrète X à valeursX
dans un ensemble dénombrable {xn / n > 0}
est dite d’espérance finie si la série numérique
xn P (X = xn ) est absolument convergente ;
si tel est le cas, on appelle espérance de X le réel
E(X) =
+∞
X
xn P (X = xn )
n=0
Remarques.
• On retrouve bien la définition de sup, puisqu’alors X(Ω) est fini, donc la somme définissant l’espérance
est alors une somme finie… et donc pas de problème de convergence.
• La notion mathématique d’espérance correspond à la notion de moyenne théorique.
Exemple.
• Si X est une v.a.d. constante égale à a, justifier que X admet une espérance finie et la déterminer.
• Soit A un événement ; alors X = 1A est d’espérance finie et E(1A ) =
?
• Au loto,
un joueur doit choisir 5 numéros parmi 49, plus un numéro chance entre 1 et 10 (cela
fait 49
×
10 ' 19 × 106 choix possibles, équiprobables entre eux 1 ). Le temps d’attente pour
5
gagner au loto suit une loi géométrique, et son espérance est donc de l’ordre de 19 × 106 tirages
(à raison de trois tirages par semaine, cela fait à peu près 117 000 années !)
• Soit X ,→ G (p) : montrer que X a une espérance finie et la déterminer.
Remarques.
• Une variable aléatoire discrète prenant un nombre fini de valeurs admet toujours une espérance (cf cours
de sup), ce qui n’est pas le cas des v.a. prenant un nombre dénombrable de valeurs.
1. Avec l’ancienne règle, il fallait choisir 6 numéros parmi 49, soit presque 14 × 106 grilles possibles ; le numéro
«chance» a donc fait exploser le nombre de grilles de 36% …
2015-2016
13/40
2016
PC*
Variables aléatoires discrètes
Exemple et contre-exemple.
? On lance deux dés ; X est la v.a. égale à la somme des numéros apparaissant sur les deux dés ; alors
E(X) = 2P (X = 2) + . . . + 12P (X = 12) = . . . = 7.
1
? Soit X une v.a. telle que X(Ω) = N∗ et ∀n > 1, P (X = n) = n(n+1)
(ce qui a un sens car la somme
de cette série à termes positifs vaut 1) ; or cette v.a. n’admet pas d’espérance finie, puisque la série
harmonique diverge.
X
• Si X(Ω) ⊂ R+ ou si X(Ω) ⊂ R− , l’absolue convergence de
xn P (X = xn ) équivaut à sa convergence
(donc l’existence de l’espérance se fait conjointement au calcul de cette espérance) ;
dans le cas où X(Ω) a uneX
infinité de valeurs positives et une infinité de valeurs négatives, on prouve
d’abord la convergence de
|xn |P (X = xn ) avant de faire le calcul de l’espérance.
• On admet que la somme
+∞
X
xn P (X = xn ) ne dépend pas de l’ordre d’énumération (quand il y a cv abs. !)
n=0
En particulier, dans le cas où plus = X
{n/ xn > 0} et moins =
X{n/ xn < 0} sont infinis, et où X admet
une espérance finie, on aura E(X) =
xn P (X = xn ) −
|xn |P (X = xn ).
n∈moins
n∈plus
• Une v.a.d. bornée est d’espérance finie.
• Une v.a. X est dite centrée si elle est d’espérance finie, et telle que E(X) = 0.
• X admet une espérance ssi |X| admet une espérance (mais a priori les espérances ne sont pas égales).
• Deux v.a.d. suivant la même loi (PX = PY ) et admettant une espérance finie ont la même espérance.
III.2
Cas X à valeurs dans N
La proposition qui suit facilite le calcul de l’espérance (cf exo) dans le cas X(Ω) ⊂ N.
Proposition. (15)
Soit X une v.a.d., à valeurs dans N , définie sur l’espace probabilisé (Ω, A , P ).
La v.a. X admet une espérance finie ssi la série de terme général P (X > n) converge,
et dans ce cas, E(X) =
+∞
X
n=
(i.e.
P (X > n)
+∞
X
P (X > n) =
n=1
1
+∞
X
nP (X = n) =
n=1
+∞
X
nP (X = n)).
n=0
Preuve. Soit donc X une v.a. à valeurs dans N ; on remarque que ∀k ∈ N, P (X = k) = P (X > k) − P (X > k + 1) ;
donc, pour tout N ∈ N∗
N
X
k=1
kP (X = k) =
N
X
N
X
kP (X > k) −
k=1
N +1
kP (X > k + 1)
k=1
=
=
X
P (X > k) − (N + 1)P (X > N + 1)
(∗)
k=1
|
N +1
X
{z
}
(p − 1)P (X > p)
p=2
• Supposons que X admette une espérance finie ;
on remarque que (X > N + 1) est l’union disjointe de (X = k)k>N +1 ,
donc par σ-additivité, P (X > N + 1) =
+∞
X
P (X = k), donc (N + 1)P (X > N + 1) =
k=N +1
+∞
X
(N + 1)P (X = k).
k=N +1
D’autre part, pour tout entier k > N + 1, (N + 1)P (X = k) 6 kP (X = k) ;
on en déduit : 0 6 (N + 1)P (X > N + 1) 6
+∞
X
kP (X = k) = reste d’ordre N d’une série cv
k=N +1
N +1
donc la suite ((N + 1)P (X > N + 1))N converge vers 0 et donc, d’après (*),
X
P (X > k) −−−−−→ E(X).
N →+∞
k=1
14/40
2015-2016
2016
PC*
Variables aléatoires discrètes
• On suppose que la série numérique de t.g. P (X > j) converge ;
d’après (*),
N
X
k=1
N +1
kP (X = k) 6
X
P (X > k) 6
k=1
ainsi, la suite des sommes partielles
quent, X admet une espérance finie.
III.3
III.3.a
+∞
X
P (X > k) ;
k=1
N
X
!
est croissante et majorée, donc convergente, par consé-
kP (X = k)
k=1
N
Propriétés
Transfert
Soit X une v.a.d. réelle et f une fonction définie sur X(Ω). Le théorème suivant montre qu’il n’est
pas nécessaire de déterminer la loi de la v.a.d. réelle f (X) pour calculer l’espérance de f (X). Ce th.
est admis.
Théorème de transfert.(16)
Soit X une v.a.d. à valeurs dans un ensemble dénombrable {xk / k ∈ N}.
Soit f une fonction définie sur X(Ω) et à valeurs réelles.
La v.a. f (X) a une espérance finie ssi la série numérique de terme général f (xk )P (X = xk ) est
absolument convergente.
On a alors :
E(f (X)) =
+∞
X
f (xk )P (X = xk )
k=0
Exemples. •Soit X une v.a. prenant les valeurs −1, 0, 1 avec les probabilités resp. 19 , 29 , 23 .
Alors X 2 a pour espérance E(X 2 ) = 79 .
•Soit X ,→ G (p). Montrer que X(X − 1) admet un espérance finie et E(X(X − 1)) =
III.3.b
2(1−p)
.
p2
Linéarité
Proposition. (17)
Soient X et Y deux v.a.d. réelles d’espérance finie.
∀λ ∈ R, λX + Y est d’espérance finie et E(λX + Y ) = λE(X) + E(Y ).
Preuve. Non exigible (utilise le th. de Fubini).
Exemples.
• Si X admet une espérance alors la variable Y = X−E(X) est centrée.
• Encore le loto ! Le gain d’un joueur est une v.a. G. À chaque tirage perdu, le joueur perd 2€, et
au moment où il va gagner le gros lot, le joueur va gagner en moyenne trois millions d’euros. Si on
note T le temps d’attente du gros lot, le joueur gagne au bout de T tirages, en ayant perdu 2€ aux
T −1 tirages précédents ; ainsi G = −2(T −1)+3×106 , donc E(G) = −2E(T −1)+3×106 ' −35
millions d’euros (d’où le véritable intérêt de la loterie nationale) (en tenant compte des gains avec 2, …
bons numéros, l’espérance de gain est moins négative, mais le reste quand même très nettement)
• Soit X ,→ G (p) : montrer que X 2 admet une espérance finie et E(X 2 ) =
2015-2016
2−p
.
p2
15/40
2016
PC*
III.3.c
Variables aléatoires discrètes
Positivité, croissance
Proposition. (18)
Soient X et Y des v.a.d.r. d’espérance finie.
• Si X > 0, i.e. si X ne prend que des valeurs positives, alors E(X) > 0.
• Conséquence : si ∀ω ∈ Ω, X(ω) 6 Y (ω), alors E(X) 6 E(Y ) : l’espérance est croissante.
Preuve.
• Si X(Ω) ⊂ R+ , alors E(X) étant la somme d’une série convergente à termes positifs, est positive.
• On a alors Y − X > 0, donc on conclut grâce au 1er point et à la linéarité.
Exemple. On lance deux dés. On note X le minimum, et Y le maximum obtenus sur les faces
des deux dés. Alors X 6 Y , donc E(X) 6 E(Y ).
III.3.d
Produit de v.a. indépendantes
On admet la proposition suivante :
Proposition. (19)
Si X et Y sont deux v.a.d. indépendantes (admettant chacune une espérance finie), alors XY
admet une espérance finie et
E(XY ) = E(X)E(Y )
Remarque. La réciproque de cette proposition est fausse : soit X la v.a.d. de loi uniforme sur {−1, 0, 1}
et Y = X 2 : vérifier que E(XY ) = E(X)E(Y ), mais P (X = 0, Y = 0) 6= P (X = 0)P (Y = 0).
III.4
III.4.a
Variance et écart-type d’une v.a.d. réelle
Définition
Théorème-définition.(20)
• Si la v.a.d. réelle X 2 est d’espérance finie, alors X est elle-même d’espérance finie.
• Si X 2 est d’espérance finie, la variance de X est le réel
V(X) = E (X − E(X))2 = E(X 2 ) − (E(X))2
Ä
ä
formule de Huyghens-Koenig
L’écart-type de X est le réel, noté σ(X), défini par σ(X) =
V(X).
»
Preuve. •On a ∀(a, b) ∈ R2 , |ab| 6 12 (a2 + b2 ) ;
donc si X(Ω) = {xk / k ∈ N}, |xk| 6 12 (1 + x2k ) et donc si X 2 admet une espérance finie, il en est de même de X.
•Pour l’égalité E (X − E(X))2 = E(X 2 ) − (E(X))2 , utiliser la linéarité de l’espérance et le fait que l’espérance de a
(v.a. constante) vaut a.
Å
ã
•Enfin, puisque par déf. V(X) = E (X − E(X))2 , V(X) > 0, donc l’écart-type est bien défini.
|
16/40
{z
>0
}
2015-2016
2016
PC*
Variables aléatoires discrètes
Remarque. Si X, v.a.d. réelle est telle que X m (m ∈ N∗ ) admet une espérance finie, on dit que X
admet un moment d’ordre m et ce moment d’ordre m est E(X m ). Ainsi, la première partie du théorème
précédent se reformule en si X admet un moment d’ordre 2, alors X admet un moment d’ordre 1.
En pratique. Pour calculer une variance, on sera amené à calculer E(X 2 ) ; il sera alors souvent utile de
remarquer pour réaliser ce calcul de séries que X(X − 1) = X 2 − X, donc par linéarité de l’espérance,
E(X 2 ) = E(X(X − 1)) + E(X).
Exemple. Calculer la variance d’une loi géométrique, d’une loi de Poisson.
Proposition. (21)
Si X admet un moment d’ordre 2, alors
∀(a, b) ∈ R2 , V(aX + b) = a2 V(X)
Preuve. La v.a.d. constante égale à b et X admettant une espérance finie (car moment d’ordre 2 =⇒ moment d’ordre
1), aX + b admet une espérance finie ;
par linéarité de l’espérance, on obtient :
(aX + b − E(aX + b))2 = (aX − aE(X))2 = a2 (X 2 − 2E(X) X + (E(X))2 ), donc par linéarité, (aX + b − E(aX + b))2
admet une espérance finie, et donc
V(aX + b) = E (aX + b − E(aX + b))2 = E (aX − aE(X))2 = E a2 (X − E(X))2 = a2 V(X).
Remarque. Une v.a. admettant une variance est centrée réduite lorsque E(X) = 0 et V(X) = 1.
Par exemple, si V(X) 6= 0,
III.4.b
X − E(X)
est centrée réduite.
σ(X)
Inégalités
Proposition. Inégalités de Markov. (22)
Soit X une v.a.d. réelle. Si X 2 est d’espérance finie (i.e. si X admet un moment d’ordre 2), on a
∀t > 0,

E(|X|)


P (|X| > t) 6



t
Cette inégalité majore la probabilité pour une variable aléatoire de prendre de grandes valeurs en valeur absolue.


2


P (|X| > t) 6 E(|X| )
2
t
Preuve. •Soit t > 0. Notons Y = |X|, et rappelons que E(Y ) =
X
y∈Y (Ω)
Notons A = {y ∈ Y (Ω)/ y > t}. Alors
E(Y ) >
X
y
P (Y = y).
|{z} |
>0
{z
>0
}
yP (Y = y)
y∈A
>t
X
P (Y = y)
y∈A
Mais, par σ-additivité,
X
P (Y = y) = P (Y ∈ A) = P (Y > t).
y∈A
•Pour l’autre formule, deux démonstrations :
? On se sert de l’inégalité précédente en remarquant que |X| > t ⇐⇒ X 2 = |X|2 > t2 .
? Notons B = {|X| > t} = {ω ∈ Ω/ |X(ω)| > t}. On a
t2 1B 6 |X|2 1B
2015-2016
(1)
17/40
2016
PC*
Variables aléatoires discrètes
Rappelons que 1B est l’indicatrice de B, c’est une variable aléatoire qui vaut 1 sur B et 0 ailleurs. L’inégalité (1),
qui dit que pour tout ω ∈ Ω, on a t2 1B (ω) 6 |X(ω)|2 1B (ω), se vérifie alors en distinguant deux cas : ω ∈ B et
ω 6∈ B.
Par croissance de l’espérance :
E t2 1B 6 E |X|2 1B
(2)
Mais E t2 1B = t2 E (1B ) = t2 P (B) = t2 P (|X| > t). Et |X|2 1B 6 |X|2 1Ω = |X|2 , d’où, par croissance encore,
t2 P (|X| > t) 6 E |X|2 1B 6 E(|X|2 )
Remarque. Il existe encore une autre formulation de Markov :
Soit X une v.a.d. réelle positive telle que E(X 2 ) existe, alors P (X > t) 6
E(X)
.
t
Conséquence : inégalité de Bienaymé-Tchebychev. (23)
Soit X une v.a.d. réelle telle que X 2 admette une espérance finie. Alors
∀ε > 0, P (|X − E(X)| > ε) 6
V(X)
ε2
Preuve. On applique la 2ème inégalité de Markov à la variable aléatoire X − E(X).
Remarque.
• L’inégalité de Bienaymé-Tchebychev permet de comprendre ce que mesure la variance : pour ε > 0 fixé, la
probabilité que l’écart entre X et E(X) soit supérieur à ε est d’autant plus petite que V(X) est faible : la
variance donne donc une indication de la dispersion de X autour de son espérance, i.e. sa plus ou moins
forte tendance à s’écarter de sa moyenne.
L’écart-type, qui mesure aussi la dispersion de X, présente l’intérêt de s’exprimer dans la même unité
que les valeurs prises par la v.a. X.
• On passe souvent à l’événement contraire pour obtenir l’inégalité :
∀ε > 0, P (|X − E(X)| < ε) > 1 −
III.4.c
V(X)
ε2
Covariance
Définition.
Soient X et Y deux v.a.d. réelles admettant une espérance finie.
On appelle covariance de X et de Y le réel Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))], s’il existe.
Afin d’établir l’existence de la covariance pour des v.a. X et Y dont les carrés admettent une espérance
finie, montrons la propriété suivante :
Proposition. Inégalité de Cauchy-Schwarz. (24)
Soient X et Y des v.a. dont les carrés admettent une espérance finie. Alors
• XY a une espérance finie
• (E(XY ))2 6 E(X 2 )E(Y 2 ).
1 2
(X + Y 2 ) ;
2
et donc, puisque les variables X 2 et Y 2 admettent une espérance finie, la variable XY aussi.
Soit λ ∈ R. Introduisons la variable Z = (λX + Y )2 = λ2 X 2 + 2λXY + Y 2 . Par combinaison linéaire, Z admet une
espérance finie et puisque Z est positive λ2 E(X 2 ) + 2λE(XY ) + E(Y 2 ) > 0.
Cette identité vaut pour tout λ ∈ R.
Cas E(X 2 ) 6= 0 : le trinôme associé au premier membre ne peut posséder deux racines réelles distinctes et donc
∆ = 4(E(XY ))2 −4E(X 2 )E(Y 2 ) 6 0.
Cas E(X 2 ) = 0 : on a nécessairement E(XY ) = 0 car sinon la constance de signe est impossible.
Preuve. Pour tout x, y ∈ R, on a 2|xy| 6 x2 + y 2 ; on en déduit |XY | 6
18/40
2015-2016
2016
PC*
Variables aléatoires discrètes
Conséquence. (25)
Si X et Y sont deux v.a.d. réelles admettant un moment d’ordre 2, alors la covariance de X et Y
existe et on a :
Cov(X, Y ) = E(XY ) − E(X)E(Y )
Preuve. X 2 et Y 2 admettant une espérance finie, il en est de même de X et Y et aussi de XY . Ainsi, en posant
m = E(X) et m0 = E(Y ), on a :
Cov(X, Y ) = E((X − m)(Y − m0 )) = E(XY − mY − m0 X + mm0 ) = E(XY ) − mm0
par linéarité de l’espérance.
De la définition de la covariance et de la linéarité de l’espérance découlent les règles de calcul suivantes :
Proposition. (26)
Soient X, X 0 , Y, Y 0 quatre v.a.d. réelles admettant toutes des moments d’ordre 2 ; soient a, b, c, d
quatre réels ; alors
• Cov(X, Y ) = Cov(Y, X)
• Cov(X, X) = V(X)
• Cov(aX + b, cY + d) = ac Cov(X, Y )
• Cov(aX + bX 0 , cY + dY 0 ) = ac Cov(X, Y ) + bc Cov(X 0 , Y ) + ad Cov(X, Y 0 ) + bd Cov(X 0 , Y 0 )
La covariance est donc une application bilinéaire symétrique positive sur l’espace vectoriel des
v.a.d. réelles admettant un moment d’ordre 2.
Conséquence. (27)
Soient X et Y deux v.a.d. réelles indépendantes admettant des moments d’ordre 2.
Alors Cov(X, Y ) = 0.
Preuve. Comme X 2 et Y 2 admettent une espérance finie, il en va de même de X et Y , et leur indépendance assure
alors l’égalité E(XY ) = E(X)E(Y ).
Remarque. On utilise souvent cette proposition en la contraposant : si Cov(X, Y ) 6= 0, alors X et Y ne
sont pas indépendantes.
Cependant, si Cov(X, Y ) = 0, on ne peut rien conclure quant à l’indépendance de X et Y .
Vocabulaire.
Si X et Y sont deux v.a.d. réelles admettant une covariance nulle, on dit alors que les
variables X et Y sont non corrélées.
III.4.d
Variance d’une somme finie de v.a.
Proposition. (28)
Soient X, Y deux v.a.d. réelles admettant des moments d’ordre 2. Alors
• (X + Y )2 admet une espérance finie et V(X + Y ) = V(X) + V(Y ) + 2Cov(X, Y ).
• Si X et Y sont indépendantes, alors V(X + Y ) = V(X) + V(Y ).
Preuve.
• Les v.a. X, Y, X 2 , Y 2 , XY admettent des espérances finies, donc il en est de même de la v.a. (X + Y )2 , donc
(X + Y ) admet une variance.
On obtient le résultat en utilisant la linéarité de l’espérance.
• Si X et Y sont indépendantes, alors Cov(X, Y ) = 0, d’où le résultat.
Ce résultat ce généralise par récurrence sans difficulté :
2015-2016
19/40
2016
PC*
Variables aléatoires discrètes
Proposition. (29)
Soit (Xi )16i6n une famille de variables aléatoires réelles discrètes dont les carrés admettent une
espérance finie. Alors
• la v.a. X1 + . . . + Xn admet une variance et
Ü
V
n
X
!
Xi
i=1
=
n
X
V(Xi ) +
E(Xi Xj ) − E(Xi )E(Xj )
X
(i,j)∈J1,nK2
i=1
ê
|
i6=j
{z
}
=Cov(Xi ,Xj )
• si les v.a. X1 , . . . , Xn sont deux à deux indépendantes, alors
V
n
X
!
Xi
i=1
=
n
X
V(Xi )
i=1
Exemple. Soit n ∈ N∗ . On suppose que n variables aléatoires discrètes X1 , ..., Xn ont les mêmes
espérances, les mêmes variances et les mêmes covariances deux à deux, c’est-à-dire qu’il existe
(a, b) ∈ R2 tel que, pour tout i ∈ {1, . . . , n}, E(Xi ) = a et que, pour tout (i, j) ∈ {1, . . . , n}2 ,
Cov (Xi , Xj ) = b.
On note S = X1 + · · · + Xn . Calculer l’espérance et la variance de S.
Définition.
Soient X et Y deux v.a.d. réelles admettant un écart-type non nul.
On appelle coefficient de corrélation linéaire de X et Y le réel :
ρ(X, Y ) =
Cov(X, Y )
σ(X)σ(Y )
Proposition. (30)
Soient X et Y deux v.a.d. réelles admettant des moments d’ordre 2. Alors
• |Cov(X, Y )| 6 σ(X)σ(Y )
• Si de plus les écarts-types de X et Y sont non nuls, alors −1 6 ρ(X, Y ) 6 1.
Preuve. Il suffit donc d’établir le premier point.
Comme X 2 et Y 2 admettent une espérance finie, alors pour tout réel t, tX + Y admet une variance finie ;
on considère alors ψ : t ∈ R 7→ V(tX + Y ), puis procéder comme dans C-S.
Remarque. |ρ(X, Y )| = 1 est un cas d’égalité dans Cauchy-Schwarz ; on peut montrer qu’alors ∃(a, b) ∈
R2 / P (Y = aX + b) = 1 (l’événement Y = aX + b est presque certain).
IV.
IV.1
Variables aléatoires à valeurs dans N
Série génératrice ou fonction génératrice
Soit X une variable aléatoire à valeurs dans N.
Lemme. (31)
X
Le rayon de convergence RX de la série entière
P (X = n) tn est au moins égal à 1.
Preuve. Cela vient de la convergence (sa somme vaut en plus 1) de la série numérique
20/40
X
P (X = n) 1n .
2015-2016
2016
PC*
Variables aléatoires discrètes
Remarque. Par la formule de transfert (f : y 7→ ty ), on remarque que,
∀t ∈] − RX , RX [, E t
X
=
+∞
X
P (X = n)tn
n=0
Définition.
Soit X une v.a. à valeurs dans N.
La série génératrice de la v.a. X à valeurs dans N est définie par
GX (t) = E(tX ) =
+∞
X
P (X = n)tn
n=0
Remarques.
1. La série génératrice (ou fonction génératrice) d’une v.a. à valeurs dans N est au moins définie et continue
sur [−1, 1] (car on a convergence normale sur [−1, 1]).
2. Il faut noter l’abus de langage consistant à confondre une série et sa somme.
3. Si X(Ω) est fini (= X v.a. finie), alors la somme définissant GX est finie, c’est donc un polynôme défini
sur R.
4. Par unicité du D.S.E., si deux v.a. ont la même série génératrice, alors elles ont la même loi de probabilité,
d’où :
Proposition. (32)
La loi d’une v.a. à valeurs dans N est caractérisée par sa série génératrice.
(k)
G (0)
On a ∀k ∈ N, P (X = k) = X
.
k!
Preuve. cf cours sur les séries entières.
IV.2
Propriétés
Proposition. (33)
La v.a. X à valeurs dans N admet une espérance finie ssi GX est dérivable en 1 et si tel est le cas,
E(X) = G0X (1).
Preuve. Non exigible. Dans le sens direct, en notant un : t 7→
nP (X = n)tn , on obtient ku0n k∞
= nP (X = n) = t.g.
X
de E(X), d’où la convergence normale sur [−1, 1] de la série
u0n , donc par th. de dérivation des séries de fonctions,
[−1,1]
GX est C 1 sur [−1, 1] au moins et E(X) = G0X (1).
Dans le sens réciproque, utiliser le th. des accroissements finis.
Proposition. (34)
Si RX > 1, alors X 2 admet une espérance finie et :
G0X (1) = E(X),
G00X (1) = E(X(X − 1))
et dans ce cas, V(X) = G00X (1) + G0X (1) − (G0X (1))2 .
Preuve. Si RX > 1, alors GX est indéfiniment dérivable sur l’intervalle fermé [−1, 1] ⊂] − RX , RX [ et
∀t ∈ [−1, 1], G0X (t) =
+∞
X
k=1
ktk−1 P (X = k), G00X (t) =
+∞
X
k(k − 1)tk−2 P (X = k).
k=2
Ces deux séries entières ont un rayon de cv RX > 1, donc
+∞
X
k=1
kP (X = k) et
+∞
X
k(k − 1)P (X = k) cv abs.
k=2
2
On en déduit que X et X(X − 1) admettent une espérance finie, et par suite X (= X + X(X − 1)) aussi.
De plus, G0X (1) = E(X) et G00X (1) = E(X(X − 1)) (donc E(X 2 ) = G00X (1) + G0X (1)).
On a ainsi V(X) = E(X 2 ) − (G0X (1))2 = G00X (1) + G0X (1) − (G0X (1))2 .
2015-2016
21/40
2016
PC*
IV.3
Variables aléatoires discrètes
Fonction génératrice et somme
Proposition. (35)
• Soient X et Y deux v.a. indépendantes à valeurs dans N.
Alors, ∀t ∈] − 1, 1[, GX+Y (t) = GX (t)GY (t).
• Soient n v.a. indépendantes X1 , . . . , Xn à valeurs dans N.
Alors, en posant Sn = X1 + . . . + Xn , on a : GSn =
n
Y
GXi .
i=1
Preuve. Puisque X et Y sont indépendantes, pour tout t ∈] − 1, 1[, tX et tY le sont aussi (comme images de v.a.i. par
une fonction), donc GX+Y (t) = E(tX+Y ) = E(tX tY ) = E(tX )E(tY ) = GX (t)GY (t).
Ensuite, on procède par récurrence.
Exemple. Sachant qu’une loi B(n, p) peut être simulée par la somme de n loi B(p) indépendantes,
on retrouve que si X ,→ B(n, p), alors ∀t ∈ R, GX (t) = (1−p + pt)n .
V.
Lois usuelles
V.1
Loi géométrique
V.1.a
Généralités
Épreuve type : on répète des épreuves de Bernoulli identiques et mutuellement indépendantes, jusqu’à
l’apparition du premier succès, et on s’intéresse à la v.a. X égale au rang du premier succès, i.e. au
nombre d’épreuves nécessaires à la réalisation du premier succès. On admet l’existence d’espaces probabilisés
modélisant une telle suite d’expériences aléatoires.
La v.a. X de l’épreuve type suit une loi géométrique (définie ci-dessous).
Pour la loi binomiale, le nombre d’épreuves était connu, ce qui n’est pas le cas ici.
Définition.
On dit que la v.a. X suit une loi géométrique de paramètre p ∈]0, 1[ lorsque
• X(Ω) = N∗
• Pour tout k ∈ N∗ , P (X = k) = p(1 − p)k−1
On note X ,→ G (p) et on pose q = 1 − p.
Remarque. Cette définition a bien un sens, car la série géométrique de raison 1 − p est de somme p1 .
Exemple. On répète le lancer d’une pièce de monnaie équilibrée. Quelle est la loi de la variable
aléatoire égale au rang d’apparition du premier Pile ?
Exemple. On lance une infinité de fois un dé équilibré jusqu’à l’obtention du premier
note X la v.a. égale au rang du premier succès. X ,→ G ( 16 ).
V.1.b
et on
Espérance, variance, série génératrice
22/40
2015-2016
2016
PC*
Variables aléatoires discrètes
Proposition. (36)
Soit p ∈]0, 1[, q = 1 − p et X ,→ G (p).
1. Alors la série génératrice GX a un rayon de convergence RX égal à
1
q
> 1 et
1 1
pt
∀t ∈] − , [, GX (t) =
q q
1 − tq
2. X admet une espérance finie donnée par E(X) =
3. V(X) =
1
.
p
q
.
p2
Preuve. Le rayon de convergence de la série entière
X
q k−1 ptk est RX =
1
q
> 1 et
k>1
∀|t| < 1q , GX (t) =
+∞
X
q k−1 ptk = pt
k=0
+∞
X
(qt)i = pt
i=0
1
.
1 − qt
D’autre part, comme RX > 1, X 2 admet une espérance finie, donc X admet une espérance finie et une variance, obtenues
1
q
à l’aide des dérivées de GX en 1. On obtient ainsi E(X) = et V(X) = 2 .
p
p
V.1.c
Absence de mémoire
Proposition. (37)
La loi géométrique est la seule loi de probabilité discrète à valeurs dans N∗ vérifiant :
∀(n, k) ∈ N2 , P (X > n + k|X > n) = P (X > k)
ou encore P(X>n) (X > n + k) = P (X > k).
Remarque. Cette propriété se traduit en disant que la loi géométrique est sans mémoire : le nombre
d’épreuves à répéter jusqu’à l’obtention d’un premier succès est le même quel que soit le nombre d’épreuves
effectuées auparavant.
L’égalité P(X>n) (X > n + k) = P (X > k) peut se traduire par «la probabilité qu’il n’y ait pas encore eu
de succès à l’instant n + k, sachant qu’il n’y en a pas eu avant l’instant n, est égale à la probabilité qu’il
n’y ait pas eu de succès à l’instant k».
Preuve.
• Vérifions tout d’abord l’absence de mémoire de la loi géométrique. Soit X ,→ G (p), soient (n, k) ∈ N2 .
Alors P (X > n) =
+∞
X
pq i−1 = q n 6= 0 ; on peut donc calculer la probabilité conditionnelle :
i=n+1
P ((X > n) ∩ (X > n + k))
P (X > n + k)
q n+k
=
= n = q k = P (X > k).
P (X > n)
P (X > n)
q
Ainsi X est sans mémoire.
P(X>n) (X > n + k) =
• Soit désormais Y une v.a. à valeurs dans N∗ sans mémoire, à savoir
∀(n, k) ∈ N2 ,
P(Y >n) (Y > n + k)
= P (Y > k).
|
{z
}
P ((Y > n) ∩ (Y > n + k)) P (Y > n + k)
=
=
P (Y > n)
P (Y > n)
Alors P (Y > n + k) = P (Y > n)P (Y > k).
Posons q = P (Y > 1) : on obtient (réc. sur n) ∀n > 1, P (Y > n) = q n ,
d’où P (Y = n) = P (Y > n − 1) − P (Y > n) = q n−1 − q n = q n−1 (1 − q).
Ainsi Y suit une loi géométrique de paramètre p = 1 − P (Y > 1).
2015-2016
23/40
2016
PC*
V.2
Variables aléatoires discrètes
Loi de Poisson
La loi de Poisson n’est pas associée à une expérience type.
Elle apparaît dans la modélisation de données statistiques.
Si durant un laps de temps T un phénomène se produit en moyenne λ fois, il est fréquent de dire que le nombre d’occurrences de
ce phénomène durant ce laps de temps suit une loi de Poisson de paramètre λ.
Par exemple, le nombre de désintégrations radioactives par seconde, le nombre de passages journalier le long d’une route, le nombre
d’accidents annuel, le nombre de personnes arrivant à un guichet en une heure, le nombre de messages reçus par un ordinateur, etc.
V.2.a
Définition
Définition.
On dit que la variable aléatoire X suit une
loi de Poisson de paramètre λ > 0
lorsque :
• X(Ω) = N
• Pour tout k ∈ N :
P (X = k) = e−λ
λk
k!
On note X ,→ P(λ).
cz
Remarque. Cette définition a bien un sens, car
la série de t.g.positif e−λ
V.2.b
λk
est de somme 1.
k!
Espérance, variance, série génératrice
Proposition. (38)
Soit X ,→ P(λ).
1. Alors la série génératrice GX a un rayon de convergence RX égal à +∞ > 1 et
∀t ∈ R, GX (t) = eλ(t−1) .
2. X admet une espérance finie donnée par E(X) = λ.
3. V(X) = λ.
Preuve. ∀t ∈ R, GX (t) =
+∞
X
k=0
e−λ
tk λk
= eλ(t−1) .
k!
GX est donc une série entière de rayon infini (> 1), donc X 2 admet une espérance finie, et donc X aussi et …
V.2.c
Somme de deux Poisson
Proposition. (39)
Soient X et Y deux v.a. indépendantes suivant des lois de Poisson de paramètres repectifs λ et
µ. Alors X + Y suit une loi de Poisson de paramètre λ + µ.
Preuve. La somme de deux v.a.d. réelles étant une v.a.d. réelle, Z = X + Y est une v.a.d. réelle, et comme X et Y
prennent leurs valeurs dans N, il en est de même de Z.
24/40
2015-2016
2016
PC*
Variables aléatoires discrètes
Soit k ∈ N ; X et Y étant indépendantes, P (Z = k) =
k
X
P ((X = i) ∩ (Y = k − i)) =
i=0
k
X
e−λ
i=0
V.3
k
λi −µ µk−i
e−(λ+µ) X
e
=
i!
(k − i)!
k!
k
X
P (X = i)P (Y = k − i) =
i=1
k
e−(λ+µ)
λi µk−i =
(λ + µ)k .
i
k!
Ç å
i=0
Résumé des différentes lois
On trouvera en dernière page un tableau résumant les résultats des cinq lois usuelles à notre programme.
V.4
Représentation graphique des lois, simulation avec Python
On trouvera en annexe (cf § IX.) le code Python permettant d’illustrer les lois usuelles.
VI.
Résultats asymptotiques
VI.1
Loi binomiale et loi de Poisson
Proposition. Approximation de la loi binomiale par la loi de Poisson. (40)
Soit (Xn )n∈N une suite de variables aléatoires telle que pour tout n, Xn suit une loi binomiale de
paramètres n, pn .
λk
Si npn −−−−−→ λ > 0, alors ∀k ∈ N, P (Xn = k) −−−−−→ e−λ
= P (X = k) où X ,→ P(λ).
n→+∞
n→+∞
k!
0.35
Évolution de la binomiale, et comparaison à la Poisson
(10,0.1538)
(100,0.0194)
(1000,0.00199)
(10000,0.0002)
(2)
0.30
0.25
0.20
0.15
0.10
0.05
0.00
0
1
2
3
4
5
6
7
8
9
Preuve. Soit k ∈ N.
pkn nk
n
n−1
n−k+1
(1 − pn )−k
×
× ... ×
k!
n
n
n
k étant fixé, chacun des termes du crochet tend vers 1 quand n → +∞, donc le crochet tend vers 1.
Puisque npn −−−−−→ λ, pn −−−−−→ 0, donc (1 − pn )−k −−−−−→ 1
P (Xn = k) =
n
k
pkn (1 − pn )n−k = (1 − pn )n
n→+∞
n→+∞
h
i
n→+∞
et n ln(1 − pn ) ∼ −npn −−−−−→ −λ, donc (1 − pn )n = exp(n ln(1 − pn )) −−−−−→ e−λ
n→+∞
n→+∞
pk nk
λk
Enfin, n
−−−−−→
.
n→+∞
k!
k!
Remarque. Avec les notations précédentes, on a E(Xn ) = npn −−−−−→ λ = E(X) et
V(Xn ) = npn (1 − pn ) −−−−−→ λ = V(X).
n→+∞
n→+∞
2015-2016
25/40
2016
PC*
Variables aléatoires discrètes
Remarque. Dans la pratique, lorsque Xn ,→ B(n, pn ), le calcul de P (Xn = k) devient difficile lorsque n
est grand. On cherche alors une approximation en supposant que Xn suit une loi de Poisson plutôt qu’une
loi binomiale. De façon théorique, il faut vérifier que (npn ) converge vers λ > 0, mais en pratique, on se
contentera des conditions : n est grand (n > 50), pn petit (pn 6 0.1) et npn 6 15 (npn sera alors une
approximation de λ) (B(n, pn ) sera proche de P(npn )).
On peut interpréter la loi de Poisson comme la loi du nombre de succès lorsque l’on compte un nombre très
élevé d’épreuves avec une probabilité p de succès très faible (Poisson «=» loi des événements rares).
Exemple. On dispose, pour tout n ∈ N∗ , d’une urne Un contenant une boule blanche et n − 1
boules noires.
Pour tout n ∈ N∗ , on effectue au hasard n tirages successifs dans Un , avec remise de la boule
tirée, et on note Xn la variable aléatoire égale au nombre de boules blanches obtenues.
Déterminer, pour tout k ∈ N, la limite de la probabilité P (Xn = k) lorsque l’entier n tend vers
l’infini.
Exemple. Sept millions de joueurs remplissent une grille de loto chaque semaine, en cochant 5
cases (49 numéros) et en choisissant un numéro « chance » entre 1 et 10.
1. Quelle est la loi X décrite par le nombre de joueurs gagnant le gros lot ?
2. Comment utiliser les tables présentées en annexes pour en déduire P (X = 0), P (X = 1),
P (X = 2), etc ?
3. Proposer un script Python permettant de vérifier les résultats obtenus.
4. La loi de X, et son espérance, sont représentées sur la figure suivante :
Loi du nombre de gagnants au loto
1.0
X = loi du loto
E(X) =0.37
0.8
0.6
0.4
0.2
0.0
0
1
2
3
4
Que devient la loi si on fait la moyenne sur 2 tirages du loto ? sur 4 tirages ? sur 8 tirages ? etc.
VI.2
Loi faible des grands nombres
Proposition. Loi faible des grands nombres. (41)
Soit (Xn )n∈N une suite de variables aléatoires discrètes réelles deux à deux indépendantes sur
un même espace probabilisé. On suppose que les Xn sont toutes de même loi, et admettent un
moment d’ordre 2. On note m = E(X1 )(= . . . = E(Xn )) et, si n > 1,
Sn = X1 + X2 + . . . + Xn
Alors, pour tout ε > 0,
Å
ã
Sn
P − m > ε −−−−−→ 0
n→+∞
n
26/40
2015-2016
2016
PC*
Variables aléatoires discrètes
Preuve. Appliquer l’inégalité de Tchebychev. En notant
Sn
n
Y =
on obtient
V (Y ) =
σ2
n
où σ =
V(X1 ) = . . . =
p
p
V(Xn )
Å
ã
Sn
σ2
et on conclut assez rapidement (car 0 6 P − m > ε 6
: inégalité à savoir retrouver, car souvent utilisée
n
nε2
dans les exercices).
Remarque. La moyenne empirique (= la v.a. moyenne d’échantillon =
Sn
n )
«tend vers» la moyenne
théorique (=l’espérance de la v.a.) ; ceci permet d’estimer la valeur de E(X) (si elle n’est pas connue) par
une réalisation de Snn .
2
On a aussi V( Snn ) = σn −−−−−→ 0 : ceci confirme que la dispersion de Snn devient de plus en plus petite.
n→=∞
Exemple. On considère une suite d’épreuves indépendantes et un événement A, de probabilité
p. On note Xn la variable de Bernoulli égale à 1 lorsque A est réalisé à la nième épreuve. Les
variables (Xn ) sont indépendantes et de même loi, d’espérance p. La fréquence, notée Fn , de
Sn
réalisation de l’événement A au cours des n premières épreuves est égale à la v.a.
.
n
D’après la loi faible des grands nombres, ∀ε > 0, P (|Fn − p| > ε) −−−−−→ 0.
n→+∞
Ainsi, la fréquence tend en probabilité vers p, ce qui semble naturel.
2015-2016
27/40
Exo 1
Soit X une v.a.d. qui suit une loi de Poisson de paramètre λ > 0
k
(i.e. X(Ω) = N et ∀k ∈ N, P (X = k) = e−λ λk! ).
Soit Y une v.a. réelle, indépendante de X, définie par P (Y = 1) =
P (Y = 2) = 12 .
(1) Calculer la loi de T = X 2 + 1.
(2) Calculer P (2X < X 2 + 1).
(3) Calculer la probabilité que X soit un nombre pair et montrer
que X a «plus de chances» d’être paire qu’impaire.
(4) On note Z la v.a. XY . Calculer la probabilité que Z soit un
nombre pair.
2016
Exo 4
On note, pour tout n ∈ N∗ :
pn =
(1) Dans cette question, Y suit une loi de Bernoulli de paramètre
p ∈]0, 1[.
On définit la v.a. Z par Z = 0 si Y = 0, et Z = X sinon.
Déterminer la loi de Z, son espérance et sa variance, si elles
existent, et la loi de Y conditionnée par (Z = 0).
Exo 3
2015-2016
Une urne (de contenance illimitée) contient initialement deux boules
blanches et une boule noire. On effectue des tirages successifs selon
le protocole suivant : on tire une boule, puis on la remet dans l’urne
et on ajoute dans l’urne une boule blanche et une boule noire.
Quelle est la loi de probabilité du numéro d’apparition d’une première boule blanche ?
.
Exo 5
On note p0 =
1
2
et, pour tout n ∈ N∗ :
pn =
1 n
3
.
(1) Montrer que la famille (n, pn )n∈N est la loi de probabilité d’une
variable aléatoire X.
(2) Montrer que X admet une espérance et la calculer.
(3) Montrer que X admet une variance et la calculer.
Exo 6
On dispose d’une pièce déséquilibrée, amenant pile avec la probabilité 23 . On note X le nombre de lancers nécessaires pour obtenir
pour la première fois deux piles consécutifs, et pour tout n ∈ N∗ , on
note an = P (X = n).
(1) Calculer a1 , a2 , a3 .
(2) Montrer : ∀n > 3, an = 13 an−1 + 29 an−2 .
(3) En déduire la loi de X. Vérifier par le calcul que
+∞
X
n=1
P (X = n) = 1.
(4) La variable aléatoire X admet-elle une espérance ? Si oui, la
calculer.
Variables aléatoires discrètes
(2) On suppose maintenant que Y suit une loi géométrique de paramètre p ∈]0, 1[. Calculer la probabilité que X soit égale à
Y.
1
n2n ln 2
(1) Montrer que la famille (n, pn )n∈N∗ est la loi de probabilité
d’une variable aléatoire discrète X.
(2) X admet-elle une espérance ? Si oui, la calculer.
(3) Quelle est l’espérance de la variable aléatoire
Y = (ln 2)X − 1 ?
Exo 2
Soit X une v.a. qui suit une loi de Poisson de paramètre λ > 0 et Y
une v.a. indépendante de X.
PC*
28/40
VII. Exercices
On considère une variable aléatoire discrète X vérifiant X(Ω) = Z
et :
1
∀n ∈ N, P (X = n+1) = n+1
P (X = n) et P (X = −n) = P (X = n).
(1) Exprimer, pour tout n de Z, P (X = n) en fonction de
P (X = 0).
En déduire P (X = 0) puis la loi de X.
(2) Montrer que la variable aléatoire X admet une espérance et
une variance, et calculer E(X) et V(X).
1
a. Montrer : ∀n ∈ N∗ , P (T = n) = n(n+1)
.
En déduire P (T = 0) = 0 et interpréter ce résultat.
b. La variable T admet-elle une espérance ?
Exo 9
Soit X une variable aléatoire à valeurs naturelles dont la loi est
donnée par
Ç
Un mobile se déplace sur les points à coordonnées entières d’un axe
d’origine O. Au départ, le mobile est à l’origine (point d’abscisse
0). Le mobile se déplace selon la règle suivante : s’il est sur le point
d’abscisse k à l’instant n, alors, à l’instant (n+1), il sera sur le point
d’abscisse (k + 1) avec la probabilité k+1
k+2 ou sur le point d’abscisse
1
0 avec la probabilité k+2 .
Pour tout n de N, on note Xn l’abscisse du point où se trouve le
mobile à l’instant n et un = P (Xn = 0).
(1) Montrer, pour tout n ∈ N et tout k ∈ {1, ..., n + 1} :
k
P (Xn+1 = k) = k+1
P (Xn = k − 1).
n
X
uj
= 1. En déduire
n−j+1
j=0
29/40
(4) Montrer, pour tout n ∈ N : E(Xn+1 ) = E(Xn ) + un+1 .
En déduire, pour tout n ∈ N∗ , une expression de E(Xn ) sous
forme de somme mettant en jeu certains termes de la suite
(un )n∈N .
Calculer espérance et variance de X.
Exo 10
On considère une expérience aléatoire ayant la probabilité p > 0 de
réussir et 1 − p d’échouer.
On répète l’expérience indépendamment jusqu’à obtention de m succès et on note X le nombre d’essais nécessaires à l’obtention de ces
m succès.
(1) Reconnaître la loi de X lorsque m = 1.
(2) Déterminer la loi de X dans le cas général m ∈ N∗ .
(3) Exprimer le développement en série entière de
t 7→
1
(1 − t)m
(4) Déterminer la fonction génératrice de X et en déduire l’espérance de X.
Exo 11
Un signal est diffusé via un canal et un bruit vient malheureusement
s’ajouter à la transmission. Le signal est modélisé par une variable
aléatoire discrète réelle S d’espérance mS et de variance σS2 connues.
Variables aléatoires discrètes
(2) En déduire, pour tout n ∈ N et tout k ∈ {0, ..., n} : P (Xn =
1
k) = k+1
un−k .
u0 , u1 , u2 , u3 .
å
n+k k
P (X = k) = a
p avec a > 0 et p ∈]0, 1[
k
Exo 8
(3) Montrer, pour tout n ∈ N :
2016
PC*
2015-2016
Exo 7
(5) On note T l’instant auquel le mobile se trouve pour la première
fois à l’origine (sans compter son positionnement au départ)
et on convient que T prend la valeur 0 si le mobile ne revient
jamais à l’origine.
2016
Exo 15
Soit p ∈ ]0 , 1[. On définit, pour tout(i, j) ∈ N 2 , les réels ai,j par :
(
Exo 12
On effectue une suite infinie de lancers d’une pièce équilibrée.
On note X (resp. Y ) la variable aléatoire égale au rang d’apparition
du premier pile (resp. face).
(1) Déterminer la loi du couple (X, Y ).
(2) Montrer que les variables aléatoires X et Y ne sont pas indépendantes.
(3) Déterminer la loi de la v.a. Z = X + Y .
Exo 13
(1) Montrer qu’il existe un réel a unique, à calculer, tel que la
famille
i + j
a
i!j! (i,j)∈N2
soit la loi de probabilité d’un couple (X, Y ) de variables aléatoires discrètes.
(2) Calculer Cov (X, Y ).
2015-2016
Soit N ∈ N∗ fixé.
Une urne contient N jetons numérotés de 1 à N . On effectue une
suite infinie de tirages d’un jeton avec remise dans l’urne du jeton
tiré.
On note, pour tout i ∈ N∗ , Xi la variable aléatoire égale au numéro
du jeton obtenu au i-ème tirage.
On note, pour tout n ∈ N∗ : Sn = X1 + · · · + Xn .
Calculer, pour tout n ∈ N∗ , l’espérance et la variance de Sn .
(1 − p)j−2 p2
0
si 1 6 i < j
sinon.
(1) Montrer que (i, j, ai,j ) ; (i, j) ∈ N2 est la loi d’un couple
(X, Y ) de variables aléatoires discrètes.
¶
©
(2) Déterminer les lois marginales de X et de Y .
Les variables aléatoires X et Y sont-elles indépendantes ?
(3) Soit j > 2. Déterminer la loi conditionnelle de X sachant
(Y = j).
Exo 16
On lance une pièce amenant pile avec la probabilité p (0 < p < 1),
jusqu’à l’obtention de deux piles. On note X le nombre de faces
alors obtenues.
Si X = n, on met n + 1 boules numérotées de 0 à n dans une urne,
et on tire une boule au hasard. On note Y le numéro de la boule
obtenue.
(1) Déterminer la loi de X. Calculer E(X).
(2) Déterminer la loi du couple (X, Y ), et en déduire la loi de Y .
Calculer E(Y ).
(3) On définit la variable aléatoire Z = X − Y . Montrer que Y et
Z sont indépendantes.
Exo 17
Deux joueurs A et B procèdent l’un après l’autre à une succession de
lancers d’une même pièce, amenant pile avec la probabilité p ∈ ]0 , 1[.
On pose q = 1 − p.
Variables aléatoires discrètes
Exo 14
ai,j =
PC*
30/40
Le bruit est modélisé par une variable B indépendante de S d’espé2 > 0. Après diffusion, le signal reçu est
rance nulle et de variance σB
X = S + B.
Déterminer a, b ∈ R pour que Y = aX + b soit au plus proche de S
i.e. tel que l’espérance E (Y − S)2 soit minimale.
(1) Déterminer la loi de X.
(2) Soit n ∈ N∗ . Déterminer la loi conditionnelle de Y sachant
(X = n).
q
(3) En déduire : P (Y = 0) = 1+q
et ∀k > 1, P (Y = k) =
1
(1+q)2
Ä
äk−1
q
.
1+q
Vérifier par le calcul que
+∞
X
P (Y = k) = 1.
k=0
(4) Le joueur B gagne s’il obtient au moins un pile, sinon c’est le
joueur A qui gagne.
Le jeu est-il équitable ?
Exo 18
Dans cet exercice, on pourraX
utiliser le résultat suivant :
pour
tout x ∈ ] − 1 ; 1[, la série
n(n − 1)(n − 2)xn−3 converge et
n>0
+∞
X
31/40
(1) Déterminer la loi du couple (X, Y ). En déduire les lois marginales de X et de Y .
(2) Montrer que X et Y admettent une espérance et une variance
et calculer E(X), E(Y ), V(X), V(Y ).
2016
Exo 19
Démontrer que la fonction de répartition d’une v.a. X suivant la loi
de Poisson de paramètre λ > 0, est donnée par
1
∀n, P (X 6 n) =
n!
Z
+∞
e−x xn dx
λ
Exo 20
Le nombre de voitures se présentant en une heure à une barrière de
péage est une v.a. X suivant la loi de Poisson de paramètre λ > 0.
À cette barrière, il y a N péages ; chaque voiture arrivant choisit un
des péages au hasard, de manière équiprobable et indépendamment
des autres voitures. On note Y1 le nombre de voitures se présentant
au péage numéro 1.
(1) Déterminer la loi de Y1 conditionnée par (X = n).
(2) Déterminer la loi de Y1 .
(3) On note naturellement Yk le nombre de voitures se présentant
au péage k (et bien sûr, Y1 et Yk (pour tout k ∈ J2, N K) suivent
la même loi).
Soit i 6= j ; en considérant la variance de Yi + Yj , déterminer
la covariance de Yi et Yj .
(4) En déduire la covariance de Y1 et X, puis le coefficient de
corrélation linéaire de Y1 et X.
Exo 21
Pour chaque question, reconnaître la loi de X et en préciser les paramètres :
(1) on lance un dé équilibré à 6 faces et on note X la variable
aléatoire égale au numéro obtenu
Variables aléatoires discrètes
6
.
(1
−
x)4
n=0
On répète, de façon indépendante, une expérience aléatoire au cours
de laquelle un événement A se réalise, à chaque fois, avec la probabilité p (0 < p < 1).
On note X la variable aléatoire égale au rang de la première réalisation de l’événement A, et Y celle égale au rang de sa deuxième
réalisation.
n(n − 1)(n − 2)xn−3 =
(3) Montrer que (X, Y ) admet une covariance et calculer
Cov (X, Y ).
(4) Soit n > 2. Déterminer la loi conditionnelle de X sachant
(Y = n).
PC*
2015-2016
Le joueur A commence et il s’arrête dès qu’il obtient le premier pile.
On note X la variable aléatoire égale au nombre de lancers effectués
par le joueur A.
Le joueur B effectue alors autant de lancers que le joueur A et on
note Y la variable aléatoire égale au nombre de piles obtenus par le
joueur B.
2015-2016
Soient X et Y deux variables aléatoires indépendantes suivant toutes
les deux la loi géométrique de même paramètre p, avec p ∈ ]0 , 1[.
(1) Déterminer la loi de X + Y , la loi de Min (X, Y ) et la loi de
Max (X, Y ).
(3) Calculer les probabilités suivantes :
P (X = Y ), P (X 6 Y ).
2016
Exo 23
On considère une variable aléatoire X suivant la loi de Poisson de
paramètre λ, avec λ > 0.
P (X = n + 1)
.
P (X = n)
(2) En déduire le mode de X, c’est-à-dire la valeur que prend X
avec la plus grande probabilité.
(1) Pour tout n de N, calculer un =
Exo 24
Soit n ∈ N∗ . On dispose de n rosiers, sur chacun desquels on opère
une greffe. Lorsqu’une greffe est opérée, on sait au bout d’une semaine si elle a pris ou non, et si la greffe ne prend pas, on recommence jusqu’à ce qu’elle prenne effectivement. On suppose que la
probabilité qu’une greffe donnée prenne est égale à p, avec 0 < p < 1,
et que toutes ces expériences sont mutuellement indépendantes.
On note, pour tout k ∈ {1, ..., n}, Xk la variable aléatoire égale
au nombre de greffes nécessaires à la prise du rosier numéro k. On
définit également :
– la variable aléatoire Y égale au nombre de semaines nécessaires
à la prise d’au moins une greffe,
– la variable aléatoire Z égale au nombre de semaines nécessaires
à la prise de toutes les greffes.
(1) Déterminer, pour tout k ∈ {1, ..., n}, la loi de Xk , son espérance et sa variance.
(2) Calculer, pour tout m > 1, P (Y > m). En déduire la loi de Y
et son espérance.
(3)
a. Calculer, pour tout m > 1, P (Z 6 m).
b. En déduire la loi de Z.
Variables aléatoires discrètes
Exo 22
(2) À quelle situation type peut-on associer les variables aléatoires
X et Y ?
Que représentent alors X + Y , Min (X, Y ) et Max (X, Y ) ?
PC*
32/40
(2) une urne contient 12 boules : 6 boules vertes, 4 boules rouges
et 2 boules noires ; on tire au hasard successivement et avec
remise 8 boules et on note X la variable aléatoire égale au
nombre de boules rouges obtenues
(3) une urne contient 12 boules : 6 boules vertes, 4 boules rouges
et 2 boules noires ; on effectue des tirages successifs et avec remise jusqu’à obtenir une boule rouge et on note X la variable
aléatoire égale au nombre de tirages effectués
(4) on range au hasard 10 boules dans 3 sacs de façon équiprobable et on note X le nombre de boules mises dans le premier
sac
(5) les 32 cartes d’un jeu sont alignées, faces cachées, sur une table
de façon aléatoire ; on découvre les cartes, de gauche à droite
jusqu’à obtenir la dame de cœur et on note X la variable aléatoire égale au nombre de cartes découvertes
(6) une urne contient n jetons numérotés de 1 à n (n ∈ N∗ ) ; on
les tire au hasard un à un sans remise jusqu’à obtenir le jeton
numéro 1 et on note X le nombre de tirages effectués
(7) une urne contient n jetons numérotés de 1 à n (n ∈ N∗ ) ; on
les tire au hasard un à un avec remise jusqu’à obtenir le jeton
numéro 1 et on note X le nombre de tirages effectués
(8) on pose n questions à un élève ; pour chaque question, r réponses sont proposées dont une et une seule est correcte ;
l’élève répond au hasard à chaque question et on note X la
variable aléatoire égale au nombre de bonnes réponses.
(9) Dans un magasin il y a n clients et m caisses. Chaque client
choisit une caisse au hasard et on appelle X le nombre de
clients choisissant la caisse numéro 1. Donner la loi de X.
On note m = E(X1 ), v = V(X1 ), et, pour tout n ∈ N∗ :
Mn =
Exo 25
Vous faites la queue avec votre ami Arnold à la caisse d’un grand
magasin. Comme l’attente est longue, vous observez les gens entrant
dans le magasin.
(1) Arnold vous parie que le nombre de personnes entrant avant
la première femme est pair. Prenez-vous le pari ?
(2) Arnold vous parie ensuite que le nombre de personnes entrant
dans le magasin durant la prochaine heure est pair. Prenezvous le pari ? (On suppose que le nombre d’arrivants par heure
suit une loi de Poisson).
Exo 26
Soit X et Y deux variables aléatoires indépendantes suivant des lois
géométriques de paramètres p et q > 0.
Quelle est la probabilité que la matrice suivante soit diagonalisable ?
Ç
A=
X 1
0 Y
å
Exo 27
33/40
Exo 28
Soit (Xn )n∈N∗ une suite de variables aléatoires deux à deux indépendantes, de même loi et admettant un moment d’ordre 2.
(1) Montrer :
∀n ∈ N∗ , ∀ε > 0, P |Mn − m| > ε 6
Ä
ä
v
.
nε2
(2) On suppose ici v = 10−1 . Déterminer un entier N ∈ N∗ tel
que, pour tout entier n > N , on ait :
P |Mn − m| > 10−2 6 10−3 .
Ä
ä
Exo 29
On considère une suite (Xn )n∈N∗ de variables aléatoires indépendantes suivant toutes la même loi de Bernoulli de paramètre p avec
0 < p < 1. Pour tout n de N∗ , on pose :
Sn =
X1 + · · · + Xn
,
n
(1) Justifier : ∀ε > 0,
(2)
Y1 + · · · + Yn
.
n
Yn =
Xn + Xn+1
,
2
lim
P Sn − p > ε = 0.
n→+∞
Tn =
a. Soit n ∈ N∗ . Donner la loi et l’espérance de Yn .
b. Soient n, m ∈ N∗ tels que n < m.
Les variables aléatoires Yn et Ym sont-elles indépendantes ?
(3) Montrer : ∀ε > 0,
lim
n→+∞
P Tn − p > ε = 0.
Exo 30
300 personnes vont voir un film projeté dans deux salles de cinéma.
Chaque salle contient N places, où 150 6 N 6 300.
Déterminer une valeur de N pour que la probabilité que chaque personne trouve une place dans la salle qu’elle a choisie soit supérieure
à 0.99.
Variables aléatoires discrètes
Soit p ∈ ]0 , 1[.
On considère une suite (Xn )n∈N∗ de variables aléatoires telle que,
pour tout n ∈ N∗ , Xn suit la loi binomiale B(n, p).
Xn
On note, pour tout n ∈ N∗ : Yn =
. Montrer : ∀n ∈ N∗ , ∀ε >
n
Ä
ä
1
0, P |Yn − p| > ε 6 4nε
2.
n
1X
Xk .
n k=1
2016
PC*
2015-2016
c. Montrer que Z admet une espérance.
Calculer E(Z) lorsque n = 2.
2016
PC*
Variables aléatoires discrètes
VIII.
Annexe 1 : quelques extraits de tables de fonctions de répartition
VIII.1
Binomial distribution table
The tables only cover p 6 12 . For p > 12 , the rôles of successes and failures need to be reversed, i.e. if
X ,→ B(n, p), and Y ,→ B(n, 1 − p), then P {X 6 x} = 1 − P {Y 6 n − x − 1}.
Cumulative distribution function for p 6 0.09
This section tabulates the cumulative distribution function (c.d.f.) of the binomial distribution, i.e.
the distribution of the number of successes in n independent trials of an experiment which leads to a
success with probability p. The c.d.f. is
F (x) = P (X 6 x) =
x
X
P (X = k) =
k=0
x
X
k=0
Ç å
n k
p (1 − p)n−k .
k
Source can be found at http://www.stats.gla.ac.uk/~levers/software/tables/
n
x
0.001
0.005
0.01
0.02
0.03
p
0.04
0.05
0.06
0.07
0.08
0.09
1
0
1
0.9990
1.0000
0.9950
1.0000
0.9900
1.0000
0.9800
1.0000
0.9700
1.0000
0.9600
1.0000
0.9500
1.0000
0.9400
1.0000
0.9300
1.0000
0.9200
1.0000
0.9100
1.0000
2
0
1
2
0.9980
1.0000
1.0000
0.9900
1.0000
1.0000
0.9801
0.9999
1.0000
0.9604
0.9996
1.0000
0.9409
0.9991
1.0000
0.9216
0.9984
1.0000
0.9025
0.9975
1.0000
0.8836
0.9964
1.0000
0.8649
0.9951
1.0000
0.8464
0.9936
1.0000
0.8281
0.9919
1.0000
3
0
1
2
3
0.9970
1.0000
1.0000
1.0000
0.9851
0.9999
1.0000
1.0000
0.9703
0.9997
1.0000
1.0000
0.9412
0.9988
1.0000
1.0000
0.9127
0.9974
1.0000
1.0000
0.8847
0.9953
0.9999
1.0000
0.8574
0.9928
0.9999
1.0000
0.8306
0.9896
0.9998
1.0000
0.8044
0.9860
0.9997
1.0000
0.7787
0.9818
0.9995
1.0000
0.7536
0.9772
0.9993
1.0000
4
0
1
2
3
4
0.9960
1.0000
1.0000
1.0000
1.0000
0.9801
0.9999
1.0000
1.0000
1.0000
0.9606
0.9994
1.0000
1.0000
1.0000
0.9224
0.9977
1.0000
1.0000
1.0000
0.8853
0.9948
0.9999
1.0000
1.0000
0.8493
0.9909
0.9998
1.0000
1.0000
0.8145
0.9860
0.9995
1.0000
1.0000
0.7807
0.9801
0.9992
1.0000
1.0000
0.7481
0.9733
0.9987
1.0000
1.0000
0.7164
0.9656
0.9981
1.0000
1.0000
0.6857
0.9570
0.9973
0.9999
1.0000
5
0
1
2
3
4
0.9950
1.0000
1.0000
1.0000
1.0000
0.9752
0.9998
1.0000
1.0000
1.0000
0.9510
0.9990
1.0000
1.0000
1.0000
0.9039
0.9962
0.9999
1.0000
1.0000
0.8587
0.9915
0.9997
1.0000
1.0000
0.8154
0.9852
0.9994
1.0000
1.0000
0.7738
0.9774
0.9988
1.0000
1.0000
0.7339
0.9681
0.9980
0.9999
1.0000
0.6957
0.9575
0.9969
0.9999
1.0000
0.6591
0.9456
0.9955
0.9998
1.0000
0.6240
0.9326
0.9937
0.9997
1.0000
6
0
1
2
3
4
0.9940
1.0000
1.0000
1.0000
1.0000
0.9704
0.9996
1.0000
1.0000
1.0000
0.9415
0.9985
1.0000
1.0000
1.0000
0.8858
0.9943
0.9998
1.0000
1.0000
0.8330
0.9875
0.9995
1.0000
1.0000
0.7828
0.9784
0.9988
1.0000
1.0000
0.7351
0.9672
0.9978
0.9999
1.0000
0.6899
0.9541
0.9962
0.9998
1.0000
0.6470
0.9392
0.9942
0.9997
1.0000
0.6064
0.9227
0.9915
0.9995
1.0000
0.5679
0.9048
0.9882
0.9992
1.0000
7
0
1
2
3
4
5
0.9930
1.0000
1.0000
1.0000
1.0000
1.0000
0.9655
0.9995
1.0000
1.0000
1.0000
1.0000
0.9321
0.9980
1.0000
1.0000
1.0000
1.0000
0.8681
0.9921
0.9997
1.0000
1.0000
1.0000
0.8080
0.9829
0.9991
1.0000
1.0000
1.0000
0.7514
0.9706
0.9980
0.9999
1.0000
1.0000
0.6983
0.9556
0.9962
0.9998
1.0000
1.0000
0.6485
0.9382
0.9937
0.9996
1.0000
1.0000
0.6017
0.9187
0.9903
0.9993
1.0000
1.0000
0.5578
0.8974
0.9860
0.9988
0.9999
1.0000
0.5168
0.8745
0.9807
0.9982
0.9999
1.0000
34/40
2015-2016
2016
PC*
Variables aléatoires discrètes
Cumulative distribution function for 0.1 6 p 6 0.5
n
x
0.1
0.125
0.15
0.2
0.25
p
0.3
0.3333
0.35
0.4
0.45
0.5
1
0
1
0.9000
1.0000
0.8750
1.0000
0.8500
1.0000
0.8000
1.0000
0.7500
1.0000
0.7000
1.0000
0.6667
1.0000
0.6500
1.0000
0.6000
1.0000
0.5500
1.0000
0.5000
1.0000
2
0
1
2
0.8100
0.9900
1.0000
0.7656
0.9844
1.0000
0.7225
0.9775
1.0000
0.6400
0.9600
1.0000
0.5625
0.9375
1.0000
0.4900
0.9100
1.0000
0.4444
0.8889
1.0000
0.4225
0.8775
1.0000
0.3600
0.8400
1.0000
0.3025
0.7975
1.0000
0.2500
0.7500
1.0000
3
0
1
2
3
0.7290
0.9720
0.9990
1.0000
0.6699
0.9570
0.9980
1.0000
0.6141
0.9392
0.9966
1.0000
0.5120
0.8960
0.9920
1.0000
0.4219
0.8438
0.9844
1.0000
0.3430
0.7840
0.9730
1.0000
0.2963
0.7407
0.9630
1.0000
0.2746
0.7183
0.9571
1.0000
0.2160
0.6480
0.9360
1.0000
0.1664
0.5748
0.9089
1.0000
0.1250
0.5000
0.8750
1.0000
4
0
1
2
3
4
0.6561
0.9477
0.9963
0.9999
1.0000
0.5862
0.9211
0.9929
0.9998
1.0000
0.5220
0.8905
0.9880
0.9995
1.0000
0.4096
0.8192
0.9728
0.9984
1.0000
0.3164
0.7383
0.9492
0.9961
1.0000
0.2401
0.6517
0.9163
0.9919
1.0000
0.1975
0.5926
0.8889
0.9877
1.0000
0.1785
0.5630
0.8735
0.9850
1.0000
0.1296
0.4752
0.8208
0.9744
1.0000
0.0915
0.3910
0.7585
0.9590
1.0000
0.0625
0.3125
0.6875
0.9375
1.0000
5
0
1
2
3
4
5
0.5905
0.9185
0.9914
0.9995
1.0000
1.0000
0.5129
0.8793
0.9839
0.9989
1.0000
1.0000
0.4437
0.8352
0.9734
0.9978
0.9999
1.0000
0.3277
0.7373
0.9421
0.9933
0.9997
1.0000
0.2373
0.6328
0.8965
0.9844
0.9990
1.0000
0.1681
0.5282
0.8369
0.9692
0.9976
1.0000
0.1317
0.4609
0.7901
0.9547
0.9959
1.0000
0.1160
0.4284
0.7648
0.9460
0.9947
1.0000
0.0778
0.3370
0.6826
0.9130
0.9898
1.0000
0.0503
0.2562
0.5931
0.8688
0.9815
1.0000
0.0312
0.1875
0.5000
0.8125
0.9688
1.0000
6
0
1
2
3
4
5
6
0.5314
0.8857
0.9842
0.9987
0.9999
1.0000
1.0000
0.4488
0.8335
0.9709
0.9970
0.9998
1.0000
1.0000
0.3771
0.7765
0.9527
0.9941
0.9996
1.0000
1.0000
0.2621
0.6554
0.9011
0.9830
0.9984
0.9999
1.0000
0.1780
0.5339
0.8306
0.9624
0.9954
0.9998
1.0000
0.1176
0.4202
0.7443
0.9295
0.9891
0.9993
1.0000
0.0878
0.3512
0.6804
0.8999
0.9822
0.9986
1.0000
0.0754
0.3191
0.6471
0.8826
0.9777
0.9982
1.0000
0.0467
0.2333
0.5443
0.8208
0.9590
0.9959
1.0000
0.0277
0.1636
0.4415
0.7447
0.9308
0.9917
1.0000
0.0156
0.1094
0.3437
0.6562
0.8906
0.9844
1.0000
7
0
1
2
3
4
5
6
7
0.4783
0.8503
0.9743
0.9973
0.9998
1.0000
1.0000
1.0000
0.3927
0.7854
0.9537
0.9938
0.9995
1.0000
1.0000
1.0000
0.3206
0.7166
0.9262
0.9879
0.9988
0.9999
1.0000
1.0000
0.2097
0.5767
0.8520
0.9667
0.9953
0.9996
1.0000
1.0000
0.1335
0.4449
0.7564
0.9294
0.9871
0.9987
0.9999
1.0000
0.0824
0.3294
0.6471
0.8740
0.9712
0.9962
0.9998
1.0000
0.0585
0.2634
0.5706
0.8267
0.9547
0.9931
0.9995
1.0000
0.0490
0.2338
0.5323
0.8002
0.9444
0.9910
0.9994
1.0000
0.0280
0.1586
0.4199
0.7102
0.9037
0.9812
0.9984
1.0000
0.0152
0.1024
0.3164
0.6083
0.8471
0.9643
0.9963
1.0000
0.0078
0.0625
0.2266
0.5000
0.7734
0.9375
0.9922
1.0000
2015-2016
35/40
2016
PC*
VIII.2
Variables aléatoires discrètes
Poisson distribution table
Cumulative distribution function
This section tabulates the cumulative distribution function (c.d.f.) of the Poisson distribution with
expected value (“rate”) λ, which is
F (x) = P (X 6 x) =
x
X
P (X = k) =
k=0
x
X
e−λ
k=0
λk
.
k!
Source can be found at http://www.stats.gla.ac.uk/~levers/software/tables/
x
0.02
0.04
0.06
0.08
0.1
0.15
λ
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0
1
2
3
4
5
0.9802
0.9998
1.0000
1.0000
1.0000
1.0000
0.9608
0.9992
1.0000
1.0000
1.0000
1.0000
0.9418
0.9983
1.0000
1.0000
1.0000
1.0000
0.9231
0.9970
0.9999
1.0000
1.0000
1.0000
0.9048
0.9953
0.9998
1.0000
1.0000
1.0000
0.8607
0.9898
0.9995
1.0000
1.0000
1.0000
0.8187
0.9825
0.9989
0.9999
1.0000
1.0000
0.7788
0.9735
0.9978
0.9999
1.0000
1.0000
0.7408
0.9631
0.9964
0.9997
1.0000
1.0000
0.7047
0.9513
0.9945
0.9995
1.0000
1.0000
0.6703
0.9384
0.9921
0.9992
0.9999
1.0000
0.6376
0.9246
0.9891
0.9988
0.9999
1.0000
0.6065
0.9098
0.9856
0.9982
0.9998
1.0000
x
0.55
0.6
0.65
0.7
0.75
0.8
λ
0.85
0.9
0.95
1
1.1
1.2
1.3
0
1
2
3
4
5
6
7
8
0.5769
0.8943
0.9815
0.9975
0.9997
1.0000
1.0000
1.0000
1.0000
0.5488
0.8781
0.9769
0.9966
0.9996
1.0000
1.0000
1.0000
1.0000
0.5220
0.8614
0.9717
0.9956
0.9994
0.9999
1.0000
1.0000
1.0000
0.4966
0.8442
0.9659
0.9942
0.9992
0.9999
1.0000
1.0000
1.0000
0.4724
0.8266
0.9595
0.9927
0.9989
0.9999
1.0000
1.0000
1.0000
0.4493
0.8088
0.9526
0.9909
0.9986
0.9998
1.0000
1.0000
1.0000
0.4274
0.7907
0.9451
0.9889
0.9982
0.9997
1.0000
1.0000
1.0000
0.4066
0.7725
0.9371
0.9865
0.9977
0.9997
1.0000
1.0000
1.0000
0.3867
0.7541
0.9287
0.9839
0.9971
0.9995
0.9999
1.0000
1.0000
0.3679
0.7358
0.9197
0.9810
0.9963
0.9994
0.9999
1.0000
1.0000
0.3329
0.6990
0.9004
0.9743
0.9946
0.9990
0.9999
1.0000
1.0000
0.3012
0.6626
0.8795
0.9662
0.9923
0.9985
0.9997
1.0000
1.0000
0.2725
0.6268
0.8571
0.9569
0.9893
0.9978
0.9996
0.9999
1.0000
36/40
2015-2016
0.9
(0.1)
(0.25)
(0.5)
(0.75)
(0.9)
0.8
IX. Annexe 2 : illustration des différentes lois
#! /usr/local/bin/python3.4
# -*- coding:utf-8 -*import matplotlib.pyplot as plt
import numpy as np
from scipy.special import binom # pour calculer (k parmi n)
from scipy.misc import factorial as fact # pour calculer k!
PC*
2015-2016
2016
La loi géométrique
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
0
2
4
6
8
10
12
14
16
IX.1 La loi géométrique
Une autre approche consiste à simuler N expériences suivant une
loi géométrique, et à dénombrer les résultats obtenus. La fonction
On peut définir la fonction permettant de calculer explicitement P (X = numpy.random.geometric(p,N) fournit un tableau numpy contenant
k) lorsque X ,→ G (p) :
la réalisation de N expériences suivant une loi géométrique. Si N est
assez grand, on a par dénombrement une approximation de P (X = k).
def geometrique(k, p):
"""Renvoie $P(X=k)$ pour une géométrique de paramètre p"""
# la fonction est déjà vectorialisée,
# on peut lui passer comme argument k un tableau numpy
return p * (1-p) ** (k-1)
Variables aléatoires discrètes
37/40
n = 15
# le nb de valeurs du support qui nous intéressent
k = np.arange(1,n+1) # le support (que l'on a tronqué informatiquement)
N = 1e3
# le nombre de tirages pour notre échantillon
p = .7
# le paramètre de la géométrique
echantillon_geometrique = np.random.geometric(p, size=N)
nb_geom = np.zeros(n+1,dtype=np.float) # on garde ici 0 dans le support,
On peut alors représenter la loi pour différentes valeurs du paramètre p :
# comme pour la loi théorique
for e in echantillon_geometrique:
plt.figure(0)
nb_geom[e] += 1
n = 15
# le nb de valeurs du support qui nous intéressent nb_geom /= N
# on normalise
k = np.arange(1,n+1) # le support (que l'on a tronqué informatiquement)
for p in [.1,.25,.5,.75,.9]:
plt.figure(1)
plt.plot(k, geometrique(k,p), '-',
plt.plot(k, geom, '-b', label=r"$\mathscr{{G}}({})$ exact".format(p))
label=r"$\mathscr{{G}}({})$".format(p))
plt.plot(k, nb_geom[1:], 'ob', label=r"$\mathscr{{G}}({})$
plt.legend(loc="best")
par échantillon $N={:.0e}$".format(p,N))
plt.title("La loi géométrique")
plt.legend(loc="best")
plt.savefig("vad_loi_evolution_de_la_geometrique_selon_p.pdf")
plt.title("La loi géométrique")
plt.savefig("vad_loi_comparaison_geometrique_theorique_et_par_tirage.pdf")
0.7
0.6
2016
La loi de Poisson
0.7
(0.5)
(1)
(2)
(3)
(4)
(5)
(6)
0.6
0.5
0.5
0.4
0.4
PC*
38/40
La loi géométrique
(0.7) exact
(0.7) par échantillon N =1e +03
0.3
0.3
0.2
0.2
0.1
0.1
0.0
0
IX.2
0.0
0
2
4
6
8
10
12
14
2
4
6
8
10
12
14
16
Comme pour la géométrique, on peut simuler N expériences suivant
une loi de Poisson, et dénombrer les résultats obtenus. La fonction
numpy.random.poisson(l,N) fournit un tableau numpy contenant la
La loi de Poisson
réalisation de N expériences suivant une loi géométrique. Si N est assez
On peut définir la fonction permettant de calculer explicitement P (X = grand, on a par dénombrement une approximation de P (X = k).
k) lorsque X ,→ P(λ) :
n = 15
# le nb de valeurs du support qui nous intéressent
k = np.arange(0,n) # le support (que l'on a tronqué informatiquement)
N = 1e3
# le nombre de tirages pour notre échantillon
l = 2
# le paramètre de la Poisson
echantillon_poisson = np.random.poisson(l,N)
nb_poisson = np.zeros(n,dtype=np.float)
for e in echantillon_poisson:
nb_poisson[e] += 1
On peut alors représenter la loi pour différentes valeurs du paramètre λ :
nb_poisson /= N
# on normalise
plt.figure(2)
n = 15
# le nombre de valeurs du support qui nous intéressent plt.figure(3)
plt.plot(k, Poisson(k,l), '-b',
k = np.arange(0,n) # le support (que l'on a tronqué informatiquement)
label=r"$\mathscr{{P}}({})$ exact".format(l))
for l in [.5,1,2,3,4,5,6]:
plt.plot(k, Poisson(k,l), '-', label=r"$\mathscr{{P}}({})$".format(l)) plt.plot(k, nb_poisson, 'ob', label=r"$\mathscr{{P}}({})$
par échantillon $N={:.0e}$".format(l,N))
plt.legend(loc="best")
plt.legend(loc="best")
plt.title("La loi de Poisson")
plt.title("La loi de Poisson")
plt.savefig("vad_loi_evolution_de_la_Poisson_selon_lambda.pdf")
plt.savefig("vad_loi_comparaison_poisson_theorique_et_par_tirage.pdf")
def Poisson(k,l):
"""renvoie $P(X=k)$ pour une Poisson de paramètre l"""
# la fonction est déjà vectorialisée,
# on peut lui passer comme argument k un tableau numpy
return np.exp(-l) * l**k / fact(k)
Variables aléatoires discrètes
2015-2016
0.25
0.35
0.20
0.30
0.15
0.25
0.10
0.20
0.15
0.05
0.00
0
2016
La loi binomiale
(10,0.15) exact
(10,0.15) par échantillon N =1e +03
0.40
PC*
2015-2016
La loi de Poisson
(2) exact
(2) par échantillon N =1e +03
0.30
0.10
2
4
6
8
10
12
14
0.05
0.00
0
IX.3 Et la binomiale ?
def binomial(k,n,p):
"""Renvoie $P(X=k)$ pour une binomiale de paramètre n,p
peut être utilisée pour une Bernoulli : prendre n=1"""
# la fonction est déjà vectorialisée,
# on peut lui passer comme argument k un tableau numpy
return binom(n,k) * p**k * (1-p) **(n-k)
p = .15
# le paramètre de la binomiale
n = 10
# le nombre de valeurs du support qui nous intéressent
k = np.arange(0,n)
bino = binomial(k,n,p)
1
2
3
4
5
6
7
8
9
Et comment évolue la binomiale quand on modifie les paramètres ? cf § VI.1
plt.figure(5)
for n,p in [(10,.1538),(100,.0194),(1000,.00199),(10000,.0002)]:
plt.plot(k, binomial(k,n,p), '-',
label=r"$\mathscr{{B}}({},{})$".format(n,p))
plt.plot(k, Poisson(k,2), ':', lw=3,
label=r"$\mathscr{{P}}({})$".format(2))
plt.legend(loc="best")
plt.title("Évolution de la binomiale, et comparaison à la Poisson")
plt.savefig("vad_loi_evolution_de_la_binomiale_selon_p.pdf")
39/40
plt.figure(4)
plt.plot(k, bino, '-b', label=r"$\mathscr{{B}}({},{})$ exact".format(n,p))
plt.plot(k, nb_binomial, 'ob', label=r"$\mathscr{{B}}({},{})$
par échantillon $N={:.0e}$".format(n,p,N))
plt.legend(loc="best")
plt.title("La loi binomiale")
plt.savefig("vad_loi_comparaison_binomiale_theorique_et_par_tirage.pdf")
0.35
Évolution de la binomiale, et comparaison à la Poisson
(10,0.1538)
(100,0.0194)
(1000,0.00199)
(10000,0.0002)
(2)
0.30
0.25
0.20
0.15
0.10
0.05
0.00
0
1
2
3
4
5
6
7
8
9
Variables aléatoires discrètes
N = 1e3
# le nombre de tirages pour notre échantillon
echantillon_binomial = np.random.binomial(n,p,N)
nb_binomial = np.zeros(n,dtype=np.float)
for e in echantillon_binomial:
nb_binomial[e] += 1
nb_binomial /= N # on normalise
2016
PC*
40/40
Résumé des différentes lois
Nom
Notation
Loi uniforme
U (n)
Choix d’un entier « au hasard » entre 1 et n J1, nK
B(p)
Succès ou échec (1 ou 0) lors d’une expérience n’ayant que deux issues dont la pro- {0, 1} P (X = 1) = p, P (X = 0) = 1 − p
babilité de succès est p
Loi de Bernoulli
Loi binomiale
B(n, p)
G (p)
Loi de Poisson
P(λ)
X(Ω)
Loi du nombre de succès lors d’une succession de n épreuves de Bernoulli indépen- J0, nK
dantes et de même paramètre p
Loi du numéro de l’épreuve amenant le premier succès lors d’une succession d’épreuves
de Bernoulli indépendantes et de même paramètre p
Loi des événements rares.
Si, sur une période T , un événement rare
arrive en moyenne λ fois, c’est la loi déterminant le nombre de fois où l’événement se
produit dans la période T
P (X = k), k ∈ X(Ω)
Espérance
Variance
1
n
n+1
2
n2 −1
12
p
p(1 − p)
np
np(1 − p)
n k
k p (1
− p)n−k
N∗
p(1 − p)k−1
1
p
q
p2
N
e−λ λk!
λ
λ
k
2015-2016
Variables aléatoires discrètes
Loi géométrique
Situation type