You are on page 1of 128

COURS DE MATHEMATIQUES

PROBABILITES ET STATISTIQUES
Troisième année : Filière Offshoring. Option : qualité logicielle

LAKHEL El Hassan
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
www.ensasafi.ma

Année Universitaire : 2006-2007


Table des matières

I Probabilités 4

1 L’espace de probabilité (Ω, F, P ) 5


1.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 L’univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Evénements et opérations sur les événements . . . . . . . . . . . . . . . . . . 6
1.4 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Le concept de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Définition d’une probabilité sur un espace Ω fini. . . . . . . . . . . . . . . . . 9
1.6.1 Equiprobabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6.2 Eléments d’analyse combinatoire . . . . . . . . . . . . . . . . . . . . . 11
1.6.3 Exemples fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Résumé du premier chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Probabilités conditionnelles et indépendance 18


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Indépendance d’événements et de sous-tribus. . . . . . . . . . . . . . . . . . 21
2.3.1 Indépendance d’événements . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.2 Indépendance de sous-tribus . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Application : Apparition d’un pile dans un schéma de Bernoulli . . . . . . . . 23
2.5 Résumé du deuxième chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3 Les variables aléatoires 29


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3 Probabilité image et loi d’une variable aléatoire . . . . . . . . . . . . . . . . . 29
3.4 Cas des variables aléatoires réelles . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5 Lois discrètes et lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.6 Les lois usuelles au programme . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6.1 Le cas fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6.2 La loi uniforme discrète . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6.3 La loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.6.4 La loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.6.5 Le cas dénombrable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.6.6 La loi géométrique de paramètre p ∈]0, 1[ . . . . . . . . . . . . . . . . 38

1
3.6.7 La loi de Poisson de paramètre λ ∈]0, ∞[ . . . . . . . . . . . . . . . . 38
3.6.8 Le cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6.9 La loi uniforme continue sur le segment [a, b] : . . . . . . . . . . . . . . 40
3.6.10 lois gaussiennes (ou lois normales) . . . . . . . . . . . . . . . . . . . . 40
3.6.11 La loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.7 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . 43
3.8 Résumé du troisième chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4 Espérance et variance d’une variable aléatoire réelle 50


4.1 Cas des variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . 50
4.1.1 Espérance d’une fonction d’une variable aléatoire réelle . . . . . . . . 51
4.2 Cas des variables aléatoires à densité . . . . . . . . . . . . . . . . . . . . . . . 52
4.3 Linéarité de l’espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4 Moments, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5 Inégalités classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.5.1 L’inégalité de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.5.2 L’inégalité de Bienaymé-Tchebycheff . . . . . . . . . . . . . . . . . . . 54
4.5.3 L’inégalité de Jensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.6 L’espérance et la variance des lois classiques . . . . . . . . . . . . . . . . . . . 55
4.7 Fonctions caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.7.1 Intégration d’une fonction complexe . . . . . . . . . . . . . . . . . . . 58
4.7.2 Fonction caractéristique d’une variable aléatoire réelle . . . . . . . . . 58
4.7.3 Exemples de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.8 Théorème d’unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.9 Annexe : Définition de l’espérance d’une variable aléatoire : Cas général . . 62
4.9.1 Théorème de transferet . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.10 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

5 Variables aléatoires vectorielles 70


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2 Couples aléatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.3 Couples aléatoires à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.4 Indépendance et espérance de produits . . . . . . . . . . . . . . . . . . . . . . 73
5.5 Covariance et coefficient de corrélation linéaire . . . . . . . . . . . . . . . . . 73
5.5.1 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.5.2 coefficient de corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

6 Théorèmes limites 77
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2 Les différents types de convergence . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2.1 La convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . 77
6.2.2 La convergence presque sûre . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2.3 La loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . 78
6.2.4 La convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.3 Le théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

2
II Statistiques 84

7 Introduction aux statistiques 85


7.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.1.1 Les statistiques, les probabilités, la statistique . . . . . . . . . . . . . . 85
7.1.2 La démarche statistique . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.3 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.3.1 Estimation de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . 88
7.3.2 Estimation de la variance . . . . . . . . . . . . . . . . . . . . . . . . . 88
7.4 Estimation par intervalle confiance . . . . . . . . . . . . . . . . . . . . . . . . 90
7.4.1 Etude de cas des échantillons de grande taille n ≥ 30 . . . . . . . . . . 90
7.4.2 Etude de cas X ∼ N (m, σ 2 ) . . . . . . . . . . . . . . . . . . . . . . . . 92
7.5 Tests paramètriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

8 Examens corrigés des années universitaires 2005-2007 96


8.1 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

3
Première partie

Probabilités

4
Chapitre 1

L’espace de probabilité (Ω, F, P )

1.1 Introduction :
La théorie des probabilités est la science qui étudie les expériences aléatoires. On entend
par expérience aléatoire toute procédure ayant un ensemble bien défini de résultats mais dont
on ne sait pas dire à l’avance lequel va avoir lieu.
Le but du cours de probabilités est de modéliser des situations où intervient le hasard. On
aimerait pouvoir construire un cadre commun pour étudier des expériences aléatoires très
divers :
Exemples :
1. Le jet d’un dé,
2. Le jet successif de n pièces de monnaie,
3. La durée de vie d’une ampoule.
Ce cadre commun sera l’espace de probabilité. Il est composé de plusieurs ingrédients : un
univers qui décrit l’ensemble des issues possibles de l’expérience aléatoire, une tribu qui donne
l’ensemble des événements et une probabilité qui associe à chaque événement un nombre qui
donne la chance qu’à cet événement de se réaliser.

1.2 L’univers
Définition 1.1. L’ensemble des résultats d’une expérience aléatoire est appelé l’univers. On
le note généralement Ω.
Exemples : Dans chacun des exemples précédents, on a :
1. Ω = {1, 2, 3, 4, 5, 6}.
2. Ω = {P, F }n (pour n = 2, on a Ω = {P P, P F, F P, F F } = {P, F }2 ).
3. Ω = R+
Remarque :
On peut aussi modéliser des phénomènes aléatoires plus complexes. Donnons un exemple :
Etude d’une file d’attente. Des clients arrivent successivement d’une manière aléatoire et
forment ainsi une file d’attente devant un guichet. Le temps de service pour chaque client,
peut être également modélisé par une grandeur aléatoire. On étudie la longueur de la file
d’attente, en fonction du temps et des paramètres qui interviennent dans la modélisation, à
savoir la durée de service, le temps d’inter-arrivée des clients.
On se demande si la file à tendance à se diminuer ou au contraire à augmenter.

5
1.3 Evénements et opérations sur les événements
Définition 1.2. Un événement est une partie A de Ω, c’est un fait lié à une expérience qui
peut se produire ou non.
Exemples : Dans nos trois situations, A pourrait, par exemple, être :
1. A = {2, 4, 6} : ”obtenir un nombre pair.”
2. A = {P } × {P, F }n−1 : ” Le premier lancer est pile.”
3. A = [100, +∞[ : ”l’ampoule fonctionne plus de cent heures.”

Notation On note P(Ω) l’ensemble de toutes les parties de Ω.


On va utiliser toutes les opérations sur les ensembles :

Notation vocabulaire ensemblite vocabulaire probabiliste


Ω événement certain
∅ ensemble vide événement impossible
{ω} singleton ω événement élémentaire ω
A⊂B A est inclus dans B A implique B
Ac complémentaire de A Le contraire de A est réalisé
A
S∪ B A union B A ou B est réalisé
i∈I Ai union des (Ai )i ∈ I l’un des Ai est réalisé
A
T∩ B A inter B A et B sont réalisés
i∈I Ai intersection des (Ai )i ∈ I tous les Ai sont réalisés

1.4 Tribu
En général, on ne peut pas prendre toutes les parties de Ω comme événements, on doit se
limiter à des familles vérifiant certaines propriétés :

Définition 1.3. Soit Ω un ensemble. Une famille F de parties de Ω est appelée une tribu si
elle vérifie les propriétés suivantes :
i) Ω est un élément de F
ii) (stabilité par complémentaire) Si A est un élément de F, alors Ac est un élément de
F
iii) (stabilité par union dénombrable) Si les (Ai )i∈N sont des éléments de F, alors ∪i∈N Ai
est un élément de F.
Définition 1.4. Soit Ω un ensemble muni d’une tribu F, le couple (Ω, F) est appelé ensemble
mesurable, et les éléments de F sont appelés des événements.

♣Exercice : Vérifier que P(Ω) et {∅, Ω} sont des tribus sur Ω.

♣ Exercice : Soit A une partie de Ω. Montrer que {∅, A, Ac , Ω} est une tribu sur Ω.

♣♣ Exercice : Soit Ω un ensemble, et A et B deux parties de Ω. on pose


F = {∅, A, B, A ∩ B, A ∪ B, Ac , B c , (A ∩ B)c , (A ∪ B)c , A ∩ B c , Ac ∩ B, A ∪ B c , Ac ∪ B, Ω}
Montrer que F est une tribu.

Remarque : Si Ω = R, la tribu habituellement utilisée est la plus petite tribu contenent tous
les intervalles ouverts. On l’appelle tribu borélienne et on la note B(R)

6
Proposition 1.5. Soit Ω un ensemble muni d’une tribu F, alors :
i) ∅ est dans F,
ii) Pour tout A et B de F, on a A ∩ B, A ∪ B A\B sont dans F.
iii) Si les (Ai )i∈N , sont des éléments de F, alors ∩i∈N Ai est un élément de F (stabilité
par intersection dénombrable).
Preuve.
i) ∅ = Ω et Ω ∈ F, donc ∅ ∈ F.
ii) A ∪ B ∈ F par définition.
A ∩ B = A ∪ B ∈ F car A ∪ B ∈ F
A\B = A ∩ B ∈ F d’après ce qui précède.
iii) ∩i∈N Ai = ∪i∈N Ai ∈ F.

Remarque : Une tribu est stable par réunion et intersection finie.

1.5 Le concept de probabilité


Définition 1.6. Soit Ω un ensemble muni d’une tribu F. Une application P de F dans [0, 1]
est une probabilité si elle vérifie les propriétés suivantes :
i) P (Ω) = 1
ii) (σ−additivité) Si les (Ai )i∈N sont des éléments de F deux à deux disjoints, alors
[ X
P ( Ai ) = P (Ai ).
i∈ N N
i∈

Le triplet (Ω, F, P ) est alors appelé un espace de probabilité.


Remarques :
1. Les événements sont donc les parties de Ω auxquels on saura attribuer une probabilité
de se réaliser.

2. Si Ω est fini, on peut remplacer ii) par ii)’ pour tout A, B de P(Ω) tels que A∩B = ∅,
P (A ∪ B) = P (A) + P (B).

Exemples :
1. Jet d’un dé : Ω = {1, 2, ..., 6}, les faces sont équiprobables. On prend F = P(Ω) et on
définit P par :
1
P ({1}) = P ({2}) = ... = P ({6}) = .
6
1
P ({2, 3}) = P ({2}) + P ({3}) = .
3
2. Jet d’une pièce de monnaie Ω = {P, F }, si la pièce est équilibrée, on choisit :
1
P ({P }) = P ({F }) = .
2
Attention ! Le mot probabilité désigne donc deux choses différentes : l’application et le
nombre associé par cette application à un événement. Le contexte permet en général de lever
toute ambiguı̈té.
♣ Exercice : Soit P1 et P2 deux probabilités sur un espace mesurable (Ω, F), et soit α ∈
[0, 1]. Montrer que P = αP1 + (1 − α)P2 est une probabilité sur (Ω, F).

7
Nous avons regroupé dans la proposition suivante les règles fondamentales auxquelles obéit
une probabilité :
Proposition 1.7. Soit (Ω, F, P ) un espace de probabilité.

i) P (∅) = 0
ii) si (Ai )1≤i≤n sont des éléments de F deux à deux disjoints, alors
n
[ n
X
P( Ai ) = P (Ai ).
i=1 i=1

iii) si A est dans F, alors P (Ac )


= 1 − P (A),
iv) si A et B sont des éléments de F tels que A ⊂ B, alors P (A) ≤ P (B).
v) si A et B sont deux éléments de F, alors
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
vi) si (Ai )1≤i≤n sont des éléments de F, alors
[ X
P ( Ai ) ≤ P (Ai )
i∈N i∈ N
vii) si (Ai )1≤i≤n forment une suite croissante d’éléments de F, c’est à dire s’ils vérifient
∀i ∈ N Ai ⊆ Ai+1 , alors
[
P ( Ai ) = limi−→+∞ P (Ai ).
i∈ N
viii) si (Ai )1≤i≤n forment une suite décroissante d’éléments de F, c’est à dire s’ils vérifient
∀i ∈ N Ai+1 ⊆ Ai , alors
\
P ( Ai ) = limi−→+∞ P (Ai ).
i∈ N
Preuve.
i) On applique le ii) de la définition à la famille d’événements disjoints (Ω, ∅, ∅, ...) :

X
1 = P (Ω) + P (∅).
i=1

La série dans le membre de droite ne converge alors que si P (∅) = 0.

ii) On applique le ii) de la définition à la famille d’événements disjoints (A1 , A2 , . . . , An , ∅, ∅, . . .)


en utilisant que P (∅) = 0 :
n
[ n
X n
X n
X
P( Ai ) = P (Ai ) + P (∅) = P (Ai )
i=1 i=1 i=n+1 i=1

iii) On applique ii) à famille d’événements disjoints (A, Ac ) : P (A) + P (Ac ) = P (A ∪


Ac ) = P (Ω) = 1 d’après le i) de la définition.
iv) Soit A et B deux événements tels que A ⊂ B. Comme B = (B ∩ A) ∪ (B ∩ Ac ), avec
(B ∩ A) ∩ (B ∩ Ac ) ⊂ A ∩ Ac = ∅, on peut appliquer ii) :
P (B) = P (B ∩ A) + P (B ∩ Ac ) or P (B ∩ Ac ) ≥ 0
≥ P (B ∩ A) = P (A)
car A ⊂ B

8
v) On écrit A ∪ B comme la réunion disjointe A ∩ B c , A ∩ B et B ∩ Ac (vérifier et faire
un dessin), et on remarque que A est la réunion disjointe A ∩ B c , et A ∩ B, tandis que
B est la réunion disjointe A ∩ B et B ∩ Ac . On obtient donc :
P (A ∪ B) = P (A ∩ B) + P (A ∩ B c ) + P (B ∩ Ac )
= (P (A ∩ B c ) + P (A ∩ B)) + (P (A ∩ B) + P (B ∩ Ac )) − P (A ∩ B)
= P (A) + P (B) − P (A ∩ B).
Pour les trois derniers points, on construit à partir de la famille (Ai )i∈N une famille
(Bi )i∈N de la façon suivante :
i−1
[
B0 = A0 et ∀i ≥ 1, Bi = Ai \ ( Aj ),
j=0

on vérifie alors (exercice) que


• ∀i ∈ N, Bi ⊂ Ai , et donc P (Bi ) ≤ P (Ai ).
• i 6= j =⇒SBi ∩ Bj =S∅, S S
• ∀nS∈ N, ni=0 Bi S = ni=0 Ai (par
P récurrence)Pet donc i∈N Bi = i∈N Ai
vi) P ( Si∈N Ai ) = P ( Si∈N Bi ) = i∈N P (BiP ) ≤ i∈N P (Ai ).
n
vii) P ( Pi∈N Ai ) = P ( i∈NSBi ) = limn−→∞ S i=1 P (Bi ).
n n n
Mais i=1 P (Bi ) = P ( B
i=1 i ) = P ( i=1 Ai ) = P (An ) par croissance de la suite
(An )n∈N .
Donc [
P( Ai ) = limn−→∞ P (An ).
i∈N
viii) Utiliser le point précédent et passer aux complémentaires (exercice).

♣ Exercice : Un dé a six faces, avec deux faces marquées 5. Donner un espace de probabilité
correspondant au lancer de ce dé.

1.6 Définition d’une probabilité sur un espace Ω fini.


Quand l’univers Ω est fini, on peut facilement décrire les probabilités sur Ω.

Théorème 1.8. Soit Ω = {ω1 , ω2 , ..., ωn }. Soit p1 , p2 , ..., pn n nombres réels.


Il existe une probabilité P sur (Ω, P(Ω)) telle que :
½
∀i ∈ P {1, 2, ..., n}, pi ≥ 0
∀i ∈ {1, 2, ..., n}, P ({ωi }) = pi ⇐⇒ n
et i=1 pi = 1.

P est alors unique, et on a pour tout événement A ∈ P(Ω)


X
P (A) = P ({ωi })
i/ωi ∈A

Preuve.
⇒) Supposons qu’il existe une probabilité P sur (Ω, P(Ω)) telle que pour tout
i ∈ |[1, n]| pi = P ({ωi }). P P
On a : pi ≥ 0, ∀i ∈ |[1, n]| et ni=1 pi = ni=1 p({ωi }) = P (Ω) = 1.
De plus pour tout événement A ∈ P(Ω) :
X X
P (A) = P ({ωi }) = pi .
i/ωi ∈A i/ωi ∈A

Donc P est uniquement déterminée par la donnée des pi .

9
⇐) Supposons que ½
∀i ∈ P
{1, 2, ..., n}, pi ≥ 0,
n
et i=1 pi = 1.

Soit P l’application définie sur P(Ω) par :


X
∀A ∈ P(Ω), P (A) = pi
i/ωi ∈A

Montrons que P est une probabilité sur (Ω, P(Ω)).


On a : ∀i ∈ |[1, n]|, pi ≥ 0, donc P (A) ≥ 0 ∀A ∈ P(Ω).
Et,
X n
X
P (A) = pi ≤ pi = 1.
i/ωi ∈A i=1

Donc P est une application de P(Ω) dans [0, 1].


De plus,
Xn
P (Ω) = pi = 1.
i=1

Si A et B sont deux événements disjoints, on a :


X X X
P (A ∪ B) = pi = pi + pi = P (A) + P (B).
i/ωi ∈A∪B i/ωi ∈A i/ωi ∈B

Donc P est une probabilité sur (Ω, P(Ω)) et par définition de P , P ({ωi }) = pi pour
tout i ∈ |[1, n]|.
Exemple : Un dé biaisé :

Ω 1 2 3 4 5 6
1 1 1 1 1
pi 3 6 12 12 4 p
Déterminer p pour que les pi définissent une probabilité. Calculer la probabilité que le résultat
du dé soit pair.

1.6.1 Equiprobabilité
Définition 1.9. On dit qu’il y a équiprobabilité, lorsque les probabilités de tous les événements
élémentaires sont égales.
On dit aussi que P est la probabilité uniforme sur (Ω, P(Ω)).

Remarque : L’univers Ω est nécéssairement fini. En effet, si Ω est infini, on a


+∞
X +∞
X
P (Ω) = pi = α = 1,
i=1 i=1

avec α = pi . La série de terme général


P+∞ α converge, donc limi−→∞ α = 0.
Donc α = 0. Contradiction avec i=1 α = 1. Par suite l’univers Ω est fini.

10
Proposition 1.10. S’il y a équiprobabilité, pour tout événement A, on a :
card(A) nb de cas f avorables
P (A) = =
card(Ω) nb de cas possibles
Preuve.
Dans un univers muni de l’équiprobabilité, de cardinal n, la probabilité d’un événement
élémentaire vaut n1 . En effet, posons α = pi . On a :
n
X n
X
1 = P (Ω) = pi = α = nα.
i=1 i=1

Donc α = n1 .
De plus, si A est un événement quelconque de P(Ω), on a :
X X 1 card(A)
P (A) = pi = = .
n n
i/ωi ∈A i/ωi ∈A

Le calcul de la probabilité d’un événement A se ramène donc à un problème de dénombrement,


il s’agit de calculer le nombre d’éléments de A et de Ω.

Exercice : Un sac contient deux boules blanches et trois boules noires. On tire une boule du
sac. Quelle est la probabilité qu’elle soit blache ?
On peut choisir deux modèles ; deux univers Ω1 , Ω2 peuvent modéliser le tirage aléatoire
précédent :
1) Ω1 = {B, N }, la probabilité P1 étant définie par
2 3
P1 ({B}) = , P1 ({N }) =
5 5
P1 n’est pas une probabilité uniforme.
2) On choisit Ω2 = {B1 , B2 , N1 , N2 , N3 }. Chaque boule du sac a la même probabilité d’être
tirée. On considère sur Ω2 la probabilité uniforme, que l’on note P2 .
1
P2 ({B1 }) = P2 ({B2 }) = P2 ({N1 } = P2 ({N2 } = P2 ({N3 }) = .
5
Soit A l’événement ”tirer une boule blanche”. Et on a :
card(A) 2
P2 (A) = = .
card(Ω) 5

1.6.2 Eléments d’analyse combinatoire


1- Les p-listes : Elles correspondent à un tirage successif et avec remise c’est à dire
que les répétitions sont possibles et que l’ordre est important.

2- les suites de p éléments distincts : Elles correspondent à un tirage successif et


sans remise, c’est à dire que les répétitions sont impossibles et que l’ordre est important.

3- Les permutations : Toutes suite de n éléments distincts choisis parmi les n éléments
d’un ensemble E est appelé permutation de n éléments. Le nombre total de permuta-
tions d’un ensemble de n éléments est n!.

11
Afin d’aborder les problèmes d’analyse combinatoire, rappelons les définitions et les pro-
priétés des coefficients Cnk et Akn .

Coefficient Cnk :
Cnk est un entier naturel qui est défini par

n!
Cnk = , 0 ≤ k ≤ n, avec (0! = 1)
k!(n − k)!

Cnk possède une interprétation très utile en pratique : Cnk est le nombre de façons de choisir
simultanément k éléments parmi n éléments.
Cnk est aussi le nombre de parties à k éléments distincts, pris dans un ensemble à n éléments.

Coefficient Akn :
Par définition :
n!
Akn = , 1 ≤ k ≤ n.
(n − k)!
(Akn est le nombre de façons de choisir successivement et sans remise k éléments parmi n
éléments).

Nous sommes à présent en mesure de préciser les trois modèles de base qui interviennent
fréquemment en pratique.

1.6.3 Exemples fondamentaux


a. Modèle de tirage avec remise :
Un sac contient k boules différentes que l’on suppose numérotées de 1 à k. On note
E = {1, 2, ..., k}.
On effectue n tirages avec remise (on remet la boule dans le sac après chaque tirage).
L’ensemble Ω des résultats possibles, est l’ensemble des n-listes, c’est-à-dire l’ensemble
des suites d’éléments de E de longueur n (une n-liste est un élément de E n ).
On note Ω = E × E × ... × E = E n .
Alors :
card(Ω) = (cardE n ) = k n .
En effet, pour former toutes les n-listes, on a k possibilités pour choisir le premier
élément, k pour le second, etc...
On met sur Ω la probabilité uniforme :
1
P ({ωi }) = .
kn
Exemple : On reprend l’exemple classique du jet d’un dé équilibré à six faces.
On suppose que le dé est jetté 3 fois.
Ici E = {1, 2, 3, ..., 6}. k = 6 et n = 3.
Ω l’ensemble des triplets ou 3-listes d’éléments de E.
Ainsi : (1, 2, 2) ∈ Ω, (5, 3, 1) ∈ Ω
La probabilité de chaque événement élémentaire est 613 = 216 1
.
En particulier
1
P ({(5, 3, 1)}) = P ({(1, 2, 2)}) = .
216

12
b. Modèle de tirage sans remise et sans ordre : Combinaison.
Un sac contient k boules différentes numérotées de 1 à k. On tire en une seule fois m
boules du sac m ≤ k. On choisit pour Ω l’ensemble des parties à m éléments. On a
card(Ω) = Cnm . On prend sur Ω la probabilité uniforme :
1
P ({ω}) = .
Cnm
Exemple : On distribue 4 cartes parmi 32, quelle est la probabilité p d’avoir 4 figures
(valet, dame, roi) ?

Le nombre de résultats possibles est


4 32! 32 × 31 × 30 × 29
C32 = = = 71920.
4!28! 4×3×2
4 = 990 choix possibles de quatre figures parmi 12. Puisque
Il y a 12 figures, donc C12
l’on a choisi sur Ω la probabilité uniforme
4
C12
p= 4 = 0, 014.
C32
c. Modèle de tirage sans remise et avec ordre : Arrangements
On choisit le même sac que précédemment et on tire une à une, sans les remettre, m
boules d’un sac contenant initialement k boules avec m ≤ k.
Les résultats possibles sont les suites de m éléments de {1, 2, ..., k}, deux à deux distincts.
Ainsi si k = 4 et m = 2.,
Ω = {(1, 2), (1, 3), (1, 4), (2, 1), (2, 3), (2, 4), (3, 1), (3, 2), (3, 4), (4, 1), (4, 2), (4, 3)}
Pour compter le nombre des suites, on remarque que l’on a k possibilités pour choisir
le premier élément, cet élément étant donné, le deuxième doit être distinct du premier,
il ne reste que (k − 1) possibilités , etc,...
On a ainsi
k!
card(Ω) = k(k − 1)(k − 2)...(k − m + 1) = = Am k .
(k − m)!
Exercice : Un sac contient 2 V et 3 B. On effectue 2 tirages sans remise.
Donner Ω, calculer la probabilité d’avoir 2 vertes exactement, 2 blanches exactement,
1 V et 1 B.
On pose E = {V1 , V2 , B1 , B2 , B3 }. Ω est l’ensemble des suites de deux éléments de E
deux à deux disjoints.
On écrit :
Ω = {(V1 , V2 ), (V1 , B1 ), (V1 , B2 ), (V1 , B3 ), (V2 , V1 ), ...}
On a card(Ω) = A25 = 20.

card(B) A22 2 1
P(A) = card(Ω) = 20 = 20 = 10 .

card(A) A23 6 3
P(B) = card(Ω) = 20 = 20 = 10 .

card(C) 12
P(C) = card(Ω) = 20 = 53 ,
card(C) = 2 × 3 × 2 = 12.

13
1.7 Résumé du premier chapitre
1. Phénomène aléatoire : Tout phénomène dans lequel intervient le hasad est dit
aléatoire ou stochastique. En revanche, si l’on est certain de l’évolution du phénomène,
on parle de phénomène déterministe.

2. L’univers Ω : Il peut être soit


a) fini : Ω = {x1 , ..., xk } (ex. Ω = {1, 2, 3})
b) infini dénombrable : Ω = {x1 , ..., xk , ...} (ex. Ω = N).
3) infini non dénombrable : (ex. Ω = R, [0, ∞[, [a, b], ...).
Mathématiquement, l’univers est un ensemble quelconque. Intuitivement, c’est l’en-
semble des issues possibles d’une expérience aléatoire.

3. La probabilité P : C’est une fonction définie sur les sous-ensembles


P∞ de Ω, à valeurs
dans [0, 1] et qui vérifie en outre P (Ω) = 1 et P (∪∞
i=0 Ai ) = i=0 P (Ai ) si les Ai sont
disjoints deux à deux.
A l’aide de ces trois axiomes, on démontre d’autres formules. Les plus utiles à retenir
sont :

P (A ∪ B) = P (A) + P (B) − P (A ∩ B).


et

P (A) = 1 − P (A).

14
1.8 Exercices

Exercice 1. Trois boules sont tirées d’un sac contenant des boules blanches et des boules
rouges. Soient les événements :

A= “ la première boule est blanche ”


B= “ la deuxième boule est blanche ”
C= “ la troisième boule est blanche”.
Exprimer les événements suivants en terme de A , B et C :

D= “ toutes les boules sont blanches ”,


E= “ les deux premières sont blanches”,
F= “ au moins une est blanche”,
G= “ une boule au plus est blanche”,
H= “ toutes les boules sont rouges”
K= “ seulement la troisième est blanche”.
Exercice 2. Soit Ω un ensemble.
1) Décrire P(Ω) si Ω = {1, 2, 3}
2) Calculer le cardinal de P(Ω) quand Ω est un ensemble fini (resp. infini).
Soit n et k deux entiers non nuls tels que k < n.
3) Montrer que Cnk = Cnn−k .
k−1
4) Montrer que Cnk = Cn−1 k .
+ Cn−1
5) Etablir l’identité suivante :
n
X
(1 − x)n = (−1)k Cnk xk .
k=0

Exercice 3. On lance 3 dés équilibrés. Quelle est la probabilité d’obtenir :


1) A = “ une fois 1, une fois 2, une fois 3”,
2) B = “ trois fois 1”,
3) C= “ une fois 1 et deux fois 5”.

Exercice 4. On lance 2 dés équilibrés, l’un après l’autre, et on considère les événements
suivants :
A = “ le premier dé donne un résultat pair”
B = “ le deuxième dé donne un résultat impair”
C = “ les deux dés donnent des résultats de même parité”.
1) Calculer P (A ∩ B ∩ C) et P (A).P (B).P (C).
2) Calculer P (A ∩ B) et P (A).P (B).

Exercice 5. Dans un aquarium, il y a cinq poissons rouges trois poissons noirs et deux
poissons argentés. On pêche au hasard trois poissons. Calculer la probabilité des événements
suivants :

A = “ les trois poissons pêchés sont de la même couleur”,


B = “ les trois poissons pêchés sont de trois couleurs différentes”,
C= “ les trois poissons pêchés sont de deux couleurs exactement”.

15
Exercice 6. Soit (Ω, B) un espace probabilisable ( B est l’ensemble des événements).
Pn p1 , p2 , ..., pn
sont n probabilités sur (Ω, B). λ1 , λ2 , ..., λn sont n réels positifs tels que i=1 λi = 1. On
pose
Xn
P = λi pi .
i=1

Montrer que P est une probabilité sur (Ω, B)

x
Exercice 7. Soit f l’application de R dans R définie par f (x) = 3 .
(1+x2 ) 2
Ω = {a, b, c}. Soit F une primitive de f sur R. ( F existe car f est continue).
α et β deux réels tels que 0 < α < β.
On considère l’application P de P(Ω) dans R définie par :
 Rα Rβ

 P {a} = 0 f (x)dx, P {b} = α f (x)dx, P {c} = 1 − F (β)



 P {a, b} = P {a} + P {b}

P {a, c} = P {a} + P {c}

 P {b, c} = P {b} + P {c}



 P (Ω) = P {a} + P {b} + P {c}

P (∅) = 0

Déterminer F pour que P soit une probabilité sur (Ω, P(Ω))

Exercice 8. Un jeu de toto foot consiste à prévoir les résultats de dix équipes de football
en inscrivant les prévisions sur une feuille réponse. Pour chaque match trois résultats sont
possibles : victoire d’une équipe, victoire de l’autre équipe, match nul. combien de chances
a-t-on de gagner si on a joué, d’abord une feuille et puis deus feuilles ?

Exercice 9. On fait remplir un questionnaire à 20 questions binaires. Quelle est la proba-


bilité qu’un candidat répondant au hasard obtienne au moins 16 bonnes réponses ?

Exercice 10.
Soit (Ω, A) un espace probabilisable et A un événement. On appelle fonction indicatrice
de l’événement A et on note IA la fonction définie sur Ω à valeurs dans {0, 1} définie par :
½
1 si ω ∈ A
IA (ω) =
0 si ω ∈ /A

Soit B ∈ A. Montrer que :


1. IA = IB si, et seulement si, A = B.
2. IAc = 1 − IA .
3. IA∩B = IA IB .
4. IA∪B = IA + IB − IA IB .
5. Soit A1 ,..., An des sous ensembes du même Ω, deux à deux disjoints, montrer que
n
X
I∪ni=1 Ai = IAi .
i=1

6. Montrer que si A ⊆ B, IA ≤ IB .
Exercice 11. Soit (An ) une suite d’événements. On pose
\ [ [ \
lim sup An = ( Am ) et lim inf An = ( Am ).
n n
n m≥n n m≥n

16
1) Interpréter lim supn An et lim inf n An . Montrer que lim inf n An ⊆ lim supn An .
2) Montrer la propriété suivante :
X
Si P (An ) < +∞, alors P (lim sup An ) = 0.
n
n≥0

Exercice 12. Soit Γ = {B1 , ..., BN } une partition de Ω. On appelle tribu engendée par Γ
et on note BΓ la plus petite tribu contenant les éléments de Γ. Les Bn sont les “informations
élémentaires” qu’il est possible d’obtenir sur Ω.

1) Montrer que BΓ est constituée de ∅ , Ω et de toutes les réunions d’éléments de Γ.

2) Montrer que si F1 et F2 sont deux tribus sur Ω, alors il en est de même de F = F1 ∩ F2 .

3) En déduire que si H est une famille quelconque de parties de Ω, il existe une σ−algèbre
contenant H et qui est contenue dans toutes les tribus contenant H (ce qui revient à dire qu’il
existe une plus petite σ−algèbre contenant H notée σ(H)).
4) Soit d ∈ N∗ . On appelle tribu borélienne sur Rd la tribu engendrée par la famille O des
ensembles ouverts de Rd . On la notera B(Rd ). Ainsi B(Rd ) = σ(O). Montrer que :

σ(O) = σ(F),

où σ(F) est la tribu engendrée par les ensembles fermés de Rd .

17
Chapitre 2

Probabilités conditionnelles et
indépendance

2.1 Introduction
Il s’agit de définir la façon dont les probabilités affectées aux événements sont susceptibles
d’être modifiées par l’arrivée d’informations nouvelles. Une information est ici une affirma-
tion du type 00 l’événement A est réalisé 00 ou 00 l’événement B est réalisé 00 .

Exemple :
On lance une fois un dé cubique parfait dont les faces sont numérotées de 1 à 6.
Soit A l’événement : 00 on obtient un nombre inférieur ou égal à 5 00
et B l’événement : 00 on obtient un nombre supérieur ou égal à 3 00 .
Supposons que l’on sache que A est réalisé.
Le résultat du lancer est donc un élément de {1, 2, 3, 4, 5} et il y a 5 cas possibles.
B est réalisé si, et seulement si, ω ∈ {3, 4, 5}. Il y a donc 3 cas favorables pour que B soit
réalisé.
La probabilité que B soit réalisé sachant A l’est est 35 .
Or, on a P (A) = 56 et P (A ∩ B) = 36 , donc
3 P (A ∩ B)
= .
5 P (A)

2.2 Probabilité conditionnelle


Définition 2.1. Soit (Ω, A, P ) un espace de probabilité et soit A un événement de probabilité
non nulle. Pour tout événement B ∈ A, on appelle probabilité conditionnelle de B sachant A
la quantité, notée P (B/A) et définie par :
P (A ∩ B)
PA (B) = P (B/A) = .
P (A)
Remarques :
1. La Probabilité conditionnelle est une vraie probabilité. Pour cela, montrons que PA
est une application de A dans [0, 1] telle que pour toute suite (Bn )n∈N d’éléments 2 à 2
disjoints de A on a : X
PA (∪n∈N Bn ) = PA (Bn ).
n∈ N

18
• On a A ∩ B ∈ A donc P (A ∩ B) existe et on a aussi A ∩ B ⊂ A donc PA (B) ∈ [0, 1].
• Soit (Bn )n∈N une suite d’éléments 2 à 2 disjoints. On a :

P (A ∩ (∪n≥0 Bn )) P (∪n≥0 (A ∩ Bn ) X P (A ∩ Bn )
PA (∪∞
n=0 Bn ) = = = .
P (A) P (A) P (A)
n=0

2. Si A, B ∈ A sont tels que P (A) > 0 et P (B) > 0, on a la propriété évidente mais très
utile suivante :
P (A ∩ B) = PB (A)P (B) = PA (B)P (A).
Théorème 2.2. (Formule des probabilités composées)
Soit (Ai )1≤i≤n une famille d’événements telle que P (A1 ∩ A2 ∩ ... ∩ An−1 ) 6= 0. Alors,
P (∩ni=1 Ai ) = P (A1 )PA1 (A2 )...PA1 ∩A2 ∩...∩An−1 (An ).
Preuve.

Voir TD.

Remaraque : Toutes les probabilités écrites ont un sens car :


∀j ∈ {1, 2, ..., n − 1} A1 ∩ A2 ∩ ... ∩ An−1 ⊂ A1 ∩ A2 ∩ ... ∩ Aj .
Donc
P (A1 ∩ A2 ∩ ... ∩ Aj ) ≥ P (A1 ∩ A2 ∩ ... ∩ An−1 ) > 0.
Exemple : Un sac contient 3 boules blanches et 7 noires. On tire successivement 3 boules
sans remise. Quelle est la probabilité d’obtenir les trois boules blanches ?

Soit Bk (resp. Nk ) l’événement 00 le k ieme tirage donne une boule blanche 00 (resp. noire).
Soit A l’événement 00 on obtient 3 boules blanches 00 .
A = B1 ∩ B2 ∩ B3 .
D’après la formule des probabilités composées, on a :

P (A) = P (B1 )PB1 (B2 )PB1 ∩B2 (B3 ).


Puisque le sac contient 10 boules dont 3 blanches, on a :
3
P (B1 ) = .
10
À l’issue du premier tirage, le sac contient 9 boules et si la première boule tirée est blanche,
il ne reste que 2 boules blanches donc,
2
PB1 (B2 ) = .
9
À l’issue du deuxième tirage, le sac contient 8 boules et si les deux boules tirées sont blanches,
il ne reste que 1 boule blanche donc,
1
PB1 ∩B2 (B3 ) = .
8
Finalement,
3 2 1 1
P (A) = × × = .
10 9 8 120

19
Définition 2.3. Une suite finie ou non (Bn )n∈I⊆N d’événements de Ω est appelée une
partition de Ω si les Bn sont deux à deux disjoints et si leur réunion est égale à Ω.

On a alors le théorème :

Théorème 2.4. (Principe des probabilités totales)


Soit (Ω, A, P ) un espace probabilisé, soit (Bn )n∈I⊆N une partition telle que P (Bn ) > 0 pour
tout n ∈ I et soit A ∈ A.
On a : X
P (A) = PBn (A)P (Bn ).
n∈I

Preuve.
P (A) = P (A ∩ Ω) = P (A ∩ ∪n∈I Bn )
=PP(∪n∈I (A ∩ Bn )) P
= n∈I P (A ∩ Bn ) = n∈I PBn (A)P (Bn ).

Remarque : Quand n = 2, on obtient en particulier :

P (A) = PB (A)P (B) + PB c (A)P (B c ).

Exemple On effectue des tirages sans remise dans un sac contenant 3 boules blanches et 7
boules noires.
Quelle est la probabilité d’obtenir une boule noire au deuxième tirage ?

Le premier tirage a donné soit une boule blanche soit une boule noire, donc :

P (N2 ) = P (B1 )PB1 (N2 ) + P (N1 )PN1 (N2 )

On a
3 7
P (B1 ) = , et P (N1 ) = .
10 10
À l’issue du premier tirage, le sac ne contient que 9 boules dont 7 noires si B1 a été réalisé
et 6 boules noires si c’est N1 qui a été réalisé. Donc :
7 6
PB1 (N2 ) = et PN1 (N2 ) =
9 9
D’où :
3 7 7 6 7
P (N2 ) = × + × = .
10 9 10 9 10
Théorème 2.5. (Formule de Bayes) Soit (Ω, A, P ) un espace probabilisé, soit (Bk )nk=1 une
partition de Ω telle que P (Bk ) > 0, pour tout k ∈ {1, ..., n} :

PB (A)P (Bk )
PA (Bk ) = P k
n PBn (A)P (Bn )

Preuve. On a :
X
PBk (A)P (Bk ) = PA (Bk )P (A) = PA (Bk ) PBn (A)P (Bn ).

20
Interprétation : Soient (Bk )nk=1 une partition de Ω.
A chacun des événements (Bk ) correspond une information initiale qui permet d’évaluer a
priori (en partant de ce qui précéde) les probabilités P (B1 ), P (B2 ),...,P (Bn ).
Soit A un événement quelconque pour lequel on connaı̂t a priori les probabilités condition-
nelles PB1 (A), PB2 (A),..., PBn (A).
Le théorème de Bayes permet de calculer les probabilités conditionnelles a posteriori( en
partant de ce qui vient) PA (Bk ) à partir des probabilités a priori les P (Bk ) et les PBk (A).

Exemple : Reprenons l’exemple précédent et effectuons deux tirages. Le second tirage ayant
donné une boule blanche, quelle est la probabilité que la première boule tirée ait été blanche ?
Cherchons PB2 (B1 ) :
PB2 (B1 ) = P (B 2 ∩B1 )
P (B2 )
P (B1 )PB1 (B2 )
= P (B1 )PB1 (B2 )+P (N1 )PN1 (B2 )
3
× 29
= 3
10
× + 7 ×3
2 = 29 .
10 9 10 9

♣ Exercice : Une entreprise utilise trois machines différentes A, B, et C pour fabriquer


des pièces. 40% sont fabriquées par A, 30% par B et 30% par C. La machine A produit 2%
de pièces défectueuses, B 4% et C 5%.

1. On prélève une pièce au hasard. Quelle est la probabilité qu’elle soit défectueuse ?
2. On prélève une pièce. Elle est défectueuse. Quelle est la probabilité qu’elle vienne de
A?
3. On prélève une pièce. Elle est saine. Quelle est la probabilité qu’elle vienne de C ?

Solution :
Soit A : ”être fabriqué par A”, B : ” être fabriqué par B”,...
D : ” être défectueuse” et D : ”saine”.
On a
P (A) = 0.4, P (B) = 0.3, P (C) = 0.3.
A, B et C sont tels que A ∩ B = A ∩ C = B ∩ C = ∅ et A ∪ B ∪ C = Ω.
1) En applicant la formule des probabilités totales on a :

P (D) = PA (D)P (A) + PB (D)P (B) + PC (D)P (C)


= 0.02 × 0.4 + 0.04 × 0.3 + 0.05 × 0.3 =

2) D’après le théorème de Bayes,


PA (D)P (A) 0.02 × 0.4
PD (A) = = .
P (D) P (D)
3)
PC (D)P (C) 0.95 × 0.3
PD (C) = = .
P (D) 1 − P (D)

2.3 Indépendance d’événements et de sous-tribus.


2.3.1 Indépendance d’événements
Parfois, A et B sont tels que PB (A) = P (A). Autrement dit le fait de savoir que B est réalisé
ne donne aucune information supplémentaire sur le fait de savoir que A l’est. Cela conduit
à la :

21
Définition 2.6. Soit (Ω, A, P ) un espace probabilisé.
1. Deux événements A et B sont dits indépendants si :

P (A ∩ B) = P (A)P (B).

2. Une suite finie (Ai )i∈{1,2,...,n} d’événements est dite mutuellement indépendante si,
pour toute partie non vide I ⊂ {1, 2, ..., n}, on a
Y
P (∩i∈I Ai ) = P (Ai )
i∈I

3. Une suite finie ou non (Ai ) d’événements est dite indépendante deux à deux si, on a

P (Ai ∩ Aj ) = P (Ai )P (Aj ), ∀i 6= j.

Remarques :

1. L’indépendance mutuelle implique évidemment l’indépendance deux à deux. Mais at-


tention, si n ≥ 3, la réciproque est fausse.
Exemple : Soit Ω = {1, 2, 3, 4} avec P ({1}) = P ({2}) = P ({3}) = P ({4}) = 14 .
Les événements A = {1, 2}, B = {1, 3} et C = {1, 4} sont deux à deux indépendants
(On a : P (A ∩ B) = P (A)P (B) = 14 , P (A ∩ C) = P (A)P (C) = 14 et P (C ∩ B) =
P (C)P (B) = 14 ).
Mais pas mutuellement indépendants ( P (A ∩ B ∩ C) = 14 6= 18 = P (A)P (B)P (C)).

2. La notion d’indépendance dépend de la probabilité considérée. On peut imaginer un


espace mesurable (Ω, A), sur lequel existent deux probabilités P et Q telles que les
événements A et B soient indépendants sous P et pas sous Q. (Voir série d’exercice
no 2).
♠ Attention : Ne confondez pas ”événements indépendants et événements disjoints” ! ! Par
exemple, A et Ac sont disjoints et ne sont pas indépendants : si on sait que A est réalisé, on
est sûr que Ac n’est pas réalisé.

P (A ∩ Ac ) = P (∅) = 0.

Et
P (A)P (Ac ) = P (A)(1 − P (A)) 6= 0 en général.
♣ Exercice Soit A et B deux événements. Montrer que si A et B sont indépendants, alors
Ac et B (resp. A et B c , Ac et B c ) sont indépendants.

2.3.2 Indépendance de sous-tribus


Définition 2.7. Deux sous tribus G et G 0 de A sont indépendantes si

∀A ∈ G, ∀A0 ∈ G 0 , P (A ∩ A0 ) = P (A)P (A0 ).

i.e. tout événement de G est indépendant de tout événement de la tribu G 0 .


Exemple : Soit Ω = {ω1 , ω2 , ω3 , ω4 }, et A = P(Ω)
On pose :
G = {∅, Ω, {ω1 , ω2 }, {ω3 , ω4 }},

22
et
G 0 = {∅, Ω, {ω1 , ω3 }, {ω2 , ω4 }}.
Alors G et G 0 sont deux sous tribus de A indépendantes.
♣ Exercice : Si deux tribus A1 et A2 sur (Ω, A, P ) sont indépendantes et ayant un élément
commun A, on a :
P (A) = 0 ou 1.
On a :
P (A ∩ A) = P (A)2 = P (A).
D’où
P (A) = 0 ou 1.

2.4 Application : Apparition d’un pile dans un schéma de Ber-


noulli
On considère une suite infinie de lancers de pile ou face indépendants ; on suppose qu’à
chaque lancer on a une probabilité p ∈]0, 1[ d’obtenir pile. Montrer qu’avec probabilité 1, face
va apparaitre dans la suite de lancers.

On note An l’événement 00 pile apparait au n-ième lancer 00 . On sait par les hypothèses
que les (An )n∈N∗ sont indépendants et que P (An ) = p > 0 pour tout n.
On note A l’événement 00 pile apparait au mois une fois 00 . Alors

Ac = ∩n≥1 Acn

et donc, pour tout N ∈ N∗ ,


N
Y
c
P (A ) ≤ P (∩N c
n=1 An ) = P (Acn ) = (1 − p)N
n=1

qui tend vers 0 quand N tend vers l’infini.


Donc,
P (Ac ) = 0.
Par suite,
P (A) = 1.

23
2.5 Résumé du deuxième chapitre
1. Ce qui concerne les probabilités conditionnelles
Probabilité sachant B : si PB (A) = P P(A∩B)
(B) .
Partition de Ω : (B1 , B2 , ..., Bn ) est une partition de Ω si

Ω = ∪ni=1 Bi

et si Bi ∩ Bj = ∅ chaque fois que i 6= j (càd que les Bi sont deux à deux disjoints).
Principe des probabilités totales : si (B1 , B2 , ..., Bn ) est une partition de Ω telle
que P (Bi ) > 0 pour tout i, on a :
n
X
P (A) = PBi (A)P (Bi ).
i=1

Formule de Bayes : si (B1 , B2 , ..., Bn ) est une partition de Ω telle que P (Bi ) > 0
pour tout i, on a :
PBk P (Bk )
PA (Bk ) = Pn .
i=1 PBi (A)P (Bi )
2. Ce qui concerne l’indépendance
Dans un espace probabilisé (Ω, A, P ), deux événements A et B sont indépendants si :

P (A ∩ B) = P (A)P (B).

L’indépendance de deux événements dépend de la probabilité choisie.


Généralisation Des événements (Ai )i∈I sont mutuellement indépendants si, pour
toute partie J ⊂ I, on a Y
P (∩i∈J Ai ) = P (Ai ).
i∈J

Cette notion est plus forte que l’indépendance deux à deux. Par exemple, il peut arriver
que trois événements A, B et C soient deux à deux indépendants, mais ne vérifient
pas la condition supplémentaire P (A ∩ B ∩ C) = P (A)P (B)P (C) pour l’indépendance
mutuelle.

24
2.6 Exercices

Exercice 1. (Formule du crible de Poincaré )


(Ω, P(Ω), P ) est un espace de probabilité. A1 , A2 ,...An sont n événements.
Montrer , par récurrence, que :
n
[ n
X X n
\
k+1 n+1
P( Ai ) = P (Ai ) + ... + (−1) P (Ai1 ∩ ... ∩ Aik ) + ... + (−1) P( Ai ).
i=1 i=1 1≤i1 <...<ik ≤n i=1

Application : (Problème des chapeaux).


Cinq personnes ont accroché leur chapeau au porte-chapeau en entrant au restaurant. Après
le repas, elles récupèrent leur chapeau au hasard. On convient de numéroter les personnes de
1 à 5.
Pour i ∈ |[1, 5]|, on note Ai l’événement : ”la personne numéro i repart avec son chapeau”,
et A l’événement ”Aucune personne ne repart avec son chapeau”.
1. Quel univers peut-on associer à cette expérience aléatoire ?
2. Calculer les probabilités P (Ai ) et P (Ai ∩ Aj ), pour i 6= j.
3. Calculer P (A).
Exercice 2.
Dans une usine on dispose de 3 machines A, B, C fabriquant des pièces mécaniques d’un
type déterminé. La machine A assure 25% de la production, la machine B assure 35% et C
en assure 40%.
5% des pièces fabriquées à l’aide de la machine A sont défectueuses. Les pourcentages sont
respectivement égaux à 4% et 2% pour les machines B et C.
1) On tire une pièce au hasard quelle est la probabilité qu’elle soit défectueuse ?
2) On tire une pièce d’un lot constitué de pièces fabriquées, dans les proportion indéquées, par
les machines A, B et C. On constate que cette pièce est défectueuse. Calculer la probabilité
qu’elle ait été fabriquée :
- par la machine A
- par la machine B
3) On tire une pièce au hasard. Elle est saine. Quelle est la probabilité qu’elle vienne de C.

Exercice 3.
Un test sanguin a une probabilité de 0.95 de détecter un certain virus lorsque celui ci est
effectivement présent. Il donne néanmoins un faux résultat positif pour 1% des personnes
non infectées. Notons V = {la personne testée a le virus}, T = {la personne testée a un test
positif}.
1. Si 0.5% de la population est porteuse du virus, quelle est la probabilité qu’une personne
ait le virus sachant qu’elle a un test positif ?

2. Interpréter le résultat.

Exercice 4.
T
1. Soit n ≥ 2, Etablir que, si (A1 , ..., An ) est une suite d’événements telle que P ( ni=1 Ai ) >
0, alors
\n Yn
P ( Ai ) = P (A1 ) P∩i−1 Ak (Ai ).
k=1
i=1 i=2

25
(Indication : On pourra raisonner par rucurrence sur n).

Exercice 5.
Un sac contient initialement une boule blanche et une boule noire. On réalise indéfiniment
l’expérience suivante : on tire une boule, on regarde sa couleur, on la remet dans le sac
et on rajoute une nouvelle boule de la même couleur que celle obtenue.
Notons X le nombre de tirage(s) nécessaire(s) avant d’obtenir une boule noire, avec la
convention X = 0 si on ne tire jamais de boule noire.
Notons Bi l’événement “On obtient une boule blanche au ieme tirage”.

a. Montrer que {X = 1} = B1c et que {X = n} = B1 ∩ B2 ∩ ... ∩ Bn−1 ∩ Bnc pour n ≥ 2.

b. Que vaut la probabilité de Bnc sachant B1 ∩ B2 ∩ ... ∩ Bn−1 ?

c. Calculer, pour i ∈ {2, ..., n − 1}, la probabilité de Bi sachant B1 ∩ B2 ∩ ... ∩ Bi−1 .

d. À l’aide de la question 1) (en choisissant Ai = Bi si i < n et An = Bnc ),


1
montrer que P (X = n) = n(n+1)
Qn−1 i 2×3×...×(n−1)
(On remarquera que i=2 i+1 = 3×...×(n−1)×n = n2 )
1
e. En remarquant que n(n+1) = n1 − n+1
1
, montrer que

+∞
X
(X = n) = 1.
n=1

f. Que vaut P (X = 0) ? Interpréter le résultat.


Exercice 6.
1) Soient A et B deux événements. Montrer que si A et B sont indépendants, alors Ac et B
(resp. A et B c , Ac et B c ) sont indépendants.
2) Pour montrer que l’indépendance n’est pas une propriété intrinsèque des événements et
qu ’elle dépend de la probabilité considérer, on choisit Ω = {1, 2, 3, 4, 5, 6} muni de la tribu
P(Ω).
Soit P1 et P2 les probabilités définies sur (Ω, P(Ω)) par :
i 1 2 3 4 5 6 i 1 2 3 4 5 6
et
P1 ({i}) 16 16 13 19 19 19 P2 ({i}) 16 16 16 16 16 16

On pose A = {1, 2} et B = {2, 3}.


T
1) Pour i=1, 2, calculer Pi (A), Pi (B) et Pi (A B).
2) Conclure.

Exercice 7. Pour juger de l’éfficacité d’une compagne publicitaire ayant porté sur un produit,
on a sondé 1500 personne ; 1000 dans la région du Nord et 500 dans la région du sud. Les
résultats sont :

Région C. p. et le consomment C.p. ne le consomment pas Ne connaissent pas le produit


Nord 80 150 770
Sud 50 130 320

Calculer les probabilités suivantes :


1. Probabilité de connaı̂tre le produit.

26
2. Probabilité de connaı̂tre le produit et le consommer.
3. Probabilité de connaı̂tre le produit et ne pas le consommer.
4. Probabilité d’être du nord.
5. Quelle est la probabilité pour qu’une personne qui connaisse le produit soit consom-
matrice de ce produit ?
6. Quelle est la probabilité pour qu’une personne prise au hasard du sud ne connaisssent
pas le produit ?

Exercice 8.
guerre passe au-dessus de trois batteries antiaériennes. Chaque batterie a une chance sur trois
d’abattre l’avion. Quelle est la probabilité que l’avion soit abattu ?

Exercice 9.
Une usine s’adresse à deux fournisseurs A et B pour l’approvisionnement d’un composant
électronique. Le contrôle de conformité efféctué sur un échantillon aléatoire de composants
électroniques a donné la répartition suivante des pourcentages de défauts :
Fournisseur\ Répartition du nb de défauts 0 défauts 1 défauts 2 défauts
A 60 % 35% 5%
B 65% 25% 10%

Sachant que 70% des composants sont achetés à A et 30% à B.


1) Calculer la probabilité pour qu’un composant ne présente aucun défaut.
2) Calculer la probabilité pour qu’un composant tiré aÃléatoirement et ne présente aucun dédaut
provient de B.

Exercice 10.
Dans cet exercice on étudie une maladie rare qui atteint, disons 1 individu sur 1000 ( par
exemple la maladie de la vache foulle). On met au point un test pour détecter si un individu
est infecté par la maladie. Lorsqu’un individu est malade, le test a une prbabilité de 0.99 de
se révéler positif. Si un individu n’est pas porteur de la maladie, le test a une probabilité 0.98
de l’identifier comme tel.
On teste un individu est le rérultat est positif.
1) Quelle est la probabilité que l’individu ainsi testé soit effectivement infecté ?
2) Déduire que si on applique un tel test pour dépister la maladie de la vache foulle et qu’on
abat les vaches testées positives, on va déclencher un massacre inutile.

Exercice 11.
On considère n “ menteurs” I1 ,..., In . I1 reçoit une information sous la forme de “ oui” ou
“non”, la transmet à I2 , et ainsi de suite jusqu’à In et In l’annonce au monde. Chacun d’eux
transmet ce qu’il a entendu avec la probabilité p ∈]0, 1[, le contraire avec la probabilité 1 − p.
Les réponses des n personnes sont indépendantes.
On note Ak = “Ik transmet l’information initiale”, Bk = “Ik transmet ce qu’il a entendu” et
pk = P (Ak ).
1. a. Montrer que, pour tout k = 2, ..., n , Ak = (Ak−1 ∩ Bk ) ∪ (Ack−1 ∩ Bkc )
1. b. En déduire que, pour tout k = 2, ..., n, pk = 1 − p + (2p − 1)pk−1 .
2. Montrer que la suite (uk ) définie par uk = pk − 21 est géométrique1 de raison 2p − 1.
En déduire une formule explicite pour un puis pour pn .
3. Quelle est la limite de pn quand n −→ ∞ ? interpréter le résultat.

27
1
Rappel : Une suite (xk ) est géométrique de raison q si, pour tout k ∈ N, xk+1 − qxk = 0. Dans ce cas, on
a la formule explicite xn = x0 q n valable pour tout n ∈ N.

28
Chapitre 3

Les variables aléatoires

3.1 Introduction
Soit Ω l’univers associe à une expérience aléatoire. Il est parfois intéressant d’associer à
chaque ω un nombre réel, par exemple la somme des points obtenus lorsqu’on jette deux dés.
On est donc amené à étudier des applications de Ω dans R qui sont sous certaines conditions
appelées variables aléatoires réelles.

3.2 Variables aléatoires


Définition 3.1. Soit (Ω, A) et (E, B) deux espaces probabilisables. On appelle variable
aléatoire toute application X de Ω dans E telle que :
∀B ∈ B, X −1 (B) ∈ A
avec
X −1 (B) = {ω ∈ Ω/X(ω) ∈ B}.
On dit aussi que X est une application (A, B)−mesurable.
Exemple :
1. Si A = P(Ω) ou B = {∅, E}, alors toute application : X : Ω −→ E est une v.a.
2. Fonction indicatrice d’un événement. Soit (Ω, A) un espace mesurable et A un élément
de A. On définit la fonction indicatrice de A, notée 1A :
½
1 si ω ∈ A,
∀ω ∈ Ω, 1A (ω) =
0 sinon
alors 1A est une v. a. de (Ω, A) dans ({0, 1}, P({0, 1})).
3. Toute application continue de (R, BR ) est une v. a.

♣ Exercice : On lance deux dés équilibrés et on note X la somme des deux résultats. Décrire
un espace de probabilité correspondant à cette expérience aléatoire et définir précisément X.

3.3 Probabilité image et loi d’une variable aléatoire


Proposition 3.2. Soit (Ω, A, P ) un espace probabilisé, (E, B) un espace probabilisable et
X : Ω −→ E une v.a. A toute élément B de B, on peut associe le nombre
P (X −1 (B)) = P ({ω ∈ Ω/ X(ω) ∈ B}) = P (X ∈ B)

29
et l’application
PX : B −→ [0, 1]
B 7−→ PX (B) = P (X −1 (B)) = P (X ∈ B)
définit une probabilité sur (E, B), appelée loi de X ou loi image de P par la variable
aléatoire X.
Preuve. Vérifions les trois axiomes des probabilités :
i) Il est clair que PX est à valeur dans [0, 1].
ii) PX (E) = P (X −1 (E)) = P (Ω) = 1.
iii) Si (Bi )i∈N est une suite d’événements deux à deux disjoints, on a :
PX (∪∞
i=1 Ai ) = P (X
−1 (∪∞ A ))
i=1 i
=PP (∪i=1 X −1 (Ai )) (car X −1 (∪∞
∞ ∞
i=1 Ai ) = ∪i=1 X
−1 (A ))
i
= Pi∈N P (X (Ai ) (car Les (X (Ai )i∈N sont 2 à 2 disjoints)
−1 −1

= i∈N PX (Ai ).

♠ Attention : Ne pas confondre la variable aléatoire avec sa loi. Considérons un dé bleu et
un dé rouge, et notons Xb , respectivement Xr , le résultat du lancer du bleu, respectivement
rouge. Alors P (Xb 6= Xr ) > 0 ( En effet ;
6
[ 6 1
P (Xb = Xr ) = P ( (Xb , Xr ) = (k, k)) = = .
36 6
k=1
5
Donc P (Xb 6= Xr ) = 6 ).
Donc les variables aléatoires Xb et Xr sont différentes ; par contre,
elles ont la même loi.
Exemple :
On tire, avec remise chaque fois, deux boules d’un sac contenant 3 boules numérotées de 1
à 3.
Soit X la v.a. : ”Somme des points obtenus”. On a :
Ω = {1, 2, 3}2 et card(Ω) = 32 = 9. On a aussi :
X(Ω) = {2, 3, 4, 5, 6}.
D’où :
{X = 2} = {(1, 1)}, P (X = 2) = 19 .
{X = 3} = {(1, 2), (2, 1)}, P (X = 3) = 29 .
{X = 4} = {(1, 3), (3, 1), (2, 2)}, P (X = 4) = 39 = 13 .
{X = 5} = {(2, 3), (3, 2)}, P (X = 5) = 29
{X = 6} = {(3, 3)}, P (X = 6) = 19 .
On peut représenter les résultats sous forme d’un tableau :

xi 2 3 4 5 6
1 2 3 2 1
P (X = xi ) 9 9 9 9 9
On vérifie que
1 2 3 2 1
+ + + + =1
9 9 9 9 9
Remarque : La loi de X est déterminer par X(Ω) et des valeurs
pi = P (X = xi ) = PX ({xi }).
Pn
Autrement dit, la loi de X est l’ensemble des (xi , pi ) tels que pi ≥ 0 et i=1 pi = 1.

30
3.4 Cas des variables aléatoires réelles
Quand l’espace d’arrivée E d’une v. a. X est une partie de R, On dit que X est une v.
a. réelle.

3.4.1 Fonction de répartition


Définition 3.3. Soit X une v. a. r. définie sur l’espace de probabilité (Ω, P ). La fonction
FX définie sur R par :

FX (x) = PX (] − ∞, x]) = P (X −1 (] − ∞, x])) = P (X ≤ x),

est appelée la fonction de répartition de X.

La fonction de répartition FX d’une v. a. r. X vérifie les propiétés suivantes :

Proposition 3.4. 1. 0 ≤ FX ≤ 1, limt−→−∞ FX (t) = 0 et limt−→+∞ FX (t) = 1.


2. FX est croissante
3. FX est continue à droite avec des limites à gauche (càdlàg).
4. pour tout x ∈ R, on a : en notant F (x− ) = limε−→0 F (x − ε) la limite à gauche :

P (X = x) = FX (x) − F (x− ).

Preuve.
1. L’encadrement 0 ≤ FX ≤ 1 vient du fait que P est à valeurs dans [0, 1].
On a :
∅ = ∩n∈N∗ {X ≤ −n}
et d’après la propriété de la continuité monotone, on a

0 = P (∅) = lim P (X ≤ −n) = lim FX (−n) = lim FX (n).


n−→+∞ n−→+∞ n−→−∞

Tandis que :
[
Ω= (X ≤ n) (d’après la propriété d’Archimid),
n∈N
Par suite :
1 = P (Ω) = lim P (X ≤ n) = lim FX (n)
n−→+∞ n−→+∞

2. La croissance découle de la croissance de P .


3. Montrons que limn−→+∞ FX (x + n1 ) = FX (x).
On a :
1 1
FX (x + ) = PX (] − ∞, x + ]).
n n
La suite des événements An =] − ∞, x + n1 ] est ↓ et

1
] − ∞, x] = ∩+∞
n=1 ] − ∞, x + ].
n
1
(En effet, pour tout y ∈] − ∞, x], on a y ≤ x ≤ x + n pour tout n et donc

1
y ∈ ∩] − ∞, x + ].
n

31
Réciproquement, tout y dans cette intersection vérifié : ∀n ∈ N∗ , y ≤ x + n1 . Le passage
à la limite qd n tend vers l’infini conservant cette inégalité large.
On en déduit y ≤ x i.e. y ∈] − ∞, x].)
D’après la propriété de la croissance monotone,

FX (x) = PX (] − ∞, x]) = P (∩] − ∞, x + n1 ])


= limn−→+∞ P (] − ∞, x + n1 ])
= limn−→+∞ FX (x + n1 ).

La limite à gauche est également une conséquence de la croissance de FX (Exercice.)


(Ind. écrire ∪n ] − ∞, x − n1 ] =] − ∞, x[ et FX (x− ) = PX (] − ∞, x[)).
4. On remarque que pour tout x ∈ R et tout n ∈ N∗ :
1 1 1
PX (]x − , x]) = PX (] − ∞, x]) − PX (] − ∞, x − ]) = FX (x) − FX (x − ).
n n n
Or,
1
{x} = ∩n∈N∗ ]x − , x].
n
Ce qui donne :
1
P ({x}) = lim PX (]x −
, x]).
n−→+∞ n
Remarque : On peut démontrer que deux variables aléatoires X et Y ont la même fonction
de répartition ssi elles ont la même loi. Autrement dit :

PX = PY ⇐⇒ FX = FY .

En pratique : On retrouve la probabilité des intervalles à partir de la fonction de répartition


de la façon suivante : Soit P une probabilité sur (R, BR ), et F sa fonction de répartition,
alors pour tous a < b :

P (]a, b]) = F (b) − F (a)


P ([a, b]) = F (b) − F (a− )
P (]a, b[) = F (b− ) − F (a)
P ([a, b[) = F (b− ) − F (a− )
P ({a}) = F (a) − F (a− )
Démonstration : La première propriété est claire par définition de la fonction de répartition.
Montrons la deuxième : on a
1
[a, b] = ∩n≥1 ]a − , b].
n
Par limite décroissante, on obtient :
1
P ([a, b]) = lim P (]a − , b]).
n−→+∞ n
Mais,
1 1
P (]a − , b]) = F (b) − F (a − )
n n
et
1
lim F (a − ) = F (a− ),
n−→∞ n
ce qui prouve le résultat.

32
♣ Exercice : Montrer les autres inéglités.

Exemple : Considérons l’exemple précédent. On a :

X(Ω) = {2, 3, 4, 5, 6}

On a :
xi 2 3 4 5 6
1 2 3 2 1
P (X = xi ) 9 9 9 9 9
Déterminons la fonction de répartition de X :

FX (x) = P (X ≤ x).

• Si x < 2, on a (X ≤ x) = ∅ =⇒ FX (x) = 0.
• Si 2 ≤ x < 3, on a (X ≤ x) = (X = 2) =⇒ FX (x) = P (X = 2) = 19 .
• Si 3 ≤ x < 4, on a (X ≤ x) = (X = 2) ∪ (X = 3), de plus les événements (X = 2) et
(X = 3) sont disjoints =⇒ FX (x) = P (X = 2) + P (X = 3) = 91 + 92 = 13 .
• Si 4 ≤ x < 5 , on a : FX (X) = 19 + 29 + 39 = 23 .
• Si 5 ≤ x < 6, on a Fx (x) = 23 + 29 = 89 .
• Si x ≥ 6, on a FX (x) = 1.

Fig. 1 -Fonction de répartition F de la v.a. X

3.5 Lois discrètes et lois continues


3.5.1 Lois discrètes
Définition 3.5. On dit qu’une v.a. X est discrète si elle prend ses valeurs dans un ensembles
fini ou dénombrable.

X(Ω) = {xi ∈ R/i ∈ I} avec I = N ou Z ou une de leurs parties finies.

Dans ce cas, connaitre la loi de probabilité de X, c’est connaitre les probabilités élémentaires :

∀xi ∈ X(Ω) : P (X = xi ) = pi .
P
Remarque : Il est toujours utile de vérifier que pi ≥ et i∈I pi = 1.

33
♣ Exercice : Soit X une v.a. réelle dont la loi est définie par :

xi -1 1 2
1 1 1
pi 4 2 4

Déterminer la loi de Y = 2X + 1 et de Z = X 2 .
Solution :
On a l’univers image de Y est {−1, 3, 5}.
1
P (Y = −1) = P (X = −1) = .
4
1
P (Y = 3) = P (X = 1) = .
2
1
P (Y = 5) = P (X = 2) = .
4
De même , l’univers image de Z est {1, 4}. On a :
3
P (Z = 1) = P (X = −1) + P (X = 1) = .
4
1
P (Z = 4) = P (X = 2) = .
4
Remarques :
1. Soit X une v.a. de Ω dans {x1 , x2 , ..., xn }.
La fonction de répartition vérifie :
• x ∈] − ∞, x1 [, FX (x) = P (∅) = 0,
• x ∈ [x1 , x2 [, FX (x) = P (X ≤ x) = FX (x1 ) = P (X = x1 ) = p1 .
..
.
• x ∈ [xi , xi+1 [, FX (x) = p1 + p2 + ... + pi ( car {X ≤ x} = {X = xi ou X =
xi−1 ou ....ou X = x1 }).
• X ≥ xn , FX (x) = 1 = P (Ω).
2. Dans le cas discret, comme

FX (xi ) − FX (xi−1 ) = pi = P (X = xi ).

Si on connait la fonction de répartition, on peut reconstruire la loi de X par différence


successives.
Exercice : Soit (a, b) ∈ N∗2 ; a < b ; X est une variable aléatoire discrète de Ω dans N ∗
telle que :
∀x ∈ |[1, ab]| ; P (X = x) = a1 − 1b et P (X = x) = 0 ailleurs.
1) Déterminer une CNS sur a et b pour que les relations précédentes définissent effecti-
vement une loi de probabilité.
2) Dans ces conditions, tracer la représentation graphique de la fonction de répartition
FX de X.

3) Calculer la probabilité pour que X ∈ |[a, a+b


2 ]|.

3.5.2 Lois continues


Quand la v. a. r. X prend ses valeurs dans un intervalle de R, ou dans une réunion
d’intervalles de R, on dit que X est une variable aléatoire continue.

34
Définition 3.6. On dit qu’une v. a. r. X admet une densité s’il existe une fonction positive

fX : R −→ R

telle que, pour tout intervalle [a, b] de R, on a


Z b
PX ([a, b]) = P (X ∈ [a, b]) = fX (t)dt.
a

Faisons quelques remarques concernant cette notion :

1. Une densité fX est positive et vérifie


Z +∞
fX (t)dt = 1.
−∞
Réciproquement toute fonction vérifiant ces deux conditionsR b est la densité d’une v.a.r.
(on définit la v.a. dont la loi est donnée par P ([a, b]) = a fX (t)dt)
2. Par définition même, on a
Z x
FX (x) = fX (t)dt.
−∞

Par conséquent, si la fonction fX est continue ( ou continue par morceaux), on a :

(FX )0 = fX .

On passe donc facilement de la fonction de répartition à la fonction densité et vice-


versa.

3.6 Les lois usuelles au programme


Dans toute la suite du chapitre, on fixe un espace probabilisé (Ω, A, P ), on désigne par X
une v. a. réelle sur (Ω, A).

3.6.1 Le cas fini


3.6.2 La loi uniforme discrète
Définition 3.7. La v.a.r. X suit la loi uniforme sur {a1 , a2 , ..., an } si X(Ω) = {a1 , a2 , ..., an }
et
1
PX ({ai }) = , 1 ≤ i ≤ n.
n
Autrement dit, PX est l’équiprobabilité sur {a1 , a2 , ..., an }.
Dans ce cas, on note X ∼ U{a1 ,a2 ,...,an } .

Exemple : On jette un dé non truqué et on note X le résultat obtenu. On a :

X ∼ U{1,2,...,6} .

35
3.6.3 La loi de Bernoulli
Définition 3.8. La v. a. r. X suit la loi de Bernoulli de paramètre p ∈ [0, 1] si elle ne prend
que deux valeurs 0 et 1 avec :

P (X = 1) = p, P (X = 0) = 1 − p = q.

Dans ca cas, on note X ∼ B(p).

Exemple : On jette une pièce de monnaie qui tombe sur pile avec la probabilité p et on
définit X par X = 1 si on tombe sur pile et X = 0 sinon. X est une v. a. de Bernoulli.

Remarques :
1. Si X ∼ B(p), on peut toujours écrire

X = 1A , avec A = {ω ∈ Ω/X(ω) = 1}.

càd que la v. a. de Bernoulli est une v. a. indicatrice : elle indique la réalisation


éventuelle de l’événement de probabilité p.
2. Les v. a. de Bernoulli sont naturellement associées à une expérience aléatoire qui a
deux issues possibles : blan ou noir, pile / face, succès / échec, pièce correcte / pic̀e
défectueuse, oui / non,....

3.6.4 La loi binomiale


Définition 3.9. La v. a. r. X suit la loi binomiale de paramètre n et p (n ∈ N∗ et p ∈ [0, 1])
si l’ensemble des valeurs possibles est X(Ω) = {0, 1, 2, ..., n} et

P (X = k) = Cnk pk (1 − p)n−k , ∀k = 0, 1, ..., n.

Dans ce cas, on note X ∼ B(n, p).


Remarques :
1. La formule ci-dessus définit bien une loi de probabilité puisque les Cnk pk (1−p)n−k sont
positifs et
Xn
Cnk pk (1 − p)n−k = (p + (1 − p))n = 1n = 1.
k=0

2. Les v. a. binomiales sont naturellement associées à la répétition de n expériences


identiques et indépendantes de Bernoulli à deux issues possibles : succès ou échec.
On s’intéresse au nombre X de succès obtenus au cours de la réalisation de n expériences
aléatoires identiques et indépendantes.
On introduit (ε1 , ε2 , ..., εn ) la suite des résultats de ces n expériences :
½
1 si le résultat de la i-ième expérience est S, i = 1, ..., n
εi =
0 Sinon.
P
Il est évident que X = ε1 + ... + εn = ni=1 εi .
Montrons que X ∼ B(n, p).

- Les valeurs possibles de sont {0,1,2,...,n}.

36
- Le nombre de ω tels que X(ω) = k est le nombre de suites de longueur n, formées
de k lettres S et (n − k) lettres E. Si la place de S est fixée, celle de E l’est aussi.
Ce qui revient à choisir k place parmi n soit Cnk .
D’où
P (X = k) = Cnk pk (1 − p)n−k , ∀k = 0, 1, ..., n.
Par exemple, si n = 5 , k = 3 et et ω0 = (S, E, E, S, S). On a choisi ω0 tel que
X(ω0 ) = 3. Les résultats sont indépendantes :

P ({ω0 }) = p(1 − p)(1 − p)pp = p3 (1 − p)2 .

Plus généralement, la probabilité d’un événement élémentaire vaut :

P ({ω}) = pk (1 − p)n−k .

où k désigne le nombre de fois ou l’on a recontré la lettre S dans ω.

♣ Exercice .
Un couple souhaite avoir exactement n enfants (n ∈ N∗ ). On considère qu’à chaque naissance
l’ensemble des possibilités est Ω = {G, F } : G étant l’événement ”avoir un garçon“ et F étant
l’événement ”avoir une fille“, ces 2 événements étant équiprobables.
On considère que les naissances sont indépendantes.
A la ieme naissance, on associe la variable aléatoire discrète Xi de Bernoulli, qui prend la
valeur 1 si G est réalisé, et la valeur 0 sinon. Soit X = X1 + ... + Xn .

1. Dans cette question n = 3.


a. Déterminer la probabilité que parmi ces trois enfants, le couple ait exactement 3
garçons ; exactement 2 garçons ; exactement 2 filles ; exactement 3 filles.
b. Déterminer la fonction de répartition de X.
2. Déterminer la plus petite valeur de n pour que la probabilité de ne pas avoir de garçon
soit < 10−2 .

Solution :

1-a. X ∼ B(3, 12 )
1 3
P (X = 3) = P (X = 0) = , P (X = 2) = P (X = 1) = .
8 8
1-b. La fonction de répartition de X :

x<0 0≤x<1 1≤x<2 2≤x<3 x≥3


1 1 7
F(x) 0 8 2 8 1
2. Dans le cas général X ∼ B(n, n1 ).
1
P (X = 0) =
2n
Cette probabilité est < 10−2 dès que n ≥ 7.

37
3.6.5 Le cas dénombrable
On rappelle qu’un ensemble Ω est dit dénombrable si et seulement si il existe une bijection
de N dans Ω. Un ensemble dénombrable est donc un ensemble dont on peut numéroter les
éléments.

3.6.6 La loi géométrique de paramètre p ∈]0, 1[


Définition 3.10. Soit X une v. a. r.. On dit que X suit la loi géométrique de paramètre p
si et seulement si :
• X(Ω) = N∗ .
• ∀k ∈ N∗ , P (X = k) = p(1 − p)k−1 .
Remarque : Le fait que la somme des probabilités fasse 1 vient de la formule de sommation
des progressions géométriques :

X ∞
X 1
rn converge ⇐⇒ |r| < 1 et alors rn = .
1−r
n∈ N n=0

Exemple : On lance une pièce de monnaie - qui tomble sur pile avec la probabilité p- jusqu’à
ce qu’on tombe sur pile et ci on note X le nombre de lancers effectués, la v. a. X suit la loi
géométrique de paramètre p.
En effet, soit (Xk )k∈N une suite de v. a. de bernoulli indépendante et de même loi B(p)

P (X = k) = P (X1 = 0, X2 = 0, ..., Xk = 1) = (1 − p)k−1 p.

3.6.7 La loi de Poisson de paramètre λ ∈]0, ∞[


Définition 3.11. Soit X une v. a. r.. On dit que X suit la loi Poisson de paramètre λ > 0
si et seulement si :
• X(Ω) = N.
k e−λ
• ∀k ∈ N, P (X = k) = λ k! .
Dans ce cas, on note X ∼ P(λ).

Remarque : Le fait que la somme des probabilités fasse 1 vient de la formule de sommation
de la série exponentielle :
X λn X λn
∀λ ∈ R, converge et = exp(λ).
n! n!
n∈ N n∈ N
Champs d’applications : C’est la loi qu’on obtient en comptant des événements aléatoires
indépendants :
1. Arrivée des particules sur un capteur,
2. Nombre de clients entrant dans un magasin,
3. comptage de voiture sur une route,
4. Etude d’attente dans les réseaux dec communication...
Exemple : On supppose que le nombre de clients entrant dans un magasin un jour donné
est une variable aléatoire de Poisson de paramètre λ = 12. Quelle est la probabilité de ne pas
tomber en dessous de 250 entrées de clients durant un mois de 22 jours ouverables ?

(On suppose que les v. a. comptant le nombre d’entrées de chaque jour sont indépendantes.)

38
Soit X le nombre de clients entrant dans le magasin durant un mois de 22 jours ouverables.
On a X = X1 + X2 + ... + X22 , avec les Xi sont i.i.d. et Xi ∼ P(12).
Donc,
X ∼ P(12 × 22) = P(264).
249
X (264)i
P (X ≥ 250) = 1 − P (X < 250) = 1 − e−264 = 0, 813.
i!
i=0

La loi de Poisson s’obtient par passage à la limite :


Proposition 3.12. Soit (Xn ) une suite de v. a. r. de loi B(n, pn ) avec (pn ) une suite de
[0, 1] vérifiant limn−→∞ npn = λ. On a pour tout k ∈ N :

λk
lim P (Xn = k) = e−λ .
n−→∞ k!
Preuve. On a
P (Xn = k) = Cnk pkn (1 − pn )n−k
n! npn −k (npn )k npn n
= (n−k)!nk
(1 − n ) k! (1 − n )
xn n
De la limite bien connue limn−→∞ (1 + n ) = ex valable qd xn −→n−→∞ x.
On en déduit que :
λk
lim P (Xn = k) = e−λ .
n−→∞ k!

Remarque : En pratique, on remplace la loi binomiale par la loi de Poisson P(np) dès que :
n > 50 et p < 0, 1. Plus p est petit l’approximation est meilleure.

Exemple : Un jeu de tombola comptant 100 billets ait lieu pendant 100 jours. Chaque
tombola ne compte qu’un billet gagnant. Une personne décide de participer au jeu en achetant
un billet par jour. Notons X le nb de fois où elle gagne pendant ces 100 jours. Calculer la
probabilité des événements suivants :

(X = 0), (X = 1), (X = 2), (X = 3).

Soit
1
X ∼ B(100, ) et Y ∼ P(1).
100
D’après la proposition précédente, on ne se retrompe pas beaucoup en approximant la loi de
X par celle de Y .
Voici une comparaison numérique pour les petites valeurs de k.

k 0 1 2 3
P(X=k) 0.3660 0.3697 0.1849 0.0794
P(Y=k) 0.3679 0.3679 0.1839 0.0803
L’intérêt de cette approximation est que les calculs des probabilités liées à la loi de Poisson
sont plus faciles à effectuer.

39
3.6.8 Le cas continu
3.6.9 La loi uniforme continue sur le segment [a, b] :
Définition 3.13. Une v.a.r. x est dite uniforme sur l’intervalle [a, b] (avec b > a) si elle
admet pour densité :
½ 1
1 b−a si a ≤ x ≤ b,
f (x) = 1 (x) =
b − a [a,b] 0 sinon.

Dans ce cas, on note X ∼ U[a,b] .


Remarques :
1) f est clairement mesurable (elle est C ∞ par morceaux), positive, et
Z Z b
1
f (x)dx = dx = 1.
R a b−a

2) Soit [α, β] ⊂ [a, b], on a :


Z β
1 β−α
PX ([α, β]) = P (α ≤ x ≤ β) = dx = .
α b−a b−a
De plus tous les intervalles de même longueur ont même probabilité.
♣Exercice : Calculer la fonction de répartition de la loi U[a,b] .

3.6.10 lois gaussiennes (ou lois normales)


Définition 3.14. Une v. a. r. X est dite gaussienne de moyenne m et de variance σ 2 ∈ R∗+ ,
si elle admet pour densité :
1 (x − m)2
f (x) = √ exp(− )
2πσ 2 2σ 2

Dans ce cas, on note X ∼ N (m, σ 2 ).


Lorsque m = 0, et σ = 1 la v. a. X est dite centée réduite.
Remarques :
1. f est clairement mesurable (elle est C ∞ ), positive, et on peut montrer que l’intégrale
de la densité vaut bien 1- voir TD.
2. Les régions de R à forte probabilité pour N (0, 1) sont les régions où la densité est
élevé.
Si X ∼ N (0, 1) :

P (X ∈ [−3, 3]) = Π(3) − F (−3) = 2Π(3) − 1 = 99, 7%,

avec Π est la fct de répartition de la loi N (0, 1).


3. On ne peut pas calculer la fonction de répartition avec des fonction classiques. On
utilise si nécessaire une table de valeurs.

Champs d’applications : La loi gaussienne est la lois la plus utilisée en théorie des
probabilités et en statistique. Cela est dû au caractéristiques suivantes :
1. Elle permet des développements mathématiques efficaces.
2. Toute l’information est donnée directement par les paramètres m et σ, qui caractérisent
respectivement la valeur moyenne et la dispersion autour de cette valeur moyenne.
3. C’est la loi qu’on obtient naturellement en additionnant un grand nombre de v. a.
indépendantes (voir théorème central limite-ch. 7).

40
4. La plupart des lois de probabilité intervenant dans les tests statistiques comme la loi
χ2 et la loi de student se déduisent de la loi gaussienne par des transformations simples.
n
X
χ2 = Xi2 avec Xi ∼ N (0, 1) et sont indépendantes
i=1

5. Elle présente un grand nombre de phénomènes aléatoires comme les erreurs liées aux
mesures, la fluctuation des prix, la distribution des tailles de personnes choisies au
hasard dans une population donnée, les variations de la longueur des pièces fabriquées
en série, etc...
Exemple : On suppose que la taille des individus suit une loi normale de paramètres m et
σ.
Sachant que 4% des individus mesurent moins de 160 cm et 11% mesurent plus de 180 cm.
Quelle est la valeur de m et σ ?

Solution : On pose :
X −m
Z= .
σ
On a, d’après Exo 11 série no 3, Z ∼ N (0, 1).
D’où :
160 − m 160 − m
P (X ≤ 160) = P (Z ≤ ) = π( ).
σ σ
Or 4% des individus mesurent moins de 160 cm, donc :
160 − m
π( ) = 0, 04.
σ
On a aussi 96% des individus mesurent plus de 160 cm, d’où
m − 160
π( ) = 0, 96.
σ
La table de la loi N (0, 1) donne : m−160
σ = 1, 76.
De même :
180 − m 180 − m
P (X > 160) = P (Z > ) = 1 − π( ).
σ σ
Or 11% des individus mesurent plus de 180 cm, d’où :
180 − m
π( ) = 0, 89.
σ
La table de la loi N (0, 1) donne : 180−m
σ = 1, 23.
D’où le système : ½ ½
m − 160 = 1, 76σ m = 172
=⇒
−m + 180 = 1, 23σ σ = 6, 7.

3.6.11 La loi exponentielle


Définition 3.15. Soit θ > 0
a. La probabilité P sur (R, B, (R)), dont la densité est donnée par

 θ exp(−θx) si x > 0,
f (x) = = θ exp(−θx)1]0,+∞[ (x)

0 sinon
est appelée loi exponentielle de paramètre θ.

41
b. Soit (Ω, F, P ) un espace de probabilité quelconque et X une variable aléatoire de Ω
dans R. On dit que X suit la loi exponentielle de paramètre θ si et seulement si elle
admet pour densité le f défini précédemment.
Remarque 3.1. f est clairement borélienne (elle est C ∞ par morceaux), positive, et
Z Z ∞
f (x)dx = θ exp(−θx)dx = 1.
R 0

♣ Exercice : Montrer que la fonction de répartition de la loi exponentielle est donnée par :

F (x) = (1 − e−θx )1[0,+∞[ (x).

Tracer la courbe de F.

Champs d’applications :
1. La loi exponentielle intervient en fiabilité pour modéliser la durée de fonctionnement
d’un équipement technique : par exemple la durée de vie d’un appareil électrique.
2. Elle intervient dans le domaine de la radioactivité : chaque atome radioactif possède
une durée de vie qui sui une loi exponentielle exp(θ), le paramètre θ s’appelle la
constante de désintégration.
3. Elle intervient aussi pour modéliser le temps séparant les arrivées de deux clients dans
l’étude d’un phénomène d’attente : Le temps d’attente T entre deux arrivées suit une
loi exponentielle de paramètre θ, et on a :

P (T > t) = exp(−θt).

Exemple : La fiabilité globale d’une carte électronique suit une loi exponentielle de paramètre
θ, avec θ = 12.10−6 h−1 . Pour un fonctionnement 24 heures sur 24 pendant 208 jours par an,
donnez la probabilité que cette carte électronique fonctionne encore au bout de ces 208 jours.

On a
t = 24 × 208 = 5000heures.
Soit X la durée de vie de cette carte électronique, on a

P (X > 5000) = exp(−0, 000012 × 5000) = 0, 9418.

càd , la probabilité d’avoir une défaillance pendant la durée de fonctionnement de 5000h est
5, 8%. L’inérêt qu’on porte à cette loi est dû à la :
Proposition 3.16. Soit X une v. a. r. suivant la loi exp(θ), alors X vérifie la propriété
d’absence de mémoire :

∀s ∈ R+ , ∀t ∈ R+ , P (X > t + s/X > t) = P (X > s)

(On parle aussi de la propriété de non vieillissement).

Preuve. On a X ∼ exp(θ), donc


P (X>t+s)
PX>t (X > t + s) = P (X>t)
R +∞
θ t+s e−θx dx
= R +∞
θ t e−θx dx
e−θ(t+s)
= e−θt
= e−θs = P (X > s).

42
Interprétation :
Si X modélise la durée de vie d’un individu A, la propriété que X est sans mémoire exprime
que A ne vieillit pas : si A a vécu t années, la probabilité pour qu’il vive encore s années est
la même que la probabilité pour qu’un individu similaire à A qui vient de naı̂tre vive lui aussi
s années. Autrement dit : La durée de vie au-delà de l’instant t est indépendante de l’instant
t.

3.7 Variables aléatoires indépendantes


Soient X et Y deux variables aléatoires.
a. Cas où X et Y sont discriètes :
Notons {xi } (resp.{yi }) l’ensemble des valeurs prises par X (resp. par Y ).

Définition 3.17. X et Y sont dites indépendantes si, pour tous i et j, on a :

P ({X = xi } ∩ {Y = yj }) = P (X = xi )P (Y = yj ).

b. Cas où X et Y sont à densité.

Définition 3.18. X et Y sont dites indépendantes si, pour tous intrevalles I et J de


R, on a :
P ({X ∈ I} ∩ {Y ∈ J}) = P (X ∈ I)P (Y ∈ J).

43
3.8 Résumé du troisième chapitre

Les lois de probabilités théoriques essaient de décrire des phénomènes aléatoires dans le but
de calculer la probabilité de certains événements et donc d’avoir une certaine représentation
de l’avenir.
I. Lois discrètes :
1. Loi de Bernoulli B(p)
La loi de Bernoulli intervient dans le cas d’une seule expérience aléatoire à laquelle
on associe un événement aléatoire quelconque.
La réalisation de l’événement au cours de cette expérience est appelée succès et la
probabilité de réalisation est dite probabilité de succès, notée par p. Par contre la non
réalisation de l’événement est appelée échec et la probabilité de non réalisation de
l’événement est dite probabilité d’échec, noté par q = 1 − p.

La v. a. X qui caractérise le nombre de succès au cours d’une seule


expérience aléatoire est appelée v.a. de Bernoulli : elle prend les valeurs
dans {0, 1} avec probabilités respectives q et p.
Remarque : La v.a. de Bernoulli est une v.a. indicatrice : elle indique la réalisation
éventuelle de l’événement de probabilité p. Le shéma de Bernoulli est le plus simple
des modèles probabilistes.

2. Loi Binomiale B(n, p)


La loi Binomiale intervient dans le cas de plusieurs (n) expériences aléatoires identiques
et indépendantes auxqelles on associe un événement aléatoire quelconque.
Les probabilités p et q restent constantes au cours de cette suite de n expériences.
La v. a. X qui caractérise le nombre de succès au cours de n expériences
aléatoires indépendantes est appelée variable binomiale : elle prend les va-
leurs dans {0, ..., n}.
La probabilité d’obtenir k succès et donc n − k échecs au cours de n expériences
aléatoires indépendantes est,

P (X = k) = Cnk pk (1 − p)n−k , k = 0, ..., n


Remarque :
– n = : nb d’épreuves.
– k : nb de succès.
– p : probabilité de succès.
Il y a des tables pour éviter de calculer les probabilités d’événements liés à la loi
binomiales.

3. Loi Géométrique G(p)


On se place dans une optique différente. A la base il y a toujours l’epreuve de Bernoulli
qui a deux résultats possibles : événement de probabilité p et l’autre. Mais cette fois
on ne connait pas le nombre d’expériences.
Par exemple : si on lance une pièce de monnaie - qui tombe sur pile avec probabilité
p- jusqu’à ce qu’on tombe sur pile et si on note X le nombre de lancers effectués, la
v.a. X suit la loi de Géométrique de paramètre p : elle prend les valeurs dans
N∗ .
P (X = k) = p(1 − p)k−1 , k ∈ N∗ .

44
4. Loi de Poisson P (m)
La loi de Poisson intervient pour des phénomènes aléatoires dont le nombre de
réalisations varie de 0 à +∞ et dont le nombre moyen de réalisations est connue.
Exemple : nb d’appels reçus par un standard téléphonique, nb d’accidents de la cir-
culation, nb de visiteurs d’un centre commercial...
La variable aléatoire X qui caractérise le nombre de réalisations de ce
phénomène est appelée variable de Poisson : elle prend les valeurs 0,1, ...

e−m mk
P (X = k) = .
k!
Théorème d’approximation Soit X une v.a. vérifiant X ∼ B(n, p), telle que
npn −→ m quand n −→ ∞.

Alors Xn −→ P (m) quand n −→ ∞.


En pratique
n > 50 et p < 0.1
Plus p est petit, meilleure est l’approximation. Pour cette raison la loi de Poisson a été
appelée la loi des phénomènes rares.

II. Lois continues : La loi normale est la loi continue la plus importante et la plus
utilisée dans le calcul de probabilité. (Voir le cours).
X Très important !
Il faut connaı̂tre d’une part toutes les définitions des lois usuelles, mais aussi et surtout
savoir, en pratique, décider si le résultat X de mon expérience aléatoire a pour loi plutôt la
loi uniforme, la loi binomiale, la loi de Poisson, etc.
C’est la chose la plus dure à faire. Ensuite, tout ce que l’on peut vous demander (espérance,
variance, etc.) , ce n’est plus que des calculs.

45
3.9 Exercices

Exercice 1.
1. On lance un dé équilibré ; prenons Ω = {1, ..., 6}, on muni Ω de la tribu P(Ω). On
met sur P(Ω) la probabilité uniforme ( ce qui correspond au fait que le dé est équilibré).
Soit X la v.a. réelle définie par X(3) = X(6) = 1 et X(1) = X(2) = X(4) = X(5) = 0.
X indique si le numéro sorti est un multiple de 3.
Donner la loi PX de la v.a. X.

2. On lance un dé équilibré jusqu’à obtention d’un numéro multiple de 3. on note Y le


nombre de lancers nécessaires pour l’obtenir.
Calculer la loi de probabilité de Y .
(Indication calcuer P (Y = n), pour n ∈ N∗ ).
Exercice 2.
On jette l’un après l’autre deux dés tétraédriques (les 4 faces numérotées de 1 à 4), équilibrés.
Associons à cet expérience l’univers Ω = {1, ..., 4}2 . On note X le plus grand ( au sens large)
des numéros apparus.

1. Donner un espace probabilisé qui modélise cet expérience aléatoire.

2. Montrer que X est une variable aléatoire.

3. Calculer la loi PX de la v.a. X.

4. Trouver la fonction de répartition FX de la v.a. X.

5. Tracer la courbe représentative de FX .

Exercice 3.
Un couple souhaite avoir exactement n enfants (n ∈ N∗ ). On considère qu’à chaque naissance
l’ensemble des possibilités est Ω = {G, F } : G étant l’événement ”avoir un garçon“ et F étant
l’événement ”avoir une fille“, ces 2 événements étant équiprobables.
On considère que les naissances sont indépendantes.
A la ieme naissance, on associe la variable aléatoire discrète Xi de Bernoulli, qui prend la
valeur 1 si G est réalisé, et la valeur 0 sinon. Soit X = X1 + ... + Xn .

1. Dans cette question n = 3.


a. Déterminer la probabilité que parmi ces trois enfants, le couple ait exactement 3
garçons ; exactement 2 garçons ; exactement 2 filles ; exactement 3 filles.
b. Déterminer la fonction de répartition de X.
2. Déterminer la plus petite valeur de n pour que la probabilité de ne pas avoir de garçon
soit < 10−2 .

Exercice 4.
On suppose que 5 % des pièces en sortie d’une chaine de production soient défectueuses.

1. Quelle est la probabilité qu’un échantillion de 20 pièces issu de cette chaı̂ne ne contienne

46
aucune pièce défectueuse ?

2. Quelle est la probabilité que la première pièce défectueuse ne soit pas l’une des 20
premières sorties de la chaı̂ne ?

Exercice 5.
Soit X1 , ..., Xn , n variables définies sur le même espace de probabilité, indépendantes et qui
suivent la même loi de Bernoulli B(p) de paramètre p, où p ∈]0, 1[. On note S la variable
aléatoire discrète qui vaut 0 si pour tout i ∈ {1, ..., n} Xi = 0, et qui vaut 1 dans le cas
contraire.
Déterminer la plus petite valeur de n pour que P (S = 0) ≤ 10−3 .
Application :
Un texte comporte une erreur. On relit ce texte n fois de manière indépendante, à chaque
fois, la probabilité de remarquer cette erreur est 21 . Déterminer la plus petite valeur de n pour
1
que la probabilité de ne pas avoir remarqué cette erreur soit ≤ 1000 .

Exercice 6.
Dans une pépinière 95% des fleurs sont supposées sans virus. Par commodité les fleurs sont
rangées par paquets de 2. Un paquet est dit sain si les deux fleurs le sont.

1. Quelle est la probabilité d’avoir un paquet sain ?


2. X = nb de paquets sains sur un lot de 10. Quelle est la loi de X.
3. Un lot de 10 est accépté par l’acheteur si 9 au moins des paquets sont sains.
Quelle est la probabilité qu’un lot soit accépté ?

Exercice 7.
Une usine employant 30 personnes dont 4 ingénieurs, 10 techniciens et 16 ouvriers.
1. On choisit de façons successive 3 employés : calculer la probabilité d’avoir un employé
de chaque catégorie professionnelle.
2. On choisit de façon successive 3 employés et soit X la variable aléatoire qui représente
le nombre d’ingénieurs choisis. Donner la loi de probabilité de X.

Exercice 8. On étudie la durée des communications téléphoniques dont la fonction de


répartition est : ½
0 si x < 0
F (x) = −kx
1−e si x ≥ 0.
Sachant que k = 56 .
1. Quelle est la probabilité pour qu’une communication dure plus de 3 minutes ?
2. Quelle est la probabilité pour qu’une communication ait une durée entre 3 et 6 mi-
nutes ?
3. Si on ne connaı̂t pas k, quelle valeur faudrait-il lui donner pour que la probabilité
d’une communication supérieure à 3 minutes soit égale à 0.1 ?
Exercice 9.
Interprétation du graphique d’une f.d.r.
La variable aléatoire X a pour fonction de répartition F dont le graphe est représenté par la
figure 1.

47
Fig. 1 -Fonction de répartition F de la v.a. X
1. Pour tout x ∈ R, montrer que :

P (X = x) = F (x) − F (x−),

avec F (x−) = limε−→0 F (x − ε).


2. En exploitant les informations fournies par ce graphique1 , donner les valeurs des pro-
babilités suivantes.

P (X = 0), P (X ≥ 0), P (4 ≤ X ≤ 6), P (0 < X < 4), P (X ≥ 6).

3. La variable aléatoire X est-elle à densité ?

Exercice 10.
Soit (a, b) ∈ N∗2 ; a < b ; X est une variable aléatoire discrète de Ω dans N ∗ telle que :
∀x ∈ |[1, ab]| ; P (X = x) = a1 − 1b et P (X = x) = 0 ailleurs.
1) Déterminer une CNS sur a et b pour que les relations précédentes définissent effecti-
vement une loi de probabilité.
2) Dans ces conditions, tracer la représentation graphique de la fonction de répartition
FX de X.

3) Calculer la probabilité pour que X ∈ |[a, a+b


2 ]|.
Exercice 11. (Loi normale)

On considère la fonction f (u) définie par :


u2
f (u) = ke− 2 , ∀u ∈ R.

1. Déterminer la constante k de telle sorte que f (x) puisse être considérée comme la
densité de probabilité d’une v.a. continue U .

2. Soit Π(z) la fonction de répartition de U . Montrer que

Π(−z) = 1 − Π(z)

3. Soit FX la fonction de répartition de X. Montrer que


x−m
FX (x) = Π( ).
σ
4. Soit X la v.a. définie par
X = m + σU

où m et σ sont des réels non nuls. Déterminer la densité de probabilité g(x) de X.
5. Montrer que par le changement de variable z = x−m σ toutes les varibles aléatoires
normales N (m, σ) se ramèment à la loi normale centrée réduite U .

6. Application : Le stock journalier d’un produit destiné à un atelier suit une loi nor-
male de moyenne 120 pièces et d’écart type 50 pièces.

48
a. Calculer la probabilité pour que le nombre de pièces en stock soit compris entre 80
et 160.
b. Calculer la probabilité pour que le nombre de pièces en stock soit supérieur à 200.
c. Calculer la probabilité pour qu’il y ait rupture de stock.
d. Interpret́er ces résultats.

On donne

Π(0, 8) = 0, 7881, Π(1, 6) = 0, 9452 et Π(2, 4) = 0, 9918.


Exercice 12.
Soit U une v. a. r. de loi uniforme sur [0, 1], et X la variable aléatoire définie par
1
X = − ln(U ),
p
où p > 0. Déterminer la loi de X.

Exercice 13.
Environ 5% des réservations aériennes sur une ligne donnée ne sont pas utilisées, et c’est
pourquoi une compagnie vend 100 billets pour 97 places.
Quelle est la probabilité pour que tous les passagers aient une place ? Faire le calcul exact
(avec une loi binomiale), et le calcul approché (avec une loi de Poisson).

Exercice 14.
Soit X une v. a. uniforme sur [−1, +1].

1. Calculer P (|X| > 12 )

2. Quelle est la densité de la v. a. Y = |X|.


Exercice∗∗ 15.
On jette 5 dés. Après le premier lancer, on reprend et on lance les dés qui n’ont pas donné
de six, jusqu’à ce qu’onobtienne 5 six. Soit X le nombre de lancers nécessaires.

1. Calcuer P (X ≤ n) puis P (X = n) pour n ∈ N.


2. Combien de lancers sont nécessaires en moyenne pour obtenir les 5 six ?
Exercice 16.
On désire modéliser le temps d’attente d’une panne de machine à l’aide de variables alátoires
sans mémoire : la probabilité pour que la machine tombe en panne après la date k + n sachant
qu’elle fonctionne à l’instant n est indépendante de n.

1. Montrer que la loi géométrique de paramètre p est sans mémoire : c’est à dire que
P (X > k + n/X > n) est indépendante de n.

2. Caractériser toutes les lois des variables aléatoires X à valeurs dans N∗ qui sont sans
mémoire. On pourra calculer P (X > 1 + n) en fonction de P (X > 1).

3. Caractériser toutes les lois des variables aléatoires X à valeurs dans N qui sont sans
mémoire.
1
Cet exercice constitue le sujet d’un devoir libre.

49
Chapitre 4

Espérance et variance d’une


variable aléatoire réelle

Soit (Ω, F, P ) un espace de probabilité et X une v. a. de Ω dans R.

4.1 Cas des variables aléatoires discrètes


Considérons le cas où Ω est fini et F = P(Ω). La moyenne des valeurs X(ω) est :
P
X(ω)
m = ω∈Ω .
card(Ω)
1
Si P est l’équiprobabilité, pour tout ω ∈ Ω, P ({ω}) = card(Ω) .
Donc X
m= X(ω)P ({ω})
ω∈Ω
P
Si P est une probabilité quelconque, ω∈Ω X(ω)P ({ω}) est la moyenne des valeurs X(ω)
pondérées par les probabilités des événements élémentaires {ω}.
En calcul des probabilités, cette moyenne est appelée espérance de X et notée E(X).
Donc si Ω est fini, X
E(X) = X(ω)P ({ω}).
ω∈Ω

Soit X une v. a. r. discrète prenant ses valeurs dans l’ensemble {xi }i∈I , I ⊂ N. En
regroupant les ω pour lesquels X prend la même valeur, on obtient
X X
E(X) = xi P (X = xi ), car P (X = xi ) = P ({ω})
i∈I ω/X(ω)=xi

Nous allons définir le concept de probabilité d’une v. a. r., qui, représentera sa valeur
moyenne.
P
Définition 4.1. 1. On dit que X est intégrable si la somme i∈I |xi |P (X = xi ) converge.
2. Si X est intégrable, son espérance est donnée par :
X X
E(X) = xi P (X = xi ) = xP (X = x).
i∈I x∈X(Ω)
P
Remarques : 1) La somme i∈I |xi |PX (xi ) est soit une somme finie (si X(Ω) est fini)
et dans ce cas, l’espérance existe toujours, soit une série à terme positifs (si X(Ω) est une

50
partie dénombrable infinie), et dans ce cas, la série peut être divergente et avoir une somme
égale à +∞.
Rappelons que dans le cas d’une série à termes positifs, la suite des sommes partielles est
croissante, et deux cas se présentent donc :
- soit la suite de ces sommes partielles est majorée et la série est convergente ;
- soit la suite de ces sommes parielles tend vers +∞ et la série diverge vers +∞.
Exemples :
1. Si X est une v.a. constante X = c, alors E(X) = c.
2. Soit X une v.a. discrète dont la loi est donnée par :

x 2 3 4 5 6
1 2 3 2 1
P(x=x) 9 9 9 9 9
1 2 3 2 1
E(x) = 2 × + 3 × + 4 × + 5 × + 6 × = 4.
9 9 9 9 9
3. Soit X une v.a. de Bernoulli de paramètre p.
On a X = 1A , alors E(X) = E(1A ) = P (A) = p.
En effet, X(Ω) = {0, 1}.
On a {X = 1} = A = {ω/X(ω) = 1}.
Donc
E(X) = 0.P (X = 0) + 1 × P (X = 1)
= P (X = 1) = P (A).
Remarque : Si pour tout i ∈ I, on a : a ≤ xi ≤ b, on a :

a ≤ E(X) ≤ b,

car X X
aP (X = xi ) ≤ E(X) ≤ bP (X = xi )
i∈I i∈I
P
et comme i∈I P (X = xi ) = 1, on a le résultat.
En particulier, si X ≥ 0, alors E(X) ≥ 0.

4.1.1 Espérance d’une fonction d’une variable aléatoire réelle


Soit g une fonction définie sur X(Ω) à valeurs dans R.
Théorème 4.2. (ThéorèmePde transfert)
Si I est fini ou si la série i∈I g(xi )P (X = xi ) est absolument convergente, alors la v.a.
g(X) admet une espérance et on a :
X
E(g(X)) = g(xi )P (X = xi ).
i∈I

Preuve. Dans le cas où I = |[1, n]|.


Soit Y = g(X). Y prend les valeurs : y1 , y2 ,,...,ym avec les probabilités :
X
P (Y = yj ) = P (X = xi )
i∈Ij

où
Ij = {i/g(xi ) = yj }.

51
Donc :
P P P
E(Y ) = m
j=1 yj P (Y = yj ) = m j=1 yj [ i∈Ij P (X = xi )]
P P P P
= m
j=1 [ i∈Ij yj P (X = xi )] = m j=1 [ i∈Ij g(xi )P (X = xi )]
P
= i∈I g(xi )P (X = xi ), car (Ij )1≤j≤m est une partition de |[1, n]|.
Remarque :
1. Si g = id, on retrouve la formule donnant l’espérance.
2. Si la fonction g est bornée, la formule pour E(g(X))est valable sans aucune condition.

4.2 Cas des variables aléatoires à densité


Définition 4.3. Soit X une v. a. r. à densité. R
1. On dit que X est intégrable si l’intégrale R |x|fX (x)dx converge.
2. Si X est intégrable, son espérance est donnée par :
Z
E(X) = xfX (x)dx.
R
Exemple :
Soit X ∼ U[a,b] avec a < b.
Alors : Z +∞ Z +∞
x 1 x2 b b+a
E(X) = xf (x)dx = dx = [ ] = .
−∞ −∞ b−a b−a 2 a 2
Exemple :
Soit X ∼ U[a,b] avec a < b. Et soit g(x) = exp(x)
Alors : R +∞
E(g(X)) = E(exp(X) = −∞ g(x)f (x)dx
R +∞
= −∞ exp(x) 1 b
b−a dx = b−a [exp(x)]a =
exp(b)−exp(a)
b−a .
L’analogue du théorème de transfert, dans ce cas, est le résultat suivant :
Théorème 4.4. Soient X une v. a. r. Rà densité et h une fonction continue. Alors h(X) est
intégrable si et seulement si l’intégrale R |h(x)|fX (x)dx converge.
Dans ce cas, on a Z
E(h(X)) = h(x)fX (x)dx.
R

4.3 Linéarité de l’espérance


Proposition 4.5. 1. Si X et Y sont deux v. a. intégrables, et si a ∈ R, alors aX + Y
est integrable et
E(aX + Y ) = aE(X) + E(Y ).
2. Si X est une v. a. positive, alors E(X) ≥ 0.
Si X et Y sont deux v. a. intégrables, et si X ≤ Y , alors E(X) ≤ E(Y ).

Autrement dit, X 7−→ E(X) est une forme linéaire positive.

Preuve.
1. La démonstration repose sur un schéma classique : on montre d’abord la linéarité pour
les v. a. simples, puis par approximation, pour les v. a. positives, et finalement, pour
toutes les variables aléatoires intégrables en utilisant que E(X) = E(X + ) − E(X − ).
(Hors programme).

52
2. Clair par définition de l’espérance d’une variable aléatoire. On déja démontré le
rérultat dans le cas discret. Noter aussi que si X ≤ Y , alors Y − X ≥ 0.

4.4 Moments, variance et écart-type


Définition 4.6. Soient X une v.a.r. et k ∈ N∗ . On dit que X admet un moment d’ordre k
si la v. a. r. X k est intégrable.
Dans ce cas, la valeur E(X k ) est appelée moment d’ordre k de X. On note

mk (X) = E(X k ).

Remarque 4.1. 1. Le moment d’ordre 1 de X, si il existe, est l’espéranceR de X.


+∞
2. Soit X v. a. à densité f . Comme la fonction x → xr est continue, donc si −∞ xr f (x)dx
converge absolument, mr (X) existe et on a :
Z +∞
mr (X) = xr f (x)dx. ( théorème de transfert).
−∞

3. Si la v. a. r. X admet un moment absolu d’ordre r fini, elle a aussi un moment absolu


d’ordre p fini pour tout p ∈ |[0, r]| : En effet :
Si 0 ≤ p ≤ r, on a :

|X|p ≤ 1{|X|≤1} + |X|p 1{|X|>1} ≤ 1 + |X|r .

( car : 1Ω = 1{|X|≤1}∪{|X|>1} =⇒ |X|p = |X|p 1{|X|≤1} + |X|p 1{|X|>1} .)


Définition 4.7. Soit X une v. a. r. admettant un moment d’ordre 2.
1. La variance de X est par définition :

V ar(X) = E[(X − E(X))2 ]

2. L’écart-type de X est par définition égal :


p
σ(X) = V ar(X).

Remarque 4.2. La variance d’une v. a. r. représente sa dispersion autour de sa moyenne.


C’est un nombre toujours positif, ce qui est évident vu sa définition.
Nous allons montrer dans le paragraphe qui suit l’inégalité suivante :

V ar(X)
P (|X − E(X)| > a) ≤ .
a2
En pratique, on utilise la
Proposition 4.8. Soit X une v. a. r. admettant un moment d’ordre 2. On a :

V ar(X) = E(X 2 ) − E(X)2 .

Preuve. Il suffit d’utiliser la linéarité de l’espérance :

V ar(X) = E(X − E(X))2 = E(X 2 − 2E(X)X + E(X)2 )


= E(X 2 ) − 2E(X)2 + E(X)2 = E(X 2 ) − E(X)2 .

53
La variance vérifie également les propriétés suivantes :
Proposition 4.9. Soit X une v. a. r. admettant un moment d’ordre 2. On a :
1. V ar(aX + b) = a2 V ar(X), pour tout a, b ∈ R.
2. V ar(X) = 0 si et seulement si X est une constante.
Preuve.
1. Laissée en exercice.
2. Cela repose sur le résultat important suivant : si Z est une v. a. r. positive telle que
E(Z) = 0, alors Z = 0. En effet, on a
1
Z≥ 1 1 .
n {Z≥ n }
Donc P (Z ≥ n1 ) = 0 pour tout n ∈ N∗ .
On a aussi,
P (Z > 0) = P (∪n {Z ≥ n1 })
= limn−→∞ P (Z ≥ n1 )
= limn−→∞ 0 = 0.
Il suffit d’appliquer ce résultat à Z = (X − E(X))2 .

4.5 Inégalités classiques


4.5.1 L’inégalité de Markov
Proposition 4.10. Si X est une v. a. r. positive, intégrable, et si a ∈ R∗+ , On a :

E(X)
P (X > a) ≤ .
a
Preuve.
Elle découle de l’inégalité X ≥ a1X>a et de la positivité de l’espérance.

4.5.2 L’inégalité de Bienaymé-Tchebycheff


Proposition 4.11. Si X est une v. a. r. admettant un moment d’ordre 2, et si a ∈ R∗+ , On
a:
V ar(X)
P (|X − E(X)| > a) ≤ .
a2
Preuve.
Il suffit d’appliquer l’inégalité de Markov à (X − E(X))2 après avoir remarqué que :

{|X − E(X)| > a} = {(X − E(X))2 > a2 }.

54
4.5.3 L’inégalité de Jensen
Proposition 4.12. Soient X une v. a. r. intégrable, et g : R −→ R une fonction convexe
telle que la v. a. r. g(X) soit intégrable. Alors :

g(E(X)) ≤ E(g(X)).

Preuve.
La convexité de g assure qu’en tout point son graphe est au-dessus de sa tangente : Pour tout
t ∈ R, il existe δ (on peut prendre pour δ gd0 (t) ou gg0 (t)), tel que :

g(x) ≥ g(t) + δ(x − t).

On prend : x = X(ω) et t = E(X) et on prend l’espérance, on obtient :

g(E(X)) ≤ E(g(X)).

4.6 L’espérance et la variance des lois classiques


Proposition 4.13. Soit X une v. a. de loi uniforme discrète sur {1, 2, ..., n}. Alors, on a :
n+1 n2 − 1
E(X) = et V ar(X) = .
2 12
Preuve.
• On commence par le calcul de l’espérance, par définition :
n
X n
1X 1 n(n + 1) n+1
E(X) = kP (X = k) = k= ( )= .
n n 2 2
k=1 k=1

• Pour déterminer V ar(X), on calcule E(X 2 ) :


n
X n
2 2 1 X 2 n(n + 1)(2n + 1)
E(X ) = k P (X = k) = k = .
n 6n
k=1 k=1
Pn
(car, on peut montrer par récurrence que : k=1 k 2 = n(n+1)(2n+1)
6 ).
Or,
n(n + 1)(2n + 1) (n + 1)2 n2 − 1
V ar(X) = E(X 2 ) − E(X)2 = − = .
6 4 12

Proposition 4.14. Soit X une v. a. de Bernoulli de paramètre p. Alors, on a :

E(X) = p et V ar(X) = p(1 − p).

Preuve.
• On a X = 1A où A = {ω/X(ω) = 1}.
Donc

E(X) = P (A) = p,
et
V ar(X) = E(X 2 ) − E(X)2 = p(1 − p).

55
Proposition 4.15. Soit X une v. a. binomiale B(n, p) de paramètres n et p. Alors, on a :

E(X) = np et V ar(X) = np(1 − p).

Preuve.
Soit X le nombre de succès obtenus au cours de la réalisation de n épreuves indépendantes
de Bernoulli de paramètre p.
Donc
X = X1 + X2 + ... + Xn avec Xi ∼ B(p).
En utilisant la linéarité de l’espérance :

E(X) = E(X1 ) + ...E(Xn ) = np.

Pour calculer la variance, on utilise la relation suivante

V ar(X1 +...+Xn ) = V ar(X1 )+...+V ar(Xn ) si les (Xi ) sont indépendantes ( voir chapitre 6).

D’où
V ar(X) = V ar(X1 ) + ... + V ar(Xn ) = np(1 − p).

Proposition 4.16. Soit X une v. a. géométrique X ∼ G(p). Alors, on a :


1 1−p
E(X) = et V ar(X) = .
p p2
Preuve. Laissée en exercice.
Proposition 4.17. Soit X une v. a. de Poisson de paramètre λ. Alors, on a :

E(X) = λ et V ar(X) = λ.

Preuve.

+∞
X +∞
X λn−1
E(X) = nP (X = n) = λe−λ = λ.
(n − 1)!
n=0 n=1

+∞
X +∞
X
E(X 2 ) = n2 P (X = n) = n2 P (X = n) + P (X = 1).
n=0 n=2
λ1 0 n−1
Or, n2 = n(n − 1) + n et P (X = 1) = e−λ 1! = e−λ λλ
0! = e
−λ λλ
(n−1)! pour n = 1,
et
+∞
X +∞
X +∞
λn−2 −λ X −λ λn−1
n2 P (X = n) = λ2 e + λe
(n − 2)! (n − 1)!
n=2 n=2 n=2

Donc,
+∞
X +∞
X
λn−2 −λ λn−1
E(X 2 ) = λ2 e−λ e + λe−λ = λ2 + λ.
(n − 2)! (n − 1)!
n=2 n=1

Donc,
V ar(X) = E(X 2 ) − E(X)2 = λ2 + λ − λ2 = λ

56
Proposition 4.18. Si X ∼ U[a,b] , a, b ∈ R, a < b. Alors, on a :
a+b (b − a)2
E(X) = et V ar(X) = .
2 12
Remarque : La définition est la même pour les intervalles ]a, b[, [a, b[, ..., (car U[ a, b] est
absolument continue).
Preuve.
• Z +∞ Z +∞
x 1 x2 b b+a
E(X) = xf (x)dx = dx = [ ]a = .
−∞ −∞ b − a b−a 2 2
• Z +∞
1 b3 − a3
E(X 2 ) = x2 f (x)dx =
−∞ 3 b−a
Donc,
1 b3 − a3 (a + b)2 (b − a)2
V ar(X) = − = .
3 b−a 4 12

Proposition 4.19. Si X ∼ N (m, σ 2 ). Alors, on a :


E(X) = m et V ar(X) = σ 2 .
Preuve. Il suffit de montrer que si X ∗ ∼ N (0, 1), alors E(X ∗ ) = 0 et V ar(X ∗ ) = 1.
Ensuite,
X −m
X∗ = ⇐⇒ X = σX ∗ + m.
σ
Et ona :
E(X) = E(X ∗ ) + m = m et V ar(X) = E(σ 2 (X ∗ )2 ) = σ 2 E(X ∗ )2 = σ 2 .
Soit maitenant X ∗ ∼ N (0, 1).On a :
• Pour l’espérance : Z +∞
1 x2
E(X ∗ ) = x √ e− 2 dx
−∞ 2π
Or, Z +∞ x2 −x2
xe− 2 dx = [−e 2 ]+∞
0 = 1,
0
2 R +∞ x2
comme la fonction x −→ xe− x2 est impaire, alors −∞ x √12π e− 2 dx = 0, donc E(X ∗ ) = 0.
• Pour la variance, Z +∞
∗ 2 1 x2
E(X ) = x2 √ e− 2 dx
−∞ 2π
2
Par une intégration par partie, on pose g(x) = x et f 0 (x) = xe− x2 , on obtient :
Z +∞ Z +∞ Z +∞ √
2 − x2
2 −x2
+∞ − x2
− x2 2π
x e dx = [−xe 2 ]0 + e 2 dx = e 2 dx = .
0 0 0 2
R +∞ x2 √ x2
(car −∞ e− 2 dx = 2π et x −→ e− 2 est paire.)
−x2
De plus x −→ x2 e 2 est paire, donc
Z +∞ √
−x2
x2 e 2 dx = 2π
−∞
En conclusion,
V ar(X ∗ ) = 1.

57
Proposition 4.20. Soit X ∼ E(θ), θ > 0. Alors, on a
1 1
E(X) = et V ar(X) = .
θ θ2
Preuve. Laissée en exercice.

4.7 Fonctions caractéristiques


4.7.1 Intégration d’une fonction complexe
Rappelons ici rapidement et sans démonstrations quelques propriétés de l’intégration des
fonctions complexes. Soit (Ω, F, P ) un espace de probabilité et f : Ω → C une fonction
complexe.
1. f est mesurable si et seulement ses parties réelle Ref et imaginaire Imf sont mesu-
rables de (Ω, F) dans (R, B(R)).
2. f est intégrable par rapport à P si et seulement si ses parties réelle Ref et imaginaire
Imf sont intégrables par rapport à P , et
Z Z Z
f dP = Ref dP + i Imf dP.
Ω Ω Ω
p
3. f est intégrable par rapport à P si et seulement si son module |f | = (Ref )2 + (Imf )2
est intégrable par rapport à P , et
¯Z ¯ Z
¯ ¯
¯ f dP ¯ ≤ |f |dP.
¯ ¯
Ω Ω

Preuve. Montrons le dernier point.RL’intégrale de f est un nombre complexe que l’on


peut écrire sous forme trigonométrique : Ω f dP = ρeiθ . Alors
¯R ¯ R R
¯ f dP ¯ = ρ = e−iθ f dP = −iθ dP (∈ R)
Ω Ω Ω fe
¡R −iθ dP
¢ R −iθ )dP
= Re Ω fe = Ω Re(f e (d’après 2)
R −iθ |dP
R
≤ Ω |f e = Ω |f |dP.

4.7.2 Fonction caractéristique d’une variable aléatoire réelle


Définition 4.21. Soit X une variable aléatoire réelle définie sur un espace de probabilité
(Ω, F, P ). Sa fonction caractéristique ϕX est définie par :
Z
itX
∀t ∈ R, ϕX (t) = E(e ) = eitx dPX (x) (∈ C).

Théorème 4.22. Soit X une variable aléatoire réelle définie sur un espace de probabi-
lité (Ω, F, P ). Sa fonction caractéristique ϕX est uniformément continue sur R, de module
inférieur ou égal à 1,et vérifie ϕX (0) = 1.

Preuve. R R R
1. |ϕX (t)| = | Ω eitx dPX (x)| ≤ Ω |eitx |dPX (x) = Ω 1dPX (x) = PX (Ω) = 1.
2. ϕX (0) = E(ei0X ) = E(1) = 1

58
3. Découle du théorème de la convergence dominée :

|ϕX (t + h) − ϕX (t)| ≤ |E(ei(t+h)X − eitX )|


≤ E| e|ihX{z− 1} ||eitX | −→ 0 quand h −→ 0.
≤2

Et on prend le supt .

Théorème 4.23. Soit X une variable aléatoire réelle telle que E(|X|m ) < +∞, avec m ≥ 1.
Alors ϕX est m-fois dérivable sur R et
dm ϕX
(t) = im E(X m eitX ).
dtm
et, en particulier

(k)
ϕX (0) = ik EX k .
Preuve. Découle du théorème de dérivation d’une intégrale dépendant d’un paramètre :
Puisque
dk itX
(e ) = (iX)k eitX ,
dtk
on a
dk itX
|(e )| ≤ |X|k ,
dtk
et on peut appliquer m fois le théorème de dérivation d’une intégrale dépendant d’un pa-
ramètre.

¦ En pratique : si E(|X|) < ∞ alors EX = iϕ0X (0),


si E(X 2 ) < ∞ alors E(X 2 ) = −ϕ00X (0).

Proposition 4.24. Si X et Y sont deux variables aléatoires indépendantes et si Z = X + Y ,


alors
∀t ∈ R, ϕZ (t) = ϕX (t)ϕY (t).
♣ Exercice : Faire la preuve.

4.7.3 Exemples de calcul


Par le théorème de transfert, la définition de la fonction caractéristique se décline de la
façon suivante :
1. Si X est discrète, X
ϕX (t) = eitx P (X = x).
x∈X(Ω)

2. Si X a pour densité f , Z
ϕX (t) = eitx f (x)dx.
R

59
♣ Exercice : Dans tous les exemples qui suivent, retrouver espérance et variance en dérivant
la fonction caractéristique.
• Loi de Bernoulli de paramètre p
X
ϕX (t) = eitx P (X = x) = eit P (X = 1) + ei0 P (X = 0) = peit + 1 − p.
x∈X(Ω)

• Loi binômiale de paramètre B(n, p)


µ ¶
P Pn Pn n
ϕX (t) = x∈X(Ω) eitx P (X = x) = k=0 eitk P (X = k) = k=0 eitk pk (1 − p)n−k
k
µ ¶
Pn n
= k=0 (peit )k (1 − p)n−k = (peit + 1 − p)n .
k
• Loi de Poisson de paramètre λ
P itx
P∞ itk P∞ itk −λ λk
ϕX (t) = x∈X(Ω) e P (X = x) = k=0 e P (X = k) = k=0 e e k!
.
P∞ (λeit )k
= e−λ k=0 k! = exp(λ(eit − 1))
♣ Exercice : Déterminer la fonction caractéristique de la loi géométrique de paramètre p.
• Loi uniforme sur [−a, a]
R R 1
ϕX (t) = R eitx fX (x)dx = R eitx 2a 1[−a,a] (x)dx

1
Ra itx dx 1
Ra Ra
= 2a −a e = 2a ( −a cos(tx)dx +i −a sin(tx)dx)

1
Ra 1 1 sin(at)
= 2a −a cos(tx)dx = 2a [ t sin(tx)]a−a = at .
• Loi normale centrée réduite :
Méthode par équation différentielle
R R
ϕX (t) = R eitx fX (x)dx = R eitx √12π exp(−x2 /2)dx
R 1 2 1 2
R 1 2
R
= R cos(tx) √2π exp(−x /2)dx + i R sin(tx) √2π exp(−x /2)dx = R cos(tx) √2π exp(−x /2)dx.
Comme la loi normale admet des moments de tout ordre, on peut dériver ϕX :
R d R
ϕ0X (t) = R dt (cos(tx)) √12π exp(−x2 /2)dx) = R (−x sin(tx)) √12π exp(−x2 /2)dx
R 1 2
= − R t cos(tx)) √2π exp(−x /2)dx) (par IPP)
= −tϕX (t).
On a donc établit une équation différentielle linéaire satisfaite par ϕX (t) : donc
∀t ∈ R, ϕX (t) = Cexp(−t2 /2), et ϕX (0) = 1 = C.
Donc ∀t ∈ R, ϕX (t) = exp(−t2 /2).
Méthode par prolongement analytique
Soit λ ∈ R : R
E(exp(λX)) = R exp(λx)fX (x)dx
R 1 2
= R exp(λx) √2π exp(−x /2)dx .
R 1 2
= R √2π exp(−(x − 2λx)/2)dx

60
Cette intégrale est convergente pour tout λ ∈ R.
De plus x2 − 2λx = (x − λ)2 − λ2 , d’où :
R
E(exp(λX)) = R √12π exp(λ2 /2) exp(−(x − λ)2 /2)dx
R 1
= exp(λ2 /2) 2 2
R √2π exp(−(x − λ) /2)dx = exp(λ /2)
Maintenant, par le théorème de dérivation sous le signe intégrale, h1 : z 7→ E(exp(zX)) est
holomorphe sur C et h2 : z 7→ E(exp(z 2 /2)) est holomorphe sur C. Or ses deux fonctions
coı̈ncident sur R. Par le théorème de prolongement analytique, h1 h2 coı̈ncident sur C.
En particulier,
h1 (it) = ϕX (t) = h2 (it) = exp((it)2 /2) = exp(−t2 /2).
¦En pratique : On essaie d’identifier le résultat (h2 ) sur une partie de C où on sait faire
calculer h1 explicitement (ici R), puis on prolonge ce résultat par prolongement analytique.
• Loi normale quelconque
Rappelons que si X ∼ N (0, 1) et si Y = σX + m, alors Y ∼ N (m, σ 2 ). On a alors
ϕY (t) = E(eitY ) = E(eit(σX+m) )

= E(eitm ei(tσX) ) = eitm E(ei(tσ)X ) = eitm ϕX (tσ) = eitm exp(−t2 σ 2 /2).

4.8 Théorème d’unicité


L’idée est la suivante : on a vu que l’intégration contre des fonctions-test continues bornées
caractérise la loi d’une variable aléatoire réelle. Ici, on diminue la classe des fonctions-test
pour limiter aux exponentielles complexes :
Théorème 4.25. Soit X et Y deux variables aléatoire réelles. Si ∀t ∈ R, ϕX (t) = ϕY (t),
alors X et Y ont la même loi.

Preuve. Admis.
Utilise des résultats de densité de type Stone-Weierstrass.
¦Exemple : Soit X ∼ P(µ) et Y ∼ P(µ) deux variables aléatoire indépendantes.
Déterminer la loi de Z = X + Y .
Par indépendance,
ϕZ (t) = ϕX (t)ϕY (t) = exp(λ(eit − 1)) exp(µ(eit − 1)) = exp((λ + µ)(eit − 1)).
On reconnaı̂t la fonction caractéristique d’une variable aléatoire de loi de Poisson de pa-
ramètre λ + µ.
Donc
Z ∼ P(λ + µ).
♣ Exercice : Soit (Xi )1≤i≤n des variables aléatoire indépendantes suivant toutes des lois
gaussiennes. Montrer que toute combinaison linéaire des (Xi )1≤i≤n suit encore une loi gaus-
sienne.
♣ Exercice : Soit (XP i )1≤i≤n des v.a.i.i.d. de loi Bernoulli de paramètre p.
Déterminer la loi de ni=1 Xi .
En déduire, sans calcul, espérances et variances des lois binomiales.

61
4.9 Annexe : Définition de l’espérance d’une variable aléatoire :
Cas général
Le cadre est le suivant : on a un espace de probabilité (Ω, F, P ), et X une variable aléatoire
définie sur Ω à valeur dans R. Comment définir sa valeur moyenne, ou espérance ? On sait
que pour une variable aléatoire discrète, on utilise une moyenne des valeurs prises par X,
pondérées chacune par la probabilité qu’a X de prendre cette valeur :
X
E(X) = xP (X = x).
x∈X(Ω)

On connait aussi la formule de la valeur moyenne pour une “bonne” fonction (continue par
exemple) sur un intervalle [a, b] :
Z b
1
m= f (x)dx.
b−a a
On voudrait construire une formule générale qui englobe les deux précédentes :
Z Z
EX = X(ω)dP (ω) = xdPX (x),
Ω R
c’est-à-dire être capable d’intégrer une fonction sur Ω par rapport à la probabilité P , ou une
fonction sur R par rapport à la loi image PX . Cette formule d’égalité entre deux intégrales
sur deux espaces différents sera fondamentale pour les calculs pratiques, on l’appelle théorème
de transfert.
Dans toute la suite, l’ensemble R est muni de la tribu boriélienne B(R), et on considérera
des variables aléatoires
X : (Ω, F) −→ (R, B(R)).

Pour les variables aléatoires simples


Définition 4.26. Soit A une partie de Ω. On appelle indicatrice de A l’application suivante :

1A : Ω −→ {0, 1} ½
1 si ω ∈ A,
ω 7−→ 1A (ω) =
0 sinon.

Définition 4.27. Une variable aléatoire X : Ω → R est dite simple si et seulement si il


existe un entier n > 0, une famille (Ai )1≤i≤n d’éléments de F et une famille (ai )1≤i≤n des
nombres réels distincts tels que :
Xn
X= ai 1Ai .
i=1
Les ai sont des nombres réels distincts, donc cette écriture est la représentation canonique
de X.
Une variable aléatoire simple ne prend qu’un nombre fini de valeurs. Si (Ω, F) = (R, B(R)),
une fonction simple est une fonction en escaliers avec un nombre fini de marches.

Pn
Définition 4.28. Si X = i=1 ai 1Ai est une variable aléatoire simple, on définit son
espérance de la façon suivante
X n
EX = ai P (Ai ).
i=1

62
Remarque :
Il fautPvérifier que cette définition ne dépend pas de l’écriture particulière choisie pour X. Si
X= m i=1 bi Bi représente une écriture non canonique de X ( i.e. les bi ne sont pas distincts),
on pose :
Ai = X −1 ({ai }), et Ai = ∪j∈Ji Bj , Ji = {j ∈ [1, m]/bj = ai }, ∪ni=1 Ji = [1, n].
P P P
E(X) = ni=1 ai P (∪j∈Ji Bj ) = ni=1 ai j∈Ji P (Bj )
Pn P Pm
= i=1 j∈Ji bj P (Bj ) = i=1 bj P (Bj ).
En conclusion la définition de l’espérance ne dépend pas de l’écriture de X.

Proposition 4.29. L’ensemble des fonctions simples est un R−espace vectoriel. Sur cet
ensemble, l’espérance est une application linéaire positive : si X et Y sont deux v. a. simples
et si a est un nombre réel, alors :
E(aX + Y ) = aE(X) + E(Y ), et si X ≥ 0, alors E(X) ≥ 0.
On rappelle que X ≥ 0 signifie que pour tout ω ∈ Ω, X(ω) ≥ 0.

Preuve. La positivité est claire, et la linéarité est laissée en exercice.

Pour les variables aléatoires positives


Définition 4.30. Si X est une variable aléatoire positive, on définit son espérance de la
façon suivante :
E(X) = sup{E(Y )/ Y fonction simple positive telle que Y ≤ X}.
Remarque : L’espérance d’une v. a. positive est positive, remarquons aussi que cette
1
espérance peut valoir +∞ (prenez la loi de Cauchey : f (x) = π(1+x 2 ) , pour tout réel x).

Pour les variables aléatoires quelconques


Définition 4.31. Soit X une v. a. réelle, on pose :
½ + ½
X = max(X, 0) X = X+ − X−
− et on a
X = max(−X, 0) |X| = X + + X − .
Définition 4.32. Une variable aléatoire réelle X est dite intégrable si et seulement si
E|X| < +∞, si et seulement si E(X + ) < +∞ et E(X + ) < +∞. On définit alors son
espérance de la façon suivante :
E(X) = E(X + ) − E(X − ).
Remarque : L’ensemble des variables aléatoires réelles intégrables sur l’espace de probabilité
(Ω, F, P ) est noté L1 (Ω, F, P ). C’est un R-espace vectoriel, et l’espérance est une application
linéaire positive sur cet espace. L’espérance de X est notée :
Z Z
E(X) = X(ω)dP (ω) = X.dP
Ω Ω
Cette espérance prolonge celle introduite les variables aléatoires
Pn discrètes.
−1
(Si X(Ω) = {x1 , ..., xn }, on posant Ai = X ({xi }) et X = i=1 xi 1Ai , d’où :
n
X n
X
E(X) = xi P (Ai ) = xi P (X = xi )).
i=1 i=1

63
Théorème d’approximation
Théorème 4.33. Soit X variable aléatoire positive. Il existe une suite (Xn )n∈N de variables
aléatoires simples croissante à valeurs positives qui converge simplement vers X.
Preuve. Il suffit de prendre
½
k2−n si k2−n ≤ X(ω) < (k + 1)2−n .
Xn (ω)
n si X(ω) ≥ n.

Vérifier la fin de la preuve.

Proposition 4.34. Soit (Xn )n∈N une suite de variables aléatoires simples croissante à va-
leurs positives qui converge simplement vers X. Alors X est une v. a. positive et

E(X) = limn−→∞ E(Xn ).


Preuve.
Admis

4.9.1 Théorème de transferet


Considérons (Ω, F, P ) un espace de probabilité. Rappelons que si X : Ω −→ (R, B(R)) est
une variable aléatoire, alors elle permet de définir, à partir de P sur (Ω, F), une probabilité
PX sur (R, B(R)) appelée loi de X de la façon suivante :

∀ B ∈ B(R) PX (B) = P ({ω ∈ Ω/X(ω) ∈ B}) = P (X −1 (B)) = P (X ∈ B).

On aimerait utiliser ce lien entre les probabilités P sur (Ω, F) et PX sur (R, B(R)) pour
calculer les espérances des variables aléatoires d’une autre manière :
Théorème 4.35. Soit X : (Ω, F) −→ (R, B(R)) une variable aléatoire, et

h : (R, B(R)) −→ (R, B(R))

une application mesurable. On pose Y = h(X), qui est encore une variable aléatoire réelle
définie sur Ω.
1. Y ∈ L1 (Ω, F, P ) ⇐⇒ h ∈ L1 (R, B(R), PX )
2. Dans ce cas, R R
E(Y ) = RΩ Y dP = Ω h(X)dPR
= RΩ Y (ω)dP (ω) = RΩ h(X(ω))dP (ω)
= R h(x)dPX (x) = R hdPX .
Preuve. On va utiliser la stratégie usuelle : d’abord on le montre pour des fonctions in-
dicatrices, puis pour des fonctions simples, puis pour des fonctions positives, puis pour des
fonctions quelconques.
1. Soit B ∈ B(R), posons h = 1B .

E(Y ) = E(h(X)) = E(1B (X)) = E(1X∈B )


= P (X ∈ B) par définition de l’espérance de l’indicatrice de {X ∈ B} ∈ F
=PR X (B) par déf. de la loi image
= RR 1B (x)dPX (x) par déf. de l’espérance de l’indicatrice de {B} ∈ B(R)
= R h(x)dPX (x).

64
2. Si h est une fonction simple, on utilise la linéarité de l’espérance
Pn sur chacun des deux
espaces de probabilités (Ω, F, P ) et (R, B(R), PX ) : soit h = i=1 ai 1Ai , on a :
P
E( ni=1 ai 1Ai (X))
E(Y ) = E(h(X)) = P
= Pni=1 ai E(1
R Ai (X))
n
= R i=1
P ai R 1Ai (x)dPX (x) d’après
R l’étape précédente
= R ( ni=1 ai 1Ai (x))dPX (x) = R h(x)dPX (x).

3. Si h est une fonction mesurable positive, on utilise le résultat d’approximation : soit


(hn )n∈N une suite de fonction simples positive qui converge en croissant vers h. On sait
par l’étape précédente que
Z Z
E(hn (X)) = hn (X(ω))dP (ω) = hn (x)dPX (x).
Ω R
puis on utilise le résultat de croissance monotone de chaque côté, en passant à la limite
quand n tend vers l’infini, on obtient :
Z
E(X) = h(x)dPX (x).
R
4. Finalement, pour h intégrable quelconque, on prend h = h+ − h− : la condition
nécessaire et suffisante d’intégrabilité est alors claire, et on utilise la linéarité sur cha-
cun des deux espaces de probabilités (Ω, F, P ) et (R, B(R), PX )

Nous allons maitenant décliner ce résultat dans les deux cas que nous avons vu précédemment :
v. a. discrètes et v. a. à densité.
Corollaire 4.36. 1. Soit X une v. a. réelle avec X(Ω) = {x1 , x2 , ..., xn , ...} fini ou
dénombrable.
La v. a. h(X) est intégrable si et seulement si
X
|h(xi )|PX (xi )
i≥1

est une série convergente et dans ce cas :


X
E(h(X)) = h(xi )PX (xi ).
i≥1

2. Soit X une v. a. réelle à densité f . La v. a. h(X) est intégrable si et seulement si


Z
|h(x)|f (x)dx < +∞
R
est une intégrale convergente, et dans ce cas
Z Z Z
E(h(X)) = h(X)dP = h(x)dPX (x) = h(x)f (x)dx.
Ω R R

65
4.10 Exercices
Exercice 1. Soit X une variable aléatoire représentant le nombre d’heures de vie d’une
ampoule éléctrique. Supposons que X soit distribué avec la densité de probabilité suivante :
1 −x
f (x) = e 1000 1[0,+∞[ (x).
1000
Trouver la durée de vie moyenne attendue d’une telle ampoule.

Exercice 2.
1. Soit X une variable aléatoire à valeurs dans N. Montrer que :
+∞
X
E(X) = P (X ≥ j).
j=1

2. Montrer que si X est une variable aléatoire discrète à valeurs entières (positives,
négatives ou nulles) dont l’espérance mathématique existe, on a :
+∞
X
E(X) = [P (X ≥ j) − P (X ≤ −j)].
j=1

Exercice 3. Soit X une variable aléatoire de loi de Poisson de paramètre λ > 0 (i. e.
k
P (X = k) = e−λ λk! , k ≥ 0).
1 1
1. Vérifier que 1+X est une variable aléatoire intégrable. Calculer E( 1+X ).

1 1
2. Calculer E( (1+X)(2+X) ) et en déduire E( 1+X ).

Exercice 4. Un joueur joue à pile ou face de la manière suivante : la première fois il parie
1 euro ; s’il gagne, il gagne 2 euros et il s’arrête ; sinon, la deuxième fois il parie 2 euros ; s’il
gagne, il gagne 4 euros et il s’arrête, etc... C’est-à-dire que tant qu’il perd il double sa mise
pour le coup suivant et il s’arrête dès le premier succès.
Quelle est l’espérance de gain du joueur ?

Exercice 5. Dans une classe de n élèves, la probabilité qu’un élève sache son cours pour
la colle est p; p ∈]0, 1[. La probabilité qu’un élève qui sait son cours sache faire l’exercice
en colle est α ; α ∈]0, 1[. Aura une bonne note un élève qui connaı̂t son cours et qui réussit
l’exercice. On note X la variable égale au nombre d’élèves sachant leur cours, et Y celle égale
au nombre d’élèves ayant une bonne note.
1. Quelle est la loi de X
2. Quelle est la loi de Y ; calculer l’espérance et la variance 2 de Y .
Exercice 6. X est une VARD qui suit la loi de Poisson de paramètre λ.
Montrer que :
P (X ≥ λ + 1) ≤ λ.

Exercice 7. Un satellite de télédétection effectue 6 passages par mois au-dessus d’une région
donnée. Les photos réalisées lors des différents passages peuvent être inutilisables, du fait
notamment de la présence d’une couverture nuageuse.
2
La variance d’une v.a. mesure la ”dispersion” de cette v.a. par rapport à son espérance. Si la variance
est petite, la v.a. est ”concentrée” autour de sa moyenne. La variance est tjrs positive et une variance faible
correspond à un niveau homogène, proche de la moyenne.

66
1. Soit X la v.a. qui désigne le nombre de photos valables pour les 6 passages. Trouver
la loi de X.

2. Quelle doit être la probabilité d’obtenir une photo valable lors d’un passage donné pour
que la probabilité d’avoir au moins une photo valable par mois soit de 0,9 ?

Exercice 8. Un appareil électronique utilise 20 transistors identiques dans sa fabrication. On


admet que ces transistors sont les seules sources de panne de l’appareil. La probabilité qu’un
transistor soit défectueux est de 0,1. Dès qu’un appareil contient au moins deux transistors
défectueux, il tombe en panne.
a. Quelle est la probabilité qu’un appariel tombe en panne ?
b. Jugeant l’appariel précédant peu rentable, on en construit un autre dont la probabilité
de tomber en panne est égale à 0,2.
Sur un lot de 2000 appariels, quel est le nombre (moyenne) d’appariels en panne auquel
doit-on s’attendre ? et avec quel écart type ?

Exercice 9. Une confiture peut être qualifiée de ”pur sucre” si elle contient entre 440 et 520
grammes de sucre par kilogramme de confiture. Un fabricant vérifie 200 pots de confiture de 1
kilogramme chacun. Il trouve que le poids moyen de sucre est de 480 grammes avec un écart
type de 20 grammes.
Sachant que le poids en sucre est distribué normalement, calculer le pourcentage de la produc-
tion du fabricant qui ne doit pas porter la mention ”pur sucre” en considérant que l’échantillon
des 200 pots est représentatif de la production globale.

Exercice 10. Soit X une v. a. ayant pour densité de probabilité la fonction f définie par :

f (x) = αe−αx pour x ≥ 0


f (x) = 0 pour x < 0
où α est un réel positif.

1. Vérifier que f est bien une densité de probabilité .

2. Déterminer la fonction de répartition de X.

3. Calculer E(X) et plus généralement E(X k ). En déduire la valeur de V (X).

4. Soit X0 la v.a. ayant pour densité de probabilité :

g(x) = k(x0 ).f (x) pour x ≥ x0


g(x) = 0 pour x < x0

où x0 est un réel positif donné.


a) Quelle est la valeur de k(x0 ) ?
b) Calculer E(X0 ) et V (X0 ).

Exercice 11. Soit X une variable aléatoire réelle admettant une variance. Montrer que la
fonction
x 7−→ E((X − x)2 )
admet un minimum global et le calculer.

67
Exercice 12. (Loi de Cauchy )
On considère la fonction f (x) définie par :

k
f (x) = , ∀x ∈ R.
1 + x2

1) Déterminer la constante k telle que f (x) puisse être considérée comme la densité de pro-
babilité d’une v.a. continue X.
2) Que peut-on dire des moments de cette v.a. ?

Exercice 13. Si U1 et U2 sont deux variables aléatoires normales centrées, réduites et


indépendantes, calculer :
a. P (U1 > U2 ).
b. P (U1 + 2U2 > 5)
c. calculer k tel que P (U1 + kU2 > 2) = 0.05.
Exercice 14 . Le lait produit par une usine a une teneur en matières grasses qui suit une
loi normale de moyenne 160 grammes par litre et d’écart type 3 10 grammes par litre les
consommateurs n’acceptent que le lait dont la teneur en matières grasses est comprise entre
135 grammes par litre et 185 grammes par litre.
Calculer la proportion de la production du lait inacceptable par les consommateurs.

Exercice1 15 . Soit un vendeur de lots de pièces mécaniques disposant, à une date t0 , d’un
stock s.
La demande X, pour un intervalle de temps [t0 , t1 ], est une v. a. entière ayant une loi de
probabilité définie par :

P (X = x) = k(x0 )p q x−1 pour x ≥ x0


=0 pour x < x0

où p et q sont deux réels positifs tels que p + q = 1 et x0 est un entier naturel inférieur à s.
1) Calculer k(x0 ) et E(X).
2) Si X est inférieure au stock s, les lots restants sont vendus à perte et le vendeur aura
à affronter une dépense moyenne de c1 DH. Si X est supérieure au stock s, il faut un ap-
provisionnement spécial de pièces manquantes et le supplément du coût représente une perte
moyenne de c2 DH.
Calculer l’éspérence mathématique des dépenses que va devoir affronter le vendeur pendant
la période [t0 , t1 ].
Exercice 16. Soit X une variable aléatoire réelle. On appelle fonction caractéristique de X
la fonction φX définie par

φX (t) = E(e itX


R itx )
=P R e fitk
(x)dx dans le cas des v.a continue : c’est la transformée de Fourier de la fonction f
= k∈N e pk dans le cas discret

1) Vérifier que φX (0) = 1 et que |φX (t)| ≤ 1 ∀t ∈ R.


2) Déterminer la f. c. φX de la v. a. X dans les cas suivants :
a. X = a, a ∈ R.

b. X est une v. a. de Bernoulli de paramètre p.

3
p
L’écart type est par définition σ = V (X). Une v.a. X est dite centrée réduite si E(X) = m = 0 et σ = 1.

68
c. X est une v. a. de binomiale de paramètres n et p, i.e. X ∼ B(n, p).

e. X est une v. a. de binomiale de paramètre λ, i.e. X ∼ P (λ).

f. X est une variable aléatoire de loi uniforme sur [−a, a]


2) Déduire que X ∼ N (m1 , σ12 ) et Y ∼ N (m2 , σ22 ) , alors X + Y ∼ N (m1 + m2 , σ12 + σ22 ).

Exercice 17. Soit X v. a. r. de densité p(x) = xe−x 1x≥0 .

1. Déterminer la loi de la v. a. Y = eX − 1.

2. Déterminer la fonction caractéristique de X.

3. En déduire la moyenne et la variance de X.

4. Soit Z une v. a. indépendante de X et de même loi. Calculer l’espérance et la variance


de 3X − 4Z.

1
Cet exercice constitue le sujet d’un devoir libre.

69
Chapitre 5

Variables aléatoires vectorielles

5.1 Introduction
De nombreux problèmes concrets fond intervenir plusieurs variables aléatoires, regroupées
dans un vecteur aléatoire. Il est important de caractériser la loi d’un tel vecteur et les relations
liant ses composantes.
Nous allons voir dans ce chapitre que tout ce que l’on a construit pour une variabble
aléatoire réelle se transpose quasiment mot par mot au cas d’un vecteur aléatoire. Les prin-
cipales différences sont :

- la notion de loi marginale


- la notion de covariance, qui essaie de traduire un certainlien entre les coordonnées du
vecteur aléatoire.
Dans la suite, nous n’allons définir les notions que pour les couples de variables aléatoires.
Mais la plupart des résultats énoncés se généralisent facilement à un nombre quelconque de
variables.
Notation : Un couple de v. a. est une application mesurable donnée par :

(X, Y ) : (Ω, F) −→ (R2 , B(R2 )).

5.2 Couples aléatoires discrets


Définition 5.1. 1. On dit qu’un couple aléatoire est discret s’il prend ses valeurs dans
un ensemble {(xi , yj )(i,j)∈I×J } avec I × J ⊂ N2 ou dans Z2 .
2. La loi conjointe de X et Y (i.e. la loi du couple (X, Y ))) est la donnée des nombres
positifs :
pij = P ({X = xi } ∩ {Y = yj }), (i, j) ∈ I × J
avec X
pij = 1.
(i,j)∈I×J

3. Si l’on s’intéresse uniquement au comportement de l’une des deux variables, on intro-


duit les lois marginales de X et Y définies par
X X
pi. = P (X = xi ) = pij et p.j = P (Y = yj ) = pij .
j∈J i∈I

70
Remarque : Les deux événements (X = xi ) et (∪j∈J Y = yj , X = xi ) sont identiques.
Donc X
pi. = pij .
j∈J

De plus, X XX X
pi. = pij = pij = 1.
i∈I i∈I j∈J (i,j)∈I×J

Exemple :
On tire, avec remise, deux boules d’un sac contenant 3 boules numérotées 1, 2, et 3.
On considère la v. a. X qui est la somme des points obtenus et soit Y le maximum des points
obtenus. Calculer la loi conjointe de X et Y .
Déduire les lois marginales de X et Y .
On a
X(Ω) = {2, 3, 4, 5, 6} et Y (Ω) = {1, 2, 3}.
Il s’agit d’évaluer P (X = i, Y = j) lorsque 2 ≤ i ≤ 6 et 1 ≤ j ≤ 3.
Les résultats sont donnés dans le tableau suivant :

yj /xi 2 3 4 5 6 Loi de Y
1 1
1 9 0 0 0 0 9
2 1 3
2 0 9 9 0 0 9
2 2 1 5
3 0 0 9 9 9 9
1 2 3 2 1
Loi de X 9 9 9 9 9 1
Les cas possibles sont :
(1, 1) −→ X = 2
(1, 2), (2, 1) −→ X = 3
(1, 3)(3, 1)(2, 2) −→ X = 4
(3, 2)(2, 3) −→ X = 5
(3, 3) −→ X = 6.
Explicitons le calcul de la première ligne :
1
P (X = 2, Y = 1) = P ({(1, 1)} = , P (X = a, Y = 1) = 0 si a ≥ 3.
9
La formule donnant l’espérance de h(X) se généralise au contexte d’un couple de v. a. de X
et Y . XX
E(h(X, Y )) = h(xi , yj )pi,j
i∈I j∈J

où h est une fonction de deux variables.


En particulier : XX
E(XY ) = xi yj pi,j
i∈I j∈J

♣ Exercice : Calculer E(XY ) pour X et Y de l’exemple précédent.

71
5.3 Couples aléatoires à densité
Définition 5.2. • On dit qu’un couple aléatoire (X, Y ) est à densité s’il existe une fonction
f(X,Y ) : R2 −→ R positive telle que pour tout domaine D de R2 , on a
Z Z
P(X,Y ) (D) = P ((X, Y ) ∈ D) = f(X,Y ) (x, y)dxdy.
D
R
avec R2 f(X,Y ) (x, y)dxdy = 1.
• Les densités marginales de X et Y sont données par :
Z Z
fX (x) = f(X,Y ) (x, y)dy et fY (y) = f(X,Y ) (x, y)dx.
R R
♣ Exercice :
On pose
x2 + y 2
f (x, y) = cexp(− ).
2
1. Déterminer c pour que f soit une densité de probabilitéd’un vecteur aléatoire Z =
(X, Y ) de R2 .

2. Calculer les densités des lois marginales de Z.


Solution :
1. • f est continue de R2 dans R, donc mesurable.
• f ≥ 0 si c ≥ 0.
• pour l’intégrale :
RR RR 2
− x +y
2
1 = R f
2 (x, y)dxdy = c R 2 e 2 dxdy
R − x2 R − y2
= c(√R e√ 2 dx)( R e 2 dy)
= c 2π 2π.
Donc
1
c= .

2. Z Z
1 − x2 +y2 1 − x2 1 y2 1 x2
fX (x) = e 2 dy = √ e 2 ( √ e− 2 dy) = √ e− 2 .
R 2π 2π R 2π 2π
Donc
X ∼ N (0, 1).
De même :
1 y2
fY (y) = √ e− 2 .

Donc
Y ∼ N (0, 1).
Enfin, on a aussi l’analogue du théorème de transfert :
Proposition 5.3. Soit h : R2 −→ R une fonction et (X, Y ) un couple aléatoire admettant
pour
R R densité f(X,Y ) . Alors, la v. a. h(X, Y ) est integrable si et seulement si l’intégrale double
R2 |h(x, y)|f(X,Y ) (x, y)dxdy est convergente.
Dans ce cas, on a :
Z Z
E(h(X, Y )) = h(x, y)f(X,Y ) (x, y)dxdy.
R2

72
5.4 Indépendance et espérance de produits
En général, la donnée des lois de probabilités de deux variables aléatoires X et Y ne
permet pas de calculer la loi du couple aléatoire (X, Y ) (alors que la réciproque est vraie).
C’est toutefois possible dans un cas particulier très important, celui des variables alétoires
indépendantes.
Définition 5.4. 1. Soit X et Y deux v. a. discrètes à valeurs respectivement dans {ai }
et {bj }. Les v. a. X et Y sont indépendantes si et seulement si :
Pij = P ({X = ai } ∩ {Y = bj }) = P (X = ai )P (Y = bj ).
2. Soit X et Y deux v. a. à densité. Les v. a. X et Y sont indépendantes si et seulement
si :
f(X,Y ) = fX (x).fy (y).
Conséquence :
X q Y =⇒ E(XY ) = E(X)E(Y ).
En effet, RR
E(XY ) = R R2 xyf(X,YR) (x, y)dxdy
= R xfX (x)dx R yfY (y)dy.
= E(X)E(Y ).

5.5 Covariance et coefficient de corrélation linéaire


5.5.1 Covariance
Pour mesurer le lien entre deux grandeurs aléatoires, on fait appel à la notion de cova-
riance :
Définition 5.5. Soit (X, Y ) un couple aléatoire tel que X et Y admettent toutes les deux un
moment d’ordre 2.
On appelle covariance de X et Y et on note cov(X, Y ) la quantité :
cov(X, Y ) = E([X − E(X)][Y − E(Y )]).
Remarque :
1. On peut montrer qu’il existe une autre formule pour calculer la covariance :
cov(X, Y ) = E(XY ) − E(X)E(Y ).
2. Si X q Y , alors cov(X, Y ) = 0.
La proposition suivante donne quelques propriétés de la covariance.

Proposition 5.6. Soit X, Y et Z trois v. a. r. admettant un moment d’ordre 2. on a :


1. cov(X, X) = V ar(X),
2. cov(aX + bY, Z) = acov(X, Z) + bcov(Y, Z), ∀a, b ∈ R.
3. V ar(X + Y ) = V ar(X) + 2cov(X, Y ) + V ar(Y ).
4. cov(X, Y )2 ≤ V ar(X)V ar(Y ) (Inégalité de Cauchy-Schwartz.)
Preuve.

1. Il suffit d’appliquer la définition de la variance.


2 et 3. C’est immédiat en utilisant la linéarité de l’espérance.
4. Il suffit de remarquer que (X, Y ) −→ cov(X, Y ) est une forme bilinéaire symétrique
sur l’ensemble des v. a. r. de carrée intégrable.

73
5.5.2 coefficient de corrélation
L’importance de la notion de covariance réside dans le fait qu’elle permet, dans certaine
mesure, de caractériser numériquement la dépendance stochastique entre deux v. a. On peut
en particulier affirmer que : cov(X, Y ) = 0 si X et Y sont indépendantes. Mais la réciproque
est fausse comme le montre l’exemple suivant :
Exemple :
Soit X une v. a. de Bernoulli de paramètre 0 < p < 1.
Alors E(X(1 − X)) = 0 et bien entendu X et 1 − X ne sont pas indépendantes : par exemple :

P (X = 0, 1 − X = 0) = 0 6= P (X = 0)P (X = 1) = p(1 − p).

L’inconvinient de la covariance tient au fait qu’elle peut être très grande en valeur absolue, ce
qui la rend inutilisable pour mesurer le degré de dépendance entre X et Y . Pour des besoins
pratiques, la covariance est donc remplacée par une mesure standarisée : le coefficient de
corrélation linéaire.
Définition 5.7. Soit (X, Y ) un couple aléatoire tel que X et Y soient non constantes et
admettent toutes les deux un moment d’ordre 2. On appelle coefficient de corrélation linéaire
de X et Y , et on note ρ(X, Y ), la quantité :

cov(X, Y )
ρ(X, Y ) = ,
σ(X)σ(Y )
où σ(X) et σ(Y ) sont les écarts-types de X et Y .
Remarque :
1. −1 ≤ ρ(X, Y ) ≤ +1, (d’après l’inégalité de Cauchy-Schwartz).
2. ρ(X, Y ) = 0 si X et Y sont indépendantes.
X Y
3. On peut écrire ρ(X, Y ) sous la forme Cov( σ(X) , σ(Y ) ), c’est à dire comme la cova-
riance de deux v. a. dont la variance est égale à 1.

4. Si X et Y sont centrées, on a :
< X, Y >
ρ(X, Y ) =
kXk2 kY k2
1
où kXk2 = (E(X 2 )) 2 .
ρ(X, Y ) s’interprète alors comme le cosinus de l’angle que forment les deux vecteurs X
et Y , égale au rapport du produit scalaire sur le produit des normes.
Une corrélation élevée indique une relation linéaire forte alors qu’une corrélation faible
n’indique pas l’absence de relation, mais simplement l’absence de relation linéaire.

74
5.6 Exercices
Exercice 1. Deux variables aléatoires X1 et X2 prennent les valeurs 0,1,2.

1. Comment doit-on choisir p pour que le tableau ci-dessus donne une loi conjointe de
(X1 , X2 ) ?

X1 \X2 0 1 2
p p
0 p 2 4
p
1 2p p 2
2 4p 2p p
2. Quelles sont les lois marginales de X1 et de X2 .
Ces deux variables sont-elles indépendantes ?
3. Soit Y = X1 + X2 . Calculer l’espérance de Y .

Exercice 2. Soit (X, Y ) un couple aléatoire à valeurs dans N∗ × N∗ tel que :

λn−1
∀(n, k) ∈ N∗ × N∗ , P (X = k, Y = n) = (1 − q n )q n(k−1) e−λ ,
(n − 1)!
avec q ∈]0, 1[ et λ > 0.
Déterminer les lois marginales de X et de Y . Ces deux variables sont-elles indépendantes ?

Exercice 3. Soit X1 et X2 deux variables aléatoires indépendantes et soient F1 (x) et F2 (x)


leurs fonctions de répartition.
Déterminer les fonctions de répartition des v. a .

Y = M ax(X1 , X2 )

et
Z = M in(X1 , X2 ).
Exercice 4. Soient X et Y deux variables aléatoires et soit r leur coefficient de corrélation.
1) Montrer que le coefficient de corrélation r est compris entre −1 et 1.
2) Soient 4 réels non nuls : a, b, c et d.
Calculer le coefficient de corrélation des v. a.

U = aX + b

et
V = cY + d.
1
L’espérance mathématique du couple (X, Y ) est par définition E(X, Y ) = (EX, EY )
2
L’espérance mathématique du produit X.Y est donnée par :
XX
E(XY ) = xi yj pij , ( cas discret )
i∈I j∈J

et
Z Z
E(XY ) = xyf (x, y)dxdy, ( cas continu )
R2

75
Quelles conclusions peut-on tirer des résultats de ce calcul ?

Exercice 5. Soient X et Y deux variables aléatoires indépendantes et de même densité


1
f (x) = 1 (x).
x2 [1,+∞[
X
On pose U = XY et V = Y .

1. Calculer la loi du couple (U, V ). Les v.a.r. U et V sont-elles indépendantes ?


2. Calculer les lois marginales de U et de V .
3. Calculer
1
E( √ ).
UV

3
La fonction de répartition du couple (X, Y ) est définie par :

F(X,Y ) (x, y) = P (X ≤ x et Y ≤ y).

4
X et Y sont indépendantes si :

P (X = xi et Y = yj ) = PX (xi )PY (yj ) (v. a. discrètes )

f(X,Y ) (x, y) = fX (x)fY (y) (v. a. continues)

76
Chapitre 6

Théorèmes limites

6.1 Introduction
Soit (Xn ) une suite de v. a. r. définies sur un espace de probabilité (Ω, F, P ).
Une suite de v. a. réelles étant une suite de fonctions Ω dans R. Il existe divers façons de
définir la convergence de (Xn ) dont certaines jouent un grand rôle en calcul des probabilités
et en statistique.

6.2 Les différents types de convergence


6.2.1 La convergence en probabilité
Définition 6.1. La suite (Xn ) de v. a. converge en probabilité vers la constante a, si :

∀ε > 0, lim P (|Xn − a| > ε) = 0.


n−→∞

On note
P
Xn a.
−→
Remarque :
1. On définit la convergence en probabilité de (Xn ) vers X comme la convergence de
(Xn − X) vers 0.
2. La convergence en probabilité signifie que l’écart entre la valeur de Xn et la constante
a est très faible quand la taille de l’échantillon est grande.

6.2.2 La convergence presque sûre


Définissons d’abord l’égalité presque sûre de deux v. a.

Définition 6.2. Soit X et Y deux v. a. r., X et Y sont égaux presque sûrement si :

P ({ω/X(ω) 6= Y (ω)}) = 0.

Définition 6.3. La suite (Xn ) converge p. s. vers X si :

P ({ω/ lim Xn (ω) 6= X(ω)}) = 0.


n−→∞

Autrement dit, ∃Ω0 ⊂ Ω tel que P (Ω0 ) = 1 et ∀ω ∈ Ω0 , limn−→∞ Xn (ω) = X(ω).

77
On note
p.s.
Xn X.
−→
Remarque : La convergence presque sûre implique la convergence en probabilité.
En effet, ∀ε > 0, ∃n0 ∀n ≥ n0 , |Xn (ω) − X(ω)| < ε ∀ω ∈ Ω0 .
Donc :
∀ε > 0, ∃n0 , ∀n ≥ n0 , {|Xn − X| > ε} ⊂ Ωc0 .
Par suite,
lim P (|Xn − X| > ε) = 0.
n−→∞

6.2.3 La loi faible des grands nombres


Théorème 6.4. Soit (Xn ) une suite de v. a. r. indépendantes, de même loi et de carré
intégrable (EX12 < +∞). On a alors,

P
X1 + X2 + ... + Xn
−→ E(X1 ).
n
n −→ ∞

Preuve. D’après l’inégalité de B. T. , on a :

P (| X1 +...+X
n
n
− E(X1 )| > ε) = P (|(X1 + ... + Xn ) − E(X1 + ... + Xn )| > nε)

V ar(X1 +...+Xn ) V ar(X1 )


≤ ε2 n2
= nε2

(car V ar(X1 + X2 + ... + Xn = nV ar(X1 ), par indépendance).


Remarque :
1. La condition EX12 < +∞ assure que la grandeur EX1 est bien définie.
2. Intuitivement le résultat pécédent signifie que le facteur n, qui figure au dénominateur,
est trop grand.

Le théorème central limite affirme qu’il faut remplacer n par n mais aussi le mode de
convergence.
3. Si (An ) est une suite d’événements indépendantes et de même probabilité p. La suite
1 Pn
des v. a. n i=1 1Ai converge en probabilité vers p.

6.2.4 La convergence en loi


Définition 6.5. Soit (Xn ) une suite de v. a. définies sur le même espace probabilisé, de
fonction de répartition Fn . Soit X une v. a. définie sur le même espace probabilisé, de fonction
de répartition F .
On dit que (Xn ) converge en loi vers X si en tout point x où F est continue, on a :

lim Fn (x) = F (x).


n−→∞

Remarque :
1. Pour les v. a. discrètes la convergence en loi vers une v. a. discrète s’exprime par :

limn−→+∞ P (Xn = x) = P (X = x)

C’est ainsi qu’on a établi la convergence de la loi binomiale vers la loi de Poisson. (Voir
Chapitre 3).

78
2. Une suite de v. a. discrètes peut cependant converger en loi vers une v. a. continue.
Par exemple :
♣ Exercice : Soit (Xn ) une suite de v. a. r. de loi uniforme sur {0, n1 , n2 , ..., 1}.
Montrer que :
Loi
Xn X,
−→
avec X ∼ U[0,1] .
Remarque : La convergence en loi peut s’exprimer par : pour toute fonction de C 0 = {f ∈
C(R, R)/ lim|x|−→∞ f (x) = 0}, on a
Z Z
f dPXn −→ f dPX .
R R
Proposition 6.6. La convergence en probabilité entraı̂ne la convergence en loi.
Preuve. Supposons que (Xn ) converge en probabilité vers X.
Soit ϕ ∈ C 0 , et soit ε > 0, la continuité uniforme de ϕ sur R entraı̂ne l’existence de α > 0,
tel que pour tout u et v vérifiant |u − v| ≤ α, on ait |ϕoXn − ϕoX| ≤ ε.
Il suit, en notant M = kϕk∞ :
R R
|E(ϕoXn ) − E(ϕoX)| ≤ |Xn −X|≤α |ϕoXn − ϕoX|dP + |Xn −X|>α |ϕoXn − ϕoX|dP

≤ ε + 2M P (|Xn − X| > α).

On conclut.

Récapitulons :
Convergence p.s =⇒ Convergence en probabilité =⇒Convergence en loi.

6.3 Le théorème central limite


Théorème 6.7. (Le théorème central limite)
Soit (Xn ) une suite de v. a. r. indépendantes de même loi et admettant un moment d’odre 2.
On pose :
Sn = X1 + X2 + ... + Xn ,
alors, on a : √
n Sn loi
( − m) N (0, 1),
σ n −→
avec m = E(X1 ) et σ 2 = V ar(X1 ).
Remarque :
1. Ce théorème permet de comprendre l’importance de la loi normale puisqu’il signifie
que la somme des v. a. i.i.d. tend à suivre une loi normale quelles que soient les lois
suivies par ces variables.

2. Le théorème central limite implique, si n est grand, que la loi de Sn∗ = Sn −E(S )
√ n est voi-
σ n
sine de N (0, 1), ce qui est équivalent à dire que la loi de Sn est voisine de N (nm, nσ 2 ).

79
Application : On se sert souvent du théorème central limite pour calculer rapidement des
probabilités en avoir une première estimation.
Exemple (1) : Dans une file d’attente, dix personnes attendent avant d’être servies. Si le
temps de service d’une personne est une v. a. de loi exponentielle de paramètre θ = 1 minute,
quelle est la probabilité que la durée d’attente totale dépasse 15 minutes ?

On pose :
T = T1 + T2 + ... + T10 .
où Ti (i=1,...,10) sont des v. a. indépendantes de loi E(1).
On utilise le théorème central limite pour la v. a. T .
T peut être approchée par une v. a. normale de moyenne

E(T ) = 10E(T1 ) = 10

et de variance :
V ar(T ) = 10V ar(T1 ) = 10.
On trouve alors rapidement :

P (T > 15) ' P (N (0, 1) > 15−10



10
)
= P (N (0, 1) > 1, 511) = 0, 057.

On peut donc attendre dans la file sans crainte d’y rester plus de 15 minutes.

Exemple (2) : Donnons un autre exemple, issu du contrôle de la qualité. Si on sait qu’en
moyenne 5% des articles produits par un certain procédé de fabrication sont défectueuses.
Quelle est la probabilié qu’il y ait au plus 60 pièces défectueuses dans un lot de 1000 pièces
choisies au hasard ?

Notons X le nombre de pièces défectueuses dans le lot.


De manière exacte, X ∼ B(1000, 0, 05).
Si on voulait faire le calcul exact, ce serait très compliqué.
On utilise le T.C.L. et faire comme si le nbr X de pièces défectueuses suit une loi normale
de paramètre m = 1000 × 0, 05 = 50 et σ = 1000var(Xi ) = 1000 × 0, 05 × 0, 95 = 47, 5.
On trouve :
60 − 50
P (X ≤ 60) ' P (N (0, 1) ≤ ) = 0, 9265.
6, 9
Remarque : En pratique, l’approximation de la loi binomiale par la loi normale donne des
résultats convenables si np ≥ 5 et n(1 − p) ≥ 5.
Dans ces conditions, on peut retenir l’approximation :

B(n, p) ' N (np, np(1 − p)).

Remarque : Vitesse de convergence dans la loi des grands nombres


Le théorème central limite précise la convergence donnée par la loi des grands nombres.
Plaçons-nous dans le cas d’une suite réelle (un )n∈N qui converge vers une limite l. On sup-
pose qu’on ne connaı̂t pas exactement la valeur de l, et qu’on sait facilement calculer les
termes successifs de la suite (un )n∈N . On aimerait donc donner une valeur approchée de l en
disant pour n suffisament grand, un n’est pas loin de l. Toute la question est de savoir dire
rigoureusement ce que veut dire ”un n’est pas loin de l”, autrement dit d’être capapled’estimer
l’erreur commise entre un et l. Ceci revient à étudier la vitesse de convergence de la suite

80
(un )n∈N vers l c’est -à-dire de trouver le terme suivant dans le développement asymptotique
de un quand n tend vers l’infini : par exemple,
3 1
un = l − 2
+ o( 2 ) ⇐⇒ limn−→∞ n2 (un − l) = 3.
n n
1
Dans ce cas, la vitesse est en n2
. Remarquons que

si α<2 , alors limn−→∞ nα (un − l) = 0


si α>2 , alors limn−→∞ nα (un − l) = +∞.

Le cas α = 2celui qui donne une limite finie, est donc celui qui donne la bonne vitesse de
convergence.
Revenons maintenant au cas des v. a. i.i.d. La loi faible des grands nombres dit que
X1 + ... + Xn
−→P EX1 .
n
Pour étudier la vitesse de convergence de cette suite, on cherche α tel que
X1 + ... + Xn
nα ( − EX1 ) converge en un certain sens.
n
Ici, on n’obtient pas de limite détrministe, ce qui n’est pas surprenant vu qu’on est en train
de regarder des limites de variables aléatroires, mais le TCL nous dit que la limite est une loi
gaussienne, que la vitesse de convergence est en √1n et que la notion de convergence considérée
ici est la convergence en loi.

81
6.4 Exercices
Exercice 1. (Méthode de monte-Carlo)
Soit h : [0, 1] −→ R une fonction continue et soit (Xn ) une suite de v.a.r. indépendantes et
même loi uniforme sur [0, 1].
Montrer que
Z 1
h(X1 ) + ... + h(Xn )
−→P h(x)dx quand n −→ +∞.
n 0

Comment se servir de ce résultat pour approximer une intégrale ?


Exercice 2.
1. Démontrer que si np −→ λ quand n −→ ∞ et p −→ 0, et si X ∼ B(n, p).
Alors X converge en loi vers une v. a. Y ∼ P (λ).
2. Application : Un contrôle rigoureux des ampoules électriques fournies par un atelier
a permis de constater que sur 14760 ampoules, il y avait 738 ampoules défectueuses.
Soit X le nombre des ampoules défectueuses figurant dans un lot de 60 ampoules.
a) Indiquer la loi de probabilité de X.
b) Quelle est la probabilité d’avoir plus de 3 ampoules défectueuses dans un lot de 60
ampoules ?
c) Quelle est la probabilité d’avoir 78 ampoules bonnes dans un lot de 80 ampoules ?

Exercice 3.
Une caisse d’assurance maladie reçoit 120 personnes pour l’obtention de remboursements.
On admet que la caisse doit payer, en moyenne, à chaque personne 1000 dh avec un écart
type de 600 dh.
La caisse dispose de 130000 dh. Calculer la probabilité que cette somme soit suffisante.

Exercice 4.
Une usine possède un restaurant d’entreprise qui assure chaque jour 2 services. Chacun des
900 employés de l’usine se présente indifféremment à l’un ou à l’autre des services avec une
probabilité de 0,5. Par ailleurs les choix des employés sont indépendants.
a) Quelle est la probabilité pour que le nombre de personnes se présentant au premier
service soit supérieur à 500 ?
b) De quel nombre de places faut-il diposer dans le restaurant pour que la probabilité de
pouvoir répondre à la demande aux deux services sont supérieure à 95%.
c) Le nombre total des repas à servir chaque jour est une variable aléatoire ; chaque
employé a chaque jour une probabilité de 0,75 de prendre son repas à l’usine.
- Quelle est l’espérance mathématique de cette variable ?
- Combien de repas convient-il de préparer pour que la probabilité de satisfaire la de-
mande soit supérieure à 99% ?

Exercice 5
2% des individus d’une population présentent une certaine mutation.

- Calculer le nombre moyen de mutants dans un échantillon de 100 individus.

- Quelle est la probabilité qu’il n’y ait aucun mutant ?

82
- Quelle est la probabilit qu’il y en ait au moins 5 ? Faire le calcul exact (avec une loi
binomiale), et le calcul approché (avec une loi de Poisson).

Exercice 6
On lance une pièce équilibrée 1000 fois. On veut calculer la probabilité pour que le nombre
de pile soit compris entre 450 et 550.

- Soit X le nombre de pile . Quelle est la loi de X ?

- Écrire la probabilité cherchée. Cette expression est trop longue à calculer !

- Quelle est l’espérance m et l’écart-type σ de X ?

- Montrer que l’on peut approximer X par une loi normale N (m, σ).

- Il ne reste plus qu’à répondre à la question initiale.

83
Deuxième partie

Statistiques

84
Chapitre 7

Introduction aux statistiques

7.1 Introduction :
7.1.1 Les statistiques, les probabilités, la statistique
1. Les statistiques sont des ensembles de données, d’observations : recensement...ce sont
donc des chiffres.
2. Les probabilités forment une branche des mathématiques et sont donc rigoureuses et
exactes ; pour cela il travaillent sur des objets mathématiques parfaitement définis et
abstraits (bien que toujours d’origine concrète).
3. La statistique est la science qui utilise les méthodes mathématiques (venant généralement
des probabilités) pour étudier et analyser des statistiques eu vue :
- d’en accoı̂tre les connaissances scientifiques ;
- de planifier des stratégies ;
- d’aider à la prise de décision.
Dans la théorie des probabilités que nous avons développé jusqu’à présent, nous avons
réaliser des calculs de nature probabiliste : par exemple, en évaluant la probabilité d’événements
ou en déterminant l’espérance d’une variable aléatoire. On a toujours supposé que les différents
paramètres qui interviennent dans le modèle sont connus. Ce qui est rarement le cas en pra-
tique.
Nous nous intéressons à la modélisation d’une grandeur aléatoire à valeurs réelles. Dans
le cadre probabiliste, cette notion correspond au concept de variable aléatoire ; soit X cette
variable aléatoire. Donnons un exemple : si l’on s’intéresse à compter le nombre de fois ou
apparait le résultat S, au cours de k expériences indépendantes, à deux issus possibles S et
E, on choisira pour X une v. a. de loi B(k, p). En général le paramètre p n’est pas connu.
Dans d’autres situations, on peut choisir pour X une v. a. de loi de Poisson P(λ), ou une
loi de Gauss N (m, σ 2 ). Les valeurs de λ, m et σ étant inconnues. Le but de la statistique
est de pouvoir évaluer ces paramètres inconnus à l’aide des valeurs X1 , X2 , ..., Xn que l’on a
observées en réalisant une série de n expériences indépendantes.

7.1.2 La démarche statistique


Après le recueil des données que nous n’aborderons pas ici, la démarche statistique consiste
à traiter et interpréter les informations recueillies.

Elle comporte deux grand aspects : l’aspect descriptif ou exploratoitre et l’aspect inférentiel
ou décisionnel.

85
A- La statistique exploratoire :
Son but est de synthétiser , résumer, structurer l’information contenue dans les données.
Elle utilise pour cela des représentations des données sous forme de tableaux, de gra-
phiques, etc.
L’étude statistique porte sur un caractère. Si le caractère est quantitatif, les mesures
sont alors les valeurs d’une variable statistique (ex. un âge , une taille,...). Si le ca-
ractère est qualitatif, on est obligé de quantifier (ex. sexe, mensonge,...).

B- La statistique inférentielle :
Son but est d’étendre les propriétés constatées sur l’échantillon à la population toute
entière. Le calcul des probabilités joue un rôle fondamental. Donnons quelques exemples :
B.1. Estimation d’une moyenne : Une même grandeur est mesurée n fois de suite
par un même observateur, l’imprécision de l’instrument de mesure et d’autres fac-
teurs rendent fluctuantes ces mesures et on obtient n valeurs différentes x1 , x2 , ..., xn .
Comment déterminer la vraie valeur m ? La loi des grands nombres montre que la
moyenne
x1 + x2 + ... + xn
x=
n
constitue une bonne approximation de m. x est une estimation de m. L’estimation
consiste à donner des valeurs approchées aux paramètres d’une population (m, σ, etc)
à l’aide d’un échantillon de n observations issues de cette population.

B.2. Vérification d’une hypothèse ou test : Le cas suivant est classique en contrôle
de qualité. Un client commande à son fournisseur des lots de pièces dont la qua-
lité est spécifiée par contrat : le fournisseur s’engage à respecter un taux de pièces
défectueuses inférieur à 4%. Avant de livrer, le fournisseur effectue un contrôle sur
50 pièces et en trouve 3 défectueuses soit 6% : Doit-on livrer quand même au risque
de refuser la marchandise ?
Le raisonnement est alors le suivant : si le taux théorique de défectueux est de 4%
quelles sont les chances d’observer un tel nombre de défectueux ? Le calcul des pro-
babilités montre alors qu’il y a une probabilité voisine de 0.32 d’observer trois pièces
défectueuses ou plus (loi binomiale B(50, 0.04)). Cette probabilité étant assez forte,
l’événement constaté paraı̂t donc normal au fournisseur et ne semble pas de nature
à remettre en cause l’hypothèse formulée. Mais le client serait-il d’acord ?... Il faut
alors calculer le risque d’un refus par le client.
On contate la similitude de cette démarche statistique avec la démarche scientifique habi-
tuelle : observation, hypothèses, vérification.

Le but de la statistique est de pouvoir évaluer ces paramètres inconnus à l’aide de la


réalisation de n expériences indépendantes.
Le problème central de la statistique est le suivant : on dispose d’un échantillon de n
observations et on désire en déduire les propriétés de la population dont il est issu. Pour
cela :
• Il faut que les tirages soient équiprobables et indépendants les uns des autres.
• Il faut que l’échantillon soit représentatif de la population. (On appel population un
ensemble d’objets. Ces objets sont appelés des individus ou unités statistique.)

Dans ce qui suit, nous tacherons de désigner les variables aléatoires par des majuscules
et les résultats des expériences par des minuscules pour bien distinger ce qui est aléatoire de

86
ce qui ne l’est pas.

7.2 Définitions
1. On modélise une expérience aléatoire par une v.a. X. On note Q sa loi. Q est appelée
la loi vraie. Comme nous l’avons expliqué précédemment, on peut choisir, Q = P(λ)
si la v. a. est à valeurs entières , ou Q = N (m, σ) lorsque la v. a. est à valeurs réelles.
On peut aussi ne faire aucune hypothèse spécifique sur Q.

2. Un échantillon de taille n de X (ou un n-échantillon de X) est une suite de v.


a. X1 , X2 ,...,Xn , qui sont indépendantes, de même loi Q (on fait l’hypotèse essentielle,
qu’il est possible de reproduire n fois l’expérience, indépendamment à chaque fois).

3. Les valeurs observées de X1 , X2 ,...,Xn sont notées x1 , x2 ,...,xn . Ce sont les valeurs
numériques fournies par l’expérience.

4. Une statistique est une v. a. Yn = f (X1 , X2 , .., Xn ). Par exemple :


X1 + X2 + ... + Xn
Xn = .
n

7.3 Estimation ponctuelle


L’estimation ponctuelle consiste à donner des valeurs approchées aux paramètres inconnus
(m, σ, λ, etc...) à l’aide d’un échantillon de n observations issues de la population. On
construit une v. a. estimateur T qui est une fonction de l’échantillon aléatoire X1 ,...,Xn et
dont la valeur observée constitue une estimation de la valeur du paramètre recherché.
Soit θ un paramètre de la loi de X que l’on cherche à estimer.

Définition 7.1. On appelle estimateur T de θ, une variable aléatoire qui est une fonction
de l’échantillon :
Tn = f (X1 , ..., Xn ).
Remarque :
1. Un estimateur Tn dépend du choix de l’échantillon.

2. Un estimateur n’est pas unique, il s’agit d’en choisir un ”bon”. Les propriétés usuelles
d’un ”bon” estimateur sont : l’absence de biais et la convergence.

Définition 7.2. 1. L’estimateur Tn est sans biais si :

E(Tn ) = θ.

2. L’estimateur Tn est asymptotiquement sans biais si

lim E(Tn ) = θ
n−→∞

3. L’estimateur Tn est convergent si :

lim V ar(Tn ) = 0.
n−→∞

87
7.3.1 Estimation de la moyenne
Posons :
n
1X
Xn = Xi .
n
i=1

Xn est appelée moyenne empirique1 de l’échantillon (X1 , ..., Xn ).


P
Proposition 7.3. Xn = n1 ni=1 Xi est un estimateur sans biais et convergent de m = E(X).

Preuve.


1 1
E(X n ) = (E(X1 ) + ... + E(Xn )) = (m + m + ... + m) = m = E(X).
n n

1 1
V ar(X n ) = n2
V ar(X1 + ... + Xn ) = n2
(V ar(X1 ) + ... + Xn )

= n1 V ar(X1 ) −→ 0 (quand n −→ ∞).

On a utilisé que (Xi )ni=1 sont i.i.d. avec EX1 = EX = m et V ar(X1 ) = V ar(X) = σ 2 .

7.3.2 Estimation de la variance


Posons :
n
1 X
Sn2 = (Xk − X)2 , (Statistique Sn2 )
n−1
k=1

Proposition 7.4. Sn2 est un estimateur sans biais et convergent de la variance.

Preuve. On introduit la nouvelle statistique :


n
1X
Sbn2 = (Xk − X)2 ( variance empirique de l’échantillon).
n
k=1

Décomposition de Sbn2 : Partons de Xi − m = Xi − X + X − m.


On a alors :
n
X n
X n
X n
X
(Xi − m)2 = (Xi − X)2 + (X − m)2 + 2(X − m) (Xi − X) .
i=1 i=1 i=1
|i=1 {z }
=0

D’où
n n
1X 1X
(Xi − m)2 = (Xi − X)2 + (X − m)2 .
n n
i=1 i=1

Donc,
n
1X
Sbn2 = (Xi − m)2 − (X − m)2 .
n
i=1
1
La moyenne empirique : la moyenne calculée en se basant sur l’oservation et l’expérience.

88
Calculons E(Sbn2 ) :
Pn
E(Sbn2 ) = 1
n i=1 E(Xi − m)2 − E(X − m)2

1 Pn
= n i=1 V ar(Xi ) − V ar(X)

σ2 n−1 2
= σ2 − n = n σ .

Pour conclure, remarquons que :


n b2
Sn2 = S .
n−1 n
Donc,
E(Sn2 ) = σ.
Variance de Sbn2 : Un calcul dont la longueur est la seule difficulté montre que :
n−1
V ar(Sbn2 ) = [(n − 1)µ4 − (n − 3)σ 4 ],
n3
avec µi est le moment centré d’ordre i de X et si n −→ ∞ :

µ4 − σ 4
V ar(Sbn2 ) ∼ .
n

Donc Sbn2 est convergent.

Remarque :
1. Sbn2 est un estimateur de la variance, qui est biaisé, c’est la raison pour laquelle on
utilise Sn2 .
2. Sbn2 est un estimateur asymptotiquement sans biais et convergent. Pour n grand Sbn2 est
très peu différent de Sn2 .

Exercice 1. On a enregistré, minute après minute, le nombre de désintégrations subies par


un fragment de roche radioactive.
Le résultat de cette expérience est :

0 0 0 1 0 3 0 0 1 0 1 1 0 0 0 2 0 2 1 0.

Estimer la moyenne m et l’écart-type σ de l v. a. X définie comme le nombre de désintégrations


par minute pour ce fragment de roche.
La machine à calculer fournit :
x1 + x2 + ... + xn
x= = 0, 60.
20
Et
1
s2 =((x1 − x) + ... + (x20 − x)2 ) = 0, 88
19
En pratique : On observe un échantillon de taille n. On obtient pour chaque Xk une valeur
observée de Tn (elle dépend de l’échantillon observée). Cette valeur observée est appelée une
estimation ponctuelle de θ.

89
7.4 Estimation par intervalle confiance
Les paramètres estimés ponctuellement à partir d’un échantillon ne sont pas exactes.
On voudrait connaitre leur degré de précision. La démarche de l’estimation par intervalle de
confiance consiste à trouver un intervalle aléatoire qui contient θ avec une probabilité donnée.
Définition 7.5. Un intervalle de confiance, relatif au paramètre θ, de niveau de confiance
1 − α (ou de risque α) est un intervalle aléatoire [C1 , C2 ], où C1 et C2 sont deux statistiques,
telles que :
P (C1 ≤ θ ≤ C2 ) = 1 − α.
Remarque : Les valeurs couramment utilisées sont 1 − α = 0, 90 , 0, 95, ou 0, 99.
Dans la suite on va s’intéresser à θ = m = E(X).
On choisit alors :
C1 = X − ε, C2 = X + ε.
Par conséquent [X − ε, X + ε] est un intervalle de confiance de m, de risque α si :

P (X − ε ≤ m ≤ X + ε) = P (|X − m| ≤ ε) = 1 − α. (7.4.1)
Concrétement on se donne n et α et on cherche ε tel que (7.4.1) soit vérifiée. Nous allons
expliciter le calcul de ε lorsque la taille de l’échantillon est grande, ou sous une hypothèse de
normalité.

7.4.1 Etude de cas des échantillons de grande taille n ≥ 30


On a :
X1 + X2 + ... + Xn X1 + X2 + ... + Xn − nm σ
X −m= −m= = Sn∗ √ ,
n n n

où l’on a posé :


X1 + X2 + ... + Xn − nm
Sn∗ = √
n
D’après le T.C.L.
loi
Sn∗ N (0, 1).
−→n−→∞
Par conséquent,
√ √
σ ε n ε n
P (|X − m| ≤ ε) = P (|Sn∗ √ | ≤ ε) = P (|Sn∗ | ≤ ) ≈ P (|G| ≤ )
n σ σ

où G ∼ N (0, 1).


Or,
P (|G| ≤ a) = P (−a ≤ G ≤ a) = π(a) − π(−a) = 2π(a) − 1.
En conclusion √
ε n
P (|X − m| ≤ ε) ≈ 2π( ) − 1. (7.4.2)
σ
On introduit la définition suivante :
Définition 7.6. On note Zu le réel positif tel que :
1
π(Zu ) = u, ≤ u ≤ 1.
2

90
On déduit de (7.4.1) et (7.4.2) que ε, n et α sont liés par :
√ √
2π( ε σ n ) − 1 = 1 − α ⇐⇒ π(
√ σ
ε n
)=1− α
2
⇐⇒ ε σ n = Z1− α2
⇐⇒ ε = √σn Z1− α2 .

En conclusion, si n ≥ 30, [X − √σn Z1− α2 , X + √σn Z1− α2 ] est un intervalle de confiance de


la moyenne m, de niveau de confiance 1 − α (ou de risque α).

En pratique : On observe un échantillon de taille n. On obtient pour chaque v. a. Xk une


valeur observée xk . On en déduit les valeurs observées C1 et C2 :
σ
C1 = x − √ Z1− α2 ,
n
et
σ
C2 = x + √ Z1− α2 .
n
L’intervalle [C1 (x1 , ..., xn ), C2 (x1 , ..., xn )] est une estimation de l’intervalle de confiance de θ
de niveau de confiance 1 − α.

Remarque :
1. On ne peut être sûr que θ est dans l’intervalle [C1 , C2 ]. La probabilité α de se tromper
est donnée par :
P (θ ∈ [C1 , C2 ]) = 1 − α.
2. On rappelle :

Z0,950 = 1, 64, Z0,975 = 1, 96 et Z0,995 = 2, 58.

♣ Exercice 2. Un échantillon de taille 100, a pour moyenne 125,7 et variance 968,51.


Déterminer un intervalle de confiance de m avec seuil 1%.(i. e. de risque 1%).

Solution
α
On a α = 0, 01 donc 1 − 2 = 0, 995 et Z0,995 = 2, 575.
ε est donnée par : √
σ 968, 51
ε = √ Z1− α2 = × 2, 575 = 0, 80.
n 10
Par conséquent, L’intervalle cherché est [117, 7; 133, 7].

L’approche que nous avons développée s’applique à l’estimation de la probabilité p d’un


événement A se produisant au cours d’une expérience aléatoire E.
On reproduit cette expérience E, de manière indépendante, et on note (Xn ) la suite des v. a.
de comptage associées à A.
½
1 si A se produit à l’expérience n
Xn =
0 sinon

Les v. a. Xn sont indépendantes, et Xn est une v. a. de Bernoulli de paramètre p. Ce qui


signifie que (X1 , ..., Xn ) est un échantillon.
Mais,
m = E(X) = p = P (A).

91
Par conséquent, si n est grand,

ε n
P (|X − p| ≤ ε) ≈ 2π( ) − 1.
σ
En conclusion, [X − √σn Z1− α2 , X + √σn Z1− α2 ] est un intervalle de confiance de p = P (A),
de niveau de confiance 1 − α, lorsque n ≥ 30.

♣ Exercice 3. (Controle de qualité).


Lors de la production en série d’un article, on vaut évaluer la proportion d’articles défectueux.
On prélève 200 pièces au hasard, on trouve 18 articles défectueux.
Construire un intervalle de confiance de m de seuil 5%.

(Rep. ε ≈ 0, 04 [0, 05; 0, 13])

7.4.2 Etude de cas X ∼ N (m, σ 2 )


L’estimation de la moyenne repose sur le résultat suivant :

σ2
X ∼ N (m, )
n
(en effet, ∀i, Xi ∼ N (m, σ 2 ). De plus les Xi sont i.i.d.).
Déterminons l’intervalle de confiance pour la moyenne.
On charche ε tel que :
P (|X − m| ≤ ε) = 1 − α,
où α désignant un seuil donné.
Mais, X = m + √σn G avec G ∼ N (0, 1).
On en déduit : √
σ ε n
P (|X − m| ≤ ε) = P ( √ |G| ≤ ε) = P (|G| ≤ ).
n σ
On procède comme dans le cas des échantillons de grand taille, on a :

ε n
P (|X − m| ≤ ε) = 2π( ) − 1.
σ
En conclusion :
[X − √σn Z1− α2 , X + √σn Z1− α2 ] est un intervalle de confiance de la moyenne m, de niveau de
confiance 1 − α.
Remarque :
1. Si σ n’est pas connu, on peut le remplacer pas s.
2. Quand la taille de l’échantillon est petite et si X ne suit pas la loi normale, aucune
règle générale ne permet de déterminer l’intervalle de confiance. La technique adéquate
dépend essentiellement de la loi suivie par X.

♣ Exercice 4. On mesure le taux d’uré de 10 personnes, on trouve les résultats suivants :

24, 40, 30, 19, 48, 32, 35, 21, 18, 40.

déterminer un intervalle de confiance pour le risque 5%.

92
7.5 Tests paramètriques
Les tests statistiques sont des outils d’aide à la décision quand l’information est im-
complète. Ils fornissent un cadre scientifique qui permet de valider certaines hypothèses. Nous
allons faire des tests sur un paramètre inconnu θ.
On veut décider s’il faut raisonnablement rejeter ou accepter une hypothèse sur θ. En pra-
tique, on teste une hypothèse H0 “dite hypothèse nulle” contre une hypothèse “alternative”
H1 . Par exemple :
1) H0 : m = 2 H1 : m 6= 3
2) H0 : m = 5 H1 : m < 5
Remarques
· Le test 1) est appelé un test bilatéral.
· Le test 2) est appelé un test unilatéral.
On veut décider de choisir H0 ou H1 , uniquement apès avoir réaliser une série d’expériences :
x1 , x2 , ..., xn .
On choisit un estimateur T de θ. On définit une région de rejet R, qui dépend de θ, T, H0 et
H1 telle que :
· si t ∈ R, on rejette H0 et on accepte H1 ,
· si t ∈ Rc , on accepte H0 ,
avec t désignant la valeur observée de T (T statistique, T = f (X1 , ..., Xn ), alors t = f (x1 , ..., xn )).
La région Rc est aussi appelé région d’acceptation.
Il est évident qu’il existe un risque d’erreur. On définit :
· Le risque de premir̀e espèce qui est la probabilité α de rejetter à tord H0 (rejetter
H0 alors que H0 est vraie).
· Le risque de deuxième espèce qui est la probabilité β d’accepter à tord H0 ( accepter
H0 alors que H1 est vraie).
α et β sont données par les relations :

α = P ( T ∈ R | H0 ) ; β = P ( T ∈ R | H1 ).

La notation P ( T ∈ R | H0 ) représente la probabilité pour que T appartienne à R, lorsque


l’hypothèse H0 est satisfaite. Ainsi si H0 est m = 3,

α = P ( T ∈ R | H0 ) = P ( T ∈ R | m = 3)

est la probabilité pour que T ∈ R, lorsque la moyenne de X vaut 3. En pratique on se borne


à évaluer α, le calcul de β est souvent difficile à réaliser.
Dans la suite nous ne considérerons que des tests portant sur la moyenne θ = m. On
choisit :
1
T = X = (X1 + X2 + ... + Xn ),
n
Lorsque H0 : m = m0 et H1 : m 6= m0 , on prend :

Rc =]m0 − ε , m0 + ε[ ; ε > 0.

On a :
{T ∈ R} = {X ∈ R} = {|X − m0 | ≥ ε}.
Comme précédemment, α et n étant donnés, on cherche ε tel que

P (|X − m0 | > ε|m = m0 ) = α.

Condition équivalente à :

P (|X − m| ≤ ε|m = m0 ) = 1 − α.

93
On peut reproduire l’analyse développée pour la détermination d’un intervalle de confiance.
Si n est grand (n ≥ 30), ou si X suit une loi gaussienne, ε est donné par la formule :
σ
ε = √ z1−α/2 .
n

Lorsqu’on teste H0 : m = m0 contre H1 : m 6= m0 , avec un risque de première


h i
espèce α > 0, la région d’acceptation de H0 est X − √σ z1−α/2 , X+ √σ z1−α/2 .
n n

Exercice 5.
Une machine prouduit des pièces ayant une moyenne de 8,3 cm avec un écart-type de 0,6
cm. Avant de passer une commande importante, le responsable de la machine veut tester
si m = 8, 3 ou si m a changé. Pour ce faire, il prélève 100 pièces et trouve une longueur
moyenne de 8,4 cm.
Doit-il accepter la production avec un seuil d’erreur de 5% ?

Exercice 6.
La durée de vie d’un équipement électrique est de 400 heures avec un écart-type de 60 heures.
On voudrait tester si la moyenne vaut 400 heures au moins de 400 heures. On effectue un
test avec 25 appareils. On trouve une moyenne de 378,1 heures.
Que peut-on en conclure, avec un risque de 5% ?

94
7.6 Exercices
Exercice 1. Loi de Pareto
Soit Y une variable exponentielle de paramètre λ > 0.
1. Quelle est la loi de la v.a. X = eY . Cette loi est appelée la loi de Pareto P(λ, 1).
2. Déterminer une condition nécessaire et suffissante d’existence de E(X), puis la calcu-
ler.
3. D’éterminer une condition nécessaire et suffissante d’existence de V (X), puis la cal-
culer.
Exercice 2. Loi de Weibull
Une variable aléatoire X est dite de Weibull de paramètre (α, λ) (α > 0, λ > 0), si la v.a.
X α suit une loi exponentielle de paramètre λ > 0.
Déterminer une densité de X et calculer E(X).

Exercice 3. Loi du Chi-deux : χ2


Soit X une v.a. suivant une loi normale centrée et réduite N (0, 1).
1. Montrer que la v.a. Y = X 2 est une variable à densité que l’on déterminera.
On dit que Y suit une loi du Chi-deux à un degré de liberté.
En général, si X1 , X2 , ..., Xr est une suite de v.a. indépendantes toutes de loi N (0, 1),
alors la loi de la v.a. Z = X12 + ... + Xr2 est appelée la loi du Chi-deux à r degré de
liberté et notée χ2r
2. Montrer que Y admet une espérance que l’on calculera.
Exercice 4. Soit T une v. a. réelle dont une densité de probabilité est f définie par
½ 2x
R2
si 0 ≤ x ≤ R
f (x) =
0 sinon

où R est un réel strictement positif inconnu.

1. a) Vérifier que f est bien une densité de probabilité.


b) Montrer que T admet une espérance et une variance que l’on calculera.

2. Soit T1 , ..., Tn n variables aléatoires indépendantes de même loi que T .


On pose
n
1X
Xn = Ti .
n
i=1

a) Calculer E(Xn ) et V ar(Xn ).


b) Xn est-il un estimateur sans biais de R ?
c) Déterminer un réel λ tel que
Xbn = λXn

soit un estimateur sans biais de R.


3. On considère un nombre ε > 0 donné.
a) À l’aide de l’inégalité de Bienaymé-Tchebycheff, montrer que
2
bn − R| ≥ ε) ≤ R .
P (|X
8nε2
bn − R| ≥ ε) = 0.
b) En déduire que : limn−→∞ P (|X
b
( On dit que Xn est un estimateur convergent de R.)

95
Chapitre 8

Examens corrigés des années


universitaires 2005-2007

Université Cadi Ayyad


Ecole Nationale des Sciences Appliquées
Safi

Devoir surveillé N 1.
Epreuve de Probabilites et Statistiques Durée du sujet : 1H :30min
Examen de 13 mars 2006 Responsable : Lakhel El Hassan
Horaire : 10H :30min-12H :00

Exercice 1.
Dans une usine on dispose de 3 machines A, B, C fabriquant des pièces mécaniques d’un
type déterminé. La machine A assure 25% de la production, la machine B assure 35% et C
en assure 40%.
5% des pièces fabriquées à l’aide de la machine A sont défectueuses. Les pourcentages sont
respectivement égaux à 4% et 2% pour les machines B et C.
1) On tire une pièce au hasard quelle est la probabilité qu’elle soit défectueuse ?
2) On tire une pièce d’un lot constitué de pièces fabriquées, dans les proportion indéquées, par
les machines A, B et C. On constate que cette pièce est défectueuse. Calculer la probabilité
qu’elle ait été fabriquée :
- par la machine A
- par la machine B
3) On tire une pièce au hasard. Elle est saine. Quelle est la probabilité qu’elle vienne de C.

Exercice 2.
Un test sanguin a une probabilité de 0.95 de détecter un certain virus lorsque celui ci est
effectivement présent. Il donne néanmoins un faux résultat positif pour 1% des personnes
non infectées. Notons V = {la personne testée a le virus}, T = {la personne testée a un test
positif}.
1. Si 0.5% de la population est porteuse du virus, quelle est la probabilité qu’une personne
ait le virus sachant qu’elle a un test positif ?

2. Interpréter le résultat.

96
Exercice 3.
T
1. Soit n ≥ 2, Etablir que, si (A1 , ..., An ) est une suite d’événements telle que P ( ni=1 Ai ) >
0, alors
\n Yn
P ( Ai ) = P (A1 ) P∩i−1 Ak (Ai ).
k=1
i=1 i=2

(Indication : On pourra raisonner par rucurrence sur n).

2. Application :
Un sac contient initialement une boule blanche et une boule noire. On réalise indéfiniment
l’expérience suivante : on tire une boule, on regarde sa couleur, on la remet dans le sac
et on rajoute une nouvelle boule de la même couleur que celle obtenue.
Notons X le nombre de tirage(s) nécessaire(s) avant d’obtenir une boule noire, avec la
convention que X = 0 si on ne tire jamais de boule noire.
Notons Bi l’événement “On obtient une boule blanche au ieme tirage”.

a. Montrer que {X = 1} = B1c et que {X = n} = B1 ∩ B2 ∩ ... ∩ Bn−1 ∩ Bnc pour n ≥ 2.

b. Que vaut la probabilité de Bnc sachant B1 ∩ B2 ∩ ... ∩ Bn−1 ?

c. Calculer, pour i ∈ {2, ..., n − 1}, la probabilité de Bi sachant B1 ∩ B2 ∩ ... ∩ Bi−1 .

d. À l’aide de la question 1) (en choisissant Ai = Bi si i < n et An = Bnc ),


1
montrer que P (X = n) = n(n+1)
Qn−1 i 2×3×...×(n−1)
(On remarquera que i=2 i+1 = 3×...×(n−1)×n = n2 )
1
e. En remarquant que n(n+1) = n1 − n+1
1
, montrer que

+∞
X
P (X = n) = 1.
n=1

f. Que vaut P (X = 0) ? Interpréter le résultat.

Barême approximatif :

Exercice 1 : 4 points

Exercice 2 : 4 points

Exercice 3 : 12 points.

97
Corrigé du DS N 0 1 - A. U. 2005-2006- :
Exercice 1 :

Soit A : ”être fabriqué par A”, B : ” être fabriqué par B”,...


D : ” être défectueuse” et D : ”saine”.
On a
P (A) = 0.25, P (B) = 0.35, P (C) = 0.4.
A, B et C sont tels que A ∩ B = A ∩ C = B ∩ C = ∅ et A ∪ B ∪ C = Ω.
1) En applicant la formule des probabilités totales on a :
P (D) = PA (D)P (A) + PB (D)P (B) + PC (D)P (C)
= 0.05 × 0.25 + 0.04 × 0.35 + 0.02 × 0.4 = 0.0345 = 3.45%.
2) D’après le théorème de Bayes,
PA (D)P (A) 0.05 × 0.25
PD (A) = = = 36%.
P (D) P (D)
P (D/B)P (B) 0.04 × 0.35
P (B/D) = = = 40%.
P (D) 0.0345
3)De même :
PC (D)P (C) 0.98 × 0.4
PD (C) = = = 40%.
P (D) 1 − P (D)
Exercice 2 :

1. On cherche P (V /T ).
On sait que :

P (V ) = 0.005, P (T /V ) = 0.95, et P (T /V c ) = 0.01.

On en déduit :
P (T ∩V ) P (T /V )P (V )
P (V /T ) = P (T ) = P (T /V )P (V )+P (T /V c )P (V c )

0.95×0.005
= 0.95×0.005+0.01×0.995 = 0.323
2. Le test n’est pas fiable : si la personne présente un test positif, la probabilité qu’elle
ne soit pas porteuse du virus est deux fois plus élvée que celle qu’elle le soit ( en effet ;
P (V /T ) ' 33%. )
Exercice 3 :

1. On raisonne par récurrence sur n.


Si n = 2, l’égalité devient P (A1 ∩ A2 ) = P (A1 )PA1 P (A2 ) et se justifie même par la
définition de la probabilité conditionnelle PA1 .
Supposons que la propriété soit vraie au rang n et montrons la au rang n + 1 :
n+1
\ n
\ n
\
P( Ai ) = P ( Ai ∩ An+1 ) = P ( Ai )PTnk=1 Ak (An+1 )
i=1 i=1 i=1

Par hypothèse de récurrence,


n
Y n+1
Y
= P (A1 ) PTi−1 Ak (Ai )PTnk=1 Ak (An+1 ) = P (A1 ) PTi−1 Ak (Ai ).
k=1 k=1
i=2 i=2

98
Ainsi, la propriété se transmet du rang n au rang n + 1.
Finalement, nous avans prouvé, par récurrence
n
\ n
Y
∀n ≥ 2 : P ( Ai ) = P (A1 ) PTi−1 Ak (Ai ).
k=1
i=1 i=2

2. a. Si X = 1, c’est que l’on a tiré une boule noire dès le premier tirage.
Ainsi :
{X = 1} = B1c .
Si X = n avec n ≥ 2, c’est que, lors des n − 1 premiers tirages, on a tiré des boules
blanches et qu’au n-ième tirage, on a tiré une boule noire.
Ainsi :
{X = n} = B1 ∩ B2 ∩ ... ∩ Bn−1 ∩ Bnc .
b. Si B1 ∩ B2 ∩ ... ∩ Bn−1 a lieu, c’est que l’on a réalisé n − 1 tirages et que l’on a tiré
des boules blanches. Ainsi, à ce stade, le sac contient n + 1 boules dont n blanches.
la probabilité de tirer une boule noire est donc nb de cas favorables 1
nb de cas possibles = n+1 .
En d’autres termes :
n
PB1 ∩B2 ∩...∩Bn−1 (Bnc ) = .
n+1
c. Par un raisonnement similaire au précédent, on trouve
i
∀i ∈ {2, ..., n − 1} : PB1 ∩B2 ∩...∩Bi−1 (Bi ) = .
i+1
d. En suivant les indications de l’énoncé, on peut écrire
T Q
P (X = n) = P (B1 ∩ B2 ∩ ... ∩ Bn−1 ∩ Bnc ) = P ( ni=1 Ai ) = P (A1 ) ni=2 PTi−1 Ak (Ai )
Q Qn−1 i k=1
= P (B1 ) n−1
i=2 P Ti−1
Bk (Bi )P Tn−1
Bk (B c) = 1
n 2 i=2 i+1 × 1
n+1 = 1
n(n+1) .
k=1 k=1

e. On a :
N
X N
X N
X N
X +1
1 1 1 1
P (X = n) = = − =1− .
n(n + 1) n n N +1
n=1 n=1 n=1 n=2

Par suite,
+∞
X N
X 1
P (X = n) = lim P (X = n) = lim (1 − ) = 1.
N −→∞ N −→∞ N +1
n=1 n=1

f. Par définition d’une probabilité,


+∞
X
P (X = n) = 1.
n=0

D’où : P (X = 0) = 0, En d’autres termes, on finira toujours par tirer une boule


noire (quitte à attendre suffisamment longtemps.)

99
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Devoir surveillé N o 2.
Epreuve de Probabilités et Statistiques Durée du sujet : 1h :30min
Examen de 17 avril 2006. Responsable : Lakhel El Hassan
Horaire : 10h :30-12h :00.

Exercice 1. Interprétation du graphique d’une f.d.r. (5 points)


La variable aléatoire X a pour fonction de répartition F dont le graphe est représenté par la
figure 1.

Fig. 1 -Fonction de répartition F de la v.a. X


1. Pour tout x ∈ R, montrer que :

P (X = x) = F (x) − F (x−),

avec F (x−) = limε−→0 F (x − ε).


2. En exploitant les informations fournies par ce graphique1 , donner les valeurs des pro-
babilités suivantes.

P (X = 0), P (X ≥ 0), P (4 ≤ X ≤ 6), P (0 < X < 4), P (X ≥ 6).

3. La variable aléatoire X est-elle à densité ?

Exercice 2. (5points)
Soit (a, b) ∈ N∗2 ; a < b ; X est une variable aléatoire discrète de Ω dans N ∗ telle que :
∀x ∈ |[1, ab]| ; P (X = x) = a1 − 1b et P (X = x) = 0 ailleurs.
1
Ne perdez pas de temps à le reproduire sur votre copie.

100
1) Déterminer une CNS sur a et b pour que les relations précédentes définissent effecti-
vement une loi de probabilité.
2) Dans ces conditions, tracer la représentation graphique de la fonction de répartition
FX de X.

3) Calculer la probabilité pour que X ∈ |[a, a+b


2 ]|.
Exercice 3. (10 points)

On considère la fonction f (u) définie par :


u2
f (u) = ke− 2 , ∀u ∈ R.

1. Déterminer la constante k de telle sorte que f (x) puisse être considérée comme la
densité de probabilité d’une v.a. continue U .

2. Que valent E(U ) et V (U ) ?

3. Soit X la v.a. définie par


X = m + σU
où m et σ sont des réels non nuls. Déterminer la densité de probabilité g(x) de X.
4. Soit FX la fonction de répartition de X. Montrer que
x−m
FX (x) = Π( ).
σ
Montrer que par le changement de variable z = x−m σ toutes les varibles aléatoires nor-
males N (m, σ) se ramèment à la loi normale centrée réduite U .

5. Soit Π(z) la fonction de répartition de U . Montrer que

Π(−z) = 1 − Π(z)

6. Application : Le stock journalier d’un produit destiné à un atelier suit une loi nor-
male de moyenne 120 pièces et d’écart type 50 pièces.

a. Calculer la probabilité pour que le nombre de pièces en stock soit compris entre 80
et 160.
b. Calculer la probabilité pour que le nombre de pièces en stock soit supérieur à 200.
c. Calculer la probabilité pour qu’il y ait rupture de stock.
d. Interpret́er ces résultats.

On donne

Π(0, 8) = 0, 7881, Π(1, 6) = 0, 9452 et Π(2, 4) = 0, 9918.

101
Corrigé du DS no 2 -16 mars 2006-
Exercice 1

1. Voir le cours.
2. Calcul des probabilités par la lecture du graphe de F
P (X = 0) = F (0) − F (0−) = 0, 4 − 0, 2 = 0, 2
P (X ≥ 0) = 1 − P (X < 0) = 1 − F (0−) = 1 − 0, 2 = 0, 8
P (4 ≤ X ≤ 6) = P (X ≤ 6) − P (X < 4) = F (6) − F (4−) = 1 − 0, 6 = 0, 4
P (0 < X < 4) = P (X < 4) − P (X ≤ 0) = F (4−) − F (0) = 0, 6 − 0, 4 = 0, 2
P (X ≥ 6) = 1 − P (X < 6) = 1 − F (6−) = 1 − 1 = 0
3. La v.a. X n’est pas à densité car sa fonction de répartition n’est pas continue.
Exercice 2
Voir série d’exercice N ◦ 4
Exercice 3

 f ≥0
1. f est une densité ⇔ et
 R +∞
−∞ f (x)dx = 1
On doit avoir Z +∞
u2
k e− 2 du = 1.
−∞
R +∞ − x2
2 √
On a vu dans le cours −∞ e dx = 2π.
On doit donc avoir
1
k=√ .

2. U ∼ N (0, 1)
Donc E(U ) = 0 et V ar(U ) = 1 (Voir CH.4).
3. On a :
X = m + σU
Par suite
E(X) = m + σE(U )
V (X) = σ 2 V (U )
Comme E(U ) = 0 et V (U ) = 1 on aura :

E(X) = m
V (X) = σ 2

4. Soit Π(u) la fonction de répartition de U et G(x) celle de X.


On peut écrire :

G(x) = P (X ≤ x) = P (m + σU ≤ x) (car X = m + σU )

Mais
x−m
P (m + σU ≤ x) = P (σU ≤ x − m) = P (U ≤ )
σ
Or
x−m x−m
P (U ≤ ) = Π( )
σ σ
Donc
x−m
G(x) = Π( ).
σ

102
• Si f (u) est la densité de probabilité de U et g(x) celle de X
On sait que :
f (U ) = Π0 (U )
.
g(x) = G0 (x)
Mais, on a :
1 0 x−m
G0 (x) = Π( ).
σ σ
Par conséquent
1 x−m
g(x) = f( ).
σ σ
Finalement,
1 1 x − m
g(x) = √ e− 2 ( )2 .
σ 2π σ
5◦ ) Montrons que Π(−z) = 1 − Π(z).

1ere méthode : D’apès le graphe de la fonction Π.


On ramarque que : Π(−z) = 1 − Π(z).
2ieme méthode :
R −z x2
Π(−z) = −∞ √12π e− 2 dx
R +∞ x2 R +∞ x2
= −∞ √12π e− 2 dx − −z √1

e− 2 dx
R +∞ x2
= 1 − −z √12π e− 2 dx

Or, par le changement de variable u = −x, on obtient :


Z +∞ Z +z
1 − x2
2 1 x2
√ e dx = √ e− 2 dx = Π(z)
−z 2π −∞ 2π
Finalement,
Π(−z) = 1 − Π(z).
6. Application : X ∼ N (120, 50)
a. Probabilité pour que le nombre de pièces en stock soit compris entre 80 et 160 :
P (80 ≤ X ≤ 160) = P ( 80−120
50 ≤ X−120
50 ≤ 160−120
50 )
= P (−0, 8 ≤ U ≤ 0, 8)
= Π(0, 8) − Π(−0, 8)
= Π(0, 8) − (1 − Π(0, 8))
Or Π(0, 8) = 0, 7881, donc :

P (80 ≤ X ≤ 160) = 0, 5762.

Interpretation :
Il y a 57, 62% de chances pour que le nombre de pièces en stock soit compris entre
80 et 160.
b.
P (X > 200) = 1 − P (X ≤ 200)
= 1 − P ( X−120
50 ≤ 200−120
50 )
= 1 − P (U ≤ 1, 6) = 1 − Π(1, 6)
= 1 − 0, 9452 = 0, 0548.
Interpretation :
Il y a 5, 48% de chances pour que le nombre de pièces en stock soit superieur à 200.

103
c. P (X ≤ 0) = 0, 0082.
Interpretation :
Il y a un risque trés faible de moins de 1% pour qu’il y a rupture du stock.

104
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Devoir surveillé N o 3.
Epreuve de Probabilités et Statistiques Durée du sujet : 1h :30min
Examen de 15 juin 2006. Responsable : Lakhel El Hassan
Horaire : 10h :30-12h :00.

Question de cours :(3 points) Soit U une v.a. réelle qui suit la loi uniforme sur [0, 1].
Si λ > 0 quelle est la loi de Y = − λ1 ln U .
Exercice 1. (9 points)
Soient r un réel strictement supérieur à 2 et X une variable aléatoire réelle de densité f
r
donnée par f (x) = xr+1 si x ≥ 1 et f (x) = 0 sinon.

1. Donner l’allure du graphe de f puis vérifier que c’est bien une densité de probabilité.
2. Calculer l’espérance et la variance de X.
3. Déterminer la densité de la variable aléatoire Y = ln X
4. Le nombre de kilomètres couverts par une batterie de voiture avant défaillance est une
variable aléatoire ayant la même loi que Y et d’espérance égale à 9000 kilomètres.
Une personne achète une batterie neuve et souhaite se lancer dans un voyage de 3000
kilomètres. Avec quelle probabilité terminera-t-elle son voyage sans avarie de batterie ?
Exercice 2. (8 points)
Soit T une v. a. réelle dont une densité de probabilité est f définie par
½ 2x
R2
si 0 ≤ x ≤ R
f (x) =
0 sinon
où R est un réel strictement positif inconnu.

1. a) Vérifier que f est bien une densité de probabilité.


b) Montrer que T admet une espérance et une variance que l’on calculera.

2. Soit T1 , ..., Tn n variables aléatoires indépendantes de même loi que T .


On pose
n
1X
Xn = Ti .
n
i=1
a) Calculer E(Xn ) et V ar(Xn ).
b) Xn est-il un estimateur sans biais de R ?
c) Déterminer un réel λ tel que
Xbn = λXn
soit un estimateur sans biais de R.
3. On considère un nombre ε > 0 donné.
a) À l’aide de l’inégalité de Bienaymé-Tchebycheff, montrer que
2
bn − R| ≥ ε) ≤ R .
P (|X
8nε2
bn − R| ≥ ε) = 0.
b) En déduire que : limn−→∞ P (|X
b
( On dit que Xn est un estimateur convergent de R.)

105
Corrigé du DS no 3 -15 juin 2006-
Question de cours :
Soit U une v.a. réelle de loi uniforme sur [0, 1].
On pose
1
Y = − LnU , λ > 0.
λ
Pour trouver la loi de Y , on se donne une fonction test h quelconque, on met
Z +∞
1 1
E(h(Y )) = E(h(− LnU )) = h(− Lnu)fU (u)du
λ −∞ λ
R +∞
sous la forme −∞ h(y)fy (y)dy à l’aide du changement de variable y = − λ1 Lnu et la densité
de Y est alors fy trouvée.
On a : R1
E(h(Y )) = E(h(− λ1 LnU )) = 0 h(− λ1 Lnu)du
R +∞
= 0 h(y)λe−λy dy.
Par conséquent, Y admet pour densité fY donnée par

fY (y) = λe−λy 1[0,+∞[ (y) ⇒ Y ∼ ε(λ).

Exercice 1

1. La fonction f est à valeurs positives. On a de plus


Z +∞ Z +∞
r
f (x)dx = r+1
dx = [−x−r ]+∞
1 =1
−∞ 1 x

car r > 0. La fonction f est donc bien une densité.

2. On a
Z +∞ Z +∞ · ¸+∞
−r r r
|x|f (x)dx = rx dx = − x−r+1 = < +∞
−∞ 1 r−1 1 r−1

car r − 1 > 0. On en déduit que X admet une espérance.


Comme Z +∞ Z +∞
|x|f (x)dx = xf (x)dx,
−∞ −∞
on a
r
E(X) = .
r−1
On a :
Z +∞ Z +∞ · ¸+∞
2 −r+1 r r
x f (x)dx = rx dx = − x−r+2 = < +∞
−∞ 1 r−2 1 r−2
car r − 2 > 0.
r
On en déduit que X admet un moment d’ordre 2 et qu’il vaut r−2 . Par conséquent, X
r r 2 r
admet une variance qui vaut r−2 − ( r−1 ) = (r−1)2 (r−2) .
Remarque. Ceux qui ont donné les bonnes valeurs pour E(X) et V ar(X) sans justifier
leur existence ont quand même eu tous les poinnts.

106
3. Soit h une fonction bornée. On a
Z +∞
E{h(Y )} = E{h(lnX)} = h(lnx)rx−r−1 dx.
1

Faisons le changement de variable y = lnx ⇔ x = ey . On obtient


Z +∞
E{h(Y )} = h(y)re−ry dy.
0

On en dédui que la densité fy de Y est donnée par fY (y) = re−ry si y ≥ 0 et fY (y) = 0


sinon. On reconnait la densité de la loi exponentielle de paramètre r.
Remarque. On pouvait aussi utiliser la fonction de répartition.

4. Le nombre N de kilomètres couverts avant défaillance suit donc une loi exponentielle.
L’enoncé nous apprend que EN = 9000. Or on sait que l’espérance d’une loi exponen-
tielle est égale à l’inverse de son paramètre. Par conséquent, N suit la loi exponentielle
1
de paramètre 9000 .
La probabilité que la personne termine son voyage sans avarie de batterie est donc égale
à : Z +∞
1 − x −x −1
P (N > 3000) = e 9000 dx = [−e 9000 ]+∞
3000 = e
3 .
3000 9000
Exercice 2

1. a. Vérifions que f est bien une densité de probabilité :


On a ∀x ∈ R, f (x) ≥ 0. De plus,
Z
f (x)dx = 1.
R
b. Montrons que T admet une espérance :
Z Z R
2x2 2
E(T ) = xf (x)dx = = R.
R 0 R 2 3
Montrons que T admet une variance : on a,

V ar(T ) = E(T 2 ) − E(T )2 .

Calculons : E(T 2 ) : Z +∞
2 R2
E(T ) = x2 f (x)dx = .
−∞ 2
Or, E(T ) = 23 R.
Donc E(T )2 = 49 R2 .
Finalement,
R2
V ar(T ) = E(T 2 ) − E(T )2 = .
18
1 Pn
2. On pose : Xn = n i=1 Ti .

a. Calculons E(Xn ) :
1 Pn
E(Xn ) = E(P n i=1 Ti )
1 n
n E( i=1 Ti ))
1 Pn
n i=1 E(Ti )).

107
Or les Ti ont la même loi et on a : E(Ti ) = 32 R.
D’où :
2
E(Xn ) = R
3
Calculons V ar(Xn ) :
P
V ar(Xn ) = V ar( n1 ni=1 Ti )
P `tes
= n12 V ar( ni=1 Ti ), Les Ti sont .
2
= n12 n R18 .

Donc :
R2
V ar(Xn ) =
.
18n
b. Vérifions si Xn est un estimateur sans biais : On a,
2
E(Xn ) = R 6= R.
3
Par suite, Xn est un estimateur biaisé.
c. Déterminons λ tel que Xcn = λXn soit sans biais.
c cn ) = R.
Pour que Xn soit un estimateur sans biais de R, il faut que E(X
Comme
E(Xcn ) = λE(Xn ) = λ 2 R.
3
Donc
3
λ= .
2
3.
bn − R| ≥ ε) ≤ R2
a. Montrons que P (|X 8nε2
.
D’après l’inégalité de B. T., on a :

V ar(Xcn )
bn − R| ≥ ε) ≤
P (|X .
ε2
cn ) :
Cherchons V ar(X

cn ) = V ar( 3 Xn ) = 9 V ar(Xn ).
V ar(X
2 4
Or,
R2
V ar(Xn ) = .
18n
D’où :
2
cn ) = R .
V ar(X
8n
Donc :
2
bn − R| ≥ ε) ≤ R .
P (|X
8nε2
b. On a,
2
bn − R| ≥ ε) ≤ R .
P (|X
8nε2
bn − R| ≥ ε) ≤ limn−→∞ R2
D’où : limn−→∞ P (|X 8nε2
= 0.
Donc X bn est un estimateur convergent de R.

108
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Examen de rattrapage
Epreuve de Probabilités et Statistiques Durée du sujet : 1h :30min
Examen de 28 juin 2006. Responsable : Lakhel El Hassan
Horaire : 16h :30-18h :00.

Exercice 1. (11 points)


On lance quatre fois de suite une pièce de monnaie non truquée. Soient X le nombre de
séquences ”Pile-Face” (dans cet ordre) obtenues 1 et Y le nombre de Piles obtenus.
1 3
1. Expliquer pourquoi P ({X = 0} ∩ {Y = 1}) = 16 et P ({X = 1} ∩ {Y = 1}) = 16 .
Dans la suite, on admettra que la loi du couple aléatoire (X,Y)est donnée par

X \ Y 0 1 2 3 4
1 1 1 1 1
0 16 16 16 16 16
3 1 3
1 0 16 4 16 0
1
2 0 0 16 0 0

2. Donner la loi de X et dessiner sa fonction de répartition.


3. La variable aléatoire Y suit une loi usuelle. Laquelle ? Quels sont ses paramètres ?
Donner E(Y ) et V ar(Y ) sans faire de calcul.
4. Montrer que les variables aléatoires X et Y ne sont pas indépendantes. (On pourra
comparer P ({X = 0} ∩ {Y = 1}) et P (X = 0)P (Y = 1))
5. Calculer le coefficient de corrélation linéaire ρ(X, Y )
6. On sait que pour toutes variables aléatoires indépendantes X1 et X2 on a

ρ(X1 , X2 ) = 0.

Est-ce que la réciproque de cette proposition est vraie ?

Exercice 2. (9 points)
Soient r un réel strictement supérieur à 2 et X une variable aléatoire réelle de densité f
r
donnée par f (x) = xr+1 si x ≥ 1 et f (x) = 0 sinon.

1. Donner l’allure du graphe de f puis vérifier que c’est bien une densité de probabilité.
2. Calculer l’espérance et la variance de X.
3. Déterminer la densité de la variable aléatoire Y = ln X
4. Le nombre de kilomètres couverts par une batterie de voiture avant défaillance est une
variable aléatoire ayant la même loi que Y et d’espérance égale à 9000 kilomètres.
Une personne achète une batterie neuve et souhaite se lancer dans un voyage de 3000
kilomètres. Avec quelle probabilité terminera-t-elle son voyage sans avarie de batterie ?

1
Par exemple, la séquence P P F P donne X = 1 ; F P P P donne X = 0, P F P F donne X = 2; etc...

109
Correction d’examen de rattrapage -28 juin 2006-

Exercice 1 :
1. L’univers Ω = {P, F }4 est de cardinal 24 = 16. Calculons X(ω) et Y (ω) pour chaque
ω ∈ Ω.
Si ω = P P P P alors X(ω) = 0 et Y (ω) = 4
Si ω = P P P F alors X(ω) = 1 et Y (ω) = 3
Si ω = P P F P alors X(ω) = 1 et Y (ω) = 3
Si ω = P F P P alors X(ω) = 1 et Y (ω) = 3
Si ω = P P F F alors X(ω) = 1 et Y (ω) = 2
Si ω = P F P F alors X(ω) = 2 et Y (ω) = 2
Si ω = P F F P alors X(ω) = 1 et Y (ω) = 2
Si ω = P F F F alors X(ω) = 1 et Y (ω) = 1
Si ω = F P P P alors X(ω) = 0 et Y (ω) = 3
Si ω = F P P F alors X(ω) = 1 et Y (ω) = 2
Si ω = F P F P alors X(ω) = 1 et Y (ω) = 2
Si ω = F P F F alors X(ω) = 1 et Y (ω) = 1
Si ω = F F P P alors X(ω) = 0 et Y (ω) = 2
Si ω = F F P F alors X(ω) = 1 et Y (ω) = 1
Si ω = F F F P alors X(ω) = 0 et Y (ω) = 1
Si ω = F F F F alors X(ω) = 0 et Y (ω) = 0.
1
On en déduit P (X = 0) ∩ {Y = 1} = P ({F F F P }) = 16 . Et P (X = 1) ∩ {Y = 1} =
3
P ({P F F F }) + P ({F P F F }) + P ({F F P F }) = 16 .

2. La v. a. X prend ses valeurs dans {0, 1, 2} et on a :


1 1 1 1 1 5
P (X = 0) = 16 + 16 + 16 + 16 + 16 + = 16 ,
5
P (X = 1) = 8 ,
1
P (X = 2) = 16 .

La fonction de répartition de X est donnée par :

3. La v. a. Y compte le nombre de piles obtenus quand on jette quatre fois de suite une pièce
de monnaie non truquée, donc Y suit la loi binomiale de taille n et de paramètre 21 .
Donc
1
E(Y ) = 4 × = 2.
2
Et
1 1
V ar(Y ) = 4 × × (1 − ) = 1.
2 2
4. On a P ({X = 0} ∩ {Y = 1}) = 16 . P ({X = 0}) = 16 et P ({Y = 1}) = 14 .
1 5

Donc P ({X = 0} ∩ ∩{Y = 1}) 6= P ({X = 0})P ({Y = 1}). Or, si X et Y sont indépendantes,

110
on aurait (par définition)

P ({X = 0} ∩ {Y = 1}) 6= P ({X = x})P ({Y = y}),

pour tous (x, y) ∈ {0, 1, 2} × {0, 1, 2, 3, 4}.


Donc X et Y ne sont pas indépendantes.

3 1 9 1
5. On a : E(XY ) = 16 + 2 + 16 + 4 = 32 .
Donc :
Cov(X, Y ) = E(XY ) − E(X)E(Y ) = 0.
Par suite,
%(X, Y ) = 0.
6. La réciproque de cette proposition est fausse, car X et Y ne sont pas indépendantes et elles
vérifient pourtant %(X, Y ) = 0.

Exercice 2 :
Voir Exo 1. du DS N o 3.

111
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Devoir surveillé N 1.
Epreuve de Probabilites et Statistiques Responsable : Lakhel El Hassan
Examen de 16 octobre 2006 Horaire : 09H :00min-10H :30min

Exercice 1.
On considère trois cartes : une avec les deux faces rouges, une avec les deux faces blanches,
et une avec une face rouge et une face blanche. On tire une carte au hasard. On expose une
face au hasard. Elle est rouge. Parieriez-vous que la face cachée est blanche ? pour vous aider
dans votre choix :
1. Déterminer l’espace de probabilité.
2. Calculer la probabilité que la face cachée est blanche sachant que la face visible est
rouge.
Exercice 2.
Dans une usine on dispose de 3 machines A, B, C fabriquant des pièces mécaniques d’un
type déterminé. La machine A assure 25% de la production, la machine B assure 35% et C
en assure 40%.
5% des pièces fabriquées à l’aide de la machine A sont défectueuses. Les pourcentages sont
respectivement égaux à 4% et 2% pour les machines B et C.
1. On tire une pièce au hasard quelle est la probabilité qu’elle soit défectueuse ?

2. On tire une pièce d’un lot constitué de pièces fabriquées, dans les proportion indéquées,
par les machines A, B et C. On constate que cette pièce est défectueuse. Calculer la
probabilité qu’elle ait été fabriquée par la machine A

3. On tire une pièce au hasard. Elle est saine. Quelle est la probabilité qu’elle vienne de C.

Exercice 3 : (La formule du crible)


(Ω, P(Ω), P ) est un espace de probabilité. A1 , A2 ,...An sont n événements.

1. Montrer que P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ).


2. Établir une formule analogue pour P (A1 ∪ A2 ∪ A3 ).
3. Montrer , par récurrence, que :
n
[ n
X X n
\
P( Ai ) = P (Ai )+...+(−1)k+1 P (Ai1 ∩...∩Aik )+...+(−1)n+1 P ( Ai ).
i=1 i=1 1≤i1 <...<ik ≤n i=1

Application : On utilise dans la suite la formule du crible.


1. Pour fêter leur réussite à un concours, n étudiants se donnent rendez-vous dans un
restaurant. En entrant chaque personne dépose sa veste dans un vestiaire. Après le re-
pas, ils récupèrent leur veste au hasard. Quelle est la probabilité pour qu’une personne
au moins ait sa propre veste ? Déduire la probabilité qu’aucune personne ne repart avec
sa veste.

112
2. En s’inspirant de la question précédente, calculer la probabilité πn (k) pour que k per-
sonne exactement aient leur propre veste ?

3. Calculer la limite π(k) de πn (k) quand n −→ ∞. Vérifier que la famille (π(k), k ∈ N)


détermine une probabilité sur N.

Barême approximatif :

Exercice 1 : 4 points, Exercice 2 : 6 points, Exercice 3 : 10 points.

113
Corrigé du DS N 0 1 - A. U. 2006-2007- :
Exercice 1 :

On numérote les faces de la première carte a ,b, de la dexième c, d, et de la troisième e,


f . Les couleurs des faces sont :

a = R, b = R, c = R, e = B, f = B.

Une carte c’est une face exposée et une face cachée : (E, C). L’univers Ω est donc :

Ω = {(a, b), (b, a), (c, d), (d, c), (e, f ), (f, e)}.

On munit (Ω, P(Ω)) de la probabilité uniforme.


D’après la définition de la probabilté conditionnelle, on a :

P (E = R, C = B) Card{(c, d)} 1
P (C = B/E = R) = = = .
P (E = R) Card{(a, b), (b, a), (c, d)} 3
Exercice 2 :
Soit A : ”être fabriqué par A”, B : ” être fabriqué par B”,...
D : ” être défectueuse” et D : ”saine”.
On a
P (A) = 0.25, P (B) = 0.35, P (C) = 0.4.
A, B et C sont tels que A ∩ B = A ∩ C = B ∩ C = ∅ et A ∪ B ∪ C = Ω.
1) En applicant la formule des probabilités totales on a :

P (D) = PA (D)P (A) + PB (D)P (B) + PC (D)P (C)


= 0.05 × 0.25 + 0.04 × 0.35 + 0.02 × 0.4 = 0.0345 = 3.45%.

2) D’après le théorème de Bayes,


PA (D)P (A) 0.05 × 0.25
PD (A) = = = 36%.
P (D) P (D)
3)
PC (D)P (C) 0.98 × 0.4
PD (C) = = = 40%.
P (D) 1 − P (D)
Exercice 3 :

Partie I. Voir TD
Application :
On pose Ai = {i a sa veste }, on a par la formule du crible :
S P P
P ( 1≤i≤n Ai ) = np=1 (−1)p+1 1≤i1 <...<ip ≤n P (Ai1 ∩ ... ∩ Aip ).

Pn p+1 C p (n−p)
Pn p+1 1 .
= p=1 (−1) n n! = p=1 (−1) p!
Or \ [
P( Ai ) = 1 − P ( Ai )
1≤i≤n 1≤i≤n

Donc
\ n
X 1
P( Ai ) = 1 − (−1)p+1 .
p!
1≤i≤n p=1

114
On note
γ(n) = Card{ permutations de {1,...,n} sans points fixe}.
On a :
n
γ(n) X 1
1− = (−1)p+1 .
n! p!
p=1

Donc
n
X 1
γ(n) = n! (−1)p
p!
p=0

On en déduit donc le nombre de permutations de {1, ..., n} sans points fixe.


2) Remarquons que

Card{ permutations de {1,...,n} ayant k points fixes }


πn (k) = .
Card{ permutation de {1,...,n}}

Il existe Cnk possibilités pour les k points fixes. On en déduit


k card{ permutation de {1,...,n} sans point fixe }
Cn
πn (k) = Card{ permutation de {1,...,n}}

k γ(n−k)
Cn 1 Pn−k p1
= n! = k! p=0 (−1) p! .

3) On a :
1 −1
limn−→∞πn (k) = π(k) = e .
k!
D’où

X X∞
1 −1
π(N) = π(k) =e = 1.
k!
k=0 k=0
P
(On peut poser pk = π(k), on a donc pk ≥ 0 et k pk = 1, d’où le résultat.)

115
Université Cadi Ayyad Année Universitaire 2006-2007
Ecole Nationale des Sciences Appliquées Responsable : Lakhel El Hassan
Safi

Devoir libre N o 1. Probabilités et statistiques


À rendre au plus tard le 10 décembe.

Exercice 1.
On désire modéliser le temps d’attente d’une panne de machine à l’aide de variables aléatoires
sans mémoire : la probabilité pour que la machine tombe en panne après la date k + n sachant
qu’elle fonctionne à l’instant n est indépendante de n.

1. Montrer que la loi géométrique de paramètre p est sans mémoire : c’est à dire que
P (X > k + n/X > n) est indépendante de n.

2. Caractériser toutes les lois des variables aléatoires X à valeurs dans N∗ qui sont sans
mémoire. On pourra calculer P (X > 1 + n) en fonction de P (X > 1).

3. Caractériser toutes les lois des variables aléatoires X à valeurs dans N qui sont sans
mémoire.

Exercice 2.
La durée de vie, exprimée en années, d’un circuit électronique est une variable aléatoire T
dont la fonction de répartition F est définie par :
½
0¡ ¢ si t < 0
F (t) = 1 2
1 − exp − 2 t si t ≥ 0

1. Donner la densité de probabilité f de T . Calculer E[T ].


2. Sachant que le circuit a déjà fonctionné durant 1 an, quelle est la probabilité qu’il
continu à fonctionner encore durant au moins 2 ans ? La loi est-elle sans mémoire ?
3. Un équipement électronique E est composé de 10 circuits identiques et indépendantes.
Au circuit i (1 ≤ i ≤ 10) est associée la variable aléatoire :
½
1 si la durée de vie du circuit i est inférieure à un an
Xi =
0 sinon.

a. Quelle est la loi de probabilité de la variable aléatoire N égale au nombre de circuit


dont la durée de vie est inférieure à un an ?

b. L’équipement E est dit en série si la défaillance de l’un de ses circuits entraı̂ne sa


défaillance. Quelle est alors la probabilité qu’il soit défaillant avant un an ?

c. L’équipement E est dit en parallèle si sa défaillance ne peut se produire que si tous


ses circuits sont défaillants. Quelle est alors la probabilité qu’il soit défaillant avant
un an ? avant t ans ?
Exercice 3.
Une usine employant 30 personnes dont 4 ingénieurs, 10 techniciens et 16 ouvriers.

116
1. On choisit de façons successive 3 employés : calculer la probabilité d’avoir un employé
de chaque catégorie professionnelle.
2. On choisit de façon successive 3 employés et soit X la variable aléatoire qui représente
le nombre d’ingénieurs choisis. Donner la loi de probabilité de X.

Exercice 4. Soit X et Y deux variables aléatoires réelles.

1. Montrer que X + Y (resp. XoY) est une variable aléatoire réelle.


2. Montrer que X.Y (resp. X Y si Y ne s’annulle pas) est une variable aléatoire réelle.
3. Soit (Xn ) une suite de variables aléatoires réelles.
Si les fonctions inf n Xn , supn Xn , lim inf Xn , lim supn Xn sont bien définies, montrer
que ces fonctions sont des variables aléatoires réelles.

Exercice 5. Soit un vendeur de lots de pièces mécaniques disposant, à une date t0 , d’un
stock s.
La demande X, pour un intervalle de temps [t0 , t1 ], est une v. a. entière ayant une loi de
probabilité définie par :

P (X = x) = k(x0 )p q x−1 pour x ≥ x0


=0 pour x < x0

où p et q sont deux réels positifs tels que p + q = 1 et x0 est un entier naturel inférieur à s.
1) Calculer k(x0 ) et E(X).
2) Si X est inférieure au stock s, les lots restants sont vendus à perte et le vendeur aura
à affronter une dépense moyenne de c1 DH. Si X est supérieure au stock s, il faut un ap-
provisionnement spécial de pièces manquantes et le supplément du coût représente une perte
moyenne de c2 DH.
Calculer l’éspérence mathématique des dépenses que va devoir affronter le vendeur pendant
la période [t0 , t1 ].

117
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Devoir surveillé N 2.
Epreuve de Probabilités et Statistiques Responsable : Lakhel El Hassan
Examen de 25 décembre 2006 Horaire : 8H :30min-10H :00

Exercice 1. (9 points)
On lance trois fois de suite une pièce de monnaie non truquée. Soient X le numéro du lancer
où on obtient Pile la première fois 1 (avec la convention que X = 4 si on n’obtient pas de
Pile ) et Y le numéro du lancer où on obtient Face la première fois (avec la convention que
Y = 4 si on n’obtient pas de Face).
1. Donner la loi du couple (X, Y ).
2. Donner la loi de X, son espérance et sa variance.
3. Donner la loi de Z = X + Y , son espérance et sa variance.
4. Calculer le coefficient de corrélation linéaire ρ(X, Y ) et interpréter le résultat obtenu.
5. Montrer que pour toutes variables aléatoires indépendantes X1 et X2 on a

ρ(X1 , X2 ) = 0.

Est-ce que la réciproque de cette proposition est vraie ?

Problème 2. ( Une somme doublement aléatoire) (11 points)


Sur le même espace probabilisé (Ω, F, P ), on suppose définies
- une variable aléatoire N à valeurs dans N,
- une suite de variable aléatoire positives (Xi )i≥1 , ayant toutes même loi.
On pose alors :
Xn
S0 := 0, Sn = Xi (n ≥ 1).
i=1

On définit la variable aléatoire T par


N
X
T := Xi ,
i=1

autrement dit,
∀ω ∈ Ω, T (ω) = SN (ω) (ω).
Ce modèle est d’un usage courant. Par exemple si une compagnie d’assurances s’intéresse
au risque pour une certaine catégorie de véhicules, dans une ville donnée, N représente le
nombre de sinistres déclarés au cours d’une période de temps donnée et Xi le remboursement
payé par la compagnie pour le i-ème sinistre déclaré pendant cette période. On peut imaginer
facilement d’autres applications comme le cumul des hauteurs de pluie sur une année, le total
des retraits effectués sur un distributeur automatique bancaire en une journée, etc.
1
Par exemple, la séquence P P P donne X = 1 et Y = 4 ; F P F donne X = 2 et Y = 1 ;, F F P donne X = 3
et Y = 1 ; F F F donne X = 4 et Y = 1 ; etc.

118
Le but de cet exercice est de calculer l’espérance de T en fonction des espérances des Xi
et de N sans supposer connues les loi des Xi ou de N .
On suppose de plus que N est indépendante de la suite (Xi )i≥1 , ce qui implique notamment
(on ne vous demande pas de le justifier) que pour tout j ∈ N et tous boréliens B et B 0 de R,
les évènement {Sj ∈ B} et {N ∈ B 0 } sont indépendants.
1. Trouvez l’erreur dans le raisonnement suivant : Par additivité de l’espérance des va-
riables aléatoires positives,
ÃN ! N
X X
ET = E Xi = EXi = N EX1 .
i=1 i=1

2. Soit A ∈ F un événement et Y une variable aléatoires sur (Ω, F, P ) tels que pour tout
t ≥ 0, les événements {Y > t} et A soient indépendants. Montrer que

∀t ≥ 0, P (Y 1A > t) = P (Y > t)P (A).

(Indication : commencer par calculer P ({Y 1A > t} ∩ Ac ).)

3. Soit X une variable aléatoire positive. Montrer que :


Z +∞
E(X) = P (X > t)dt.
0

4. Déduire de ce qui précède que

∀j ∈ N, E(Sj 1{N =j} ) = P (N = j)jEX1 .

5. Pour tout entier n ≥ 1, on pose Tn := T 1{N ≤n} . Justifiez l’égalité


n
X
Tn = Sj 1{N =j} .
j=0

En déduire que
n
X
∀n ∈ N∗ , ETn = EX1 jP (N = j).
j=0

6. Vérifier que X
T = Sj 1{N =j} .
j∈ N
(on comparera les valeurs prises par les deux membres en un ω quelconque).

7. Déduire que :
E(T ) = E(N )E(X1 ).

Barême approximatif :
Exercice 1 : 9 points Problème 2 : 11 points

119
Corrigé du DS N o 2 - A. U. 2006-2007 :
Exercice 1 :
A Ecrire
Problème 2 :

120
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Devoir surveillé N 3.
Epreuve de Probabilités et Statistiques 1 Responsable : Lakhel El Hassan
Contrôle continu de 09 janvier 2007 Horaire : 10H :30min-12H :00

Exercice 1. (6 points)
Soit α un réel et f la fonction réelle définie par :
(
α
(x−1)2
si x < 0,
f (x) = −2x
αe si x ≥ 0.

1. Calculer α pour que f soit une densité de probabilité.


2. Déterminer la fonction de répartition F associée à f .
3. Soit X une v. a. r. de densité f . Déterminer la loi de la v. a. Y = sgn(X) avec
sgn(x) = −1 si x < 0, sgn(x) = 1 si x > 0 et sgn(0) = 0.

Exercice 2. (10 points)


La durée de vie, exprimée en années, d’un circuit électronique est une variable aléatoire T
dont la fonction de répartition F est définie par :
½
0¡ ¢ si t < 0
F (t) =
1 − exp − 12 t2 si t ≥ 0

1. Donner la densité de probabilité f de T . Calculer E[T ].


2. Sachant que le circuit a déjà fonctionné durant 1 an, quelle est la probabilité qu’il
continu à fonctionner encore durant au moins 2 ans ? La loi est-elle sans mémoire ?
3. Un équipement électronique E est composé de 10 circuits identiques et indépendantes.
Au circuit i (1 ≤ i ≤ 10) est associée la variable aléatoire :
½
1 si la durée de vie du circuit i est inférieure à un an
Xi =
0 sinon.

a. Quelle est la loi de probabilité de la variable aléatoire N égale au nombre de circuit


dont la durée de vie est inférieure à un an ?

b. L’équipement E est dit en série si la défaillance de l’un de ses circuits entraı̂ne sa


défaillance. Quelle est alors la probabilité qu’il soit défaillant avant un an ?

c. L’équipement E est dit en parallèle si sa défaillance ne peut se produire que si tous


ses circuits sont défaillants. Quelle est alors la probabilité qu’il soit défaillant avant
un an ? avant t ans ?

1
la qualité et la clarté de la rédaction constituent des éléments essentiels dans l’appréciation de la copie.

121
Exercice 3 : (Vitesse moyenne) (4 points)
On veut estimer par intervalle de confiance la vitesse moyenne des automobiles dans un
certain virage d’une route à grand trafic. Pour cela on a enregistré à l’aide d’un radar les
vitesses X1 (ω) = x1 , ..., X400 (ω) = x400 de 400 automobiles en une période de temps de 2
heures avec des conditions de circulation homogènes (météo, visibilité, densité de trafic,. . .).
On a obtenu les statistiques suivantes
400
X 400
X
xi = 35200km/h, x2i = 3107600(km/h)2 .
i=1 i=1

L’homogénéité des conditions de trafic permet de supposer que les variables aléatoires X1 , . . .
,X400 , dont on a ainsi observé une réalisation, sont indépendantes et de même loi. Proposez un
intervalle de confiance au niveau 98% pour la vitesse moyenne EX1 en indiquant clairement
quels résultats du cours légitiment les approximations faites. Les données numériques ci-
dessus ont été arrangées pour vous permettre de faire facilement tous les calculs à la main
si vous ne disposez pas d’une calculatrice.

Barême approximatif :
Exercice 1 : 6 points
Exercice 2 : 10 points
Exercice 3 : 4 points

122
Corrigé du DS N o 3 - A. U. 2006-2007 :
Exercice 1 :
A Ecrire
Exercice 2 :

1. La densité de probabilité f de T est


1
f (t) = texp(− t2 )It>0 .
2
L’esprance vaut
R +∞
E[T ] = 0 t2 exp(− 21 t2 )dt
R +∞
= [−texp(− 21 t2 )]+∞
0 + 0 exp(− 21 t2 )dt

1
R +∞
= 2 −∞ t2 exp(− 12 t2 )dt


= 2 .

2. La probabilité s’écrit
9
P (T ≥ 3) ∩ P (T ≥ 1) P (T ≥ 3) e− 2 −4
P (T ≥ 3/T ≥ 1) = = = 1 = e .
P (T ≥ 1) P (T ≥ 1) e− 2
On a pas P (T ≥ 3/T ≥ 1) = P (T ≥ 2) = e−2 . Donc la loi n’est pas sans mémoire.

3. a. La loi de probabilité de la variable aléatoire N égale au nombre de circuit dont la


1
durée de vie est inférieure à un an est : B(10, 1 − e− 2 ). En effet, le v. a. Xi sont
indépendantes et suivent une loi de Bernoulli de paramètre :
1
p = P (X1 = 1) = P (T ≤ 1) = F (1) = 1 − e− 2 .

b. La probabilité que l’équipement en série soit défaillant avant un an vaut :

P (∪i=10
i=1 (Xi = 1)) = 1 − P (∩10 (X = 0))
Q10 i=1 i
= 1 − i=1 P (Xi = 0)
10
= 1 − e− 2
' 0.99

c. La probabilité que l’équipement en parallèle soit défaillant avant 1 an est :


Y 1
P (∩10
i=1 (Xi = 1)) = P (Xi = 1) = (1 − e− 2 )10 = 8.9.10−5 .
10
1

Soit Ti la durée de vie de l’équipement i. La probabilité que l’équipement en parallèle


soit défaillant avant t ans vaut :
10
Y 1 2
P (∩10
i=1 (Ti ≤ t)) = P (Ti ≤ t) = (1 − e− 2 t )10 = pt .
i=1

123
on obtient p2 = 0.23 p3 = 0.099

Exercice 3 :

Nous allons chercher pour EX1 un intervalle de confiance centré sur X = 35200/400 =
88km/h. Pour construire cet intervalle de confiance, on ne peut pas utiliser ici le théorème
limite central classique car l’écart-type σ des Xi est inconnu. On va utiliser le TLC avec
autonormalisation où l’onremplace σ par S, laracine carrée de la variance empirique
n n
1X 1X 2 2
S2 = (Xi − E(Xi ))2 = Xi − X
n n
i=1 i=1

Les Xi étant de carré intégrable, le TLC avec autonormalisation nous dit que

√ X − E(X1 )
n −→ N (0, 1) (en loi)
S
Cette convergence légitime pour n grand, l’approximation

√ X − E(X1 )
P (| n | ≤ t) = P (|N (1, 1)| ≤ t) = 2π(t) − 1,
S
où π est la f.d.r. de la loi N (0, 1).
Par suite :

√ X − E(X1 ) tS tS
| n | ≤ t ⇐⇒ X − √ ≤ E(X1 ) ≤ X + √ .
S n n
Cette inégalité nous donne alors un intervalle de confiance pour EX1 au niveau 2π(t) − 1. Il
s’agit bien d’un intervalle de confiance puisque les bornes XtSn−1/2 sont calculables à partir
des observations sans connaissance de la loi des Xi . Pour terminer les calculs, on détermine
t en résolvant 2π(t) − 1 = 0, 98, ce qui équivaut à π(t) = 0, 99,.
D’où
t = 2, 33.
On calcule ensuite X(ω) et S(ω) :
400
1 X
X=x= xi = 35200km/h = 88Km/h.
400
i=1

Et
400
1 X 2 3107600
S(ω) = s = xi − x2 = − (88)2 = 25Km/h2 .
400 400
i=1

d’où S(ω) = s = 5km/h. Un intervalle de confiance I au niveau 98% pour EX1 en km/h est
donc
2.33 × 5 2.33 × 5
I = [88 − , 88 + ] = [87, 41; 88, 59].
20 20

124
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Sujet de contrôle de rattrapage.


Epreuve de Probabilités et Statistiques 1 Responsable : Lakhel El Hassan
Contrôle de 23 janvier 2007 Horaire : 8H :30min-10H :00

Exercice 1. (8 points)
1. Soit X : Ω −→ N une variable aléatoire. Qu’est- ce que la loi de X ? Comment calcule-
t-on l’espérance de X, la variance de X ?

2. Soit X : Ω −→ R une variable aléatoire de densité f . Comment calcule-t-on P (X ∈


[a, b]) pour un intervalle [a, b] de R. Comment calcule-t-on E(X), E(X 2 ) ?
Quand dit-on que X est intégrable ?

3. Si X est une v. a. r. positive, intégrable, et si a ∈ R∗+ , montrer que :

E(X)
P (X > a) ≤ .
a
4. Si X est une v. a. r. admettant un moment d’ordre 2, et si a ∈ R∗+ , montrer que :

V ar(X)
P (|X − E(X)| > a) ≤ .
a2
Exercice 2. (12 points)
Soit T une variable aléatoire à valeurs dans N. Pour tout n ∈ N, on suppose que P (T ≥
n) > 0 et que
P{T ≥n} (T ≥ n + 1) = P (T ≥ 1). (1)
1. On pose p = P (T = 0). Si G est une variable aléatoire de loi géométrique G(p), mon-
trer que Z = G − 1 vérifie P (Z = k) = p(1 − p)k pour k ∈ N.

2. Pour n ∈ N, calculer P (Z ≥ n).

3. On pose fn = P (T ≥ n). Montrer que fn+1 = fn f1 pour tout n ∈ N.

4. En déduire P (T ≥ n) pour n ∈ N (on remarquera que (fn ) est une suite géométrique).

5. Montrer que deux variables aléatoires X et Y à valeurs dans N ont la même loi si
P (X ≥ n) = P (Y ≥ n) pour tout n ∈ N.

6. En déduire que T et Z ont la même loi.

7. Quel est l’analogue de (1) dans le cas continu ?

1
la qualité et la clarté de la rédaction constituent des éléments essentiels dans l’appréciation de la copie.

125
Corrigé du contrôle de rattrapage - A. U. 2006-2007 :
Exercice 1 :
Voir le cours.
Exercice 2 :

1. On a p = P (T = 0). Montrons que Z = G − 1 vérifie P (Z = k) = p(1 − p)k pour


k ∈ N.
On a G prend ses valeurs dans N∗ , donc Z prend ses valeurs dans N. Par définition de
la loi géométrique, on a P (G = l) = p(1 − p)l−1 . Donc, pour k ∈ N, on a

P (Z = k) = P (G = k + 1) = p(1 − p)k .

2. Calculons P (Z ≥ n), pour tout n ∈ N.


On a :
P P∞
P (Z ≥ n) = +∞ k=n P (Z = k) = p(1 − p)
n
k=n (1 − p)
k−n

P∞ 1
= p(1 − p)n l=0 (1 − p)l = p(1 − p)n 1−(1−p) = (1 − p)n .

3. On a fn = P (T ≥ n). Montrons que fn+1 = fn f1 pour tout n ∈ N.


Pour tout n ∈ N, on a :

fn + 1 = P (T ≥ n + 1) = P (T ≥ n + 1 et T ≥ n) = PT ≥n (T ≥ n + 1)P (T ≥ n)

(1)
P (T ≥ 1)P (T ≥ n) = f1 fn .
=

4. En déduire P (T ≥ n) pour n ∈ N. Remarquons que (fn ) est une suite géométrique).


La suite (fn ) est géométrique de raison f1 = P (T ≥ 1) = 1 − P (T = 0) = 1 − p.
Donc, pour n ∈ N, on a :

P (T ≥ n) = fn = (f1 )n = (1 − p)n .

5. Par définition, deux v. a. X et Y à valeurs dans N ont la même loi si P (X = n) =


P (Y = n) pour tout n ∈ N.
On suppose que P (X ≥ n) = P (Y ≥ n) pour tout n ∈ N.
On a

P (X = n) = P (X ≥ n) − P (X ≥ n + 1) = P (Y ≥ n) − P (Y ≥ n + 1) = P (Y = n).

Donc X et Y ont la même loi.

6. C’est une conséquence immédiate des questions 2), 4) et 5).

7. La propriété d’absence de mémoire : Soit X une v. a. r. suivant la loi exp(θ), alors


X vérifie :

∀s ∈ R+ , ∀t ∈ R+ , P (X > t + s/X > t) = P (X > s)

(On parle aussi de la propriété de non vieillissement).

126
8.1 Bibliographie
Voici une bibliographie très incomplète. Allez voir vous même à la Bibliothèque. Gardez
en mémoire qu’un bon livre est un livre qui vous donne envie d’apprendre et de travailler son
contenu ! !

A compléter.

127

You might also like