You are on page 1of 41

MAT 5502

Introduction aux mthodes de Monte Carlo


et applications la finance

100 trajectoires d un pont brownien passant par 0 et 1


2.5

1.5

0.5

0.5

1.5

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

100 trajectoires d un pont brownien passant par 0 et 1


1.5

0.5

0.5

1.5

2.5

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

Randal D OUC

0.9

Avertissement
Ce cours a t bti partir de divers cours, celui de Bernard Lapeyre et Denis Talay, dEric Moulines
et Gersende Fort, dEmmanuel Temam, de Jrme Lelong, de Bruno Bouchard, etc etc, le tout mlang
diverses touches personnelles ici et l. Il a bnfici dune relecture active de Cyrille Dubarry.
Nhsitez pas communiquer par mail les erreurs qui pourraient rester ainsi qu proposer toute sorte
de choses visant amliorer le contenu de ce cours : randal.douc@it-sudparis.eu

Table des matires


1

Introduction aux mthodes de Monte Carlo


1.1 Principe de la mthode . . . . . . . . . . . . . . . . .
1.2 Utilisation du TCL pour les mthodes de Monte Carlo .
1.3 Points essentiels du chapitre . . . . . . . . . . . . . .
1.4 Un peu dhistoire . . . . . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

7
7
9
10
10

Simulation exacte ou approche de lois


2.1 Simulation exacte de lois . . . . . . . . . . . . . . . . . . . . .
2.1.1 Mthode dinversion de la fonction de rpartition . . . .
2.1.2 Mthode de rejet . . . . . . . . . . . . . . . . . . . . .
2.1.3 Simulation de loi conditionnelle . . . . . . . . . . . . .
2.1.4 Autres mthodes de simulations . . . . . . . . . . . . .
2.2 Simulation approche de lois . . . . . . . . . . . . . . . . . . .
2.2.1 Echantillonnage dimportance ou Importance Sampling .
2.2.2 Autres mthodes de simulations approches . . . . . . .
2.3 Points essentiels du chapitre . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

13
13
13
14
16
17
18
18
19
20

Discrtisation dEDS et simulation de processus


3.1 Simulation du mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Simulation exacte sur une grille prdfinie . . . . . . . . . . . . . . . . . . . . .
3.1.2 Simulation exacte conditionnelle une grille . . . . . . . . . . . . . . . . . . .
3.2 Schma dEuler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Principe du schma de discrtisation . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 Proprits de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Simulation dun maximum conditionnellement un schma dEuler . . . . . . . . . . .
3.3.1 Pont brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Simulation exacte de la loi du maximum conditionnellement un schma dEuler
3.4 Points essentiels du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Un peu dhistoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

21
22
22
22
24
24
25
26
26
28
29
29

Rduction de variance
4.1 Echantillonnage dimportance ou Importance Sampling
4.2 Variables antithtiques . . . . . . . . . . . . . . . . .
4.3 Variables de contrle . . . . . . . . . . . . . . . . . .
4.4 Conditionnement . . . . . . . . . . . . . . . . . . . .
4.5 Stratification . . . . . . . . . . . . . . . . . . . . . . .
4.6 Mthodes de Quasi Monte Carlo . . . . . . . . . . . .
4.6.1 Suites discrpance faible . . . . . . . . . . .
4.7 Points essentiels du chapitre . . . . . . . . . . . . . .
4.8 Un peu dhistoire . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

31
32
32
33
35
36
37
37
39
39

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

Programme prvisionnel
1. Thorme de limite centrale, Intervalles de confiances : cours, 1H30.
2. Simulation exacte : Inversion de la fonction de rpartition, mthode de rejet : cours : 1H30, TD :
1H30.
3. Importance sampling : cours, 1H30, TD, 1H30.
4. Tp Simulation var alatoires : 3H.
5. Simulation du Brownien : cours, 1H30, TD, 1H30
6. Schma dEuler : cours, 1H30, TD, 1H30.
7. : TP : discretisation EDS : 3H00
8. Rduction de variance, var. antithtiques-var controle-cond-strat : cours, 1H30*3=4H30. Td, 3H00,
TP : 1H30
9. Suite a discrepance faible : cours, 1H30.

Chapitre 1

Introduction aux mthodes de Monte


Carlo
Sommaire
1.1
1.2
1.3
1.4

Principe de la mthode . . . . . . . . . . . . . . . . .
Utilisation du TCL pour les mthodes de Monte Carlo
Points essentiels du chapitre . . . . . . . . . . . . . .
Un peu dhistoire . . . . . . . . . . . . . . . . . . . . .

Mots cls 1.1

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

7
9
10
10

LGN,TCL, Slutski, estimateur sans biais, Delta-mthode, intervalle de confiance.

Les problmes probabilistes qui se posent dans les applications financires se ramnent gnralement au
calcul desprances. Par exemple, en finance les prix des produits drivs scrivent comme des esprances.
Cest donc tout naturellement que lon sintresse des mthodes numriques susceptibles de calculer ces
esprances, sachant que dans la majorit des cas on ne dispose pas de formules exactes (hormis le cas
particulier de la formule de Black and Scholes).

1.1 Principe de la mthode


Les mthodes de Monte Carlo permettent de calculer numriquement des esprances. Ces mthodes
sont bases sur le rsultat bien connu de la Loi Forte des Grands Nombres.
Thorme 1.1.1. (L OI F ORTE DES G RANDS N OMBRES (LGN)). Soit (Xn )n une suite de v.a. i.i.d de
mme loi que X. Si E(|X|) < , alors
N

p.s.
XN = N 1 Xi E(X)
i=1

La convergence a galement lieu dans L1 : E(|XN E(X)|) 0.


Remarque 1.1.1

Lhypothse dintgrabilit est indispensable, en effet on peut montrer que si lon considre une suite i.i.d de v.a. selon la loi de Cauchy, alors la moyenne empirique ne converge pas.

D MONSTRATION. Nous montrons simplement la convergence en probabilit sous lhypothse plus forte : E(X 2 ) < .
En remarquant que E(XN ) = E(X), lingalit de Bienaim-Chebychev scrit alors :
P(|Xn E(X)| > )

Var(XN ) Var(N
Var(X1 )
i=1 Xi )
=
=
N 0
2
N 2 2
N2


CHAPITRE 1. INTRODUCTION AUX MTHODES DE MONTE CARLO

Dans la mesure o lestimateur de E(X) est une variable alatoire, il est important de pouvoir fournir
un intervalle de confiance. En effet, deux simulations distinctes peuvent conduire deux estimations trs
diffrentes. Le thorme suivant donne un rsultat sur la vitesse de convergence de lestimateur et permet
par la suite de fournir un intervalle de confiance. Dans la pratique, il faudra toujours mettre en perspective
la valeur obtenue avec la largeur de lintervalle de confiance pour justifier la pertinence du rsultat annonc.
Thorme 1.1.2.
(T HORME DE
mme loi que X. Si E(X 2 ) < , alors

(TCL)) Soit (Xn )n une suite de v.a. i.i.d de

LIMITE CENTRALE

XN E(X) L
q
N (0, 1)
2
N

o 2 = Var(X) = E(X 2 ) E(X)2 = E[X E(X)]2 .

D MONSTRATION. Quitte remplacer Xi par (Xi E(X))/, on peut supposer E(X) = 0 et 2 = Var(X) = E(X 2 ) = 1.
Dans ce cas, il sagit simplement de montrer que
N

ZN =

Xi

N N (0, 1)
L

i=1

Pour cela, comme pour toutes les convergences en loi, il suffit de montrer que la fonction caractristique de ZN ,

2
u 7 E eiuZN tend vers celle dune loi N (0, 1) savoir u 7 eu /2 . On crit
h 



iN

N
E eiuZN = E eiu i=1 Xi / N = E eiuX / N

N
 
N

N
2
2
Dvp. Taylor.
2
iu
u 2
iu
u
u2

E 1+ X
X + reste
1 + E(X)
E(X 2 ) = 1
eu /2
2N
2N
N
N | {z } 2N | {z }
0

Ce qui achve la preuve. Bien sr, la partie difficile (celle que nous passons sous silence) est celle qui consiste montrer
que le terme de reste ne joue pas lorsque N tend vers linfini (partie ). Mais ce qui nous semble le plus utile retenir
dans un premier temps pour cette preuve est que le TCL rsulte de la convergence de la fonction caractristique avec
dveloppement de Taylor dordre 2.


Nanmoins, dans beaucoup de situations pratiques 2 = Var(X) est une quantit inconnue. On est
alors tent de remplacer 2 par un estimateur. Une question se pose alors : le thorme prcdent reste-t-il
valide ? La rponse est oui, comme le montre la proposition suivante.
Proposition 1.1.3. Soit (Xn )n une suite de v.a. i.i.d de mme loi que X, telle que E(X 2 ) < et 2 > 0. En
notant
1 N
1 N
2
2N = [Xi E(X)]2 , 2N =
[Xi Xn]
N i=1
N 1 i=1
alors

XN E(X) L
q
N (0, 1)
2
N
N

De plus,

XN E(X) L
q
N (0, 1)
2
N
N

(1.1)

(1.2)

Lemme 1.1.4. Si E(X 2 ), les estimateurs 2N et 2N sont des estimateurs sans biais et fortement convergents de 2 , i.e.
E( 2N ) = E( 2N ) = 2 ,
p.s.

2N 2 ,

p.s.

2N 2

1.2. UTILISATION DU TCL POUR LES MTHODES DE MONTE CARLO

9
p.s.

2
D MONSTRATION. Clairement, E( 2N ) = E[X1 E(X1 )]2 = 2 . Par la LGN, 2N = N1 N
i=1 [Xi E(X)] E(X
E(X))2 = 2 . De plus, en introduisant E(X) dans le terme carr [Xi Xn ]2 , on obtient aprs dveloppement :

2N

N
N
N
2
1
N

(Xi E(X))
2
2
=

(Xn E(X))2
(Xi E(X)) 2 (Xi E(X))(Xn E(X)) + N(Xn E(X)) = i=1

N 1 i=1
N

1
N

1
i=1

|
{z
}
N(X N E(X ))

(1.3)
p.s.
La LGN montre que Xn E(X) et on tire en appliquant encore la LGN sur lexpression de 2N obtenue en (1.3), que
p.s.
2N 2 . Enfin, par (1.3),



1  2
1
2
E( 2N ) =
N NVarXn =
N2 N
= 2
N 1
N 1
N

Remarque 1.1.2

2 . Sinon, on utilisera 2 .
Si on connat E(X), on prfrera utiliser

La preuve de la proposition 1.1.3 est une consquence simple du Lemme de Slutski (le faire !), quon
va maintenant noncer en ladmettant. Le Lemme de Slutski nous permettra dans beaucoup de situations
pratiques dobtenir des convergences en loi de quantit dintrt partir dautres convergence en loi pourvu
que les quantits dintrt diffrent seulement par des variables convergentes en probabilit.
Thorme 1.1.5. L EMME DE S LUTSKI- Si
L

i) Xn X,
P

ii) Yn a o a est une constante


alors pour toute fonction f continue (non ncessairement borne)
L

f (Xn ,Yn ) f (X, a)


Un autre rsultat se rvle extrmement utile pour obtenir partir dune convergence en loi associe
Xn dautres convergences en loi associes g(Xn ).
Thorme 1.1.6. - MTHODE- Si

L
i) n(Xn a) Z,
ii) g est drivable en a
alors

n (g(Xn ) g(a)) g (a)Z


P

D MONSTRATION. On remarque dabord que i) implique que Xn a. Ce qui entrane immdiatement que
g (a). On applique ensuite le lemme de Slutski en remarquant que



g(Xn ) g(a)
n (g(Xn ) g(a)) = n(Xn a)
Xn a
| {z }
|
{z
}
L
Z

g(Xn )g(a)
Xn a

g (a)

1.2 Utilisation du TCL pour les mthodes de Monte Carlo


Soit X une v.a. et f une fonction mesurable telle que E( f 2 (X)) < . On cherche calculer E( f (X)) par
une mthode Monte Carlo. On simule alors un N-chantillon (X1 , ..., XN ) selon la loi de X, puis on calcule
SN =

1 N
f (Xi ),
N i=1

VN =

1 N
( f (Xi ) SN )2
N 1 i=1

10

CHAPITRE 1. INTRODUCTION AUX MTHODES DE MONTE CARLO

Grce la Loi Forte des Grands Nombres, Sn converge p.s. vers E( f (X)) et par la Proposition 1.1.3, on tire
SN E( f (X)) L

N (0, 1)
N
VN
Ce dernier rsultat nous permet alors de donner un intervalle de confiance sur lestimateur Sn . En effet la
convergence en loi implique que


SN E( f (X))

P
[a, a] P(|G| a)
N
VN

q
q 
o G N (0, 1). Ainsi SN a VNN ; SN + a VNN est un intervalle de confiance de niveau asymptotique
pour E( f (X)) si a est le quantile dordre 1 /2 de la loi N (0, 1), i.e. P(|G| a) = 1 /2 avec
G N (0, 1). En gnral, on prend = 0.05 et dans ce cas a 1.96.

1.3 Points essentiels du chapitre


a) Bien connatre les hypothses de la loi des grands nombres et du thorme de limite centrale.
b) Savoir quels estimateurs de la variance sont biaiss ou non. Savoir le redmontrer.
c) Utilisation du lemme de Slutski et de la delta-mthode pour obtenir dautres convergences en
loi partir du TCL.
d) Diverses mthodes pour construire un intervalle de confiance.

1.4 Un peu dhistoire


Mthodes de Monte Carlo. Source : Wikipedia
The term "Monte Carlo method" was coined in the 1940s by physicists working on nuclear weapon
projects in the Los Alamos National Laboratory.
Enrico Fermi in the 1930s and Stanislaw Ulam in 1946 first had the idea. Ulam later contacted John
Von Neumann to work on it.
Physicists at Los Alamos Scientific Laboratory were investigating radiation shielding and the distance
that neutrons would likely travel through various materials. Despite having most of the necessary data,
such as the average distance a neutron would travel in a substance before it collided with an atomic nucleus
or how much energy the neutron was likely to give off following a collision, the problem could not be
solved with analytical calculations. John von Neumann and Stanislaw Ulam suggested that the problem be
solved by modeling the experiment on a computer using chance. Being secret, their work required a code
name. Von Neumann chose the name "Monte Carlo". The name is a reference to the Monte Carlo Casino
in Monaco where Ulams uncle would borrow money to gamble.
Random methods of computation and experimentation (generally considered forms of stochastic simulation) can be arguably traced back to the earliest pioneers of probability theory (see, e.g., Buffons
needle, and the work on small samples by William Sealy Gosset), but are more specifically traced to the
pre-electronic computing era. The general difference usually described about a Monte Carlo form of simulation is that it systematically "inverts" the typical mode of simulation, treating deterministic problems by
first finding a probabilistic analog (see Simulated annealing). Previous methods of simulation and statistical
sampling generally did the opposite : using simulation to test a previously understood deterministic problem. Though examples of an "inverted" approach do exist historically, they were not considered a general
method until the popularity of the Monte Carlo method spread.
Monte Carlo methods were central to the simulations required for the Manhattan Project, though were
severely limited by the computational tools at the time. Therefore, it was only after electronic computers
were first built (from 1945 on) that Monte Carlo methods began to be studied in depth. In the 1950s they

1.4. UN PEU DHISTOIRE

11

were used at Los Alamos for early work relating to the development of the hydrogen bomb, and became
popularized in the fields of physics, physical chemistry, and operations research. The Rand Corporation
and the U.S. Air Force were two of the major organizations responsible for funding and disseminating
information on Monte Carlo methods during this time, and they began to find a wide application in many
different fields.
Uses of Monte Carlo methods require large amounts of random numbers, and it was their use that
spurred the development of pseudorandom number generators, which were far quicker to use than the
tables of random numbers which had been previously used for statistical sampling.

12

CHAPITRE 1. INTRODUCTION AUX MTHODES DE MONTE CARLO

Chapitre 2

Simulation exacte ou approche de lois


Sommaire
2.1

2.2

2.3

Simulation exacte de lois . . . . . . . . . . . . . . . . . . . . . . . . .


2.1.1 Mthode dinversion de la fonction de rpartition . . . . . . . . .
2.1.2 Mthode de rejet . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.3 Simulation de loi conditionnelle . . . . . . . . . . . . . . . . . .
Lien avec lalgorithme de rejet . . . . . . . . . . . . . . . . . . .
Lien avec la simulation par inversion de la fonction de rpartition
2.1.4 Autres mthodes de simulations . . . . . . . . . . . . . . . . . .
Simulation par transformation . . . . . . . . . . . . . . . . . . .
Simulation dun vecteur gaussien quelconque . . . . . . . . . . .
Simulation par marginalisation . . . . . . . . . . . . . . . . . . .
Simulation approche de lois . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Echantillonnage dimportance ou Importance Sampling . . . . . .
Optimisation de la densit instrumentale . . . . . . . . . . . . . .
2.2.2 Autres mthodes de simulations approches . . . . . . . . . . . .
Points essentiels du chapitre . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

13
13
14
16
16
16
17
17
17
18
18
18
18
19
20

Mots cls 2.1

Fonctions de rpartition, Inverse gnralise, algorithme de rejet, simulation par transformation, simulation de loi conditionnelle, importance sampling.

2.1 Simulation exacte de lois


2.1.1 Mthode dinversion de la fonction de rpartition
Soit Y une variable alatoire relle de fonction de rpartition FY : t 7 FY (t) = P(Y t). Les proprits
immdiates de la fonction FY sont les suivantes : FY est croissante, continue droite, a une limite gauche,
tend vers 0 en et vers 1 en . Pour pouvoir dfinir classiquement la fonction inverse de FY , il faudrait
quelle soit strictement croissante. Or ce nest pas en gnral le cas puisquelle peut tre constante par
morceaux (par exemple dans le cas o Y est une v.a. discrte). Du coup, il nous faut dfinir une inverse
gnralise valable pour des fonctions croissantes (pouvant tre constantes sur certains intervalles) :
Dfinition 2.1.1

I NVERSE

GNRALISE - On

dfinit pour tout x [0, 1], linverse gnralise de FY par

FY1 (x) = inf{y R : FY (y) x}


Bien sr, si FY est inversible alors linverse gnralise est linverse au sens classique du terme.
Proposition 2.1.2. Si U U [0, 1], alors FY1 (U) suit la loi de Y .
13

14

CHAPITRE 2. SIMULATION EXACTE OU APPROCHE DE LOIS

D MONSTRATION. En utilisant que les fonctions de rpartition sont continues droite, on peut dmontrer lquivalence (intuitive) suivante :
u, v R, {FY1 (u) v} {u FY (v)}.

Ainsi, si U est une v.a. de loi uniforme sur [0, 1], on a lgalit

P(FY1 (U) y) = P(U FY (y)) = FY (y),




ce qui achve la preuve.

Cette proposition permet de proposer une mthode de simulation par inversion de la fonction de rpartition dans le cas o linverse de cette fonction est calculable explicitement. Nous le voyons dans le
corollaire suivant.
R

t
Corollaire 2.1.3. Soit f est une densit de probabilit. Posons F(t) =
f (u)du, dinverse gnralise
1
1
F . Supposons que F est calculable explicitement. Alors, on peut simuler une v.a. Y de densit f par
la mthode suivante :

Algorithm 1 Simulation par inversion de la fonction de rpartition


1: Tirer U U [0, 1]
2: Poser Y = F 1 (U)

Exemple 2.1.1 S IMULATION D UNE LOI SUPPORT DISCRET- Soit Y une variable alatoire de support
(yk )kN , telle que P(Y = yk ) = pk . Si U U [0, 1], alors
X = y0 1Up0 + yk 1k1 p <Uk
k1

i=0

i=0 pi

a mme loi que Y . En effet, on vrifie aisment que pour k > 0, on a

P(X = yk ) = P

k1

i=0

i=0

pi < U pi

= pk

Cette mthode de simulation quasi-intuitive est en fait une simulation par inversion de la fonction de rpartition (le montrer).

Un exemple classique consistera simuler Y suivant une loi de Bernoulli de paramtre p en tirant
U U [0, 1] et en posant Y = 1Up . Un autre exemple important consistera simuler une loi binomiale
B (n, p) en posant Y = ni=1 1Ui p o les Ui sont i.i.d.de loi U [0, 1]. Mis part les exemples de loi discrte,
dans la plupart des autres situations, linverse gnralise se rduit linverse au sens classique. Et son
caractre explicite permet alors dutiliser cette mthode de simulation. Voyons un exemple de loi continue.
La loi exponentielle de paramtre > 0 a pour densit f (x) = exp(x)1R+ (x). La
fonction de rpartition associe est F(t) = exp(t) + 1 pour t 0, dinverse F 1 (u) = 1 ln(1 u).

Exemple 2.1.2

Donc, si U U ]0, 1[, 1 ln(1 U) exp(). Or 1 U suit aussi une loi U ]0, 1[. On prfrera donc pour

utiliser le moins de calculs possible F 1 (1 U) = 1 ln(U) exp().

2.1.2 Mthode de rejet


Linverse de la fonction de rpartition nadmet pas toujours une forme explicite. Nous prsentons maintenant une mthode largement utilise dans la pratique qui consiste simuler des candidats suivant une autre
loi et dfinir une rgle darrt, savoir, un critre qui sil est rempli nous permet de retenir une variable
qui de faon peut tre "surprenante" va tre distribue suivant la loi vise.
Proposition 2.1.4. Soient f et g deux densits de probabilits satisfaisant pour tout x R, f (x) Mg(x) .
On considre (Ui ) et (Xi ) deux suites de variables alatoires telles que
i) Ui U [0, 1] et Xi g

2.1. SIMULATION EXACTE DE LOIS

15

ii) les variables (Us )s1 et (Xt )t1 sont indpendantes entre elles.
n
o
f (Xi )
et Y = X . Alors,
Posons = inf i N, Ui Mg(X
i)

a) Geom(M 1 ) et Y f .

b) et Y sont des variables indpendantes entre elles.


Nous encourageons le lecteur bien lire la dmonstration
  suivante, riche en enseignements techniques.

D MONSTRATION. Remarquons que le vecteur alatoire


 
Uk
dcrire, sachant que les vecteurs
sont i.i.d. :
Xk
P(Y A, = k)

U
X

a pour densit (u, x) 7 1[0,1] (u)g(x). Ceci permet

P(Xk A, = k)


f (X1 )
f (Xk1 )
f (Xk )
P U1 >
, . . . ,Uk1 >
, Uk
, Xk A
Mg(X1 )
Mg(Xk1 )
Mg(Xk )

k1 

f (X1 )
f (Xk )
P U1 >
P Uk
, Xk A
Mg(X1 )
Mg(Xk )
!k1 ZZ
ZZ

=
=
=
=

f (x)
{u> Mg(x)
}

Z 

1
M

1[0,1] (u)g(x) dudx

f (x)
{u Mg(x)
}{xA}

1[0,1] (u)g(x) dudx


k1 Z
f (x)
f (x)
g(x) dx
g(x) dx
Mg(x)
{xA} Mg(x)

k1

1
M

{xA}

f (x)dx

(2.1)

o lavant dernire ligne vient de lintgration par rapport u et la dernire ligne vient du fait que f et g sont des
densits de probabilit. On a alors par marginalisation


1 k1 1
P( = k) = P(Y R, = k) = 1
M
M
donc Geom(M 1 ), et donc P( < ) =
k=1 P( = k) = 1. Ce qui implique ensuite :
P(Y A) = P(Y A, < ) =
=

P(Y A, = k)

k=1


k=1

1
M

k1

1
M

{xA}

f (x)dx =

{xA}

f (x)dx

Donc Y f . Enfin, (2.1) montre que et Y sont des variables indpendantes entre elles.

Cette proposition va avoir pour corollaire immdiat, la mthode de simulation par rejet :

Corollaire 2.1.5. A LGORITHME

DE REJET - Soient

f et g deux densits telles que

i) on peut simuler suivant la densit g,


ii) il existe M telle que pour tout x R, f (x) Mg(x)
iii) pour tout x tel que g(x) > 0, la quantit

f (x)
Mg(x)

est calculable explicitement

Alors, on peut simuler une variable alatoire Y suivant la densit f par lalgorithme 2.
Une diffrence fondamentale avec la simulation par inversion de la fonction de rpartition est le nombre
de simulations ncessaires avant de produire une seule variable distribue suivant la loi visee : ce temps
dattente avant lacceptation est ici une variable alatoire de loi gomtrique Geom(M 1 ). Lesprance
dune loi gomtrique est linverse de son paramtre ce qui donne E() = M. La fonction f tant donne,
on cherche donc une densit g telle que f Mg avec M le plus petit possible (pour minimiser le temps
dattente avant acceptation). On a bien sr que M 1 (il suffit dintgrer f (x) Mg(x) et de remarquer

CHAPITRE 2. SIMULATION EXACTE OU APPROCHE DE LOIS

16

Algorithm 2 Algorithme de rejet


1: tirer X g, U U [0, 1] indpendamment
f (X)
2: while U Mg(X) do tirer X g, U U [0, 1] indpendamment
3: end while
4: Poser Y = X

que f et g sont des densits deR probabilit) mais on ne peut atteindre la limite M = 1. Sinon, on aurait
f (x) g(x) et par intgration g(x) f (x) dx = 1 1 = 0, do f = g et si on sait simuler suivant g, a
| {z }
0

veut dire quon sait simuler suivant f !

2.1.3 Simulation de loi conditionnelle


Lien avec lalgorithme de rejet
Soit X une v.a. de densit g simulable. Si on veut simuler une v.a. suivant la loi de X conditionnellement
lvnement {X [a, b]}, une ide intuitive consisterait simuler suivant g et ne garder que les candidats
qui sont dans [a, b]. Nous allons montrer que cette mthode correspond en fait un cas particulier de
lalgorithme de rejet. La loi de X conditionnelle {X [a, b]} a pour densit
f (x) = 1[a,b] (x) R b
a

g(x)
g(u)du

En effet, il suffit dcrire


P(X A|X [a, b]) =

P(X A [a, b])


=
P(X [a, b])

A 1[a,b] (x)g(x)dx
Rb
a g(u)du

f (x)dx.
A

Maintenant, remarquons que


f (x) Mg(x) avec M = R b
a

1
g(u)du

Ainsi, en appliquant lalgorithme de rejet, on tire U U [0, 1] et X g indpendamment et on pose Y = X


seulement si
(
1 si X [a, b]
f (X)
U
= 1[a,b] (X) =
.
Mg(X)
0 sinon
Finalement si X [a, b], le candidat est accept avec probabilit 1, et si X
/ [a, b], il est refus avec probaR
bilit 1. Ce qui est exactement lide intuitive de lalgorithme. Dans cet exemple, M = 1/ ab g(u)du nest
pas calculable en gnral ; par contre, comme nous lavons vu, le rapport f (X)/(Mg(X)) est calculable ce
qui nous a permis dappliquer lalgorithme de rejet. Enfin, si P(X [a, b]) est faible alors, on attendra longtemps avant de pouvoir accepter un candidat. Pour appliquer lalgorithme de rejet sur une densit cible
support dans [a, b], il est souvent prfrable de proposer suivant une densit dont le support est "concentr"
voire contenu dans [a, b].
Lien avec la simulation par inversion de la fonction de rpartition
Si FX et FX1 sont calculables explicitement , il est plus efficace de simuler une v.a. suivant la loi de X
conditionnellement lvnement {X [a, b]} par la procdure suivante
i) simuler U U [0, 1]

ii) Poser Y = FX1 (FX (a) + U[FX (b) FX (a)]).

2.1. SIMULATION EXACTE DE LOIS

17

Algorithm 3 Simulation dune loi conditionnelle


1: tirer U U [0, 1]
1
2: Poser Y = FX (FX (a) + U[FX (b) FX (a)]).
En effet, il suffit dcrire pour tout t [a, b],
P(Y t) = P(FX1 (FX (a) + U[FX (b) FX (a)]) t) = P (FX (a) + U[FX (b) FX (a)] FX (t))
Rt


Z
g(x)dx
FX (t) FX (a)
FX (t) FX (a)
=P U
=
= R ab
=
f (x)dx
FX (b) FX (a)
FX (b) FX (a)
],t[
a g(u)du

2.1.4 Autres mthodes de simulations


Simulation par transformation
On peut galement chercher montrer que la loi cible est celle de variables alatoires qui sont obtenues par transformation (typiquement des C1 -diffomorphisme mais pas seulement) de v.a. facilement
simulables (en pratique des v.a. de loi uniforme).
Lemme 2.1.6. C HANGEMENT DE VARIABLES- Soit un C1 -diffomorphisme dun ouvert O de Rd dans
un ouvert O de Rd . Supposons que V g o g est de support dans O, alors U = (V ) a pour densit
u 7 f (u) = g 1(u)| det(1 (u))|
Cest en fait inutile de retenir ce lemme car on peut le retrouver trs intuitivement par la formule de
changement de variable pour des intgrales multiples :

Z
Z
Z
v
1

E(h(U)) = E(h (V )) = h (v) g(v)dv = h(u) g( (u))
du
=
h(u) f (u)du
u
|{z}
|{z}
u
| det (1 (u))|

En sappuyant sur ce lemme, on peut noncer la proposition suivante qui propose une mthode de
simulation dun couple de gaussiennes indpendantes.
Proposition 2.1.7. B OX M ULLER- Soient U et V deux variables i.i.d.de loi U [0, 1]. Posons

X = 2 lnU cos(2V ), Y = 2 lnU sin(2V )

alors X et Y sont i.i.d.de loi N (0, 1).


D MONSTRATION. On peut montrer facilement par changement de variable que si X et Y sont i.i.d. de loi N (0, 1)
alors en notant (R, ) les coordonnes polaires de (X,Y ), le couple de v.a. (R, ) est indpendant et R2 exp(1/2) et
U [0, 2].


Pour simuler des v.a. gaussiennes, on pourrait aussi procder par inversion de la fonction de rpartition

Rt
2
dune loi N (0, 1). On pose N (t) =
(eu /2 / 2)du qui nest pas explicite, ni son inverse mais il
arrive que les valeurs numriques approches nimporte quel ordre de N 1 (t) soient dj programmes
dans certaines bibliothques et dans ce cas, autant simuler une loi gaussienne en inversant la fonction de
rpartition.
Simulation dun vecteur gaussien quelconque
La mthode de Box-Muller permet de simuler aisment un vecteur de loi N (0, I) o I est la matrice
identit. Si lon veut ensuite simuler un vecteur gaussien gnral de loi N (, ) alors remarquons que
tant une matrice symtrique, positive, il existe une matrice relle triangulaire A telle que AAT = (voir
dcomposition de Cholesky), alors le vecteur + AG avec G N (0, I) est de loi N (, |{z}
).
AAT

CHAPITRE 2. SIMULATION EXACTE OU APPROCHE DE LOIS

18
Simulation par marginalisation

Dautres moyens de simulations existent


: par exemple, il arrive que la densit f sous laquelle on dsire
R
simuler scrive sous la forme f (u) = g(u, v)dv o g est elle mme une densit. Dans ce cas, sil est facile
de simuler suivant g alors on simule (U,V ) g et U sera ncessairement sous la loi de densit f . Souvent
g(u, v) = h(v)p(u|v) et h et p sont simulables. On tire alors V h puis pour V = v, on tire U p(|v).
Lorsque V est une variable discrte, alors on dit que f est une loi de mlange.

2.2 Simulation approche de lois


2.2.1 Echantillonnage dimportance ou Importance Sampling
Dans la plupart des situations, on ne cherche pas rellement simuler suivant une loi
mais approcher
R
lesprance dune fonctionnelle dune variable sous une loi donne, i.e. E f (h(Y )) = h(y) f (y)dy (pour
la notation E f , voir 1 ). Dans ce cas, lIS (Importance Sampling) autrement appel chantillonnage dimportance consiste simuler un chantillon (X1 , . . . , XN ) suivant une loi "instrumentale" de densit g > 0,
Xi g, puis faire lapproximation
E f (h(Y )) =

h(y) f (y)dy SN =

Ni=1

f (Xi )
g(Xi ) h(Xi )

Les conditions dapplication de limportance sampling sont donc


i) on a

g(x)=0

f (x)dx = 0.

ii) on peut simuler suivant g.


iii) pour tout x, f (x)/g(x) est calculable.
La premire hypothse permet dassurer que
Eg ( f (X)h(X)/g(X)) =

f (x)
h(x)g(x)dx =
g(x)

g(x)6=0

h(x) f (x)dx = E f (h(Y )).

Lestimateur dimportance
sampling
h
i SN est clairement sans biais E(SN ) = E f (h(Y )), fortement convergent
sous lhypothse Eg

f (X)
|h(X)|
g(X)

Ni=1

= E f [|h(X)|] < . La loi (forte) des grands nombres montre en effet que

f (Xi )
h(Xi ) p.s.
g(Xi )

f (x)
h(x)g(x)dx =
g(x)

h(y) f (y)dy

On peut donc voir lIS comme une mthode o on jette des points Xi suivant une loi "instrumentale" g et
on "rectifie" le fait quon na pas simul sous f en attribuant chaque point Xi un "poids" dimportance
f (Xi )/g(Xi ).
On a limpression que limportance sampling peut sappliquer plus souvent que la mthode de rejet
f (x)
puisque dans limportance sampling, on na pas supposer que f Mg (condition quivalente supx g(x)
<
ce qui peut tre un peu parfois tre contraignant)... Cest vrai, mais lavantage de lalgorithme de rejet
reste quil permet de simuler exactement suivant la loi de densit f !
Optimisation de la densit instrumentale
i
h
h 2
i
(X) 2
f (X) 2
Sous lhypothse Eg gf 2 (X)
h (X) = E f g(X)
h (X) < , le Thorme de Limite Centrale donne la
qualit de lapproximation sous la forme

f (X )




Ni=1 g(Xii) h(Xi ) Z


f (x)
L
N
h(y) f (y)dy N 0, Varg
h(x)
N
g(x)
1. quand on indice lesprance par f , cela veut dire quon prend lesprance par rapport une variable de densit f

2.2. SIMULATION APPROCHE DE LOIS

19

Pour chercher une


une approximation la plus prcise possible, nous devons donc minimiser
 loi g donnant

f (x)
la quantit Varg g(x) h(x) .
Proposition 2.2.1.

 Z
2 Z
2


f (x)
h(x) ; g densit =
f (x)|h|(x)dx
f (x)h(x)dx
inf Varg
g(x)
Linfimum est atteint pour la densit g dfinie par g (x) = f (x)|h(x)|/

f (u)|h(u)|du.

D MONSTRATION. On crit

Varg

 Z
Z
2
f (x)
f (x) 2
h(x) =
h (x) f (x)dx
h(y) f (y)dy
g(x)
g(x)

Le deuxime terme ne dpendant pas de g, on est donc amen minimiser le premier terme du membre de droite. Or
par Cauchy Schwartz,
Z

!2 Z
2
 Z
Z
2
p
p

Z f (x) 2
f (x)
f (x)
p
f (x)|h(x)|dx =
|h(x)| g(x)dx
|h(x)|2 dx
( g(x))2 dx

= g(x) h (x) f (x)dx


g(x)
g(x)
|
{z
}
1

De plus, lgalit dans Cauchy Schwartz a lieu pour


R

est une densit : g (x) = f (x)|h(x)|/ f (u)|h(u)|du.

g (x) f (x)
|h(x)|, ce qui scrit encore, compte tenu que g

g (x)

Malheureusement, ce lemme na pas de consquences pratiques immdiates


puisquil nest pas vident
R
de savoir simuler suivant la distribution de densit g (x) = f (x)|h(x)|/ f (u)|h(u)|du et mme si ctait
le cas, pour pouvoir utiliser limportance sampling, il aurait fallu savoir calculer explicitement
f (x)
=
g (x)

f (u)|h(u)|du
|h(x)|

ce
quon ne sait pas faire en gnral, puisquon cherche prcisment donner une valeur numrique
R
f (u)h(u)du. Cependant, la qualit de ce lemme est de montrer que pour optimiser lapproximation de
E f (h(Y )), la densit qui conduit la variance minimum nest pas ncessairement f .

2.2.2 Autres mthodes de simulations approches


Elles sont nombreuses, notamment les algorithmes de type MCMC (Monte Carlo par Chanes de Markov) dont le principe gnral consiste construire une chane de Markov dont la loi statonnaire est de
densit f . Lapproximation de E f (h(X)) par N 1 Ni=1 h(Xi ) vient alors dune loi des grands nombres pour
une chane de Markov (on ne peut plus utiliser la LGN usuelle car les v.a. ne sont pas i.i.d.). Nous ne
dvelopperons pas plus ces algorithmes mais elles sont introduites dans le cursus Ingnieur de Telecom
SudParis dans le cours dAnalyse numrique.
Dautres mthodes hybrides combinent judicieusement des algorithmes de type Importance Sampling
et des algorithmes MCMC. Cela dit, la question reste toujours ouverte de choisir la mthode destimation
la plus efficace pour donner une valeur numrique une esprance E f (h(X)) ; elle fait encore maintenant lobjet de recherches intensives notamment lorsque la variable X volue dans un espace de grande
dimension.

20

CHAPITRE 2. SIMULATION EXACTE OU APPROCHE DE LOIS

2.3 Points essentiels du chapitre


a) Simulation par inversion de la fonction de rpartition : savoir le redmontrer si la fonction de
rpartition est inversible. Savoir distinguer variables discrtes et continues.
b) Savoir redmontrer la proposition justifiant lalgorithme de rejet. Lacceptation-rejet demande un nombre de simulations alatoires avant de produire un chantillon de la bonne
loi.
c) Savoir faire des changements de variables pour faire de la simulation par transformation.
d) Simulation par importance sampling : savoir la justification de la convergence et du TCL.
Optimisation de la variance asymptotique.

Chapitre 3

Discrtisation dEDS et simulation de


processus
Sommaire
3.1

3.2

3.3

Simulation du mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

3.1.1

Simulation exacte sur une grille prdfinie . . . . . . . . . . . . . . . . . . . . .

22

3.1.2

Simulation exacte conditionnelle une grille . . . . . . . . . . . . . . . . . . .

22

Schma dEuler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

3.2.1

Principe du schma de discrtisation . . . . . . . . . . . . . . . . . . . . . . . .

24

3.2.2

Proprits de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

25

Autres mthodes de discrtisation . . . . . . . . . . . . . . . . . . . . . . . . .

25

Simulation dun maximum conditionnellement un schma dEuler . . . . . . . . .

26

3.3.1

Pont brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

3.3.2

Simulation exacte de la loi du maximum conditionnellement un schma dEuler

28

3.4

Points essentiels du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

3.5

Un peu dhistoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

Leonhard Euler (15 avril 1707 - 18 septembre 1783) Source : bibmath. . . . . . .

29

Mots cls 3.1

Schma dEuler, discrtisation dEDS, pont brownien, simulation dun maximum dun pont

brownien.

Jusqu prsent, nous avons tudi des mthodes de simulation permettant de calculer des esprances
de variables alatoires par mthodes de Monte Carlo. Ceci nest possible que lorsque lon est capable de
simuler selon la loi des dites variables alatoires. En finance, il sagit souvent de calculer des esprances
de la forme E(h(XT )) ou E(h(Xt , 0 t T )) o (Xt )t0 est solution dune EDS du type
dXt = (t, Xt )dWt + (t, Xt )dt,

X0 = x.

Comme on ne connat pas toujours la loi de (Xt ) (sauf cas exceptionnel comme pour le modle de Black and
Scholes), nous allons voir comment approcher ce processus par une suite de v.a. travers une procdure de
discrtisation. Le praticien pour estimer E(h(XT )) ou E(h(Xt , 0 t T )) sera donc confront deux types
derreur : une erreur de type Monte Carlo et une erreur de discrtisation dEDS. Dans un premier temps,
nous allons nous intresser la simulation dune trajectoire de mouvement Brownien sur un intervalle de
temps [0, T ] pour T fix.
21

22

CHAPITRE 3. DISCRTISATION DEDS ET SIMULATION DE PROCESSUS

3.1 Simulation du mouvement brownien


3.1.1 Simulation exacte sur une grille prdfinie
On considre (Wt )0t1 un mouvement Brownien standard dfini sur [0, T ]. Soit 0 = t0 < t1 < . . . <
tn = T une subdivision de lintervalle [0, T ]. On cherche simuler une trajectoire du mouvement Brownien
en les points de la subdivision, cest--dire que lon cherche la loi du processus discret (Wti )i=0,...,n .
Algorithm 4 Algorithme de simulation du mouvement brownien
1: tirer Gi N (0, 1) pour i = 1, . . . , n indpendamment.
2: X0 = 0.

3: for i = 1 to n do Xi = Xi1 + ti ti1 Gi


4: end for
5: Output : X0 , . . . Xn
Proposition 3.1.1. Soit (Gi )i=1,...,n une suite i.i.d. selon la loi N (0, 1). On dfinit
i

X0 = 0,

Xi =

j=1

p
t j t j1G j

pour i > 0.

Les vecteurs (Wt0 , . . . ,Wtn ) et (X0 , ..., Xn ) sont gaux en loi :


loi

(Wt0 , . . . ,Wtn ) (X0 , ..., Xn )


D MONSTRATION. Il suffit de remarquer que (X1 X0 , . . . , Xn Xn1 ) est un vecteur gaussien de composantes indpendantes et telles que pour i 1, Xi Xi1 N (0,ti ti1 ). Comme X0 = Wt0 = 0, on en dduit que les vecteurs
(X0 , X1 X0 , . . . , Xn Xn1 ) et (Wt0 ,Wt1 Wt0 , . . . ,Wtn Wtn1 ) ont mme loi et par transformation dterministe (linaire
dailleurs), les vecteurs (Wt0 , . . . ,Wtn ) et (X0 , ..., Xn ) ont mme loi.


La proposition prcdente permet donc de simuler exactement le mouvement brownien sur une grille
0 = t0 < t1 < . . . < tn = T prdfinie, autrement dit, il ny a pas derreur de discrtisation pour la
simulation du brownien, contrairement ce que nous verrons pour dautres processus.

3.1.2 Simulation exacte conditionnelle une grille


Maintenant, supposons que nous ayons dj simul Wt1 , . . . ,Wtn et que nous cherchons raffiner le
rsultat en rajoutant un terme supplmentaire dans la subdivision, i.e. nous cherchons simuler Wu (avec
0 < u < T ) conditionnellement (Wt1 , . . . ,Wtn ). Dans ce cas, on peut montrer si ti < u < ti+1 alors la loi de
Wu conditionnelle (Wt1 , . . . ,Wtn ) ne dpend que de (Wti ,Wti+1 ), i.e.
Wu |(Wt

loi
1

,...,Wtn )

Wu |(Wti ,Wt

i+1

On commence par un lemme technique sur les variables gaussiennes extrmement utilise (dans ce cours
ou ailleurs !). Cest un lemme relativement simple mais dont il faut parfaitement comprendre les subtilits
pour la suite.
Lemme 3.1.2. Pour des variables carrs intgrables, on note < , > le produit scalaire dfini par <
U,V >= E(UV ). On considre (X,Y, Z) un vecteur gaussien centr. On note
: projection orthogonale de Z sur H = {X + Y ; , R}
+ Y
P Z [X,Y ] = X
Alors, la loi de Z conditionnellement X et Y est donne par :
Z|(X,Y ) N

P Z [X,Y ], kZ P Z [X,Y ]k2

o kUk2 =< U,U >= E(U 2 ).

3.1. SIMULATION DU MOUVEMENT BROWNIEN

23

Remarque 3.1.1
i) Lesprance de cette loi conditionnelle est P Z [X,Y ] ; cest donc une fonction de
(X,Y ) donc une variable alatoire.
ii) La variance de cette loi conditionnelle pourrait a priori tre alatoire mais ici, le lemme nous dit quelle
vaut kZ P Z [X,Y ]k2 ; elle est donc purement dterministe et reprsente lerreur de projection de Z
sur H . Enfin, comme toutes les v.a. de ce lemme sont centres, on a aussi



kZ P Z [X,Y ]k2 = E (Z P Z [X,Y ])2 02 = Var(Z P Z [X,Y ])

iii) Compte tenu de ces deux remarques, on peut rcrire le rsultat du lemme sous une forme qui met bien
en vidence ce qui dpend des valeurs prises par la v.a. (X,Y ) et ce qui dpend de la loi de (X,Y ) :
notons (x, y) la valeur prise par le couple de v.a. (X,Y ), alors (remarquez quels endroits on met des
minuscules, cest important ! !)

Z|(X,Y )=(x,y) N P Z [x, y], Var Z P Z [X,Y ]



(3.1)

D MONSTRATION. Par dfinition, P Z [X,Y ] est dans la tribu engendre par X,Y tandis que Z P Z [X,Y ] tant orthogonal H et X,Y tant centres, on a Cov(Z P Z [X,Y ], X) = Cov(Z P Z [X,Y ],Y ) = 0, le vecteur (X,Y, Z) tant
gaussien, cest aussi le cas pour (X,Y, Z P Z [X,Y ]) ce qui montre finalement que Z P Z [X,Y ] est indpendant de
(X,Y ). On a ainsi :
Z=
P Z [X,Y ]
+
(Z P Z [X,Y ])
(3.2)
| {z }
|
{z
}
fonction de (X,Y ) indpendant de (X,Y )

Enfin, Z P Z [X,Y ] est clairement une v.a. gaussienne centre. Finalement,

Z P Z [X,Y ] N (0, Var(Z P Z [X,Y ]))


{z
}
|
kZP Z [X ,Y ])k2

Et (3.2) implique alors Z|(X ,Y) N

P Z [X,Y ], kZ P Z [X,Y ]k2

Proposition 3.1.3. Si t u T , alors en notant (a, b) la valeur prise par le couple (Wt ,WT ),


T u
ut
(T u)(u t)
Wu |(Wt ,WT )=(a,b) N
a+
b,
T t
T t
T t
La simulation de cette loi conditionnelle est donn par lalgorithme 5.
Algorithm 5 Simulation de Wu |(Wt , WT )
1:
2:
3:
4:

Input : Wt ,WT
Simuler G N (0, 1).

ut
Poser Wu = TT u
t Wt + T t WT +
Output : Wu

(T u)(ut)
G.
T t

Wu
D MONSTRATION. Pour simplifier les notations, notons simplement W u = P
[Wt ,WT ] la projection orthogonale (au
sens du produit scalaire < , >) de Wu sur H = {Wt + WT ; , R}. Au vu du Lemme 3.1.2, il sagit simplement
didentifier lexpression de W u et de lerreur
de projection
kWu W u k2 = Var(Wu W u ).
n
o
Wt
On constate immdiatement que kW
, WT Wt
t k kWT Wt k
base orthonorme scrit donc naturellement :

W u

=
=
=

est une base orthonorme de H , et la projection de Wu sur cette

Wt
Wt
WT Wt
WT Wt
>
+ < Wu ,
>
kWt k kWt k
kWT Wt k kWT Wt k
< Wu ,Wt >
< Wu ,WT Wt >
Wt +
(WT Wt )
< Wt ,Wt >
< WT Wt ,WT Wt >
ut
T u
ut
Wt +
(WT Wt ) =
Wt +
WT
T t
T t
T t
< Wu ,

CHAPITRE 3. DISCRTISATION DEDS ET SIMULATION DE PROCESSUS

24

o lavant dernire galit vient de < Wa ,Wb >= E(WaWb ) = Cov(Wa ,Wb ) = a b. Enfin lerreur de projection scrit
"
2 #
h
i
T u
ut
E (Wu W u )2 = E
(Wu Wt ) +
(Wu WT )
T t
T t




ut 2
(T u)(u t)
T u 2
(u t) +
(u T ) =
=
T t
T t
T t


ce qui achve la preuve.

3.2 Schma dEuler


3.2.1 Principe du schma de discrtisation
Notre but consistera ici approcher la solution dune Equation Diffrentielle Stochastique (EDS). Soit
(Xt )t0 un processus valeurs dans Rd solution de lEDS :
Xt = X0 +

Z t
0

(Xs )ds +

Z t
0

(Xs )dWs

(3.3)

o (Wt )t0 est un r-mouvement brownien vectoriel standard. Contrairement la simulation du mouvement
brownien qui est une simulation exacte, nous allons ici nous tre contraint des simulations approches.
Le schma de discrtisation le plus simple est le schma dEuler. Choisissons un pas de discrtisation
h=

T
N

de lintervalle de temps [0, T ]. La solution exacte satisfait


Xh = X0 +

Z h
0

(Xs )ds +

Z h
0

(Xs )dWs

Une approximation "naturelle" de Xh serait la suivante


Xh X0 + (X0)h + (X0)(Wh W0 ).
En procdant par rcurrence, le schma dEuler associ lEDS (3.3) serait
X0N = X0 ,
N
X(p+1)h

(3.4)
N
N
N
X ph
+ (X ph
)h + (X ph
)(W(p+1)h Wph)

(3.5)

Pour bien se fixer les ides, traduisons cela dans un algorithme :


Algorithm 6 Schma dEuler
1: Input : N, T, X0
2: Poser X(0) = X0 et h = T /N.
3: for i = 1 to N do
4:
Simuler G N (0, 1)

5:
X(i) = X(i 1) + (X(i 1))h + (X(i 1)) hG
6: end for
7: Output : X(0), . . . , X(N)
La gnralisation du schma dEuler des EDS o le terme de drift et de volatilit peuvent dpendre du
temps
Xt = X0 +
est immdiate et sera laisse au lecteur.

Z t
0

(s, Xs )ds +

Z t
0

(s, Xs )dWs

3.2. SCHMA DEULER

25

3.2.2 Proprits de convergence


Le thorme suivant, que nous admettrons, donne la convergence du schma de discrtisation ainsi
quune valuation de la vitesse de convergence de lapproximation :
Thorme 3.2.1. Supposons que et soient deux fonctions Lipschitziennes. Soit (Wt )t0 un r-mouvement
brownien vectoriel standard. Notons par (Xt )t0 lunique solution de lEDS :
Xt = X0 +

Z t
0

(Xs )ds +

Z t
0

(Xs )dWs

N)
et notons (Xkh
k0 la suite de v.a. dfinie par (3.4). On a alors les rsultats suivants :

C ONVERGENCE

FORTE-

Pour tout q 1,
!! 1

2q

sup
0kN

N
|Xkh
Xkh |2q

C h.

De plus, pour tout < 1/2,


1
p.s.
sup |X N Xkh | h0 0
h 0kN kh
C ONVERGENCE FAIBLE- Si et sont des fonctions de classe C4 dont les drives jusqu lordre 4
sont bornes et si f est une fonction de classe C4 dont les drives jusqu lordre 4 sont bornes
par un polynme alors si h = T /N , il existe une constante CT telle que


E( f (XTN )) E( f (XT )) CT ( f )h

Ce thorme montre que la vitesse de convergence L2 est dordre h1/2 (prendre q = 1


dans la section Convergence forte) et la vitesse de la convergence presque sre est dordre h1/2 pour
tout > 0. De plus, pour des fonctions trs rgulires, la vitesse de la convergence faible (celle qui intresse
surtout les praticiens car elle permet de montrer la convergence du prix "discrtise" vers le vrai prix) est
de lordre de h.

Remarque 3.2.1

Autres mthodes de discrtisation


Le schma dEuler est obtenu par une approximation dordre 1 dans le dveloppement de Taylor. Il
existe dautres schmas comme le schma de Milshtein dont le principe trs grossirement consiste pousser le dveloppement un ordre suprieur. Son efficacit est relle en dimension 1, i.e. quand (Xt ) est un
processus valeurs relles. Nanmoins en dimension plus grande, son efficacit par rapport au schma
dEuler devient plus contestable. On pourra trouver aisment dans la littrature le principe et certaines
proprits de ce type de schma mais nous ne ltudierons pas dans le cadre de ce cours.
Une autre mthode trs simple pour amliorer les performances de lapproximation est connue sous le
nom de mthode de Romberg. Il se base sur une constatation trs simple : supposons que UN soit une suite
admettant un dveloppement limit :
UN = a +

b
c
+
+ ...
N N2

alors
2UN UN/2 = a +

d
+ ...
N2

et le terme en 1/N a disparu... on a gagn un ordre... La mthode de Romberg consistera donc remplacer
N/2
f (XtN ) par 2 f (XtN ) f (Xt ) et on peut montrer que cela permet effectivement de gagner un ordre dans
lestimation de E( f (Xt )).

CHAPITRE 3. DISCRTISATION DEDS ET SIMULATION DE PROCESSUS

26

3.3 Simulation dun maximum conditionnellement un schma dEuler


Dans les applications financires, la discrtisation dEuler va permettre dapprocher les payoff de type
f (XT ) o T est linstant terminal et (Xt )t0 le processus de prix dun actif satisfaisant une EDS de type
(3.3). On peut aussi sintresser dans le cadre des options sur maximum des payoff de type f (XT , MT ) o
MT = sup0tT Xt . Dans ce cas, pour approcher MT , lapproche nave consistant prendre le maximum sur
la grille de discrtisation dans un schma dEuler peut savrer relativement peu efficace. Or, nous avons
vu quon pouvait calculer aisment la loi de Wu conditionnellement des valeurs extrmes du brownien.
Nous allons exprimer ce rsultat en terme dune loi de processus et non en terme dune loi marginale
comme celle de Wu ; cest le "fameux" pont brownien que nous commencerons dabord par dfinir. Puis
nous verrons que la loi du maximum dun pont brownien est parfaitement connue et facile simuler. Enfin,
nous verrons comment ces proprits vont nous permettre de simuler la loi du maximum dun processus
conditionnellement au schma de discrtisation dEuler.
Dans toute la suite, on se placera dans un espace de dimension 1, i.e., les browniens seront considrs
en dimension 1, et le processus (Xt ) sera un processus rel.

3.3.1 Pont brownien


Posons
Zua,b =


T u
ut
u)
a+
b + (Wu W
T t
T t

ut
def T u
W u =
Wt +
WT .
T t
T t

Il est utile, voire lumineux, de remarquer que Zua,b et Wu scrivent aussi


Zua,b = P Wu [a, b] + Wu P Wu [Wt ,WT ],

Wu =

P Wu [Wt ,WT ] + Wu P Wu [Wt ,WT ]

(3.6)
(3.7)

o P U [Wt ,WT ] est la projection de U sur le sous espace des combinaisons linaires de Wt et WT et P U [a,
b]
est la valeur prise par la v.a. P U [Wt ,WT ] lorsque (Wt ,WT ) prend la valeur (a, b) : P U [a, b] = P U [Wt ,WT ] (Wt ,W

T )=(a,b)

(Zua,b ).

Notons que pour allger les notations, nous avons limin la dpendance en t et T dans la notation
Au vu de (3.6) et (3.7), le pont brownien est compltement "naturel" ! ! ! En effet, on a clairement :
loi

loi

Wu |(Wt ,WT )=(a,b) Zua,b |(Wt ,WT )=(a,b) Zua,b


o la dernire galit vient du fait que Wu P Wu [Wt ,WT ] tant orthogonale (Wt ,WT ) et ces variables
tant centres, on a que Wu P Wu [Wt ,WT ] est dcorrle de (Wt ,WT ) do lindpendance Z a,b vis vis de
(Wt ,WT ) car toutes ces variables forment un vecteur gaussien... Maintenant la petite exigence supplmentaire que nous aurons est de montrer lgalit en loi non pas de la marginale Wu mais de tout le processus
(Wu ). Pourquoi chercher un tel rsultat ? En anticipant, cest parce quon sintresse un maximum et
supu[t,T ] Wu fait intervenir tout le processus (Wu ) et non une marginale du processus...
Proposition 3.3.1. P ONT
conditions terminales

BROWNIEN -

Le processus (Zua,b )tuT est un processus gaussien, vrifiant les


Zta,b = a,

ZTa,b = b

De plus, la loi du processus (Wu )tuT conditionnellement (Wt ,WT ) = (a, b) et la loi de (Zua,b )tuT sont
les mmes :
loi

(Wu )tuT |(Wt ,WT )=(a,b) (Zua,b )tuT

3.3. SIMULATION DUN MAXIMUM CONDITIONNELLEMENT UN SCHMA DEULER

27

a,b

D MONSTRATION. Que (Zu )tuT soit un processus gaussien vrifiant les conditions terminales de la proposition
a,b
est absolument clair partir de la dfinition de (Zu ) et des proprits classiques du mouvement brownien (Wu )u0 .
Il sagit pour obtenir la dernire partie de la proposition de montrer lgalit des fonctions caractristiques pour des
distributions finie-dimensionnelles, la continuit des deux processus permettant alors de conclure
en loi des
lgalit


a,b
Wt1
Zt1

deux processus : pour toute subdivision t1 . . . tN de [t, T ], en posant W = . . . et Z = . . . , montrons que


a,b
Wtn
Ztn
pour tout vecteur v Rn ,
 T

 T 

E eiv W W = a,W = b = E eiv Z
t

loi

Pour cela, montrons lgalit en loi : vT W|(Wt ,WT )=(a,b) vT Z. Pour cela, remarquons que par (3.6), (3.7) et par
linarit de la projection orthogonale, on a
T

vT Z = P v
T

[a, b] + vT W P v

[Wt ,WT ]

T
T
W = P v W [Wt ,WT ] + vT W P v W [Wt ,WT ]

loi

loi

Do vT W|(Wt ,WT )=(a,b) vT Z|(Wt ,WT )=(a,b) vT Z. La preuve est acheve.

A partir de maintenant, on prendra un pont brownien avec pour valeurs terminales Wt = 0 et WT = w et


on supposera t = 0. Dans ce cas, Zu0,w scrit : Wu Tu (WT w).
Proposition 3.3.2. P ONT B ROWNIEN

ISSU DE

0- Pour tout w R, posons

Zuw = Wu

u
(WT w)
T

Alors, (Zu0 ) est un processus gaussien indpendant de WT . De plus,


u [0, T ] , E(Zu0 ) = 0

(u,t) [0, T ] , E(Zu0 Zv0 ) = u v

uv
T

La loi du processus (Ws ) conditionnellement WT prise en WT = w est celle du processus (Zsw ) :


loi

(Ws )0sT |WT =w (Zsw )0sT


On dit que (Zsw ) est le processus pont brownien partant de 0 et passant par w en T .

100 trajectoires d un pont brownien passant par 0 et 1


2.5

1.5

0.5

0.5

1.5

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

F IGURE 3.1 Trajectoires dun Pont brownien passant par 0 en t = 0 et par 1 en t = 1


D MONSTRATION. La preuve est limpide partir de la proposition juste prcdente... Il reste montrer E(Zu0 Zv0 ) =
0
u v uv
T mais cest immdiat en exprimant Zt en fonction du mouvement brownien Wt et en utilisant E(WsWt ) = s t
(le vrifier pour sen convaincre !).


CHAPITRE 3. DISCRTISATION DEDS ET SIMULATION DE PROCESSUS

28

Proposition 3.3.3. L OI DU MAXIMUM D UN PONT BROWNIEN- La fonction de rpartition de supt[0,T ] Ztw


a lexpression suivante : pour tout a > w,
"
#
P

sup Ztw a = 1 e T a(aw) = Fw,T (a)

t[0,T ]

On peut simuler M = supt[0,T ] Ztw par inversion de la fonction de rpartition :


Algorithm 7 Maximum dun pont brownien
1: Input : T, w
2: Simuler U U (0, 1)

1
3: Poser Y = Fw,T (1 U) = 21 (w + w2 2T lnU)
4: Output : Y
E XERCICE 3.1

Proposer une mthode de simulation de supt[0,T ] Wt par marginalisation.

3.3.2 Simulation exacte de la loi du maximum conditionnellement un schma


dEuler
Rappelons que lon travaille sur un intervalle [0, T ] et que le pas de la subdivision est note h = T /N.
Notons t = h et appelons (XtN )0tT le processus dfini sur les intervalles [tk ,tk+1 ] par
0 u h,

XtNk +u = XtNk + (XtNk ) u + (XtNk )(Wtk +u Wtk )


| {z }
Bku

o (Bku )u0 dfini par Bku = Wtk +u Wtk est un mouvement brownien standard. Nous voyons clairement que
le processus (XtN ) interpole aux dates tk les valeurs du schma de discrtisation dEuler, i.e. XtNk = XtNk .
Nous cherchons maintenant simuler la loi du maximum de (XtN ) conditionnellement (XtNk )0kN .
La premire remarque est que lon peut se ramener un intervalle [tk ,tk+1 ] en remarquant que
"
#
sup XtN =

t[0,T ]

sup XtN

max

k=0,...,N1 t[t ,t ]
k k+1

Enfin, on remarque que


loi
sup XtN |(XtN )0N

t[tk ,tk+1 ]

sup XtN |XtN ,XtN

t[tk ,tk+1 ]

k+1

Lemme 3.3.4. La loi de (XuN ) sur lintervalle [tk ,tk+1 ] conditionnellement aux valeurs terminales (XtNk , XtNk+1 ) =
x xk
(xk , xk+1 ) est lie un pont brownien Zuw passant par w = k+1
linstant h par lgalit en loi suivante :
(x )
k

(XtNk +u )0uh |(XtN ,XtN


k

k+1

loi
)=(xk ,xk+1 )

xk + (xk )Zuw

0uh

k (xk )h
. Ainsi, par la proprit du
D MONSTRATION. Si (XtNk , XtNk+1 ) = (xk , xk+1 ), alors Bkh prend la valeur w = xk+1 x
(xk )
pont brownien,

h
i
u
loi
(XtNk +u )0uh |(XtN ,XtN )=(xk ,xk+1 )
xk + u(xk ) + (xk ) Bku (Bkh w)
k
k+1
h
0uh




u
xk+1 xk
loi
k
k

xk + (xk ) Bu
Bh
h
(xk )
0uh

o la dernire galit est obtenue aprs avoir inject w =


sen dduit.

xk+1 xk (xk )h
(xk )

dans lgalit encore prcdente. Le lemme




Ainsi, par la Proposition 3.3.3, il est possible de simuler Mk = sup0uh XtNk +u conditionnellement (XtNk , XtNk+1 ) = (xk , xk+1 )
de la faon suivante :

3.4. POINTS ESSENTIELS DU CHAPITRE

29

Algorithm 8 Maximum conditionnellement un schma dEuler


1: Input : x0 , . . . , xN
2: for k = 0 to N 1 do
3:
Simuler U U (0,
 1)

p
4:
Poser M(k) = 21 xk+1 + xk + (xk+1 xk )2 22(xk )h ln(U)
5: end for
6: Poser M = maxk=1,...,N M(k)
7: Output : M

i) Simuler U U ]0, 1[

1
ii) Poser Mk = xk + (xk )Fw,h
=
(1 U) avec w

xk+1 xk
(xk )

1
et Fw,h
dfini dans la Proposition 3.3.3.

Un calcul simple montre alors que


1
xk + (xk )Fw,h
(1 U) =



q
1
xk+1 + xk + (xk+1 xk )2 22 (xk )h ln(U)
2

Finalement, tous ces rsultats montrent que lon peut simuler la loi du maximum de (XtN ) conditionnellement (XtNk )0kN par lAlgorithme 8.

3.4 Points essentiels du chapitre


a) Savoir implmenter le schma dEuler et connatre les rsultats dapproximation.
b) Savoir rajouter un point intermdiaire dans un schma dEuler.
c) Comprendre la construction du pont brownien et les applications pour simuler le maximum
conditionnellement un schma dEuler.

3.5 Un peu dhistoire


Leonhard Euler (15 avril 1707 - 18 septembre 1783) Source : bibmath.
N Ble le 15 avril 1707, Leonhard Euler tudia les mathmatiques sur les conseils
de Johann Bernoulli, qui tait ami avec son pre. Il sinstalla Saint-Petersbourg, auprs
de Pierre le Grand, puis Berlin sous le rgne de Frdric II, o chaque fois il rencontra
un environnement scientifique exceptionnel. Son oeuvre est considrable. Euler intervint
dans les trois domaines fondamentaux de la science de son poque : lastronomie (orbites
plantaires, trajectoires des comtes), les sciences physiques (champs magntiques, hydrodynamique, optique, nature ondulatoire de la lumire,...), les mathmatiques, o il met
au premier plan le concept de fonction. On lui doit aussi la trs jolie relation entre les
nombres de sommets, dartes et de faces dun polydre convexe (ex : le cube, le ttradre,...).
La sant dEuler tait assez fragile. Il perdit son oeil droit en 1735, puis son oeil gauche en 1771 en
raison dune cataracte. Il fut donc pendant 12 ans totalement aveugle. Cela obligeait ce mathmaticien trs
prolixe, qui publia 886 ouvrages, le tout en 80 volumes, faire appel des personnes de son entourage qui
il dictait ses mmoires. Il dcde le 18 septembre 1783 Saint-Petersbourg dune hmorragie crbrale.

30

CHAPITRE 3. DISCRTISATION DEDS ET SIMULATION DE PROCESSUS

Chapitre 4

Rduction de variance
Sommaire
4.1

Echantillonnage dimportance ou Importance Sampling . . . . . . . . . . . . . . . .

32

4.2

Variables antithtiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

4.3

Variables de contrle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

Optimisation de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

4.4

Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

4.5

Stratification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

Allocation proportionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

4.6

Allocation optimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

Mthodes de Quasi Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

4.6.1

Suites discrpance faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

Suite de Van der Corput . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

Suite de Halton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

4.7

Points essentiels du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

4.8

Un peu dhistoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

Van der Corput. source : Wikipedia . . . . . . . . . . . . . . . . . . . . . . . . .

39

Mots cls 4.1

Importance sampling, variables antithtiques, stratification, variables de contrle, conditionnement, discrpance faible, suites de Van der Corput, de Halton.

Nous avons vu dans les prcdents chapitres certains outils permettant de simuler de faon exacte
ou approche suivant une loi cible dfinie par une densit f ou par lintermdiaire de la solution dune
EDS (notamment, nous avons vu des approximations de type schmas de discrtisation dEDS), le but
final
restant de donner une valeur numrique la plus prcise possible dune quantit de type E(h(Y )) =
R
h(y) f (y)dy o Y de densit f .
Ce chapitre est consacre diverses mthodes pour produire des estimateurs Sn de E(h(Y )) telle que
lcart quadratique n fix soit la plus petite possible. Tous les estimateurs que nous verrons ici seront
p.s.
sans biais et fortement convergents : E(Sn ) = E(h(Y )) et Sn E(h(Y )), de sorte que lcart quadratique
scrira alors

E Sn E(h(Y ))
| {z }
E(Sn )

qui est donc aussi la variance Var(Sn ). Voyons maintenant certaines mthodes de simulation permettant de
rduire la variance par rapport un estimateur de Monte Carlo standard.
31

CHAPITRE 4. RDUCTION DE VARIANCE

32

4.1 Echantillonnage dimportance ou Importance Sampling


Nous renvoyons le lecteur au chapitre 2 o le principe de limportance sampling est dvelopp et
o nous avons vu que la variance asymptotique de lestimateur dimportance sampling natteignait pas
ncessairement sa variance optimale lorsque la loi instrumentale correspondait la loi cible. Rappelons la
mthode. On considre une v.a. Y f o f est une densit. Supposons quon veuille approcher E(h(Y )).
On choisit alors une densit (instrumentale) g simulable. On tire donc un n-chantillon (X1 , . . . , Xn ) suivant
la loi de densit g et on pose
1 n f (Xi )
h(Xi )
Sn =
n i=1 g(Xi )
Contrairement au chapitre 2, nous regarderons la variance non asymptotique (au lieu de la variance asymptotique) de Sn .

 R
R
f (X)
f (x) 2
Var g(X)
h(X)
f (x) g(x)
h (x)dx ( h(x) f (x)dx)2
Var(Sn ) =
=
n
n
On obtient donc une reduction de la variance par rapport un estimateur de Monte Carlo standard ssi
Z

f (x)

f (x) 2
h (x)dx
g(x)

f (x)h2 (x)

4.2 Variables antithtiques


Supposons que lon cherche calculer E(h(U)) o U U [0, 1] par une mthode de Monte Carlo. Si
lon dispose dun n-chantillon (U1 , . . . ,Un ) de v.a. i.i.d. selon la loi de U, la mthode classique nous invite
considrer
1 n
Sn = h(Ui ).
n i=1
Nanmoins, on peut remarquer que si U U [0, 1] alors 1 U suit galement une loi U [0, 1]. On peut alors
tre tent de considrer
1 n
Sn = h(1 Ui).
n i=1
ou mme

1 n
Sn =
(h(Ui ) + h(1 Ui))
2n i=1

(4.1)

Clairement, Sn est un estimateur sans biais et fortement convergent de E(h(U)). Calculons maintenant la
variance de Sn :
Var(Sn ) =

1
1
(2Var(h(U)) + 2Cov(h(U), h(1 U))) = Var(S2n ) + Cov(h(U), h(1 U))
4n
n

Si Cov(h(U), h(1 U)) est ngatif, alors la vitesse de convergence de Sn est meilleure que celle de S2n . Le
lemme suivant donne une condition suffisante qui assure la ngativit de la covariance de deux fonctions
dune mme variable alatoire.
Lemme 4.2.1. I NGALIT DE CORRLATION- Soit X une v.a. relle et h et g deux fonctions monotones
de sens de monotonie diffrents, alors Cov(h(X), g(X)) 0.
D MONSTRATION. Soit x et y deux rels. On a
(h(x) h(y))(g(x) g(y)) 0.
Si X et Y sont indpendantes, de mme loi alors
E [(h(X) h(Y ))(g(X) g(Y ))] 0.

4.3. VARIABLES DE CONTRLE

33

En dveloppant, on obtient
E[h(X)g(X)] + E[h(Y )g(Y )] E[h(X)]E[g(Y )] E[h(Y )]E[g(X)] 0
ce qui est le rsultat attendu en remarquant que X et Y ont mme loi.

Corollaire 4.2.2. Si U U [0, 1] et si h croissante alors, Cov(h(U), h(1 U)) 0.


D MONSTRATION. Prendre g(x) = h(1 x) dans le lemme prcdent.

Soit (x) = (ex K)+ . On cherche calculer E((G)) o G N (0, 1) par une mthode de Monte Carlo (bien sr, on sait que Black and Scholes fournit une formule exacte, ferme, sans
approximation). Dans ce cas, en remarquant que G et G ont mme loi, on peut choisir un estimateur de
la forme

Exemple 4.2.1

1 n
Sn =
((Gi ) + (Gi))
2n i=1

i.i.d.

o Gi N (0, 1). Evidemment la preuve de Cov((G), (G)) 0 est une consquence directe du
Lemme 4.2.1 avec f (x) = (x) et g(x) = (x).

Dune faon plus gnrale, on pourra utiliser une mthode de Monte Carlo avec variable antithtique
pour approcher E(h(Y )) si h : R R est monotone et sil existe une fonction dcroissante telle que
loi

h(Y ) h (Y ).

G NRALISATION- Si Y une v.a. valeurs dans Rd . Soient h : Rd R et h : Rd R tq h


est croissante en chacune de ses coordonnes et h est dcroissante en chacune de ses coordonnes. On
suppose de plus que

E XERCICE 4.1

loi
).
h(Y ) h(Y

1
i )] est
Montrer que sous certaines conditions dintgrabilit (quon prcisera), la quantit 2n
ni=1 [h(Yi ) + h(Y
un estimateur sans biais, fortement convergent, de variance plus petite que celle de lestimateur de Monte
Carlo standard 1n ni=1 h(Yi ).

4.3 Variables de contrle


Une autre mthode pour rduire la variance de la mthode de Monte Carlo pour le calcul de E(Y )
consiste trouver une v.a. X , telle que lon sache calculer explicitement son esprance et telle que
Var(Y X) Var(Y ) pour un certain R. On considre alors (Y1 , ...,Yn ) un n-chantillon selon la
loi de Y et (X1 , ..., Xn ) un n-chantillon selon la loi de X. On calcule ensuite
!
n
n
n
1
1
1
Sn = [Yi (Xi E(X))] = Yi
Xi E(X)
n i=1
n i=1
n i=1
Bien-sr, Sn est clairement un estimateur sans biais et fortement convergent de E(Y ). En effet par la LGN,
p.s.
on a Sn E(Y ). Maintenant, en posant Sn = n1 ni=1 Yi
Var(Sn ) =

Var[Y (X E(X))] Var[Y X] Var[Y ]


=

= Var (Sn )
n
n
n

ce qui montre que la variance est bien rduite par rapport un estimateur de Monte Carlo standard. On dit
alors que X est une variable de contrle pour Y .
Malheureusement, il ny pas de mthode gnrale pour exhiber une variable de contrle, X partir
de Y . Cest au cas par cas. Cependant, ce qui doit diriger lintuition pour obtenir une bonne variable de
contrle X, cest que Y X doit moins "varier" que Y donc X doit "suivre" plus ou moins lvolution de
Y - quitte remplacer X par X, on choisit 0 - (si Y est grand, X aussi ou si Y petit, X galement) tout
en possdant quand mme lavantage par rapport Y davoir une esprance explicitement calculable.

CHAPITRE 4. RDUCTION DE VARIANCE

34
Optimisation de

Une fois la variable de contrle X choisie, se pose alors le problme du choix du coefficient le plus
efficace possible. On a le lemme suivant qui savre tre un rsultat de projection orthogonale :
Lemme 4.3.1. Soient Y et X deux v.a. carr intgrables, alors Var(Y X) = infR Var(Y X) pour
=
D MONSTRATION. Remarquons quen notant k k =
pour les variables L2 ,

Cov(Y, X)
Var(X)

< , > o < U,V >= E(UV ) est le produit scalaire usuel

Var(Y X) = Var[Y E(Y ) (X E(X))] = kY E(Y ) (X E(X))k2


Donc le coefficient = optimum est obtenu cherchant dans H = {[X E(X)]; R} llment le plus proche de
Y E(Y ) au sens dune norme issue dun produit scalaire : cest exactement le projet orthogonal du vecteur Y E(Y )
sur le sous espace H . On a alors par la formule classique de projection sur une base orthonorme (la base ici est
constitue dun seul vecteur !)

P Y E(Y ) [H ] =< Y E(Y ),

X E(X)
X E(X)
< Y E(Y ), X E(X) >
Cov(Y, X)
>
=
(X E(X)) =
(X E(X))
kX E(X)k kX E(X)k < X E(X), X E(X) >
Var(X)

do la valeur de .

A partir de ce lemme, lestimateur obtenu par variable de contrle correspondant scrirait


!
n
n
Cov(Y,
X)
1
1
Sn = Yi +
Xi E(X)
n i=1
Var(X)
n i=1
Pour que cet estimateur puisse tre effectivement utilis, il faut donc savoir calculer explicitement non
seulement E(X) mais aussi Var(X) et Cov(Y, X) ; or ce dernier nest en gnral pas calculable puisque
E(Y ) nest pas connue (cest ce quon cherche depuis le dbut...), on est donc contraint destimer cette
covariance en faisant attention que cette erreur destimation supplmentaire ne nuise pas la diminution
de la variance.
Remarque 4.3.1

On peut voir les mthodes de Monte Carlo avec variables antithtiques comme des
cas particuliers de variables de contrle ; en effet reprenons lexemple des variables antithtiques (4.1) du
paragraphe prcdent :

1 n h(Ui ) + h(1 Ui) 1 n


h(Ui ) h(1 Ui)
= h(Ui )

n i=1
2
n i=1
2
|
{z
}
Xi

et E(Xi ) = 0 qui est donc calculable exactement, X est bien une variable de contrle.

E XERCICE 4.2 PARIT C ALL -P UT- De manire quelque peu simplifie, le payoff dune option dachat
(un Call) peut scrire (eG K)+ o G N (0, 1). En remarquant que (eG K)+ (K eG )+ =
eG K , proposer une variable de contrle pour le calcul de E(eG K)+ .
E XERCICE 4.3 L A MTHODE DE K EMMA ET VORST POUR LES OPTIONS ASIATIQUES .- On dsire approcher le prix dun put asiatique dans un modle de Black and Scholes o le prix de lactif risqu est donn
par St = xe(r

2 )t+W
t.
2

La prime du put asiatique sous la probabilit risque neutre vaut

P=E e

rT


 
Z
1 T
K
Su du
T 0
+

On vous propose destimer cette esprance dans


R Tune mthode de Monte Carlo en prenant pour variable de
contrle : X = erT (K exp(Z))+ avec Z = T1 0 ln Su du. Expliquez la mthode choisie, calculer E(X).

4.4. CONDITIONNEMENT
E XERCICE 4.4
1, . . . , d ,

O PTION

35

SUR PANIER -

On considre d actifs dont le prix linstant T scrit pour i =

p
p

r 1 2i j T + i jW j
STi = xi exp
T

2 j=1

j=1
|
{z
}
i

Nous cherchons approcher le prix dun put sur panier : E(K Y )+ o Y = hdi=1 ai STi (avec
ai 0 et

i
j
p
d
d
d ai xi
i=1 ai = 1). Pour cela, on posera m = i=1 ai xi et on approchera Y /m par X = exp i=1 m i T + j=1 i jWT .
Expliquez la mthode, donner la variable de contrle associe X et calculer son esprance.

4.4 Conditionnement
On cherche donner une valeur numrique E(g(X,Y )) o le couple (X,Y ) a pour densit (x, y) 7
f (x, y). Supposons que la fonction h dfinie par h(X) = E[g(X,Y )|X] est calculable explicitement et
E|g(X,Y )| < ; on suppose enfin que la loi de X est simulable exactement. Alors, la quantit E(g(X,Y ))
peut tre approche par lestimateur
1 N
Sn = h(Xi )
N i=1
R

o les (Xi ) sont i.i.d. de densit x 7 f (x, y)dy (obtenue par marginalisation). Sn est un estimateur convergent,
sans biais de E(g(X,Y )) de variance plus faible que
Sn =

1 N
g(Xi ,Yi )
N i=1

o les (Xi ,Yi ) sont i.i.d. de densit f . En effet, la consistance (ou convergence) de lestimateur est obtenue
par la LGN et en remarquant que E(h(X)) = E [E(g(X,Y )|X)] = E(g(X,Y )). De plus, par la formule des
variances conditionnelles :
Var(g(X,Y )) = Var[E(g(X,Y )|X)] + E [Var(g(X,Y )|X)] Var(h(X))
|
{z
} |
{z
}
0

h(X)

Remarque 4.4.1

Cette dernire ingalit nous enseigne que la variance de lesprance conditionnelle est
toujours infrieure la variance (sans conditionnement). Cette proprit est aussi utilise en statistiques
sous le nom de mthode de Rao-Blackwell ou "Rao-Blackwellisation", ce nest pas le sujet de ce cours mais
nous conseillons au lecteur de faire le lien entre ces mthodes et lestimateur de Rao-Blackwell dont on
peut trouver la dfinition et les proprits dans la littrature...

E XERCICE 4.5 M ODLE VOLATILIT STOCHASTIQUE -C ONDITIONNEMENT- On considre un actif financier dont le prix satisfait lEDS :
dSt = St (rdt + t dWt )
o le processus (t )t0 est suppos continu, alatoire et indpendant de (Wt )t0 . Alors St scrit


Z t 2
Z t

St = x exp rt

s
ds +
2

s dWs

On cherche valuer E(erT (ST K)+ ), prime dun call europen de strike K .
Rt
1. Montrer que conditionnellement toute la trajectoire (t ), 0 s dWs suit une loi normale dont la variance sera prcise.

2. En dduire que E erT (ST K)+ (t )0tT scrit explicitement suivant une formule de Black and
Scholes.

3. Expliquez lestimation du Call par un algorithme de Monte Carlo avec conditionnement.

CHAPITRE 4. RDUCTION DE VARIANCE

36

4.5 Stratification
Soit Y f valeurs dans Rd . On dsire approcher E(h(Y )). On remarque que
E(h(Y )) =

h(x) f (x)dx =

Z

i=1 |

Si

Z

f (u)du
{z
}
i

"

#
f (x)1Si (x)
h(x) R
dx
Si f (u)du
|
{z
}
densit de Y |Y Si

o (Si )1ip sont des "rgions" ou des "strates" de Rd ; en termes mathmatiques, les (Si )1ip forment
une partition de Rd . Si les valeurs numriques (i )i=1,...,d sont connues et si on sait simuler suivant la loi
de Y conditionnellement {Y Si } alors notons :
p

Sn = i
i=1

"

#
ni
h(Yi, j )
j=1
,
ni

avec les conditions


p
i) i=1
ni = n
loi

ii) Yi, j Y |Y Si et (Yi, j ) indpendantes


Posons par ailleurs Sn =

ni=1 h(Xi )
n

i.i.d.

avec Xi f . En utilisant les notations

2i = Var(h(Y )|Y Si ),

i = E(h(Y )|Y Si )

on obtient
p

Var(Sn ) = 2i
i=1

2i
,
ni

Var(Sn ) =


1
E[h2 (Y )] E[h(Y )]

| {z }
| {z }
n
p

i=1 i (2i +2i )

(4.2)

i=1 i i

Nous allons maintenant envisager deux problmatiques :

i) Etant donn un nombre n de simulations donnes, quelle valeur allons nous donner ni , i.e. combien
de simulations ni doit on choisir pour chaque rgion Si ?
ii) Etant donn un choix dallocation des (ni ), est ce que la variance est bien rduite par rapport une
procdure de Monte Carlo usuelle ?
Allocation proportionnelle
Choisissons

ni
n

= i . Alors, (4.2) devient

Var(Sn ) =

1 p
i 2i
n i=1

Var(Sn ) =

1 p
i (2i + 2i )
n i=1

i i

i=1

!2

p
1
= Var(Sn ) + i 2i
n i=1

i i

i=1

!2

Var(Sn )

2
p
p
o la dernire galit vient de i=1
i 2i i=1
i i 0 car (i ) dfinit une loi de probabilit sur
{1, . . . , p}. La stratification produit donc une rduction de variance dans le cas dallocation proportionnelle.

4.6. MTHODES DE QUASI MONTE CARLO

37

Allocation optimale
Nous cherchons ici trouver les (ni ) optimaux au sens o (voir (4.2)),
(
)
p
p
2
2 p
2 i
2 i
i n = inf i ni ; ni = n
i
i=1
i=1
i=1
ni
n

Posons

i i
p
j=1 j j

2
2i i
ni
i=1
p

1
=
n

et vrifions que ce choix est optimal. En effet, par Cauchy Schwartz,


p

i i

i=1

!2

1
=
n

i i
ni ni
i=1
p

!2

ni

i=1

i=1

i i

ni

2 !

= 2i
i=1

2i
ni

ce qui montre bien loptimalit des ni . Cela dit, lallocation proportionnelle a pour avantage par rapport
lallocation optimale de sexprimer indpendamment de la fonction h alors que ni est dfini partir des i
donc de la fonction h.
Remarque 4.5.1

Le lecteur scrupuleux constatera que la preuve de lallocation optimale prsente des


similitudes frappantes avec celle de la variance optimale dans limportance sampling (IS) (voir Proposition
2.2.1). Runissons dans le tableau suivant les deux problmes doptimisation (en notant i = ni /n) :

n
o
p 2i 2i
p
inf i=1
;

0,

=
1

i
i=1 i

nR 2 2i
o
R
f (x)h (x)
VARIANCE OPTIMALE POUR LIS- inf
dx ; g(x) 0, g(x)dx = 1
g(x)
A LLOCATION O PTIMALE-

Et lon peut constater que les deux problmes doptimisation sont les mmes, lune ntant quune version
continue de lautre.

4.6 Mthodes de Quasi Monte Carlo


4.6.1 Suites discrpance faible
On cherche des suites (xi ) valeurs dans [0, 1] telles que
1 n
h(xi) n E(h(U))
n i=1
o U U [0, 1] et telles que la convergence soit plus rapide que celle donne par le TCL. La suite de points
(xi ) tant dterministe, on dit que lapproximation par 1n ni=1 h(xi ) est de type quasi-Monte Carlo.
S UITE EQUIRPARTIES- Une suite (xi )i valeurs dans [0, 1]d est equirpartie sur [0, 1]d
si elle vrifie lune des trois proprits quivalentes suivantes :
R
i) h continue, borne sur [0, 1]d , n1 ni=1 h(xi ) [0,1]d h(u)du

Dfinition 4.6.1

ii) y = (y1 , . . . , yd ) [0, 1]d , n1 ni=1 1[0,y1 ]...[0,yd ] (xi ) Volume([0, y1 ] . . . [0, yd ]) = dj=1 y j .

iii) En dfinissant la discrpance lorigine, D n , de la suite (xi ) par

D n





n
1
1
d
=
sup
n 1[0,y1 ]...[0,yd ] (xi ) Volume([0, y ] . . . [0, y ]) .

y=(y1 ,...,yd )[0,1]d
i=1

on a D n 0 .

Les suites obtenues comme ralisation de v.a. de loi uniforme sur [0, 1]d sont quirparties. Elles vrifient en effet le premier critre grce la loi Forte des Grands Nombres.

Remarque 4.6.1

CHAPITRE 4. RDUCTION DE VARIANCE

38

Il existe des suites quirparties (xn ) telles que pour une certaine classe de fonctions h, on ait le rsultat
suivant


1 n

(ln n)d


(4.3)
h(xi ) E(h(U)) c(h)
n i=1

n

Des suites vrifiant ce type dingalit sont appeles suite discrpance faible. La vitesse de convergence
est donc de lordre de (ln(n))d /n ce qui est bien meilleur
que pour les mthodes de Monte Carlo standard
dont la vitesse (donne par le TCL) est de lordre de 1/ n.

Suite de Van der Corput


Nous allons tout dabord donner un exemple en dimension 1. Soit p un nombre premier. Tout entier n
scrit en base p sous forme dune suite (ai,n )i0 dentiers dans {0, . . . , p 1}, nuls partir dun certain
rang telle que

n = ai,n pi

o ai,n {0, . . . , p 1}

i=0

Posons xn =
i=0
p

ai,n
pi+1

. La suite (xn )n0 ainsi dfinie, connue sous le nom de suite de Van Der Corput,

est une suite quirpartie sur [0, 1] discrpance faible.


x1
0
b

1
x3

x2
0
b

x6

x4
0
b

1
b

x5
b

x7
b

F IGURE 4.1 Premiers termes de la suite de Van Der Corput pour p = 2


Le support des points de la suite de Van Der Corput associe au nombre p est lensemble des extrmits
des segments obtenus en divisant lintervalle [0, 1] en p intervalles de mme longueur puis en itrant le
procd sur chaque sous intervalle.
p

Algorithm 9 Calcul de xn
1: Input : n, p.
2: power = p.
3: vdc = (n mod p)/power.
4: n = floor (n/p).
5: while n > 0 do power = power p
6:
vdc = vdc + (n mod p)/power
7:
n = floor (n/p).
8: end while
9: Output : vdc.

Suite de Halton
Cest une gnralisation des suites de Van der Corput en dimension d. On se place donc sur Rd et on
p

considre (p1 , ..., pd ), les d premiers nombres premiers, alors la suite de vecteurs (xn 1 , . . . , xn d ) (o xn est

4.7. POINTS ESSENTIELS DU CHAPITRE

39

le n-ime terme de la suite de Van der Corput associ au nombre premier p) est une suite quirpartie sur
[0, 1]d discrpance faible.
Il existe aussi dautres suites discrpance faible comme les suites de Faure ou les suites de Sobol,
dont on trouvera facilement la description et les proprits dans la littrature.
Remarque 4.6.2

Nous soulignons enfin que ces suites ne sont pas alatoires, il nest donc plus possible
de parler dintervalles de confiance en invoquant le TCL qui, dans un contexte dterministe, perd tout son
sens. Cependant, lingalit (4.3) fournit une majoration de lerreur condition de connatre explicitement
c(h), ce qui nest pas le cas en gnral.

4.7 Points essentiels du chapitre


a) Distinguer les diffrentes faon de rduire la variance : importance sampling, variables antithtiques, variables de contrle, conditionnement, stratification.
b) Pour chaque mthode, savoir montrer les proprits de convergence et de normalit asymptotique.
c) Optimalit pour limportance sampling, pour les variables de contrles, la stratification.
d) Terminologie des suites de quasi Monte Carlo. Connatre la dfinition des suites de Van der
Corput et des suites de Halton.

4.8 Un peu dhistoire


Van der Corput. source : Wikipedia
Johannes Gualtherus van der Corput (Rotterdam, September 4, 1890 - Amsterdam,
September 16, 1975) was a Dutch mathematician, working in the field of analytic number
theory.
He was appointed professor at the University of Groningen in 1923, and at the University of Amsterdam in 1946. He was one of the founders of the Mathematisch Centrum in
Amsterdam, of which he also was the first director. From 1953 on he worked in the United
States at the University of California, Berkeley and the University of Wisconsin-Madison.
Among his students were J. F. Koksma and J. Popken.

Index
-mthode, 9
FAURE, suite de, 39
H ALTON, suite de, 38
M ILSHTEIN, schma de, 25
R AO B LACKWELL, 35
ROMBERG, mthode de, 25
S LUTSKI, Lemme de, 9
S OBOL, suite de, 39
VAN D ER C ORPUT, suite de , 38
Algorithme de rejet, 15
Allocation optimale, 37
Allocation proportionnelle, 36
Antithtiques, variables, 32
Conditionnement, 35
Discrpance lorigine, 37
Echantillonnage dimportance, 18
Importance Sampling, 18
Intervalle de confiance, 10
Inverse gnralise, 13
Inversion de la fonction de rpartition, 14
Loi des Grands Nombres, 7
Maximum dun pont brownien, 28
Monte Carlo par Chanes de Markov, 19
Pont brownien, 26
Schma dEuler, 24
Simulation de loi conditionnelle, 16
Simulation par transformation, 17
Stratification, 36
Suite discrpance faible, 38
Suites equirparties, 37
Thorme de Limite Centrale, 8
Variables de contrle, 33

40

INDEX

41

You might also like