Professional Documents
Culture Documents
1.5
0.5
0.5
1.5
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
0.5
0.5
1.5
2.5
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
Randal D OUC
0.9
Avertissement
Ce cours a t bti partir de divers cours, celui de Bernard Lapeyre et Denis Talay, dEric Moulines
et Gersende Fort, dEmmanuel Temam, de Jrme Lelong, de Bruno Bouchard, etc etc, le tout mlang
diverses touches personnelles ici et l. Il a bnfici dune relecture active de Cyrille Dubarry.
Nhsitez pas communiquer par mail les erreurs qui pourraient rester ainsi qu proposer toute sorte
de choses visant amliorer le contenu de ce cours : randal.douc@it-sudparis.eu
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
9
10
10
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
13
13
14
16
17
18
18
19
20
.
.
.
.
.
.
.
.
.
.
.
21
22
22
22
24
24
25
26
26
28
29
29
Rduction de variance
4.1 Echantillonnage dimportance ou Importance Sampling
4.2 Variables antithtiques . . . . . . . . . . . . . . . . .
4.3 Variables de contrle . . . . . . . . . . . . . . . . . .
4.4 Conditionnement . . . . . . . . . . . . . . . . . . . .
4.5 Stratification . . . . . . . . . . . . . . . . . . . . . . .
4.6 Mthodes de Quasi Monte Carlo . . . . . . . . . . . .
4.6.1 Suites discrpance faible . . . . . . . . . . .
4.7 Points essentiels du chapitre . . . . . . . . . . . . . .
4.8 Un peu dhistoire . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
31
32
32
33
35
36
37
37
39
39
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Programme prvisionnel
1. Thorme de limite centrale, Intervalles de confiances : cours, 1H30.
2. Simulation exacte : Inversion de la fonction de rpartition, mthode de rejet : cours : 1H30, TD :
1H30.
3. Importance sampling : cours, 1H30, TD, 1H30.
4. Tp Simulation var alatoires : 3H.
5. Simulation du Brownien : cours, 1H30, TD, 1H30
6. Schma dEuler : cours, 1H30, TD, 1H30.
7. : TP : discretisation EDS : 3H00
8. Rduction de variance, var. antithtiques-var controle-cond-strat : cours, 1H30*3=4H30. Td, 3H00,
TP : 1H30
9. Suite a discrepance faible : cours, 1H30.
Chapitre 1
Principe de la mthode . . . . . . . . . . . . . . . . .
Utilisation du TCL pour les mthodes de Monte Carlo
Points essentiels du chapitre . . . . . . . . . . . . . .
Un peu dhistoire . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
9
10
10
Les problmes probabilistes qui se posent dans les applications financires se ramnent gnralement au
calcul desprances. Par exemple, en finance les prix des produits drivs scrivent comme des esprances.
Cest donc tout naturellement que lon sintresse des mthodes numriques susceptibles de calculer ces
esprances, sachant que dans la majorit des cas on ne dispose pas de formules exactes (hormis le cas
particulier de la formule de Black and Scholes).
p.s.
XN = N 1 Xi E(X)
i=1
Lhypothse dintgrabilit est indispensable, en effet on peut montrer que si lon considre une suite i.i.d de v.a. selon la loi de Cauchy, alors la moyenne empirique ne converge pas.
D MONSTRATION. Nous montrons simplement la convergence en probabilit sous lhypothse plus forte : E(X 2 ) < .
En remarquant que E(XN ) = E(X), lingalit de Bienaim-Chebychev scrit alors :
P(|Xn E(X)| > )
Var(XN ) Var(N
Var(X1 )
i=1 Xi )
=
=
N 0
2
N 2 2
N2
Dans la mesure o lestimateur de E(X) est une variable alatoire, il est important de pouvoir fournir
un intervalle de confiance. En effet, deux simulations distinctes peuvent conduire deux estimations trs
diffrentes. Le thorme suivant donne un rsultat sur la vitesse de convergence de lestimateur et permet
par la suite de fournir un intervalle de confiance. Dans la pratique, il faudra toujours mettre en perspective
la valeur obtenue avec la largeur de lintervalle de confiance pour justifier la pertinence du rsultat annonc.
Thorme 1.1.2.
(T HORME DE
mme loi que X. Si E(X 2 ) < , alors
LIMITE CENTRALE
XN E(X) L
q
N (0, 1)
2
N
D MONSTRATION. Quitte remplacer Xi par (Xi E(X))/, on peut supposer E(X) = 0 et 2 = Var(X) = E(X 2 ) = 1.
Dans ce cas, il sagit simplement de montrer que
N
ZN =
Xi
N N (0, 1)
L
i=1
Pour cela, comme pour toutes les convergences en loi, il suffit de montrer que la fonction caractristique de ZN ,
2
u 7 E eiuZN tend vers celle dune loi N (0, 1) savoir u 7 eu /2 . On crit
h
iN
N
E eiuZN = E eiu i=1 Xi / N = E eiuX / N
N
N
N
2
2
Dvp. Taylor.
2
iu
u 2
iu
u
u2
E 1+ X
X + reste
1 + E(X)
E(X 2 ) = 1
eu /2
2N
2N
N
N | {z } 2N | {z }
0
Ce qui achve la preuve. Bien sr, la partie difficile (celle que nous passons sous silence) est celle qui consiste montrer
que le terme de reste ne joue pas lorsque N tend vers linfini (partie ). Mais ce qui nous semble le plus utile retenir
dans un premier temps pour cette preuve est que le TCL rsulte de la convergence de la fonction caractristique avec
dveloppement de Taylor dordre 2.
Nanmoins, dans beaucoup de situations pratiques 2 = Var(X) est une quantit inconnue. On est
alors tent de remplacer 2 par un estimateur. Une question se pose alors : le thorme prcdent reste-t-il
valide ? La rponse est oui, comme le montre la proposition suivante.
Proposition 1.1.3. Soit (Xn )n une suite de v.a. i.i.d de mme loi que X, telle que E(X 2 ) < et 2 > 0. En
notant
1 N
1 N
2
2N = [Xi E(X)]2 , 2N =
[Xi Xn]
N i=1
N 1 i=1
alors
XN E(X) L
q
N (0, 1)
2
N
N
De plus,
XN E(X) L
q
N (0, 1)
2
N
N
(1.1)
(1.2)
Lemme 1.1.4. Si E(X 2 ), les estimateurs 2N et 2N sont des estimateurs sans biais et fortement convergents de 2 , i.e.
E( 2N ) = E( 2N ) = 2 ,
p.s.
2N 2 ,
p.s.
2N 2
9
p.s.
2
D MONSTRATION. Clairement, E( 2N ) = E[X1 E(X1 )]2 = 2 . Par la LGN, 2N = N1 N
i=1 [Xi E(X)] E(X
E(X))2 = 2 . De plus, en introduisant E(X) dans le terme carr [Xi Xn ]2 , on obtient aprs dveloppement :
2N
N
N
N
2
1
N
(Xi E(X))
2
2
=
(Xn E(X))2
(Xi E(X)) 2 (Xi E(X))(Xn E(X)) + N(Xn E(X)) = i=1
N 1 i=1
N
1
N
1
i=1
|
{z
}
N(X N E(X ))
(1.3)
p.s.
La LGN montre que Xn E(X) et on tire en appliquant encore la LGN sur lexpression de 2N obtenue en (1.3), que
p.s.
2N 2 . Enfin, par (1.3),
1 2
1
2
E( 2N ) =
N NVarXn =
N2 N
= 2
N 1
N 1
N
Remarque 1.1.2
2 . Sinon, on utilisera 2 .
Si on connat E(X), on prfrera utiliser
La preuve de la proposition 1.1.3 est une consquence simple du Lemme de Slutski (le faire !), quon
va maintenant noncer en ladmettant. Le Lemme de Slutski nous permettra dans beaucoup de situations
pratiques dobtenir des convergences en loi de quantit dintrt partir dautres convergence en loi pourvu
que les quantits dintrt diffrent seulement par des variables convergentes en probabilit.
Thorme 1.1.5. L EMME DE S LUTSKI- Si
L
i) Xn X,
P
L
i) n(Xn a) Z,
ii) g est drivable en a
alors
D MONSTRATION. On remarque dabord que i) implique que Xn a. Ce qui entrane immdiatement que
g (a). On applique ensuite le lemme de Slutski en remarquant que
g(Xn ) g(a)
n (g(Xn ) g(a)) = n(Xn a)
Xn a
| {z }
|
{z
}
L
Z
g(Xn )g(a)
Xn a
g (a)
1 N
f (Xi ),
N i=1
VN =
1 N
( f (Xi ) SN )2
N 1 i=1
10
Grce la Loi Forte des Grands Nombres, Sn converge p.s. vers E( f (X)) et par la Proposition 1.1.3, on tire
SN E( f (X)) L
N (0, 1)
N
VN
Ce dernier rsultat nous permet alors de donner un intervalle de confiance sur lestimateur Sn . En effet la
convergence en loi implique que
SN E( f (X))
P
[a, a] P(|G| a)
N
VN
q
q
o G N (0, 1). Ainsi SN a VNN ; SN + a VNN est un intervalle de confiance de niveau asymptotique
pour E( f (X)) si a est le quantile dordre 1 /2 de la loi N (0, 1), i.e. P(|G| a) = 1 /2 avec
G N (0, 1). En gnral, on prend = 0.05 et dans ce cas a 1.96.
11
were used at Los Alamos for early work relating to the development of the hydrogen bomb, and became
popularized in the fields of physics, physical chemistry, and operations research. The Rand Corporation
and the U.S. Air Force were two of the major organizations responsible for funding and disseminating
information on Monte Carlo methods during this time, and they began to find a wide application in many
different fields.
Uses of Monte Carlo methods require large amounts of random numbers, and it was their use that
spurred the development of pseudorandom number generators, which were far quicker to use than the
tables of random numbers which had been previously used for statistical sampling.
12
Chapitre 2
2.2
2.3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
13
14
16
16
16
17
17
17
18
18
18
18
19
20
Fonctions de rpartition, Inverse gnralise, algorithme de rejet, simulation par transformation, simulation de loi conditionnelle, importance sampling.
I NVERSE
GNRALISE - On
14
D MONSTRATION. En utilisant que les fonctions de rpartition sont continues droite, on peut dmontrer lquivalence (intuitive) suivante :
u, v R, {FY1 (u) v} {u FY (v)}.
Ainsi, si U est une v.a. de loi uniforme sur [0, 1], on a lgalit
Cette proposition permet de proposer une mthode de simulation par inversion de la fonction de rpartition dans le cas o linverse de cette fonction est calculable explicitement. Nous le voyons dans le
corollaire suivant.
R
t
Corollaire 2.1.3. Soit f est une densit de probabilit. Posons F(t) =
f (u)du, dinverse gnralise
1
1
F . Supposons que F est calculable explicitement. Alors, on peut simuler une v.a. Y de densit f par
la mthode suivante :
Exemple 2.1.1 S IMULATION D UNE LOI SUPPORT DISCRET- Soit Y une variable alatoire de support
(yk )kN , telle que P(Y = yk ) = pk . Si U U [0, 1], alors
X = y0 1Up0 + yk 1k1 p <Uk
k1
i=0
i=0 pi
P(X = yk ) = P
k1
i=0
i=0
pi < U pi
= pk
Cette mthode de simulation quasi-intuitive est en fait une simulation par inversion de la fonction de rpartition (le montrer).
Un exemple classique consistera simuler Y suivant une loi de Bernoulli de paramtre p en tirant
U U [0, 1] et en posant Y = 1Up . Un autre exemple important consistera simuler une loi binomiale
B (n, p) en posant Y = ni=1 1Ui p o les Ui sont i.i.d.de loi U [0, 1]. Mis part les exemples de loi discrte,
dans la plupart des autres situations, linverse gnralise se rduit linverse au sens classique. Et son
caractre explicite permet alors dutiliser cette mthode de simulation. Voyons un exemple de loi continue.
La loi exponentielle de paramtre > 0 a pour densit f (x) = exp(x)1R+ (x). La
fonction de rpartition associe est F(t) = exp(t) + 1 pour t 0, dinverse F 1 (u) = 1 ln(1 u).
Exemple 2.1.2
Donc, si U U ]0, 1[, 1 ln(1 U) exp(). Or 1 U suit aussi une loi U ]0, 1[. On prfrera donc pour
15
ii) les variables (Us )s1 et (Xt )t1 sont indpendantes entre elles.
n
o
f (Xi )
et Y = X . Alors,
Posons = inf i N, Ui Mg(X
i)
a) Geom(M 1 ) et Y f .
U
X
P(Xk A, = k)
f (X1 )
f (Xk1 )
f (Xk )
P U1 >
, . . . ,Uk1 >
, Uk
, Xk A
Mg(X1 )
Mg(Xk1 )
Mg(Xk )
k1
f (X1 )
f (Xk )
P U1 >
P Uk
, Xk A
Mg(X1 )
Mg(Xk )
!k1 ZZ
ZZ
=
=
=
=
f (x)
{u> Mg(x)
}
Z
1
M
f (x)
{u Mg(x)
}{xA}
k1 Z
f (x)
f (x)
g(x) dx
g(x) dx
Mg(x)
{xA} Mg(x)
k1
1
M
{xA}
f (x)dx
(2.1)
o lavant dernire ligne vient de lintgration par rapport u et la dernire ligne vient du fait que f et g sont des
densits de probabilit. On a alors par marginalisation
1 k1 1
P( = k) = P(Y R, = k) = 1
M
M
donc Geom(M 1 ), et donc P( < ) =
k=1 P( = k) = 1. Ce qui implique ensuite :
P(Y A) = P(Y A, < ) =
=
P(Y A, = k)
k=1
k=1
1
M
k1
1
M
{xA}
f (x)dx =
{xA}
f (x)dx
Donc Y f . Enfin, (2.1) montre que et Y sont des variables indpendantes entre elles.
Cette proposition va avoir pour corollaire immdiat, la mthode de simulation par rejet :
DE REJET - Soient
f (x)
Mg(x)
Alors, on peut simuler une variable alatoire Y suivant la densit f par lalgorithme 2.
Une diffrence fondamentale avec la simulation par inversion de la fonction de rpartition est le nombre
de simulations ncessaires avant de produire une seule variable distribue suivant la loi visee : ce temps
dattente avant lacceptation est ici une variable alatoire de loi gomtrique Geom(M 1 ). Lesprance
dune loi gomtrique est linverse de son paramtre ce qui donne E() = M. La fonction f tant donne,
on cherche donc une densit g telle que f Mg avec M le plus petit possible (pour minimiser le temps
dattente avant acceptation). On a bien sr que M 1 (il suffit dintgrer f (x) Mg(x) et de remarquer
16
que f et g sont des densits deR probabilit) mais on ne peut atteindre la limite M = 1. Sinon, on aurait
f (x) g(x) et par intgration g(x) f (x) dx = 1 1 = 0, do f = g et si on sait simuler suivant g, a
| {z }
0
g(x)
g(u)du
A 1[a,b] (x)g(x)dx
Rb
a g(u)du
f (x)dx.
A
1
g(u)du
17
En sappuyant sur ce lemme, on peut noncer la proposition suivante qui propose une mthode de
simulation dun couple de gaussiennes indpendantes.
Proposition 2.1.7. B OX M ULLER- Soient U et V deux variables i.i.d.de loi U [0, 1]. Posons
Pour simuler des v.a. gaussiennes, on pourrait aussi procder par inversion de la fonction de rpartition
Rt
2
dune loi N (0, 1). On pose N (t) =
(eu /2 / 2)du qui nest pas explicite, ni son inverse mais il
arrive que les valeurs numriques approches nimporte quel ordre de N 1 (t) soient dj programmes
dans certaines bibliothques et dans ce cas, autant simuler une loi gaussienne en inversant la fonction de
rpartition.
Simulation dun vecteur gaussien quelconque
La mthode de Box-Muller permet de simuler aisment un vecteur de loi N (0, I) o I est la matrice
identit. Si lon veut ensuite simuler un vecteur gaussien gnral de loi N (, ) alors remarquons que
tant une matrice symtrique, positive, il existe une matrice relle triangulaire A telle que AAT = (voir
dcomposition de Cholesky), alors le vecteur + AG avec G N (0, I) est de loi N (, |{z}
).
AAT
18
Simulation par marginalisation
h(y) f (y)dy SN =
Ni=1
f (Xi )
g(Xi ) h(Xi )
g(x)=0
f (x)dx = 0.
f (x)
h(x)g(x)dx =
g(x)
g(x)6=0
Lestimateur dimportance
sampling
h
i SN est clairement sans biais E(SN ) = E f (h(Y )), fortement convergent
sous lhypothse Eg
f (X)
|h(X)|
g(X)
Ni=1
= E f [|h(X)|] < . La loi (forte) des grands nombres montre en effet que
f (Xi )
h(Xi ) p.s.
g(Xi )
f (x)
h(x)g(x)dx =
g(x)
h(y) f (y)dy
On peut donc voir lIS comme une mthode o on jette des points Xi suivant une loi "instrumentale" g et
on "rectifie" le fait quon na pas simul sous f en attribuant chaque point Xi un "poids" dimportance
f (Xi )/g(Xi ).
On a limpression que limportance sampling peut sappliquer plus souvent que la mthode de rejet
f (x)
puisque dans limportance sampling, on na pas supposer que f Mg (condition quivalente supx g(x)
<
ce qui peut tre un peu parfois tre contraignant)... Cest vrai, mais lavantage de lalgorithme de rejet
reste quil permet de simuler exactement suivant la loi de densit f !
Optimisation de la densit instrumentale
i
h
h 2
i
(X) 2
f (X) 2
Sous lhypothse Eg gf 2 (X)
h (X) = E f g(X)
h (X) < , le Thorme de Limite Centrale donne la
qualit de lapproximation sous la forme
f (X )
19
f (u)|h(u)|du.
D MONSTRATION. On crit
Varg
Z
Z
2
f (x)
f (x) 2
h(x) =
h (x) f (x)dx
h(y) f (y)dy
g(x)
g(x)
Le deuxime terme ne dpendant pas de g, on est donc amen minimiser le premier terme du membre de droite. Or
par Cauchy Schwartz,
Z
!2 Z
2
Z
Z
2
p
p
Z f (x) 2
f (x)
f (x)
p
f (x)|h(x)|dx =
|h(x)| g(x)dx
|h(x)|2 dx
( g(x))2 dx
g (x) f (x)
|h(x)|, ce qui scrit encore, compte tenu que g
g (x)
f (u)|h(u)|du
|h(x)|
ce
quon ne sait pas faire en gnral, puisquon cherche prcisment donner une valeur numrique
R
f (u)h(u)du. Cependant, la qualit de ce lemme est de montrer que pour optimiser lapproximation de
E f (h(Y )), la densit qui conduit la variance minimum nest pas ncessairement f .
20
Chapitre 3
3.2
3.3
22
3.1.1
22
3.1.2
22
Schma dEuler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
3.2.1
24
3.2.2
Proprits de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
25
26
3.3.1
Pont brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
3.3.2
28
3.4
29
3.5
Un peu dhistoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
29
Schma dEuler, discrtisation dEDS, pont brownien, simulation dun maximum dun pont
brownien.
Jusqu prsent, nous avons tudi des mthodes de simulation permettant de calculer des esprances
de variables alatoires par mthodes de Monte Carlo. Ceci nest possible que lorsque lon est capable de
simuler selon la loi des dites variables alatoires. En finance, il sagit souvent de calculer des esprances
de la forme E(h(XT )) ou E(h(Xt , 0 t T )) o (Xt )t0 est solution dune EDS du type
dXt = (t, Xt )dWt + (t, Xt )dt,
X0 = x.
Comme on ne connat pas toujours la loi de (Xt ) (sauf cas exceptionnel comme pour le modle de Black and
Scholes), nous allons voir comment approcher ce processus par une suite de v.a. travers une procdure de
discrtisation. Le praticien pour estimer E(h(XT )) ou E(h(Xt , 0 t T )) sera donc confront deux types
derreur : une erreur de type Monte Carlo et une erreur de discrtisation dEDS. Dans un premier temps,
nous allons nous intresser la simulation dune trajectoire de mouvement Brownien sur un intervalle de
temps [0, T ] pour T fix.
21
22
X0 = 0,
Xi =
j=1
p
t j t j1G j
pour i > 0.
La proposition prcdente permet donc de simuler exactement le mouvement brownien sur une grille
0 = t0 < t1 < . . . < tn = T prdfinie, autrement dit, il ny a pas derreur de discrtisation pour la
simulation du brownien, contrairement ce que nous verrons pour dautres processus.
loi
1
,...,Wtn )
Wu |(Wti ,Wt
i+1
On commence par un lemme technique sur les variables gaussiennes extrmement utilise (dans ce cours
ou ailleurs !). Cest un lemme relativement simple mais dont il faut parfaitement comprendre les subtilits
pour la suite.
Lemme 3.1.2. Pour des variables carrs intgrables, on note < , > le produit scalaire dfini par <
U,V >= E(UV ). On considre (X,Y, Z) un vecteur gaussien centr. On note
: projection orthogonale de Z sur H = {X + Y ; , R}
+ Y
P Z [X,Y ] = X
Alors, la loi de Z conditionnellement X et Y est donne par :
Z|(X,Y ) N
23
Remarque 3.1.1
i) Lesprance de cette loi conditionnelle est P Z [X,Y ] ; cest donc une fonction de
(X,Y ) donc une variable alatoire.
ii) La variance de cette loi conditionnelle pourrait a priori tre alatoire mais ici, le lemme nous dit quelle
vaut kZ P Z [X,Y ]k2 ; elle est donc purement dterministe et reprsente lerreur de projection de Z
sur H . Enfin, comme toutes les v.a. de ce lemme sont centres, on a aussi
kZ P Z [X,Y ]k2 = E (Z P Z [X,Y ])2 02 = Var(Z P Z [X,Y ])
iii) Compte tenu de ces deux remarques, on peut rcrire le rsultat du lemme sous une forme qui met bien
en vidence ce qui dpend des valeurs prises par la v.a. (X,Y ) et ce qui dpend de la loi de (X,Y ) :
notons (x, y) la valeur prise par le couple de v.a. (X,Y ), alors (remarquez quels endroits on met des
minuscules, cest important ! !)
(3.1)
D MONSTRATION. Par dfinition, P Z [X,Y ] est dans la tribu engendre par X,Y tandis que Z P Z [X,Y ] tant orthogonal H et X,Y tant centres, on a Cov(Z P Z [X,Y ], X) = Cov(Z P Z [X,Y ],Y ) = 0, le vecteur (X,Y, Z) tant
gaussien, cest aussi le cas pour (X,Y, Z P Z [X,Y ]) ce qui montre finalement que Z P Z [X,Y ] est indpendant de
(X,Y ). On a ainsi :
Z=
P Z [X,Y ]
+
(Z P Z [X,Y ])
(3.2)
| {z }
|
{z
}
fonction de (X,Y ) indpendant de (X,Y )
Proposition 3.1.3. Si t u T , alors en notant (a, b) la valeur prise par le couple (Wt ,WT ),
T u
ut
(T u)(u t)
Wu |(Wt ,WT )=(a,b) N
a+
b,
T t
T t
T t
La simulation de cette loi conditionnelle est donn par lalgorithme 5.
Algorithm 5 Simulation de Wu |(Wt , WT )
1:
2:
3:
4:
Input : Wt ,WT
Simuler G N (0, 1).
ut
Poser Wu = TT u
t Wt + T t WT +
Output : Wu
(T u)(ut)
G.
T t
Wu
D MONSTRATION. Pour simplifier les notations, notons simplement W u = P
[Wt ,WT ] la projection orthogonale (au
sens du produit scalaire < , >) de Wu sur H = {Wt + WT ; , R}. Au vu du Lemme 3.1.2, il sagit simplement
didentifier lexpression de W u et de lerreur
de projection
kWu W u k2 = Var(Wu W u ).
n
o
Wt
On constate immdiatement que kW
, WT Wt
t k kWT Wt k
base orthonorme scrit donc naturellement :
W u
=
=
=
Wt
Wt
WT Wt
WT Wt
>
+ < Wu ,
>
kWt k kWt k
kWT Wt k kWT Wt k
< Wu ,Wt >
< Wu ,WT Wt >
Wt +
(WT Wt )
< Wt ,Wt >
< WT Wt ,WT Wt >
ut
T u
ut
Wt +
(WT Wt ) =
Wt +
WT
T t
T t
T t
< Wu ,
24
o lavant dernire galit vient de < Wa ,Wb >= E(WaWb ) = Cov(Wa ,Wb ) = a b. Enfin lerreur de projection scrit
"
2 #
h
i
T u
ut
E (Wu W u )2 = E
(Wu Wt ) +
(Wu WT )
T t
T t
ut 2
(T u)(u t)
T u 2
(u t) +
(u T ) =
=
T t
T t
T t
Z t
0
(Xs )ds +
Z t
0
(Xs )dWs
(3.3)
o (Wt )t0 est un r-mouvement brownien vectoriel standard. Contrairement la simulation du mouvement
brownien qui est une simulation exacte, nous allons ici nous tre contraint des simulations approches.
Le schma de discrtisation le plus simple est le schma dEuler. Choisissons un pas de discrtisation
h=
T
N
Z h
0
(Xs )ds +
Z h
0
(Xs )dWs
(3.4)
N
N
N
X ph
+ (X ph
)h + (X ph
)(W(p+1)h Wph)
(3.5)
5:
X(i) = X(i 1) + (X(i 1))h + (X(i 1)) hG
6: end for
7: Output : X(0), . . . , X(N)
La gnralisation du schma dEuler des EDS o le terme de drift et de volatilit peuvent dpendre du
temps
Xt = X0 +
est immdiate et sera laisse au lecteur.
Z t
0
(s, Xs )ds +
Z t
0
(s, Xs )dWs
25
Z t
0
(Xs )ds +
Z t
0
(Xs )dWs
N)
et notons (Xkh
k0 la suite de v.a. dfinie par (3.4). On a alors les rsultats suivants :
C ONVERGENCE
FORTE-
Pour tout q 1,
!! 1
2q
sup
0kN
N
|Xkh
Xkh |2q
C h.
Remarque 3.2.1
b
c
+
+ ...
N N2
alors
2UN UN/2 = a +
d
+ ...
N2
et le terme en 1/N a disparu... on a gagn un ordre... La mthode de Romberg consistera donc remplacer
N/2
f (XtN ) par 2 f (XtN ) f (Xt ) et on peut montrer que cela permet effectivement de gagner un ordre dans
lestimation de E( f (Xt )).
26
T u
ut
u)
a+
b + (Wu W
T t
T t
ut
def T u
W u =
Wt +
WT .
T t
T t
Wu =
(3.6)
(3.7)
o P U [Wt ,WT ] est la projection de U sur le sous espace des combinaisons linaires de Wt et WT et P U [a,
b]
est la valeur prise par la v.a. P U [Wt ,WT ] lorsque (Wt ,WT ) prend la valeur (a, b) : P U [a, b] = P U [Wt ,WT ](Wt ,W
T )=(a,b)
(Zua,b ).
Notons que pour allger les notations, nous avons limin la dpendance en t et T dans la notation
Au vu de (3.6) et (3.7), le pont brownien est compltement "naturel" ! ! ! En effet, on a clairement :
loi
loi
BROWNIEN -
ZTa,b = b
De plus, la loi du processus (Wu )tuT conditionnellement (Wt ,WT ) = (a, b) et la loi de (Zua,b )tuT sont
les mmes :
loi
27
a,b
D MONSTRATION. Que (Zu )tuT soit un processus gaussien vrifiant les conditions terminales de la proposition
a,b
est absolument clair partir de la dfinition de (Zu ) et des proprits classiques du mouvement brownien (Wu )u0 .
Il sagit pour obtenir la dernire partie de la proposition de montrer lgalit des fonctions caractristiques pour des
distributions finie-dimensionnelles, la continuit des deux processus permettant alors de conclure
en loi des
lgalit
a,b
Wt1
Zt1
loi
Pour cela, montrons lgalit en loi : vT W|(Wt ,WT )=(a,b) vT Z. Pour cela, remarquons que par (3.6), (3.7) et par
linarit de la projection orthogonale, on a
T
vT Z = P v
T
[a, b] + vT W P v
[Wt ,WT ]
T
T
W = P v W [Wt ,WT ] + vT W P v W [Wt ,WT ]
loi
loi
ISSU DE
Zuw = Wu
u
(WT w)
T
uv
T
1.5
0.5
0.5
1.5
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
28
t[0,T ]
1
3: Poser Y = Fw,T (1 U) = 21 (w + w2 2T lnU)
4: Output : Y
E XERCICE 3.1
o (Bku )u0 dfini par Bku = Wtk +u Wtk est un mouvement brownien standard. Nous voyons clairement que
le processus (XtN ) interpole aux dates tk les valeurs du schma de discrtisation dEuler, i.e. XtNk = XtNk .
Nous cherchons maintenant simuler la loi du maximum de (XtN ) conditionnellement (XtNk )0kN .
La premire remarque est que lon peut se ramener un intervalle [tk ,tk+1 ] en remarquant que
"
#
sup XtN =
t[0,T ]
sup XtN
max
k=0,...,N1 t[t ,t ]
k k+1
t[tk ,tk+1 ]
t[tk ,tk+1 ]
k+1
Lemme 3.3.4. La loi de (XuN ) sur lintervalle [tk ,tk+1 ] conditionnellement aux valeurs terminales (XtNk , XtNk+1 ) =
x xk
(xk , xk+1 ) est lie un pont brownien Zuw passant par w = k+1
linstant h par lgalit en loi suivante :
(x )
k
k+1
loi
)=(xk ,xk+1 )
xk + (xk )Zuw
0uh
k (xk )h
. Ainsi, par la proprit du
D MONSTRATION. Si (XtNk , XtNk+1 ) = (xk , xk+1 ), alors Bkh prend la valeur w = xk+1 x
(xk )
pont brownien,
h
i
u
loi
(XtNk +u )0uh |(XtN ,XtN )=(xk ,xk+1 )
xk + u(xk ) + (xk ) Bku (Bkh w)
k
k+1
h
0uh
u
xk+1 xk
loi
k
k
xk + (xk ) Bu
Bh
h
(xk )
0uh
xk+1 xk (xk )h
(xk )
Ainsi, par la Proposition 3.3.3, il est possible de simuler Mk = sup0uh XtNk +u conditionnellement (XtNk , XtNk+1 ) = (xk , xk+1 )
de la faon suivante :
29
i) Simuler U U ]0, 1[
1
ii) Poser Mk = xk + (xk )Fw,h
=
(1 U) avec w
xk+1 xk
(xk )
1
et Fw,h
dfini dans la Proposition 3.3.3.
q
1
xk+1 + xk + (xk+1 xk )2 22 (xk )h ln(U)
2
Finalement, tous ces rsultats montrent que lon peut simuler la loi du maximum de (XtN ) conditionnellement (XtNk )0kN par lAlgorithme 8.
30
Chapitre 4
Rduction de variance
Sommaire
4.1
32
4.2
Variables antithtiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
4.3
Variables de contrle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
Optimisation de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
4.4
Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
4.5
Stratification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
Allocation proportionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
4.6
Allocation optimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
37
4.6.1
37
38
Suite de Halton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
4.7
39
4.8
Un peu dhistoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
39
Importance sampling, variables antithtiques, stratification, variables de contrle, conditionnement, discrpance faible, suites de Van der Corput, de Halton.
Nous avons vu dans les prcdents chapitres certains outils permettant de simuler de faon exacte
ou approche suivant une loi cible dfinie par une densit f ou par lintermdiaire de la solution dune
EDS (notamment, nous avons vu des approximations de type schmas de discrtisation dEDS), le but
final
restant de donner une valeur numrique la plus prcise possible dune quantit de type E(h(Y )) =
R
h(y) f (y)dy o Y de densit f .
Ce chapitre est consacre diverses mthodes pour produire des estimateurs Sn de E(h(Y )) telle que
lcart quadratique n fix soit la plus petite possible. Tous les estimateurs que nous verrons ici seront
p.s.
sans biais et fortement convergents : E(Sn ) = E(h(Y )) et Sn E(h(Y )), de sorte que lcart quadratique
scrira alors
E Sn E(h(Y ))
| {z }
E(Sn )
qui est donc aussi la variance Var(Sn ). Voyons maintenant certaines mthodes de simulation permettant de
rduire la variance par rapport un estimateur de Monte Carlo standard.
31
32
f (x)
f (x) 2
h (x)dx
g(x)
f (x)h2 (x)
1 n
Sn =
(h(Ui ) + h(1 Ui))
2n i=1
(4.1)
Clairement, Sn est un estimateur sans biais et fortement convergent de E(h(U)). Calculons maintenant la
variance de Sn :
Var(Sn ) =
1
1
(2Var(h(U)) + 2Cov(h(U), h(1 U))) = Var(S2n ) + Cov(h(U), h(1 U))
4n
n
Si Cov(h(U), h(1 U)) est ngatif, alors la vitesse de convergence de Sn est meilleure que celle de S2n . Le
lemme suivant donne une condition suffisante qui assure la ngativit de la covariance de deux fonctions
dune mme variable alatoire.
Lemme 4.2.1. I NGALIT DE CORRLATION- Soit X une v.a. relle et h et g deux fonctions monotones
de sens de monotonie diffrents, alors Cov(h(X), g(X)) 0.
D MONSTRATION. Soit x et y deux rels. On a
(h(x) h(y))(g(x) g(y)) 0.
Si X et Y sont indpendantes, de mme loi alors
E [(h(X) h(Y ))(g(X) g(Y ))] 0.
33
En dveloppant, on obtient
E[h(X)g(X)] + E[h(Y )g(Y )] E[h(X)]E[g(Y )] E[h(Y )]E[g(X)] 0
ce qui est le rsultat attendu en remarquant que X et Y ont mme loi.
Soit (x) = (ex K)+ . On cherche calculer E((G)) o G N (0, 1) par une mthode de Monte Carlo (bien sr, on sait que Black and Scholes fournit une formule exacte, ferme, sans
approximation). Dans ce cas, en remarquant que G et G ont mme loi, on peut choisir un estimateur de
la forme
Exemple 4.2.1
1 n
Sn =
((Gi ) + (Gi))
2n i=1
i.i.d.
o Gi N (0, 1). Evidemment la preuve de Cov((G), (G)) 0 est une consquence directe du
Lemme 4.2.1 avec f (x) = (x) et g(x) = (x).
Dune faon plus gnrale, on pourra utiliser une mthode de Monte Carlo avec variable antithtique
pour approcher E(h(Y )) si h : R R est monotone et sil existe une fonction dcroissante telle que
loi
h(Y ) h (Y ).
E XERCICE 4.1
loi
).
h(Y ) h(Y
1
i )] est
Montrer que sous certaines conditions dintgrabilit (quon prcisera), la quantit 2n
ni=1 [h(Yi ) + h(Y
un estimateur sans biais, fortement convergent, de variance plus petite que celle de lestimateur de Monte
Carlo standard 1n ni=1 h(Yi ).
= Var (Sn )
n
n
n
ce qui montre que la variance est bien rduite par rapport un estimateur de Monte Carlo standard. On dit
alors que X est une variable de contrle pour Y .
Malheureusement, il ny pas de mthode gnrale pour exhiber une variable de contrle, X partir
de Y . Cest au cas par cas. Cependant, ce qui doit diriger lintuition pour obtenir une bonne variable de
contrle X, cest que Y X doit moins "varier" que Y donc X doit "suivre" plus ou moins lvolution de
Y - quitte remplacer X par X, on choisit 0 - (si Y est grand, X aussi ou si Y petit, X galement) tout
en possdant quand mme lavantage par rapport Y davoir une esprance explicitement calculable.
34
Optimisation de
Une fois la variable de contrle X choisie, se pose alors le problme du choix du coefficient le plus
efficace possible. On a le lemme suivant qui savre tre un rsultat de projection orthogonale :
Lemme 4.3.1. Soient Y et X deux v.a. carr intgrables, alors Var(Y X) = infR Var(Y X) pour
=
D MONSTRATION. Remarquons quen notant k k =
pour les variables L2 ,
Cov(Y, X)
Var(X)
< , > o < U,V >= E(UV ) est le produit scalaire usuel
X E(X)
X E(X)
< Y E(Y ), X E(X) >
Cov(Y, X)
>
=
(X E(X)) =
(X E(X))
kX E(X)k kX E(X)k < X E(X), X E(X) >
Var(X)
do la valeur de .
On peut voir les mthodes de Monte Carlo avec variables antithtiques comme des
cas particuliers de variables de contrle ; en effet reprenons lexemple des variables antithtiques (4.1) du
paragraphe prcdent :
n i=1
2
n i=1
2
|
{z
}
Xi
et E(Xi ) = 0 qui est donc calculable exactement, X est bien une variable de contrle.
E XERCICE 4.2 PARIT C ALL -P UT- De manire quelque peu simplifie, le payoff dune option dachat
(un Call) peut scrire (eG K)+ o G N (0, 1). En remarquant que (eG K)+ (K eG )+ =
eG K , proposer une variable de contrle pour le calcul de E(eG K)+ .
E XERCICE 4.3 L A MTHODE DE K EMMA ET VORST POUR LES OPTIONS ASIATIQUES .- On dsire approcher le prix dun put asiatique dans un modle de Black and Scholes o le prix de lactif risqu est donn
par St = xe(r
2 )t+W
t.
2
P=E e
rT
Z
1 T
K
Su du
T 0
+
4.4. CONDITIONNEMENT
E XERCICE 4.4
1, . . . , d ,
O PTION
35
SUR PANIER -
p
p
r 1 2i j T + i jW j
STi = xi exp
T
2 j=1
j=1
|
{z
}
i
Nous cherchons approcher le prix dun put sur panier : E(K Y )+ o Y = hdi=1 ai STi (avec
ai 0 et
i
j
p
d
d
d ai xi
i=1 ai = 1). Pour cela, on posera m = i=1 ai xi et on approchera Y /m par X = exp i=1 m i T + j=1 i jWT .
Expliquez la mthode, donner la variable de contrle associe X et calculer son esprance.
4.4 Conditionnement
On cherche donner une valeur numrique E(g(X,Y )) o le couple (X,Y ) a pour densit (x, y) 7
f (x, y). Supposons que la fonction h dfinie par h(X) = E[g(X,Y )|X] est calculable explicitement et
E|g(X,Y )| < ; on suppose enfin que la loi de X est simulable exactement. Alors, la quantit E(g(X,Y ))
peut tre approche par lestimateur
1 N
Sn = h(Xi )
N i=1
R
o les (Xi ) sont i.i.d. de densit x 7 f (x, y)dy (obtenue par marginalisation). Sn est un estimateur convergent,
sans biais de E(g(X,Y )) de variance plus faible que
Sn =
1 N
g(Xi ,Yi )
N i=1
o les (Xi ,Yi ) sont i.i.d. de densit f . En effet, la consistance (ou convergence) de lestimateur est obtenue
par la LGN et en remarquant que E(h(X)) = E [E(g(X,Y )|X)] = E(g(X,Y )). De plus, par la formule des
variances conditionnelles :
Var(g(X,Y )) = Var[E(g(X,Y )|X)] + E [Var(g(X,Y )|X)] Var(h(X))
|
{z
} |
{z
}
0
h(X)
Remarque 4.4.1
Cette dernire ingalit nous enseigne que la variance de lesprance conditionnelle est
toujours infrieure la variance (sans conditionnement). Cette proprit est aussi utilise en statistiques
sous le nom de mthode de Rao-Blackwell ou "Rao-Blackwellisation", ce nest pas le sujet de ce cours mais
nous conseillons au lecteur de faire le lien entre ces mthodes et lestimateur de Rao-Blackwell dont on
peut trouver la dfinition et les proprits dans la littrature...
E XERCICE 4.5 M ODLE VOLATILIT STOCHASTIQUE -C ONDITIONNEMENT- On considre un actif financier dont le prix satisfait lEDS :
dSt = St (rdt + t dWt )
o le processus (t )t0 est suppos continu, alatoire et indpendant de (Wt )t0 . Alors St scrit
Z t 2
Z t
St = x exp rt
s
ds +
2
s dWs
On cherche valuer E(erT (ST K)+ ), prime dun call europen de strike K .
Rt
1. Montrer que conditionnellement toute la trajectoire (t ), 0 s dWs suit une loi normale dont la variance sera prcise.
2. En dduire que E erT (ST K)+ (t )0tT scrit explicitement suivant une formule de Black and
Scholes.
36
4.5 Stratification
Soit Y f valeurs dans Rd . On dsire approcher E(h(Y )). On remarque que
E(h(Y )) =
h(x) f (x)dx =
Z
i=1 |
Si
Z
f (u)du
{z
}
i
"
#
f (x)1Si (x)
h(x) R
dx
Si f (u)du
|
{z
}
densit de Y |Y Si
o (Si )1ip sont des "rgions" ou des "strates" de Rd ; en termes mathmatiques, les (Si )1ip forment
une partition de Rd . Si les valeurs numriques (i )i=1,...,d sont connues et si on sait simuler suivant la loi
de Y conditionnellement {Y Si } alors notons :
p
Sn = i
i=1
"
#
ni
h(Yi, j )
j=1
,
ni
ni=1 h(Xi )
n
i.i.d.
2i = Var(h(Y )|Y Si ),
i = E(h(Y )|Y Si )
on obtient
p
Var(Sn ) = 2i
i=1
2i
,
ni
Var(Sn ) =
1
E[h2 (Y )] E[h(Y )]
| {z }
| {z }
n
p
(4.2)
i=1 i i
i) Etant donn un nombre n de simulations donnes, quelle valeur allons nous donner ni , i.e. combien
de simulations ni doit on choisir pour chaque rgion Si ?
ii) Etant donn un choix dallocation des (ni ), est ce que la variance est bien rduite par rapport une
procdure de Monte Carlo usuelle ?
Allocation proportionnelle
Choisissons
ni
n
Var(Sn ) =
1 p
i 2i
n i=1
Var(Sn ) =
1 p
i (2i + 2i )
n i=1
i i
i=1
!2
p
1
= Var(Sn ) + i 2i
n i=1
i i
i=1
!2
Var(Sn )
2
p
p
o la dernire galit vient de i=1
i 2i i=1
i i 0 car (i ) dfinit une loi de probabilit sur
{1, . . . , p}. La stratification produit donc une rduction de variance dans le cas dallocation proportionnelle.
37
Allocation optimale
Nous cherchons ici trouver les (ni ) optimaux au sens o (voir (4.2)),
(
)
p
p
2
2 p
2 i
2 i
i n = inf i ni ; ni = n
i
i=1
i=1
i=1
ni
n
Posons
i i
p
j=1 j j
2
2i i
ni
i=1
p
1
=
n
i i
i=1
!2
1
=
n
i i
ni ni
i=1
p
!2
ni
i=1
i=1
i i
ni
2 !
= 2i
i=1
2i
ni
ce qui montre bien loptimalit des ni . Cela dit, lallocation proportionnelle a pour avantage par rapport
lallocation optimale de sexprimer indpendamment de la fonction h alors que ni est dfini partir des i
donc de la fonction h.
Remarque 4.5.1
n
o
p 2i 2i
p
inf i=1
;
0,
=
1
i
i=1 i
nR 2 2i
o
R
f (x)h (x)
VARIANCE OPTIMALE POUR LIS- inf
dx ; g(x) 0, g(x)dx = 1
g(x)
A LLOCATION O PTIMALE-
Et lon peut constater que les deux problmes doptimisation sont les mmes, lune ntant quune version
continue de lautre.
Dfinition 4.6.1
ii) y = (y1 , . . . , yd ) [0, 1]d , n1 ni=1 1[0,y1 ]...[0,yd ] (xi ) Volume([0, y1 ] . . . [0, yd ]) = dj=1 y j .
D n
n
1
1
d
=
sup
n 1[0,y1 ]...[0,yd ] (xi ) Volume([0, y ] . . . [0, y ]) .
y=(y1 ,...,yd )[0,1]d
i=1
on a D n 0 .
Les suites obtenues comme ralisation de v.a. de loi uniforme sur [0, 1]d sont quirparties. Elles vrifient en effet le premier critre grce la loi Forte des Grands Nombres.
Remarque 4.6.1
38
Il existe des suites quirparties (xn ) telles que pour une certaine classe de fonctions h, on ait le rsultat
suivant
1 n
(ln n)d
(4.3)
h(xi ) E(h(U)) c(h)
n i=1
n
Des suites vrifiant ce type dingalit sont appeles suite discrpance faible. La vitesse de convergence
est donc de lordre de (ln(n))d /n ce qui est bien meilleur
que pour les mthodes de Monte Carlo standard
dont la vitesse (donne par le TCL) est de lordre de 1/ n.
n = ai,n pi
o ai,n {0, . . . , p 1}
i=0
Posons xn =
i=0
p
ai,n
pi+1
. La suite (xn )n0 ainsi dfinie, connue sous le nom de suite de Van Der Corput,
1
x3
x2
0
b
x6
x4
0
b
1
b
x5
b
x7
b
Algorithm 9 Calcul de xn
1: Input : n, p.
2: power = p.
3: vdc = (n mod p)/power.
4: n = floor (n/p).
5: while n > 0 do power = power p
6:
vdc = vdc + (n mod p)/power
7:
n = floor (n/p).
8: end while
9: Output : vdc.
Suite de Halton
Cest une gnralisation des suites de Van der Corput en dimension d. On se place donc sur Rd et on
p
considre (p1 , ..., pd ), les d premiers nombres premiers, alors la suite de vecteurs (xn 1 , . . . , xn d ) (o xn est
39
le n-ime terme de la suite de Van der Corput associ au nombre premier p) est une suite quirpartie sur
[0, 1]d discrpance faible.
Il existe aussi dautres suites discrpance faible comme les suites de Faure ou les suites de Sobol,
dont on trouvera facilement la description et les proprits dans la littrature.
Remarque 4.6.2
Nous soulignons enfin que ces suites ne sont pas alatoires, il nest donc plus possible
de parler dintervalles de confiance en invoquant le TCL qui, dans un contexte dterministe, perd tout son
sens. Cependant, lingalit (4.3) fournit une majoration de lerreur condition de connatre explicitement
c(h), ce qui nest pas le cas en gnral.
Index
-mthode, 9
FAURE, suite de, 39
H ALTON, suite de, 38
M ILSHTEIN, schma de, 25
R AO B LACKWELL, 35
ROMBERG, mthode de, 25
S LUTSKI, Lemme de, 9
S OBOL, suite de, 39
VAN D ER C ORPUT, suite de , 38
Algorithme de rejet, 15
Allocation optimale, 37
Allocation proportionnelle, 36
Antithtiques, variables, 32
Conditionnement, 35
Discrpance lorigine, 37
Echantillonnage dimportance, 18
Importance Sampling, 18
Intervalle de confiance, 10
Inverse gnralise, 13
Inversion de la fonction de rpartition, 14
Loi des Grands Nombres, 7
Maximum dun pont brownien, 28
Monte Carlo par Chanes de Markov, 19
Pont brownien, 26
Schma dEuler, 24
Simulation de loi conditionnelle, 16
Simulation par transformation, 17
Stratification, 36
Suite discrpance faible, 38
Suites equirparties, 37
Thorme de Limite Centrale, 8
Variables de contrle, 33
40
INDEX
41