An introduction to self-similar processes.
L. Chaumont
October 25, 2013
Contents
Introduction
5
1. General notions on Markov processes
1
2. Self-similar Markov processes
7
2.1. Denition
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. The Lamperti representation of
R+ -valued
2.3. Représentation des processus issus de 0
processes
3
9
. . . . . . . . . . . . . 19
2.4. Inversions of self-similar Markov processes .
2.5. Bridges of self-similar Markov processes
. . . . .
7
. . . . . . . . . . . 25
. . . . . . . . . . . . . 27
Introduction
Chapitre 1
General notions on Markov processes.
In this subsection, we recall the denition of Markov processes and we state some
properties of the particular class of Feller processes.
Denition 1.0.1.
Let (E, E) be any measurable space, then a function Ps,t (x, A)
dened for 0 ≤ s ≤ t < ∞, x ∈ E and A ∈ E is called a Markov transition function
on (E, E) if
(i) for each s, t and x, A 7→ Ps,t (x, A) is a probability measure on (E, E),
(ii) for each s, t and A, x 7→ Ps,t (x, A) is a measurable function on (E, E),
(iii) for each s and x, A 7→ Ps,s (x, A) is the Dirac measure at x,
(iv) for each 0 ≤ s ≤ t ≤ u < ∞,
∫
Ps,u (x, A) =
Ps,t (x, dy) Pt,u (y, A) .
(1.0.1)
The equation (1.0.1) is called the Chapman-Kolmogorov equation.
When the function Ps,t (·, ·) only depends on the dierence t − s, for all s, t, it is
called a time-homogeneous transition function and we set Ps,t = Pt−s . In this case,
the Chapman-Kolmogorov equation becomes,
∫
Pt+s (x, A) =
Pt (x, dy) Ps (y, A) ,
(1.0.2)
E
for all s ≥ 0 and t ≥ 0.
For transition functions Ps,t (x, A) and Pt (x, A) on (E, E) and for measurable functions f , we will denote,
∫
∫
Ps,t f (x) =
f (y)Ps,t (x, dy) and Pt f (x) =
f (y)Pt (x, dy) ,
E
E
whenever these integrals are dened. In the case of a time-homogeneous transition
function Pt (x, A), the Chapman-Kolmogorov equation induces the following semigroup property Pt+s = Pt Ps , s, t ≥ 0, of the family of operators (Pt )t≥0 . This family
will be called the semigroup of the transition function.
2
Introduction
Denition 1.0.2. Let (Ω, F, Ft , P) be a ltered probability space.
An adapted process
X with values in the measurable space (E, E) is a Markov process with respect to the
ltration (Ft ), if for all s, t ≥ 0 and A ∈ E ,
P(Xt+s ∈ A | Ft ) = P(Xt+s ∈ A | Xt ) ,
a.s.
The law of X0 under P is called the initial distribution of X and E is called the state
space of X .
Note that if X is a Markov process with respect to a ltration (Ft ), then it is also a
Markov process with respect to any ltration (Gt ) such that FtX ⊂ Gt ⊂ Ft , t ≥ 0.
Now let X be a Markov process on the ltered probability space (Ω, F, Ft , P) and
assume that for each s, t such that 0 ≤ s ≤ t < ∞, there exists a regular conditional
law Ps,t of Xt given Xs ,
Ps,t (Xs , A) = P(Xt ∈ A | Xs ) = P(Xt ∈ A | Fs ) , A ∈ E .
(1.0.3)
Then we readily check that the function Ps,t (x, A) is a Markov transition function.
In particular, if E is a Polish space, then it is known that such regular conditional
probabilities exist. See, for instance Theorem 5.3 in [24]. The converse result is
actually true and can be found in Chapter 7 of [24].
Theorem 1.0.1. Let E be a Polish space and let E be its Borel σ-eld. Then for any
transition probability Ps,t (x, A) and any probability measure ν on (E, E), there exists
a Markov process X on some ltered probability space (Ω, F, Ft , P), with initial law
ν , such that (1.0.3) holds.
From now on, unless explicitly stated, we will always assume that the transition
functions of Markov processes are time-homogeneous. If X is a Markov process
with state space E , then for all x ∈ E , we denote by Px the probability measure
on (Ω, F) under which X has initial
law δx , and for any probability measure µ on
∫
(E, E), we dene Pµ by Pµ (A) = E Px (A) µ(dx), A ∈ F∞ . Hence Pµ is a probability
measure under which X has initial law µ. The Markov property readily follows from
the above denitions.
Proposition 1.0.1 (Markov property).
If X is a Markov process then for any F∞ measurable, nonnegative (or bounded) Borel function f : E → R, for any s, t ≥ 0
and for any initial law µ,
Eµ (f (Xs+t ) | Ft ) = EXt (f (Xs )) ,
Pµ − a.s.
Recall that a map T : Ω → [0, ∞] is called a stopping time with respect to the
ltration (Ft ) if {T ≤ t} ∈ Ft , for all t ∈ [0, ∞). Moreover, the σ -eld FT consists
of all sets Λ in F such that Λ ∩ {T ≤ t} ∈ Ft , for all t < ∞. Then the strong
Markov property states as follows.
3
Introduction
Denition 1.0.3. A Markov process X on the ltered probability space (Ω, F, Ft , P),
with state space (E, E) is a strong Markov process, if for any nonnegative (or bounded)
Borel function f : E → R, for any s ≥ 0 and x ∈ E and for any stopping time T ,
Ex (f (XT +s ) | FT ) = EXT (f (Xs )) ,
a.s. on T < ∞.
We now focus on the important class of Feller processes. For the remainder of this
section, we assume that E is a Polish space, that is a locally compact separable
metric space. To the space E we add a state ∆ ∈
/ E and we form the Alexandrov
compactied space E∆ = E ∪ {∆}, that is ∆ is considered as the point at innity, if
E is non compact and it is an isolated point otherwise. In any case, E∆ is a compact
separable metric space. We equip E∆ with its Borel σ -eld E∆ . Let us denote by
C0 (E) the set of functions which are continuous on E∆ and vanishing at ∆.
Denition 1.0.4.
Feller property if
We say that a transition semigroup (Pt ) on the space E has the
(i) Pt C0 (E) ⊂ C0 (E), for all t ≥ 0,
(ii) limt↓0 Pt f (x) = f (x) for all f ∈ C0 (E) and x ∈ E .
We emphasize that condition (ii) is equivalent to the apparently weaker condition:
limt↓0 Pt f = f , uniformly, for all f ∈ C0 (E). Then a Markov process is said to be a
Feller process if its transition semigroup has the Feller property.
The stochastic process X is said to be quasi-left continuous if for any stopping time
T , and for any increasing sequence of stopping times (Tn ) such that limn Tn = T ,
P-a.s., then limn XTn = XT , a.s. on {T < ∞}. We say that a Markov process X̃
is a version of the Markov process X , if it has the same transition semigroup as X .
Feller processes satisfy the following important properties.
Theorem 1.0.2.
If X is a Feller process, then there is a version X̃ of X which is
càdlàg and such that:
(i) the process X̃ is strong Markov,
(ii) the process X̃ is quasi-left continuous.
In view of this theorem, from now on we will always assume that a Feller process is
càdlàg, strong Markov and quasi-left continuous.
We dene the canonical space of càdlàg trajectories (or paths) Ω as the set of
applications ω : [0, ∞] → E∆ such that ω∞ = ∆ and ωs = ∆, for all s ≥ t, whenever
(def)
ωt = ∆ (that is ∆ is an absorbing state) and for all t > 0, ω(t−) = lims↑t ω(s)
4
Introduction
exists in E∆ . The time ζ(ω) = inf{t : ωt = ∆}, with inf ∅ = ∞ will be called the
lifetime of the path ω . The space Ω is endowed with the Skohorod topology, as it
is dened in Chapter 3 of P. Billingsley [6] and it is equipped with its Borel σ -eld
F and the ltration (Ft ) which is generated by the canonical process X : Ω → Ω,
dened by Xt (ω) = ωt . We dene the shift operator θt : Ω → Ω for any ω ∈ Ω by
(∆)
(θt (ω))s = ωt+s , s, t ≥ 0, if t < ∞ and θ∞ (ω) = ω (∆) , where ωt = ∆, for all t ≥ 0.
Henceforth, we will always use this setting, under which we can state the strong
Markov property as follows: A Markov process (X, Px ) on the ltered probability
space (Ω, F, Ft , P), with state space (E∆ , E∆ ) is a strong Markov process, if for any
nonnegative (or bounded) F∞ -measurable functional Z , for any s ≥ 0 and x ∈ E
and for any stopping time T ,
Ex (Z ◦ θT | FT ) = EXT (Z) .
The resolvent of a Feller transition semigoup is dened as the Laplace transform
∫ ∞
Rλ f =
e−λt Pt f dt , λ > 0, f ∈ C0 (E) .
0
Theorem 1.0.3.
Let (Pt ) be a Feller semigroup on E with resolvent Rλ .
(i) The range D = Rλ C0 (E) does not depend on λ and is dense on C0 (E).
(ii) The exist an operator A on C0 (E) with domain D, such that Rλ−1 = λ − A on
D, for every λ > 0.
(ii) For all f ∈ D,
d
(Pt f )
dt
= Pt Af = APt f , in particular,
Pt f − f
.
t→0
t
Af = lim
The operator A is called the innitesimal generator of the transition semigroup (Pt ).
If it is associated to a Feller process, then it is called the innitesimal generator of
this process. Let us now state an important property of Feller processes.
Theorem 1.0.4.
generator.
The law of a Feller processes is determined by its innitesimal
A function Pt (x, A) dened for 0 ≤ s ≤ t < ∞, x ∈ E and A ∈ E is said to be a
(time homogeneous) sub-Markov transition function on (E, E) if it satises the same
axioms as in Denition (1.0.1) for time homogeneous transition functions, except
that (i) is replaced by
(i)′ For each t and x, A 7→ Pt (x, A) is a nite measure on (E, E) such that
Pt (x, E) ≤ 1.
5
Introduction
For instance, one obtains sub-Markov transition functions by killing Markov processes at stopping times.
Exercise 1.0.1.
Let T be a stopping time and X a Markov process with transition
function Pt (x, A), and dene P̃t (x, A), by
P̃t (x, A) = Px (Xt ∈ A, t < T ) .
Show that P̃t (x, A) is a sub-Markov transition function.
Then a sub-Markov transition function being given on (E, E), it is always possible
to extend it to a Markov transition function of an absorbed Markov process at the
additional point ∆ ∈ E∆ .
Let Pt (x, A) be a sub-Markov transition function. For t ≥ 0, set
Pt∗ (x, A) = Pt∗ (x, A) , x ∈ E , A ∈ E
Pt∗ (x, {∆}) = 1 − Pt∗ (x, E) , x ∈ E ,
Pt∗ (∆, A) = δ∆ (A) , A ∈ E∆ .
Then we readily check that Pt∗ (x, A) denes a Markov transition function on the
space (E∆ , E∆ ).
Let us consider the example of killed Lévy processes which constitute a generic class
in Feller processes. Let (E, E) = (Rd , BRd ) and let (X, Px ) be a Lévy process with
values in Rd . Let e be an exponential random variable with parameter k , which is
independent of (X, Px ). Then we dened the killed Lévy process at e by
{
Xt if t < e ,
∗
Xt =
∆ if t ≥ e .
∗
∗
We dene the characteristic exponent Ψ∗ of X ∗ , by E(eiλXt 1I{t<e} ) = e−tΨ (λ) . Then
we may check that Ψ∗ (λ) = Ψ(λ) + k , where Ψ is the characteristic exponent of X .
We say that X ∗ is killed at rate k . If the characteristics of X are (λ, (σij ), Π), then
those of X ∗ are (k, λ, (σij ), Π).
Theorem 1.0.5.
Let (E, E) = (Rd , BRd ) and let X be a killed Lévy process (with
values in (E∆ , E∆ )), with characteristics (k, λ, (σij ), Π). Then X is a Feller process.
Let AX be the innitesimal generator of X and let D be the domain of AX . Then
C0∞ (Rd ) ⊂ D and AX is uniquely determined by its values on C0∞ (Rd ). Moreover,
for any f ∈ C0∞ (Rd ),
∑
1 ∑
AX f (x) = kf (x) +
λi fi′ (x) +
σij fij′′ (x)
2
i
0≤i,j≤d
)
∫ (
∑
+
f (x + y) − f (x) −
yi fi′ (x)1I{|y|≤1} Π(dx) .
i
6
Introduction
We now discuss random time substitutions of Markov processes initiated by Volkonski [36], see also Lamperti [28], Helms [22] and Kurtz [26]. Let (X, P) be a (càdlàg)
process on (Ω, F, Ft ) with values in (E, E) and let v : E → (0, ∞) be a positive
continuous function. Then dene the additive functional
∫ t
ds
At =
, t ≥ 0.
0 v(Xs )
Let F ⊂ E be a closed set which is possibly empty and dene
TF = inf{t ≥ 0 : Xt ∈ F } .
Theorem 1.0.6.
Let (X, Px ) be a (càdlàg) strong Markov process on (Ω, F, Ft , P),
with state space (E, E) and assume that
∫
0
TF
ds
= ∞ , Px a.s., for all x ∈ E \ F ,
v(Xs )
(1.0.4)
so that the right continuous inverse
τt = inf{s ≥ 0 : As > t} , t ≥ 0
of the functional A is well dened on [0, ∞). Then the process
Yt = Xτt , t ≥ 0 ,
is a càdlàg strong Markov process on the ltered probability space (Ω, F, Fτ (t) , P).
Assume moreover that X is a Feller process and that
(
)
Px {Xs : 0 ≤ s ≤ t} is compact = 1 , for all x ∈ E and t ≥ 0.
(1.0.5)
Let AX be the innitesimal generator of (X, Px ) and D its domain. Then Y is also
a Feller process and its innitesimal generator is given by
AY f = vAX f ,
f ∈ D.
Note that when E = Rd , since X is càdlàg then the set {Xs : 0 ≤ s ≤ t} is bounded,
so that the condition (1.0.5) is automatically satised.
Chapitre 2
Self-similar Markov processes.
2.1. Denition.
In this section, we assume that E is Rd or a subset of Rd .
Denition 2.1.1.
A (càdlàg) Markov process (X, Px ), x ∈ E on (Ω, F, Ft , P) is a
self-similar Markov process with index α > 0 if it satises the identity in law
(X, Px ) = ((a−1/α Xat , t ≥ 0), Pa1/α x ) ,
for all a > 0. We will call ssMp this class of processes.
Examples : a) Stable Lévy processes with index α ∈ (0, 2] are ssMp's with index
α.
b) Bessel processes are also examples of ssMp's with index 2.
c) The following stochastic dierential equation:
dXi (t) = dBi (t) +
∑
1≤j≤d,i̸=j
1
dt , t ≥ 0 , i = 1, . . . , d ,
Xi (t) − Xj (t)
admits a unique strong solution and the latter is a ssMp with values in {(x1 , . . . , xd ) ∈
Rd : x1 < x2 < · · · < xd }.
Proposition 2.1.1.
A Markov process (X, Px ) is self-similar with index α > 0 if
and only if its transition functions Pt (x, dy) satisfy
Pt (x, dy) = Pat (a1/α x, ad/α dy) ,
a > 0, t ≥ 0, x, y ∈ E .
If Pt (x, dy) is absolutely continuous with respect to the Lebesgue measure, then its
densities pt (x, y) satisfy
pt (x, y) = ad/α pat (a1/α x, a1/α y) ,
a > 0, t ≥ 0, x, y ∈ E .
Exercise 2.1.1.
Let (X, Px ) be a self-similar Markov process. Assume that X is a
Feller process. Show that the innitesimal generator AX of X satises
aAX = Ha−α AX Haα ,
for all a > 0, where Hu is the operator dened by Hu f (x) = f (ux).
8
2. Self-similar Markov processes.
Exercise 2.1.2.
Let B 0 and R be respectively the Brownian motion killed at its rst
hitting time of 0 and the three dimensional Bessel process. Recall that B and R are
Feller processes and that their innitesimal generators are respectively given by
1
1
1
0
AB f (x) = f ′′ (x) and AR f (x) = f ′′ (x) + f ′ (x) , f ∈ C0 [0, ∞) .
2
2
x
Prove the following identity in law
(L)
[(Bt0 , t ≥ 0), Px ] = [(1/Rγ0t ), P1/x ] ,
x > 0,
where γt is the time substitution dened by
{ ∫ s
}
ds
>t .
γt = inf s :
4
0 (Ru )
Then derive from this relation the following identity in law
∫ ∞
ds
(L)
T0 =
,
Rs4
0
where T0 = inf{t : Bs0 = 0}. This inversion relationship between killed Brownian
motion and the three dimensional Bessel process will be extended to dual self-similar
Markov processes, in Section 2.4.
Exercise 2.1.3.
The past supremum of any stable Lévy process (X, Px ) satises,
(
)
P sup Xs < 1 ∼ kt−ρ , as t → ∞,
s≤t
where ρ = P0 (X1 ≥ 0) and k is some positive constant.
1. Let τ0− = inf{t : Xt ≤ 0}. Then prove that for all x, y > 0,
Px (τ0− > t)
h(x)
lim
=
,
t→∞ Py (τ − > t)
h(y)
0
where h(x) = xα(1−ρ) and α ∈ (0, 2] is the index of (X, P).
2. Let t ≥ 0 and Λ ∈ Ft , then prove that
lim Px (Λ | τ0− > s) =
s→∞
(
)
1
Ex h(Xt )1IΛ 1I{t<τ0− } .
h(x)
3. Prove that the family of measures P↑x , x > 0 on (Ω, F, Ft ) given by
(
)
1
P↑x (Λ) =
Ex h(Xt )1IΛ 1I{t<τ0− }
h(x)
denes a self-similar Markov process on E = (0, ∞).
2.2. The Lamperti representation of R+ -valued processes.
2.2. The Lamperti representation of
R+ -valued
9
processes.
Dans cette section, nous considérons des familles de processus X (x) , x ∈ E markoviens
auto-similaires dont l'espace d'états est ou bien E = [0, ∞), ou bien E = (0, ∞).
Dans les deux cas, nous supposerons que X est un processus de Feller sur son espace
d'état. En vertue du Théorème 3.10 de [18], celui-ci est fortement markovien. Nous
noterons par Px la loi du processus X (x) . Autrement dit, si X désigne le processus canonique des coordonnées sur l'espace de Skohorod, la notation X (x) désigne
le processus (X, Px ). Nous utiliserons indiéremment les deux notations. L'indice
d'autosimilarité est xé dans toute la suite et sera noté α > 0.
Soit x > 0. Supposons que 0 soit un état polaire pour X (x) , c'est à dire que
l'espace d'états du processus considéré est la demi-droite ouverte (0, ∞). Il est facile
de vérier que l'on peut représenter X (x) trajectoire par trajectoire de la manière
suivante :
(x)
Xt = x exp ξτ (t/xα ) , t ≥ 0 ,
où
∫
xα t
τt =
(
)−α
Xs(x)
0
∫
ds = inf{s :
s
exp αξu du = t} .
0
La représentation de Lamperti (voir théorème 2.2.1), indique que le processus ξ
déni par les égalités ci-dessus est un processus de Lévy.
Comme on peut le voir ci-dessus, la représentation de Lamperti est liée à la fonctionnelle exponentielle des processus de Lévy dénie par
∫ t
At (ξ) =
exp αξu du , A∞ (ξ) = lim At (ξ) .
0
t→+∞
Cette fonctionnelle intervient souvent en probabilités où elle a de nombreuses applications : mouvement brownien dans les espaces hyperboliques, études asymptotiques
de diusions en milieu aléatoire, fragmentation auto-similaire. L'application la plus
courante se trouve sans doute en mathématiques nancières où le calcul du prix
des options asiatiques est équivalent à la connaissance de la loi de At (−ξ). On se
reportera à l'article [5] pour une étude détaillée des fonctionnelles exponentielles de
processus de Lévy.
La preuve de la représentation de Lamperti nécessite les résultats préliminaires suivants. Rappelons tout d'abord les trois comportements asymptotiques possibles pour
un processus de Lévy. Soit ξ un processus de Lévy, alors:
ou bien P(lim supt ξt = +∞, lim inf ξt = −∞) = 1,
ou bien P(limt→+∞ ξt = −∞) = 1,
ou bien P(limt→+∞ ξt = +∞) = 1.
10
2. Self-similar Markov processes.
Dans le premier cas, on dit que ξ oscille, dans les second et le troisième cas, on dit
que ξ dérive vers −∞ ou +∞.
Lemme 2.2.1.
Soit ξ un processus de Lévy quelconque, alors :
(i) P(A∞ (ξ) = +∞) = 0 ou 1.
(ii) P(A∞ (ξ) = +∞) = 1 si et seulement si P(lim supt→+∞ = +∞) = 1.
Preuve. On renvoie à l'article [5].
Exercice : show this result when ξ is integrable.
On dénit sur l'espace des trajectoires càdlàg la transformation de changement
d'échelle des temps suivante :
Sa (ω) = (a−1/α ωat , t ≥ 0) .
X
On note FtX = σ(Xs : s ≤ t), F∞
= ∨t≥0 FtX la ltration engengrée par le processus
canonique X .
Lemme 2.2.2.
X
Soit F ∈ F∞
un événement tel que si ω ∈ F alors pour tout a > 0,
Sa (ω) ∈ F . Sous cette condition, la probabilité Px (F ) ne dépend pas de x > 0.
Preuve. Celle-ci vient juste du fait que (Sa (X), Px ) = (X, Pa−1/α x ).
La représentation de Lamperti concerne tous les processus markoviens auto-similaires
positifs ou nuls. Posons
(x)
T0 = inf{t : Xt = 0} ;
cette représentation décrit une correspondance bijective entre l'ensemble des processus de Lévy de temps de vie éventuellement ni et les processus markoviens
auto-similaires positifs jusqu'en leur premier temps d'atteinte de 0. (Pour simplier
les notations, nous omettons volontairement l'indice x dans T0 .) L'inverse de la
fonctionnelle exponentielle :
∫
τt =
xα t
(
Xs(x)
)−α
ds ,
t < x−α T0
0
joue également un rôle important dans le résultat principal de cette section.
Lemme 2.2.3. Soit X (x) , x ≥ 0 une famille de processus markoviens auto-similaires
à valeurs dans R+ .
2.2. The Lamperti representation of R+ -valued processes.
11
(i) Ou bien Px (T0 = +∞) = 1 pour tout x > 0, ou bien Px (T0 < +∞) = 1, pour
tout x > 0.
(ii) Si Px (T0 < +∞) = 1 pour tout x > 0, alors
{
ou bien Px (XT0 − = 0) = 1, pour tout x > 0,
ou bien Px (XT0 − > 0) = 1, pour tout x > 0.
(iii) Si Px (T0 = +∞) = 1, alors Px (limt→+∞ τt = +∞) = 1, pour tout x > 0.
(iv) Si Px (T0 < +∞) = 1 et Px (XT0 − = 0) = 1, pour tout x > 0, alors Px (limt↑x−α T0 τt =
+∞) = 1, pour tout x > 0.
(v) Si Px (T0 < +∞) = 1 et Px (XT0 − > 0) = 1, pour tout x > 0, alors Px (τ (x−α T0 −) <
+∞, τ (x−α T0 ) = +∞) = 1, pour tout x > 0. De plus, la loi de τ (x−α T0 −) ne
dépend pas de x > 0.
X
Preuve. (i) Soit F = {T0 < ∞}. Cet événement est F∞
mesurable et vérie la
condition du lemme précédent. Soit donc p tel que Px (F ) = p pour tout x > 0.
Pour tout t > 0, par la propriété de Markov on a
Px (t < T0 < ∞) = Ex (1I{t<T0 } Px (∃s ∈ (t, ∞), Xs = 0 | Ft ))
= Ex (1I{t<T0 } PXt (T0 < ∞)) = pPx (t < T0 ) ,
ce qui donne
p = Px (T0 ≤ t) + Px (t < T0 < ∞) = Px (T0 ≤ t) + pPx (t < T0 ) ,
de telle sorte que (1 − p)Px (T0 ≤ t) = 0. On conclut que ou bien p = 1, ou bien
Px (T0 ≤ t) = 0 pour tout t ≥ 0 et tout x > 0, soit Px (T0 = +∞) = 1 pour tout
x > 0.
X
(ii) Soit F = {ω ∈ Ω : limt→T0 − ωt = 0}. Cet événement est F∞
-mesurable et vérie
la condition du lemme 2.2.2. Soit alors p tel que p = Px (F ) pour tout x > 0. Posons
pour y > 0, Ty = inf{t : Xt ≤ y}. Puisque F ◦ θTy = F , par la propriété de Markov
forte, on a pour tout x > 0,
(
)
p = Px (F ) = Px (F, Ty < T0 ) = Ex Px (F, Ty < T0 | FTy )
(
)
= Px 1I{Ty <T0 } PXTy (F ) = pPx (Ty < T0 ) .
Si p ̸= 0, alors Px (Ty < T0 ) = 1, pour tout x > 0 et tout y > 0. Il en découle que
X (x) n'atteint pas 0 par un saut négatif, donc p = 1.
X
(iii) Soient z ≥ 0 et Fz = {τ∞ ≤ z}. Pour tout z xé, cet événement est F∞
mesurable et vérie la condition du lemme 2.2.2. Écrivons
∫ 1 ∫ ∞
τ∞ =
+
(Xs(x) )−α ds = X + Y ,
0
1
12
2. Self-similar Markov processes.
et remarquons que pour tout x > 0,
( (∫ ∞
))
−α
X
Px (Y ≤ z) = Ex Px
Xs ds ≤ z | F1
1
(∫ ∞
(
))
−α
= Ex PX1
Xs ds ≤ z
= Px (Fz ) .
0
La v.a. Y a donc la même loi que τ∞ , mais puisque X est une v.a. qui est p.s.
strictement positive, ceci est impossible a moins que Y = τ∞ = +∞, p.s.
(iv) Soient z ≥ 0 et Fz = {τ (x−α T0 −) ≤ z}. Pour tout z xé, cet événement est
X
F∞
mesurable et vérie la condition du lemme 2.2.2. Soit y ∈ (0, x). Écrivons
∫ Ty ∫ T0 −
−α
τ (x T0 −) =
+
Xs−α ds = X + Y .
0
Ty
Puisque d'après l'hypothèse on a XTy > 0, p.s., on peut appliquer la propriété de
Markov forte au temps Ty , de sorte que
( (∫
))
Px (Y ≤ z) = Ex Px
∞
Xs−α ds ≤ z | F1X
Ty
(
(∫
= Ex PXTy
∞
))
Xs−α
ds ≤ z
= Px (Fz ) .
0
On conclut alors par le même raisonnement qu'en (iii).
(v) Sous ces hypothèses, le fait que Px (τ (x−α T0 −) < +∞) = 1 vient de ce que le
processus admet presque sûrement des limites à gauche. Par conséquent, il ne peut
pas visiter tous les voisinages de 0 avant le temps T0 , i.e. son minimum absolu sur
[0, T0 ) est strictement positif. Montrons que Px (τ (x−α (T0 + ε)) = +∞) = 1, pour
tout ε > 0. Par la propriété de Markov forte appliquée au temps T0 , on a pour tout
z ≥ 0,
(∫ ε
)
−α
−α
−α
Px (τ (x (T0 + ε)) − τ (x T0 −) ≤ z) = P0
Xs ds ≤ z .
0
Mais par la propriété d'auto-similarité, on voit que le membre de droite ne dépend
pas de ε, ce qui n'est possible que si l'intégrale est innie presque sûrement. Enn
la non dépendance en x de la loi de τ (x−α T0 −) est une conséquence directe de
l'auto-similarité de X (x) .
Soit ξ un processus de Lévy et e une v.a. indépendante de ξ , de loi exponentielle de
paramètre quelconque. Le processus ξ tué en le temps exponentiel e est le processus
ζ déni par :
{
ξt ,
si t < e
ζt =
−∞ , si t ≥ e .
2.2. The Lamperti representation of R+ -valued processes.
13
Theorem 2.2.1. Soit X (x) , x > 0, une famille de processus auto-similaires markoviens
(x)
à valeurs dans R+ et d'indice α > 0. Pour tout x > 0, le processus Xt 1I{t<T0 } , (qui
correspond à X (x) éventuellement absorbé en 0) admet la représentation suivante :
(x)
Xt 1I{t<T0 } = x exp ξτ (t/xα ) ,
où τt = inf{s :
∫s
0
t ≥ 0,
(2.2.1)
exp αξu du = t}, t < A∞ (ξ) et où ξ est
• un processus de Lévy tel que lim supt ξt = +∞, p.s. si T0 = +∞, p.s.,
• un processus de Lévy tel que limt ξt = −∞, si T0 < +∞, p.s. et X (x) (T0 −) = 0,
p.s.
• un processus de Lévy tué en un temps exponentiel indépendant si T0 < +∞, p.s.
et X (x) (T0 −) > 0, p.s.
Dans tous les cas, on a : T0 = xα A∞ (ξ).
Réciproquement, soit ξ un processus de Lévy éventuellement tué en un temps exponentiel indépendant, alors la famille de processus X (x) , x > 0 dénie par
(x)
Xt
= x1I{t<xα A∞ (ξ)} exp ξτ (t/xα ) ,
t≥0
(2.2.2)
a la loi d'une famille de processus markoviens(auto-similaires
d'indice α. De plus
)−α
∫
αt
x
(x)
(x)
Xs
ds.
T0 = inf{t : Xt = 0} = xα A∞ (ξ) et τt = 0
Preuve. (Nous omettons la preuve du cas où ξ est un processus de Lévy tué en un
temps exponentiel indépendant).
Supposons donc que ou bien Px (T0 = +∞) = 1, ou bien Px (T0 < +∞) = 1 et
Px (X(T0 −) = 0) = 1. Rappelons d'après le lemme 2.2.3 que dans le premier cas,
Px (limt→+∞ τt = +∞) = 1 et dans le second cas, Px (limt↑x−α T0 τt = +∞) = 1, où
∫ xα t ( (x) )−α
τt = 0
Xs
ds est une fonctionnelle continue et strictement croissante sur
−α
[0, x T0 ). Ceci donne un sens à la dénition
Au = inf{t ≥ 0 : τt = u} ,
u ≥ 0.
On a d'autre part que dans le premier cas ci-dessus limu→+∞ Au = +∞, p.s. et dans
le second cas, limu→+∞ Au = x−α T0 , p.s. Dénissons alors le processus ξ par
(x)
x exp ξu = Xxα Au , u ≥ 0 .
D'après la propriété d'auto-similarité de X (x) , la loi du processus ξ ne dépend pas
(x)
de x. Pour simplier notons (Ft ) = (FtX ) la ltration engengrée par le processus
X (x) . Posons A′t = xα At et remarquons que pour tout u ≥ 0, A′u est un (Ft )-temps
14
2. Self-similar Markov processes.
d'arrêt et que le processus (ξt ) est adapté à la ltration dénie par Gt = FA′t . Nous
allons montrer que celui-ci est à accroissements indépendants et stationnaires.
Soient u, h ≥ 0, on a
X (x) (A′u+h )
= X (x) (A′h ) ◦ θA′u ,
exp(ξu+h − ξu ) =
(x)
′
X (Au )
où la deuxième égalité vient de ce que
A′u+h
=
A′u
+ inf{t ≥ 0 :
∫ t(
0
(x)
XA′u +s
)−α
ds = h} .
D'après les égalités ci-dessus et par la propriété de Markov forte appliquée au temps
(x)
A′u et au processus X (x) , on obtient que conditionnellement à Gu = FA′u et à XA′u = z ,
la v.a. exp(ξu+h − ξu ) a même loi que
∫ t
( (z) )−α
−1 (z)
z Xν , où ν = inf{t ≥ 0 :
Xs
ds = h} .
0
Remarquons maintenant que
α ′
ν = z ν , où
{
′
ν = inf t ≥ 0 :
∫ t(
z
−1
(z)
Xz α s
)−α
}
ds = h .
0
Ainsi, puisque par la propriété d'auto-similarité, (z −1 Xzα s , s ≥ 0) a même loi que
(z)
X (1) , on obtient que z −1 Xν a même loi que
{
}
∫ t
( (1) )−α
(1)
(1)
Xν (1) , où ν = inf t ≥ 0 :
Xs
ds = h .
(z)
0
En conclusion, nous avons montré que pour toute fonction borélienne et bornée f ,
on a
(x)
E(f (exp(ξu+h − ξu )) | Gu , XA′u = z) = E(f (exp(ξu+h − ξu )) | Gu )
(
)
(1)
= E f (Xν (1) )
= E(f (exp ξh )) .
Ceci montre que ξ est un processus de Lévy. Il est facile de vérier alors que
lorsque Px (T0 < +∞) = 0, on a lim supt ξt = +∞ et lorsque Px (T0 < +∞) = 1 et
Px (X(T0 −) = 0) = 1, on a limt ξt = −∞. En eet, de l'identité τ (At ) = t, il découle
que
(
)α
d
At = X (x) (xα At ) = exp αξt ,
dt
∫u
ce qui entraîne que Au = 0 exp αξs ds. Comme nous l'avons déjà observé plus haut,
dans le premier cas A∞ = +∞, p.s. et dans le second cas, A∞ = x−α T0 < +∞, p.s.
15
2.2. The Lamperti representation of R+ -valued processes.
et le résultat vient alors du lemme 2.2.1.
Réciproquement, soit ξ un processus de Lévy de durée de vie innie. Notons At =
At (ξ) pour simplier
et dénissons l'inverse de la fonctionnelle exponentielle par
∫s
τt = inf{s : 0 exp αξu du = t}, si t < A∞ et τt = +∞ si t ≥ A∞ . Notons par (Gt )
la ltration engendrée par ξ et posons Ft = Gτ (t/xα ) où τt est déni dans l'énoncé.
Dénissons aussi le processus X (x) par (2.2.2). Tout d'abord, il vient de la théorie
générale des processus de Markov que X (x) est un processus fortement markovien
relativement à la ltration
F
(
) t . De l'identité Aτt = t, pour t < A∞ on déduit que
d
τ
dt t
α
(x)
= exp −αξτt = x/Xxα t
, si bien que
∫
xα t
τt =
(Xs(x) )−α ds ,
t < A∞ .
0
Si lim supt ξt = +∞, p.s. alors d'après le lemme 2.2.1, A∞ = +∞ et donc
∫ xα t
lim
(Xs(x) )−α ds = +∞ , p.s.
t→+∞
0
Dans ce cas, T0 = +∞, p.s. Si maintenant limt→+∞ ξt = −∞, alors par le lemme
2.2.1 A∞ < +∞, p.s. et il n'est pas dicile de vérier que A∞ = x−α T0 . De plus
on a X (x) (T0 −) = 0.
La propriété d'auto-similarité de X (x) vient de la dénition même de X (x) qui montre
l'égalité presque sûre
(x)
(1)
x−1 Xxα t = Xt , t ≥ 0 .
Il reste à démontrer que les processus X (x) ont tous le même semigroupe. Notons
celui-ci par pt (x, dy), c'est à dire
(x)
P(Xt
∈ dy) = Px (Xt ∈ dy) = pt (x, dy) ,
où x, y ∈ (0, ∞) si T0 = +∞, p.s. et x, y ∈ [0, ∞) si T0 < +∞, p.s. Il s'agit de
montrer que pour tous s, t ≥ 0,
(x)
(x)
P(Xt+s ∈ dz | Ft , Xt
= y) = ps (y, dz) .
(2.2.3)
Pour ceci on écrit
(x)
Xt+s = x1I{t+s<xα A∞ } exp ξτ ((t+s)/xα ) = x1I{t+s<xα A∞ } exp ξτ (t/xα )+τ (s)
(x)
= Xt 1I{t+s<xα A∞ } exp(ξτ (t/xα )+τ (s) − ξτ (t/xα ) ) ,
où
∫
τ (t/xα )+u
exp αξv dv = x−α s}
τ (t/xα )
∫ u
= inf{u ≥ 0 : exp αξτ (t/xα )
exp α(ξτ (t/xα )+v − ξτ (t/xα ) ) dv = x−α s} .
τ (s) = inf{u ≥ 0 :
0
16
2. Self-similar Markov processes.
Notons d'autre part que puisque xα
xα A∞ (ξ)}, on a
∫
{t + s < x A∞ } = {t + s < x
α
∫ τ (t/xα )
0
exp αξu du = t, sur l'événement {t <
τ (t/xα )
α
exp αξu du
0
∫
∞
exp(ξτ (t/xα )+v − ξτ (t/xα ) ) dv}
∫ ∞
α
= {s < x exp αξτ (t/xα )
exp(ξτ (t/xα )+v − ξτ (t/xα ) ) dv, t < xα Ã∞ } ,
α
+x exp αξτ (t/xα )
0
0
où Ã∞ =
∫∞
0
exp(ξτ (t/xα )+v − ξτ (t/xα ) ) dv . Enn nous avons montré que
(x)
(x)
Xt+s = Xt exp ξ˜τ̃ (s/(X (x) )α ) 1I{s<xα Ã∞ } ,
t
où ξ˜ = (ξτ (t/xα )+v − ξτ (t/xα ) , v ≥ 0) et τ̃t = inf{s :
∫s
0
(2.2.4)
exp ξ˜u du > t}.
Les propriétés d'indépendance et de stationnarité des accroissements des processus
(x)
de Lévy entraînent que Ft est indépendant de ξ˜. De plus Xt est Ft -mesurable.
Ainsi la représentation (2.2.4) montre que
(x)
(x)
P(Xt+s ∈ dz | Ft , Xt
= y) = P(Xs(y) ∈ dz) ,
pour tous x, y, z ∈ (0, ∞) si T0 = +∞, p.s. et pour tous x, y, z ∈ [0, ∞), si T0 < +∞,
p.s.
Exercise 2.2.1.
Show that the innitesimal generator of a pssMp (X, Px ) whose
underlying Lévy process has characterisitcs (k, a, σ, Π) is given by
∫
σ
−α
Af (x) = x
[f (ux)−f (x)−xf ′ (x)1I{| ln u|≤1} ] Θ(du)+aα−1 f ′ (x)+ x2−α f ′′ (x)−kx−α f (x) ,
2
R+
for all f ∈ CK [0, ∞), where Θ(du) = Π(du) ◦ ln u.
La caractérisation des processus markoviens auto-similaires positifs continus est une
application immédiate de la seconde représentation de Lamperti. Rappelons tout
d'abord la dénition des processus de Bessel. Le carré d'un processus de Bessel de
dimension δ est l'unique solution forte de l'EDS :
∫ t√
Zt = x + 2
Zs dBs + δt , t ≥ 0, δ ≥ 0, x ≥ 0 .
(2.2.5)
0
Le coecient δ est appelé la dimension du processus Z . Il n'est pas dicile de
vérier à partir de l'équation (2.2.5) qu'un carré de processus de Bessel est un
processus markovien auto-similaire d'indice 1. Il est connu aussi, et ceci se vérie
2.2. The Lamperti representation of R+ -valued processes.
17
facilement que dans le cas où δ ≥ 1 est un entier, si W est un mouvement brownien
à valeurs dans Rδ , alors |W |2 est un carré de Bessel de dimension δ . Le théorème
de comparaison pour les solutions d'une EDS et les propriétés de transience et de
récurrence du mouvement brownien dans Rδ montrent alors que pour δ ≤ 2, le carré
de processus de Bessel est récurrent et pour δ ≥ 3, il est transient.
Le théorème suivant permet aussi d'armer de plus que pour δ ≥ 2, l'état 0 est
polaire et pour δ ≤ 1, il est atteint presque sûrement. De plus, pour δ = 0, 0 est
absorbant. Enn si δ = 2, alors lim supt Zt = +∞ et lim inf t Zt = 0.
Exercise 2.2.2.
Toute famille de processus markoviens auto-similaires continus à
valeurs dans R est, à une constante multiplicative et une puissance positive près,
une famille de processus de Bessel éventuellement absorbés en 0.
+
En particulier, dans la représentation (2.2.1), le processus ξ est nécessairement
de la forme ξt = k(Bt + µt), t ≥ 0, où k, µ ∈ R et où B est un mouvement
(x)
brownien
réel
(
)α standard. De plus si α est l'indice d'auto-similarité de X , alors
(x)
4
Xt
1I{t<T0 } est un carré de processus de Bessel issu de xα de dimension
(kα)2
4µ
kα
+ 2 (éventuellement absorbé en 0).
Considérons un processus de Lévy stable, (X, Px ) d'indice α ∈ (0, 2), issu de x ∈ R.
L'exposant caractéristique de (X, Px ) est déni par E0 [exp(iλXt )] = exp[tψ(λ)],
t ≥ 0, λ ∈ R, où
∫
ψ(λ) = iaλ + (eiλy − 1 − iλy 1I{|y|<1} ) ν(y) dy .
(2.2.6)
R
La densité de la mesure de Lévy est donnée par
ν(y) = c+ y −α−1 1{y>0} + c− |y|−α−1 1{y<0} ,
(2.2.7)
où c+ et c− sont deux constantes positive telles que c+ + c− > 0. La constante a
−c−
est une fonction de c+ , c− et α dont l'expression est : a = c+1−α
, α ̸= 1. Dans le
cas où α = 1, on supposera que le processus (X, Px ) est un processus de Cauchy
symétrique, par conséquent, on a c+ = c− and a = 0. Supposons aussi que (|X|, Px )
n'est pas un subordinateur.
Soit T le temps de passage au dessous de 0 de (X, Px ), i.e. T = inf{t ≥ 0 : Xt ≤ 0}.
Il n'est pas dicile de vérier que la loi sous Px du processus
Xt 1I{t<T } ,
t≥0
(2.2.8)
est celle d'un processus markovien auto-similaire positif d'indice α. Notons Px cette
loi. Dans ce cas particulier, on a de manière évidente que T0 < ∞, Px -p.s. De
plus si (X, Px ) n'a pas de sauts négatifs, alors (X, Px ) atteint 0 continûment, i.e.
18
2. Processus de Markov homogènes, auto-similaires.
Px (X(T0 −) = 0) = 1. Si (X, Px ) a des sauts négatifs, alors il est bien connu que ce
processus traverse la demi-droite des abscisses presque sûrement par un saut. Par
conséquent, (X, Px ) atteint 0 par un saut négatif.
Corollary 2.2.1.
Soit ξ le processus de Lévy sous-jacent dans la représentation de
Lamperti (2.2.1) du processus de Markov auto-similaire (X, Px ) déni en (2.2.8).
L'exposant caractéristique de ξ est donné par
∫
Φ(λ) = iaλ + (eiλy − 1 − iλ(ey − 1)1I{|ey −1|<1} )π(y)dy − c− α−1 ,
R
où π(y) = ey ν(ey − 1), y ∈ R. En particulier, ξ a un temps de vie p.s. ni si et
seulement si (X, Px ) a des sauts négatifs.
Le second exemple est lié au premier. Considérons toujours le processus de Lévy
stable (X, Px ). Formellement, le processus (X, Px ) conditionné à rester positif est
une h-transformée du processus absorbé en 0 déni ci-dessus :
P↑x (A) = h−1 (x)Ex (h(Xt )1IA 1I{t<T } ) ,
x > 0, t ≥ 0, A ∈ Ft ,
(2.2.9)
où h(x) = xαρ et ρ := P0 (X1 < 0). La fonction h étant invariante et positive pour
le processus absorbé en 0, la formule (2.2.9) dénit la loi d'un processus fortement
markovien. De plus ce processus est à valeurs dans (0, ∞) et il est clair que celui-ci
hérite de la propriété d'auto-similarité d'indice α. Par conséquent (X, P↑x ) fournit
un exemple de processus markovien auto-similaire, tel que T0 = +∞, P↑x -p.s. La
construction suivante, plus intuitive mais non moins rigoureuse de la loi P↑x justie
que l'on appelle (X, P↑x ) le processus de Lévy (X, Px ) conditionné à rester positif :
P↑x (A) = lim Px (A | T > t) ,
t→+∞
x > 0, t ≥ 0, A ∈ Ft .
Nous renvoyons à [14] pour de plus amples détails à propos des processus de Lévy
conditionnés à rester positifs. En particulier, il est démontré en [14] que (X, P↑x )
dérive vers +∞ lorsque t → +∞, i.e.
(
)
P↑x lim Xt = +∞ = 1 .
(2.2.10)
t→+∞
La proposition suivante donne les caractéristiques du processus de Lévy associé à
(X, P↑x ) par la représentation de Lamperti. Une démonstration de ce résultat se
trouve en [10].
Proposition 2.2.1.
Soit ξ ↑ le processus de Lévy associé au processus markovien
auto-similaire positif (X, P↑x ) déni en (2.2.9) par la représentation de Lamperti
(2.2.1). L'exposant caracteristique de ξ ↑ est donné par
∫
↑
↑
Φ (λ) = ia λ + (eiλy − 1 − iλ(ey − 1)1I{|ey −1|<1} )π ↑ (y)dy ,
R
19
2.3. Représentation des processus issus de 0.
où π ↑ (y) = e(αρ+1)y ν(ey − 1), y ∈ R et
∫ 1
∫ 1
(1 + x)αρ − 1
(1 − x)αρ − 1
↑
a = a + c+
dx
+
c
dx .
−
xα
xα
0
0
2.3. Représentation des processus issus de 0.
Soit X (x) , x > 0 une famille de processus fortement markoviens auto-similaires
d'indice α > 0, à valeurs dans (0, ∞). On suppose que pour tout x > 0,
{ (x)
X n'a pas de sauts positifs.
(H)
(x)
lim supt→∞ Xt = +∞ , p.s.
L'objectif de cette section est de montrer que sous ces hypothèses, la famille de
processus X (x) converge en loi vers la loi d'un processus fortement markovien X (0) ,
issu de 0 et auto-similaire d'indice α > 0.
Sans perdre aucune généralité, on peut supposer dans toute la suite de cette section
que α = 1. On rappelle alors que selon la représentation de Lamperti, il existe un
processus de Lévy ξ , issu de 0, tel que lim supt→ ξt = +∞, qui est clairement sans
sauts positifs p.s. et tel que X (x) a même loi que le processus :
{ ∫ s
}
x exp ξτ (t/x) , t ≥ 0 , où τt = inf s :
exp ξu du = t .
0
On se donne alors une suite de processus de Lévy ξ (n) , n ≥ 1 indépendants et ayant
tous même loi que ξ . On pose xn = e−n et l'on dénit
(xn )
Xt
(n)
où τt
(n)
= xn exp ξτ (n) (t/xn ) , t ≥ 0 ,
{ ∫
}
s
(n)
= inf s : 0 exp ξu du > t , t > 0, ainsi que
(xn )
S (n−1) = inf{t ≥ 0 : X t
Lemme 2.3.1.
= xn−1 }, n ≥ 2 et Σn =
∑∞
k=n
S (k) .
Pour tout n, Σn < +∞, presque sûrement.
Preuve. Tout d'abord, remarquons que
∫
S
(n−1)
= xn
0
(n)
où T1
(n)
= inf{t : ξt
= 1}.
(n)
T1
exp ξs(n) ds ,
(2.3.1)
20
2. Processus de Markov homogènes, auto-similaires.
Posons log+ x = log x, si x ≥ 1 et log+ x = 0, si x ≤ 1, alors on vérie immédiatement que pour tout r > 1, on a
)
(
)
∫ T1
∑ (∫ T1
+
n
< ∞,
E log
exp ξs ds < ∞ ⇐⇒
P
exp ξs ds > r
0
0
où T1 = inf{t : ξt = 1}. D'autre part, sous nos hypothèses, on a E(exp(λξ1 )) < ∞,
pour tout λ > 0, voir par exemple [2], Chap. VII. Il existe donc une valeur θ > 0,
telle que exp(ξt − θt), t ≥ 0 est une martingale. Le processus exp(ξt∧T1 − θ(t ∧ T1 )),
t ≥ 0 est donc aussi une martingale. L'absence de saut positifs entraîne que celle-ci
est bornée par e. De plus, puisque T1 < ∞, p.s., elle converge presque sûrement
lorsque t tend vers +∞ vers exp(1 − θT1 ). On a donc
E(exp(−θT1 )) = 1/e .
Maintenant écrivons pour tout t ≥ 0,
E(1I{t<T1 } exp ξt ) = E(1I{t<T1 } exp[ξT1 − θ(T1 − t)])
et intégrons cette égalité par rapport à t. On obtient :
(∫ T1
)
1
E
exp ξt dt = (e − 1) < ∞ .
θ
0
)
∑ (
√
De l'équivalence ci-dessus pour r = e et de (2.3.1), on déduit que P S (n−1) > e−n/2 <
∞. Par le lemme de Borel-Cantelli, on obtient alors que presque sûrement, à partir
d'un certain rang n0 , pour tout n ≥ n0 , S (n−1) ≤ e−n/2 , ainsi pour tout n, Σn < +∞,
presque sûrement.
Proposition 2.3.1.
On rappelle que
(x1 )
X t−Σ1 ,
(x2 )
X t−Σ2 ,
(0)
..
Xt =
.
(xn )
X t−Σ
,
n
...
xn = e−n . Le processus
t ∈ [Σ1 , ∞)
t ∈ [Σ2 , Σ1 )
,
(0)
X0 = 0
t ∈ [Σn , Σn−1 )
est bien déni et continu à droite sur [0, ∞). De plus et il admet des limites à
(0)
(0)
gauche sur (0, ∞) et limt→+∞ X t = +∞, p.s. Enn le processus X n'a pas de
sauts positifs.
Preuve. Le fait que X (0) soit bien déni est une conséquence du lemme précédent.
Le reste de l'énoncé est évident.
21
2.3. Représentation des processus issus de 0.
Il est clair d'après la construction qui précède que
(0)
Σn = inf{t : X t = xn } .
(2.3.2)
(0)
D'autre part, par la propriété de Markov, le processus (X Σn +t , t ≥ 0) a pour loi
(xn )
Pxn . On déduit de ceci que la suite de processus (X ) converge en loi vers le
(0)
(0)
processus X lorsque n tend vers +∞ puis que X est fortement markovien et a
(xn )
même semi-groupe que les processus X
, n ≥ 1. Ainsi on a
Theorem 2.3.1.
Soit X (x) une famille de processus markoviens auto-similaires
d'indice α = 1 vériant les hypothèses (H). La famille X (x) converge en loi vers
la loi d'un processus fortement markovien auto-similaire X (0) lorsque x tend vers 0.
Le processus X (0) est auto-similaire d'indice égal à 1. Ce résultat reste vrai lorsque
α > 0 est quelconque.
Un résultat plus général qui ne concerne pas seulement le cas des processus sans
saut positifs a été établi en [9]. Nous noterons P0 la loi du processus X (0) .
Le reste de cette section est consacré à l'étude du cas où le processus X (x) dérive
vers +∞, ce qui revient à supposer que ξ dérive vers +∞. Nous noterons P̂x la
famille des lois associée au processus
(x)
X̂t
= x exp −ξτ̂ (t/x) ,
t ≥ 0,
∫s
où τ̂ (t) = inf{s ≥ 0 : 0 exp(−ξu ) du > t} et inf ∅ = +∞. D'après le théorème
bx ), x > 0 est fortement markovien auto-similaire et atteint
2.2.1, le processus (X, P
0 continûment en un temps ni. En considérant 0 comme un état absorbant, on
bx ) a pour temps de vie T0 . Nous montrons au lemme
peut dire que le processus (X, P
bx ) et dénie pour
suivant que les résolvantes associées aux processus (X, Px ) et (X, P
tout q ≥ 0 et f : (0, ∞) → R+ mesurable par
(∫
V f (x) = Ex
q
∞
)
−qt
e
f (Xt ) dt
,
Vb q f (x) = Êx
0
(∫
)
T0
e
−qt
f (Xt ) dt
,
0
sont en dualité par rapport à la mesure de Lebesgue.
Lemme 2.3.2.
Pour tout q ≥ 0 et pour toutes fonctions f, g : (0, ∞) → R+ , on a
∫
∞
bq
∫
f (x)V g(x) dx =
0
0
∞
g(x)V q f (x) dx .
22
2. Processus de Markov homogènes, auto-similaires.
Preuve. Par des changements de variables élémentaires et l'application du Théorème
de Fubini, on obtient
(∫ ∞
)
∫ ∞
∫ ∞
q
−qu
g(x)V f (x) dx =
g(x)E
e f (x exp(ξτ (u/x) )) du dx
0
0
0
(∫ ∞
(
)
)
∫ ∞
∫ t
ξs
ξt
ξt
= E
g(x)
dt exp −qx
e ds f (xe )xe dx
0
0
0
(∫ ∞ ∫ ∞
(
)
)
∫ t
−ξt
−ξt
ξs
−ξt
= E
g(ye ) exp −qye
e ds f (y)ye dt dy
0
0
0
(
)
)
∫ ∞
∫ ∞ (
∫ t
−ξt′
−ξs′
−ξt′
=
f (y)
E g(ye ) exp −qy
e ds ye
dt dy ,
0
0
0
où ξs′ = ξt − ξ(t−s)− , pour 0 < s < t. La propriété de dualité des processus de Lévy
(L)
entraîne que (ξs , 0 ≤ s ≤ t) = (ξs′ , 0 ≤ s ≤ t). Par conséquent, le membre de droite
de l'égalité ci-dessus s'écrit :
(∫
)
∫ ∞
∫ ∞
yA(−ξ)
−qu
f (y)E
e g(y exp(−ξτ̂ (u/y) )) du dy =
f (y)Vb q g(y) dy ,
0
0
0
(L)
by -p.s. d'après le théorème 2.2.1.
où T0 = yA(−ξ), P
Lemme 2.3.3.
Pour toute fonction f continue et à support compact sur [0, ∞),
∫ ∞
1
0
0
V f (0) = lim V f (x) =
f (y) dy .
x→0
E(ξ1 ) 0
Preuve. Rappelons tout d'abord que si g : R → R est une fonction continue à
support compact, alors d'après le théorème de renouvellement pour les processus de
Lévy, on a
∫
∫ ∞
1
lim
g(y − z) U (dy) =
g(y) dy ,
(2.3.3)
z→+∞ R
E(ξ1 ) −∞
∫∞
où U (dy) = 0 P (ξt ∈ dy) dt, y ∈ R est la mesure potentielle de ξ .
Il sut alors de voir que d'après le lemme précédent, l'opérateur potentiel V 0
s'exprime en fonction de U de la manière suivante :
∫
0
V f (x) =
f (xey )xey U (dy)
∫R
=
f (exp(y + log x)) exp(y + log x) U (dy) .
R
On déduit le résultat en prenant f continue et à support compact dans cette égalité
puis en appliquant (2.3.3) et le théorème 2.3.1.
2.3. Représentation des processus issus de 0.
23
Le théorème suivant donne une version explicite de la loi d'entrée du processus
(X, P0 ) en fonction de la loi du processus de Lévy sous-jacent ξ . Ce résultat est
démontré en toute généralité (c'est à dire pour des processus qui peuvent posséder
des sauts positifs) dans l'article [3].
Theorem 2.3.2.
Pour tout t > 0 toute fonction mesurable f : R+ → R+ , on a
E0 (f (Xt )) = cE[A(−ξ)−1 f (t/A(−ξ))] .
Preuve. D'après l'équation résolvante V q f = V 0 (f − qV q f ), le théorème de convergence 2.3.1 et le lemme 2.3.3, on a pour toute fonction f continue et à support
compact
∫ ∞
q
q
V f (0) = lim V f (x) = c
(f (y) − qV q f (y)) dy
x→0+
∫0 ∞
= c
f (y)(1 − q Vb q 1(y)) dy
∫0 ∞
b y (e−qT0 ) dy
= c
f (y)E
∫0 ∞
= c
f (y)E(exp(−qyA(−ξ))) dy ,
0
dont on déduit immédiatement la formule de l'énoncé.
Le reste de cette
∫ ∞ section est consacré au calcul des moments de la fonctionnelle
exponentielle 0 exp −ξt dt. On pose :
σ(x) = sup{t : ξt = x}, x ≥ 0 .
(x)
Remarquons que {pour∫ tout x ≥ 0, σ(x)
} < +∞, p.s. On dénit X = x exp ξτ (t/x) ,
s
t ≥ 0 où τt = inf t : 0 exp ξu du > t et pour y ≥ x,
(x)
Uy(x) = sup{t : Xt
Lemme 2.3.4.
= y} .
Soit y > x > 0. On a l'égalité en loi :
∫ σ(log y/x)
(x) (L)
exp −ξs ds .
Uy = y
0
Preuve. L'égalité
∫
Uy(x)
=x
σ(log y/x)
exp ξs ds
0
se vérie facilement trajectoire par trajectoire. Rappelons alors le résultat de retournement suivant : pour tout z > 0, les processus (ξ(σ(z)−t)− , 0 ≤ t ≤ σ(z)) et
24
2. Processus de Markov homogènes, auto-similaires.
(z − ξt , 0 ≤ t ≤ σ(z)) ont même loi. Celui-ci est une conséquence de la théorie du
retournement du temps de Nagasawa, voir aussi [2], Chap.II.1. Ainsi, on obtient en
eectuant un simple changement de variables :
∫ σ(log y/x)
(x)
Uy
= x
exp ξs ds
0
∫ σ(log y/x)
= x
exp ξ(σ(log y/x)−s)− ds
0
∫ σ(log y/x)
∫ σ(log y/x)
(L)
= x
exp(log y/x − ξs ) ds = y
exp −ξs ds .
0
0
Ceci achève la démonstration.
Soit X (0) un processus dont la loi est la limite en loi de X (x) lorsque x tend vers 0.
(0)
(0)
Pour y ≥ 0, on pose Uy = sup{t : Xt = y}.
∫
Corollary 2.3.2. La v.a. Uy(0) est égale en loi à la v.a. y 0+∞ exp −ξs ds.
Preuve : Par la construction de la proposition 2.3.1, on a pour tout xn ≤ y ,
(xn )
(L)
Uy(0) = Σn + U y−xn ,
(xn )
(xn )
où U y−xn = sup{t : X t
= y − xn } et où par la propriété de Markov, les deux
v.a. du membre de gauche sont indépendantes. Il sut alors de voir que d'après le
(xn )
lemme 2.3.1 Σn → 0, p.s. lorsque n → +∞ et d'après le lemme 2.3.4, U y tend en
(0)
loi vers Uy .
(0)
Le processus y 7→ Uy est auto-similaire et ses accroissements sont indépendants.
Toutefois ceux-ci ne sont pas stationnaires. Sa loi est caractérisée à la proposition
suivante. Notons que par le lemme 2.3.4, il revient au même de caratériser la loi de
∫ σ(log y/x)
la fonctionnelle exponentielle 0
exp −ξs ds. Des résultats plus généraux se
trouvent dans les articles : [11], [12], [13], [4] et [5].
Proposition 2.3.2.
Pour tout entier k ≥ 1,
E((Uy(0) )−k ) = y −k E(ξ1 )
(0)
De plus, la loi de Uy
Preuve. Soit It =
∫ +∞
t
ψ(1) . . . ψ(k − 1)
.
(k − 1)!
est entièrement déterminée par ses moments négatifs.
exp −ξs ds. On vérie d'abord que pour tout réel q > 0,
∫ t
−q
−q
It − I0 = q
Is−(q+1) exp −ξs ds ,
0
25
2.4. Inversions of self-similar Markov processes.
puis que It = exp(−ξs )I0′ , où I0′ est indépendant de ξt et a même loi que I0 .
(def)
D'autre part, on rappelle que pour tout réel q ≥ 0 et t ≥ 0, exp(tψ(q)) = E(eqξt ) <
∞. On a alors,
∫ t
−(q+1)
−q
E(I0 )(exp(tψ(q)) − 1) = q
exp(sψ(q))E(I0
) ds ,
0
d'où l'on déduit que
ψ(k)
E(I −k ) .
k
La formule de l'énoncé vient alors par récurrence et du fait que E(1/A(−ξ)) = E(ξ1 ).
E(I −(k+1) ) =
Pour déduire que la loi de la v.a. est entièrement déterminée par ses moments, on
rappelle que sous nos hypothèses et d'après la formule de Lévy Khintchine, ψ(q) =
O(q 2 ), lorsque q tend vers +∞. Il existe donc une constante c > 0 telle que
E(A(−ξ)−k ) = E(1/A(−ξ))
ψ(1) . . . ψ(k − 1)
≤ ck k! ,
(k − 1)!
pour tout k ≥ 1. Ceci montre que E(exp[1/(2cA(−ξ))]) < ∞, et par conséquent, la
loi de 1/A(−ξ) est caractérisée par ses moments.
2.4. Inversions of self-similar Markov processes.
For a Lévy process ξ , we will denote by ξˆ := −ξ its dual process (more specically,
ξˆt = −ξt , for t < ζ and ξˆt = −∞, for t ≥ ζ ). Let X be a PSSMP and let ξ be the
underlying Lévy process in its Lamperti's representation. The PSSMP dened by
b . It is proved in [?], see Lemma 2, that
(??), with respect to ξˆ will be denoted by X
b are in duality with respect to the Lebesgue measure.
the Markov processes X and X
(This property directly follows from the duality between ξ and −ξ , see Proposition
1, p. 44 in [2].)
Here is the general path transformation in the case of PSSMP's.
Theorem 2.4.1.
Let X be any positive self-similar Markov process, absorbed at 0.
bx , be the law of X and X
b starting from x > 0, respectively. Then the
Let Px and P
b may be obtained from the paths of the process X as follows:
law of the dual process X
[
] [
]
L)
bx (=
bt , t ≥ 0), P
(X
(1/Xγt , t ≥ 0), P1/x , x > 0 ,
(2.4.1)
where the time change τt is given by:
{ ∫ s
γt = inf s :
0
du
>t
(Xu )2α
}
,
t ≥ 0.
26
2. Processus auto-similaires Markoviens.
b is redundant in (2.4.1). We should consider X as the
(Actually the notation X
]
[
L)
bx (=
canonical process of the coordinates and simply write (2.4.1) as (Xt , t ≥ 0), P
[
]
(1/Xγt , t ≥ 0), P1/x .)
Proof. Let ξ be the underlying Lévy process in the representation (??) of X and let
Ψ be its characteristic exponent, i.e.
E(eiλξt 1I{t<ζ} ) = e−tΨ(λ) , t ≥ 0 , λ ∈ R .
According to the Lévy-Khintchine decomposition
of the latter, there is a Lévy mea∫
sure π on R satisfying π({0}) = 0 and (1 ∧ x2 ) π(dx) < ∞, a bounded Borel
function l such that l(x) ∼ x,when x → 0, and some real values a ∈ R, b ≥ 0, σ ≥ 0
such that
∫
σ 2 λ2
Ψ(λ) = b + iaλ +
+ (1 − eiλx + iλl(x)) π(dx) , λ ∈ R .
2
R
We will say that ξ and X have characteristics (a, b, σ, l, π). Note that in the above
expression, the value a only depends on the choice of the function l, so that the
characteristics of ξ and X could be reduced to the quadruplet (b, σ, l, π). However,
in order to be more specic in the remainder of the proof, we will keep a in these
characteristics. Moreover, in order to simplify the notations and without loss of generality, we will assume that π is absolutely continuous with respect to the Lebesgue
measure and denote by π its density, i.e. π(dx) = π(x) dx.
Then from Theorem 6.1 of Lamperti [?], the innitesimal generator K of X has the
following expression:
∫
−α
Kf (x) = x
[f (ux) − f (x) − xf ′ (x)l(log u)]π(log u)u−1 du
R+
+ax1−α f ′ (x) +
σ 2 2−α ′′
x f (x) − bx−α f (x) ,
2
for functions f such that f , xf ′ and x2 f ′′ are continuous on [0, ∞]. (Note that an
'x' is missing in the term 'xf ′ (x)' in Theorem 1 of [?].)
b
On the other hand, since ξˆ has characteristic exponent Ψ(λ)
= Ψ(−λ), it characteristics are (−a, b, σ, −l ◦ S, π ◦ S), where S(x) = −x. Hence, applying again Theorem
b of X
b is given by
6.1 in [?], we obtain that the innitesimal generator K
∫
−α
b
[f (ux) − f (x) + xf ′ (x)l(− log u)]π(− log u)u−1 du
Kf (x) = x
R+
−ax1−α f ′ (x) +
σ 2 2−α ′′
x f (x) − bx−α f (x) .
2
2.5. Bridges of self-similar Markov processes.
27
The change of variables v = u−1 yields,
∫
−α
b
[f (x/v) − f (x) + xf ′ (x)l(log v)]π(log v)v −1 dv
Kf (x) = x
R+
−ax1−α f ′ (x) +
= x−2α Kf ◦ I(1/x) ,
σ 2 2−α ′′
x f (x) − bx−α f (x)
2
where I(x) = 1/x. Then our result follows from the characterisation of the law of
Markov processes through their generator.
Theorem 2.4.1 may be extended to the case x = 0, when (X, Px ) admit an entrance
law at 0. A particular case of this inversion is obtained in the setting of conditioned
stable processes. We only mention the case of continuous processes through the
following result.
Exercise 2.4.1.
Exercise 2.1.2.
Deduce from Theorem 2.1.2 another means to prove the result of
2.5. Bridges of self-similar Markov processes.
Let us consider again the general case where E is Rd or a part of Rd . Let (Px ) be
a self-similar Markov process with values in E and transition function Pt . We shall
assume that the associated semi-group is absolutely continuous with respect to a σ nite measure m, which will be denoted by pt (x, y), that is Pt (x, y) = pt (x, y) m(dy),
t ≥ 0, x, y ∈ E . Then it is known that there is a measurable version in (t, x, y) of
this density which satises the Chapman-Kolmogorov equations :
∫
pt+s (x, y) =
pt (x, z)ps (z, y) m(dz) , s, t > 0 , x, y ∈ E .
E
We will also assume that
(t, y) 7→ pt (x, y) is continuous.
(2.5.1)
Stable Lévy processes and Bessel processes satisfy the above assumptions.
The bridge of a Markov process is an inhomogeneous Markov process with nite
deterministic life time l, whose law is this of the initial process starting from x and
conditioned to be equal to y , at time l. This law is dened more formally by the
following result. We emphasize that this denition holds in a much more general
framework than this of self-similar Markov processes.
28
2. Processus auto-similaires Markoviens.
Theorem 2.5.1.
distributions
Fix l > 0. Then for every y ∈ E such that pt (x, y) > 0, the
Px ( · | Xt ∈ Bδ (y))
converge weakly as δ → 0 to a distribution Plx,y such that:
1. y 7→ Plx,y is weakly continuous.
2. For all x, y ∈ E and l > 0 there exists a unique probability measure Plx,y on
(Ω, Fl ) such that for any bounded Fl -measurable functional F and any bounded
Borel function f on E ,
∫
(2.5.2)
Ex (F f (Xl )) =
Elx,y (F )f (y)pl (x, y)m(dy) .
E
3. The process (X, Plx,y is an inhomogeneous strong Markov process and for any
t ∈ [0, l) and for any Ft -measurable functional F ,
Plx,y (F )pl (x, y) = Px (F pl−t (Xt , y))
(2.5.3)
Moreover, Plx,y (X0 = x, Xl− = y) = 1 and (Plx,y )y∈E is regular version of the conditional probabilities Px ( · | Xl = y), y ∈ E .
A proof of this result can be found in [15].
Exercise 2.5.1.
Assume that for all x, y ∈ E et l > 0,
0 < pl (x, y) < ∞ .
(2.5.4)
Prove that the transition probabilities of the process (X, Plx,y ), admit the following
densities:
pt−s (z, z ′ )pl−t (z ′ , y)
, 0 < s < t < l.
(2.5.5)
p(y,l) (z, s; z ′ , t) =
pl−s (z, y)
For t ≥ 0, let us denote by Gt = σ{Xs : s ≥ t} the σ -eld of future events after time
t. A backward time is a random variable T : Ω → [0, ∞] satisfying: {T > t} ∈ Gt ,
for all t ≥ 0. The σ -eld of future events after time T is the σ -eld generated by
the events A such that A ∩ {T > t} ∈ Gt , for all t ≥ 0. It is denoted by GT .
Proposition 2.5.1.
Let T be a backward time and xE . Then the conditional law
of (Xt , 0 ≤ t < T ) under Px given GT is PTx,XT − , that is for any bounded measurable
functional H ,
Ex (H[(Xt , 0 ≤ t < T )] | GT ) = ETx,XT − (H) .
2.5. Bridges of self-similar Markov processes.
29
Preuve. First assume that T is discrete with values tn . Then let G and H be two
bounded and measurable functionals on Ω. For all n, the Markov property applied
at time tn implies that
Ex (H(Xt , 0 ≤ t < T )G ◦ θT 1I{T =tn } )
= Ex (H(Xt , 0 ≤ t < tn )Ex (G ◦ θT 1I{T =tn } | Xtn ))
n
= Ex (Etx,X
(H)G ◦ θT 1I{T =tn } ) .
tn
Than assume that T is any backward time and dene the following sequence of
times:
{
+∞
si T > n,
Tn =
−n
Tn = q2
si q2−n < T ≤ (q + 1)2−n , q < n2n .
We easily check that Tn is an increasing sequence of backward times which take a
nite number of values. Then we may write for all n,
n
Ex (H(Xt , 0 ≤ t < Tn )G ◦ θT ) = Ex (ETx,X
(H)G ◦ θT ) .
Tn
When n tends to +∞, we obtain from 1. in Theorem 2.5.1 and boundedness of H
that
n
lim ETx,X
(H) = ETx,XT − (H) , p.s.
Tn
n→+∞
and the result follows.
In the case of standard Brownian motion, B , there exist several path constructions
of the bridge from x to y , with length l. Let us denote this latter process by Blx→y .
The rst example of such a construction is as follows:
t
t
(L)
Blx→y = (x + Bt − Bl + y, 0 ≤ t ≤ 1) .
l
l
This result follows from Gaussian properties of Brownian motion. Then the following
(L)
example uses the inversion property of Brownian motion, that is (Bt , t > 0) =
tB1/t , t > 0):
Blx→y
( (
)
)
t
t
= x 1−
+ y + tB( 1 − 1 ) , 0 < t ≤ 1 .
t
l
l
l
(L)
Exercise 2.5.2.
Let X be any (non necessary Markov) self-similar process with
index α, that is X satises,
(L)
(Xt , t ≥ 0) = (a−α Xat , t ≥ 0) ,
for any a > 0.
30
2. Processus auto-similaires Markoviens.
1. Show that if for any k ≥ 0, P(X1 > k) > 0, and if the σ -eld
is trivial, then
Xt
lim sup α = +∞ , almost surely .
t
t→0
∫
t>0
σ{Xs , s ≤ t}
2. Let B be the standard Brownian
motion. For a ≥ 0, we dene the last hitting
√
time
√ of the curve t 7→ a t by B before time 1, that is ga = sup{t ≤ 1 : Bt =
a t}. Prove that the process
(ga−1/2 Bga t , 0 ≤ t ≤ 1)
is a standard Brownian bridge from 0 to a.
We will now extend the construction of Brownian bridge which is given in exercise
2.5.2 to a large class of self-similar Markov processes. Fix x ∈ E and dene
gx = sup{t ≤ 1 : Xt− = xt1/α } .
Then assume that
P0 (gx > 0) = 1
(2.5.6)
Note that assumption (2.5.6) can be interpreted in terms of the stationary Markov
(def)
process [Y = (e−t/α X(et ), t ∈ R), P0 ]. Then (2.5.6) is equivalent to say that the
state x is regular for itself (see below) for this process. Then we may check that
P0 -a.s., Xgx − = Xgx .
Theorem 2.5.2.
Under assumption (2.5.6) the process dened by
(gx−1/α Xgx ·t , 0 ≤ t ≤ 1)
is independent of Ggx and has the law P10,x of a bridge from 0 to x with lenght 1.
Proof. We easily check that gx is a backward time. Then is suces to use the scaling
property of (X, P0 ) and to apply Proposition 2.5.1.
It is proved in [15] that for x ̸= 0, assumption (2.5.6) is satised by any stable Lévy
process. For x = 0, is is satised if and only if α > 1.
Then let us recall the denition of the local time of a Markov process. We say that
a state x ∈ E is regular and instantaneous if Px (Tx = 0) = 1 and Px (σx = 0) = 1,
where Tx = inf{t > 0 : Xt = x} and σx = inf{t > 0 : Xt ̸= x}. For such a
state, there exists a continuous and additive functional Lxt , which is unique, up to a
norming constant, whose support is {x}. We will normalise Lxt by
(∫ ∞
)
−t
x
Ex
e dLt = 1 .
0
31
2.5. Bridges of self-similar Markov processes.
On suppose qu'il existe un état x ̸= 0 qui est régulier et instantané pour lui-même.
Ceci entraîne la même propriété pour tous les états. En eet pour tout k > 0, on
a (Tx , Px ) = (k −1 Tk1/α x , Pk1/α x ). (Notons que le fait que 0 seul soit régulier pour
lui-même n'entraîne pas la régularité des autres états.
En eet, si par exemple (X, Px ) est un processus de Lévy stable d'indice α ∈ (0, 1),
alors 0 est régulier pour le processus X − X , mais les états non nul sont polaires.)
Sans perdre aucune généralité, on peut supposer pour simplier l'écriture que la
mesure m est la mesure de Lebesgue. Nous supposerons par ailleurs que
(x, y) 7→ Ex (e−Ty )
est mesurable. Sous cette hypothèse, il est démontré par Getoor et Kesten [72], (voir
aussi Blumenthal et Getoor [64] et [68]) que les temps locaux en la variable d'espace
Lx normalisés par vérient la formule de densité de temps d'occupation :
∫
∫ t
f (x)Lxt dx .
(2.5.7)
f (Xs ) ds =
E
0
Nous noterons simplement L le temps local en 0 et τ son inverse, i.e. τt = inf{s :
Ls > t}. Nous avons déjà montré au lemme ??, dans le cas particulier des processus
positifs, que l'auto-similarité de (X, Px ) entraîne celle de τ . On vérie facilement
que ce résultat est encore valide dans le cas général. D'autre part, grâce à la formule
de densité de temps d'occupation, l'indice de τ correspond à 1 − 1/α. Notons que
dans ce cas et du fait de la normalisation des temps locaux, on a nécessairement
α > 1.
Nous terminons ce chapitre par une démonstration de la loi de l'arcsinus généralisée
pour le temps g0 que nous noterons simplement g .
Proposition 2.5.2.
i.e.:
Le temps g suit la loi de l'arcsinus généralisée d'indice 1 − 1/α,
1
P0 (g ≤ t) =
Γ(1 − 1/α)Γ(α)
∫
t
s−1/α (1 − s)−1+1/α ds ,
0 ≤ t ≤ 1.
0
Preuve. Notre hypothèse de densité du semi-groupe entraîne que les résolvantes
sont elles-mêmes à densité, c'est à dire que pour tout λ > 0, il existe une fonction
(x, y) 7→ uλ (x, y) mesurable telle que
(∫ ∞
) ∫
λ
−λt
U f (x) = Ex
e f (Xt ) dt =
f (y)uλ (x, y) dy .
0
Cette densité est donnée par
E
∫
λ
u (x, y) =
0
∞
e−λt pt (x, y) dt .
32
2. Processus auto-similaires Markoviens.
D'autre part la formule de densité de temps d'occupation (2.5.7) et une intégration
par partie montrent que cette densité est donnée par le λ-potentiel de Ly , i.e.
(∫ ∞
)
y
λ
−λt
u (x, y) = Ex
e dLt .
(2.5.8)
0
Nous allons en déduire que pour tout x ∈ R et t > 0, on a
1
Px (T0 < t) =
Γ(1/α)Γ(1 − 1/α)p1 (0, 0)
∫
t
s−1+1/α pt−s (x, 0) ds .
0
En eet, par une application de la propriété de Markov en T0 dans l'expression
(2.5.8), nous avons
uλ (x, 0) = Ex (e−λT0 )uλ (0, 0) .
De plus, comme nous l'avons déjà rappelé, par le lemme ??, τ est un subordinateur
stable d'indice 1 − 1/α, donc
∫ ∞
c
λ
u (0, 0) =
E0 (e−λτt ) dt = 1−1/α ,
λ
0
où c est une constante qui ne dépend pas de λ. On a donc nalement
∫
0
∞
1 ( −λT0 )
uλ (x, 0)
Ex e
=
λ
λuλ (0, 0)
1 −1/α λ
=
λ
u (x, 0)
∫c ∞
1 −1/α −λt
λ
e pt (x, 0) dt .
=
c
0
e−λt Px (T0 < t) dt =
Enn on peut
inverser cette transformée de Laplace en utilisant l'égalité λ−1/α =
∫
∞
(Γ(1/α))−1 0 e−λt t−1+1/α dt.
Par la propriété de Markov appliquée en T0 , on a pour tout t > 0,
P0 (g > t) = E0 (PXt (T0 < 1 − t))
(∫ 1−t
)
1
−1+1/α
=
E0
s
p1−t−s (Xt , 0) ds . (2.5.9)
Γ(1 − 1/α)Γ(1/α)p1 (0, 0)
0
D'après l'équation de Chapman-Kolmogorov, on a
(∫ 1−t
)
∫
1
1/α−1
P(g > t) =
pt (0, x)
s
p1−t−s (x, 0) ds dx
Γ(1 − 1/α)Γ(1/α)p1 (0, 0) R
0
∫ 1−t
1
s1/α−1 p1−s (0, 0) ds .
=
Γ(1 − 1/α)Γ(1/α)p1 (0, 0) 0
2.5. Bridges of self-similar Markov processes.
33
En remarquant que p1 (0, 0) = (1 − s)1/α p1−s (0, 0), on obtient que 1 − g suit la loi de
l'arcsinus généralisée de paramètre 1 − 1/α, i.e.
∫
P0 (g > t) =
1−t
s1/α−1 (1 − s)−1/α ds .
0
Remarquons que cette propriété n'est due qu'à l'auto-similarité de l'ensemble des 0
du processus de Markov considéré. Il se peut que ceci soit le cas sans pour autant
que le processus de Markov lui-même soit auto-similaire. (Prendre par exemple un
processus de Lévy symétrique rééchi en son minimum et tel que 0 est régulier pour
(−∞, 0).) Dans ce cas la proposition 2.5.2 reste vraie.
34
2. Processus auto-similaires Markoviens.
Bibliography
[1] D. Applebaum: Lévy processes and stochastic calculus. Cambridge University
Press, Cambridge, 2004.
[2] J. Bertoin: Lévy Processes, Cambridge University Press, Cambridge, 1996.
[3] J. Bertoin and M. Yor: The entrance laws of self-similar Markov processes
and exponential functionals of Lévy processes. Potential Anal. 17, no. 4, 389
400, (2002).
[4] J. Bertoin and M. Yor: On the entire moments of self-similar Markov
processes and exponential functionals of Lévy processes. Annales de la Faculté
des Sciences de Toulouse XI, no. 1, 3345, (2002).
[5] J. Bertoin and M. Yor: Exponential functionals of Lévy processes. Probab.
Surv. 2, 191212 (2005).
[6] P. Billingsley: Convergence of probability measures. Second edition. John
Wiley & Sons, Inc., New York, 1999.
[7] N.H. Bingham, C.M. Goldie and J.L. Teugels: Regular variation Cambridge University Press, Cambridge, 1989.
[8] R.M. Blumenthal and R.K.Getoor: Markov processes and potential theory. Pure and Applied Mathematics, Vol. 29 Academic Press, New YorkLondon, 1968.
[9] M.E. Caballero and L. Chaumont: Weak convergence of positive self similar Markov processes and overshoots of Lévy processes. Annals of Probability.
, no. (2006).
[10] M.E. Caballero and L. Chaumont: Conditioned stable Lévy processes
and Lamperti representation. J. Appl. Prob. 43, 1-17, (2006).
[11] P. Carmona, F. Petit and M Yor: Sur les fonctionnelles exponentielles
de certains processus de Lévy, Stochastics and Stochastics Reports, 47, 71-101,
(1994).
35
36
2. Processus auto-similaires Markoviens.
[12] P. Carmona, F. Petit and M Yor: On the distribution and asymptotic
résults for exponential functiionals of Lévy processes, in M. Yor (editor) Exponential functionals and principal values related to Brownian Motion, (1997),
pp. 73-121. Biblioteca de la Revista Matemática Iberoamericana.
[13] P. Carmona, F. Petit and M Yor: Exponential functionals of Lévy processes. Lévy processes, 4155, Birkhäuser Boston, Boston, MA, (2001).
[14] L. Chaumont: Conditionings and path decompositions for Lévy processes.
Stoch. Process. Appl. 64, 39-54, (1996).
[15] L. Chaumont and G. Uribe Bravo: Markovian bridges: weak continuity
and pathwise constructions. Ann. Probab. 39, no. 2, 609647, (2011).
[16] L. Chaumont and R.A. Doney: On Lévy processes conditionned to stay
positive. Electron. J. Probab. 10, no. 28, 948961, (2005).
[17] E. Csáki and A. Földes: On two ergodic properties of self-similar processes.
Asymptotic methods in probability and statistics (Ottawa, ON, 1997), 97111,
North-Holland, Amsterdam, 1998.
[18] E.B. Dynkin: Markov processes. New York, Springer-Verlag, BerlinGöttingen-Heidelberg 1965 Vol. I
[19] P. Embrechts and M. Maejima: Selfsimilar processes. Princeton University
Press, Princeton, NJ, 2002.
[20] W. Feller: An introduction to probability theory and its applications. Vol.
II. John Wiley & Sons, Inc., New York-London-Sydney, 1971.
On Cauchy's functional equation. Technical Report.
http://math.ucsd.edu/∼pfitz/preprints.html.
[21] P.J. Fitzsimmons:
[22] L.L. Helms: Ergodic properties of several interacting Poisson particles. Advances in Math. 12, (1974), 3257.
[23] J. Jacod and A.N. Shiryaev: Limit theorems for stochastic processes.
Grundlehren der Mathematischen Wissenschaften, 288. SpringerVerlag, Berlin, 1987.
[24] O. Kallenberg: Foundations of modern probability. Second edition.
Probability and its Applications. Springer-Verlag, New York,
2002.
[25] A.E. Kyprianou: Introductory lectures on uctuations of Lévy processes with
applications. Universitext. Springer-Verlag, Berlin, 2006.
2.5. Bridges of self-similar Markov processes.
37
[26] T.G. Kurtz: Representations of Markov processes as multiparameter time
changes. Ann. Probab. 8, no. 4, 682715, (1980).
[27] J. Lamperti: Semi-stable Markov processes. I. Z. Wahrscheinlichkeitstheorie
und Verw. Gebiete 22, 205?225, (1972).
[28] J. Lamperti: On random time substitutions and the Feller property. Markov
Processes and Potential Theory (Proc Sympos. Math. Res. Center, Madison,
Wis., 1967) pp. 87101 Wiley, New York.
[29] J. Lamperti: Semi-stable stochastic processes. Trans. Amer. Math. Soc. 104,
62?78, (1962).
[30] P.E. Protter: Stochastic integration and dierential equations. Second edition. Applications of Mathematics (New York), 21. Stochastic Modelling and
Applied Probability. Springer-Verlag, Berlin, 2004.
[31] D. Revuz and M. Yor: Continuous martingales and Brownian motion.
Third edition. Grundlehren der Mathematischen Wissenschaften, 293. SpringerVerlag, Berlin, 1999.
[32] G. Samorodnitsky and M.S. Taqqu: Stable non-Gaussian random processes. Chapman & Hall, New York, 1994.
[33] K. Sato: Lévy processes and innitely divisible distributions. Cambridge University Press, Cambridge, 1999.
[34] A.V. Skorohod: Limit theorems for stochastic processes with independent
increments. (Russian) Teor. Veroyatnost. i Primenen, 2, 145177, 1957.
[35] F.W. Steutel and K. van Harn: Innite divisibility of probability distributions on the real line. Monographs and Textbooks in Pure and Applied
Mathematics, 259. Marcel Dekker, Inc., New York, 2004.
[36] V.A. Volkonski: V. A. Random substitution of time in strong Markov processes. Teor. Veroyatnost. i Primenen, 3, 1958, 332350.
[37] V.M. Zolotarev: One-dimensional stable distributions. Translations of
Mathematical Monographs, 65. American Mathematical Society, Providence,
RI, 1986.
© Copyright 2026 Paperzz