Télécharger le fichier

Probabilités libres, matrices aléatoires et processus de Lévy
libres
Résumé du cours
Philippe Biane
1. Premier cours, préliminaires. Probabilités
1.1. Moments et cumulants. Soit µ une mesure de probabilités sur R. Ses
moments (s’ils existent) sont les nombres
Z
mn =
xn dµ(x)
n≥0
R
et la transformée de Fourier-Laplace est
Z
Fµ (z) =
ezx µ(dx)
R
Elle est toujours définie pour les z tels que ℜ(z) = 0 (transformation de Fourier),
et elle se prolonge analytiquement à une bande −A < ℜ(z) < A si µ admet un
moment exponentiel d’ordre A i.e. si
Z
eA|x| µ(dx) < +∞
R
La donnée de la fonction Fµ détermine complètement la loi µ. Les cumulants de µ
sont les coefficients du développement
log Fµ (z) =
X
cn
zn
n!
Ils s’expriment par des polynômes en les moments, par exemple:
c1
c2
=
=
c3
=
m1
m2 − m21
m3 − 3m2 m1 + 2m31
1991 Mathematics Subject Classification.
1
2
PHILIPPE BIANE
1.2. Transformée de Stieltjes. La transformée de Stieltjes de la mesure µ
Z
1
Gµ (z) =
µ(dx)
R z−x
qui définit une fonction de z analytique dans le demi plan ℑ(z) > 0, à valeurs dans
le demi-plan ℑ(z) < 0. Lorsque les moments existent on a
est
Gµ (z) =
∞
1 X
+
mn z −n−1
z n=1
1.3. Variables indépendantes, lois indéfiniment divisibles. Si X et Y
sont des variables aléatoires de lois respectives µ et ν, indépendantes, alors X + Y
admet pour loi la convolée µ ∗ ν des lois µ et ν. On a
Fµ∗ν (z) = Fµ (z)Fν (z)
et
cn (µ ∗ ν) = cn (µ) + cn (ν)
Une loi de probabilités µ est dite indéfiniment divisible si pour tout entier n ≥ 1
il existe une mesure µn telle que
µ = µ∗n
n
À part le cas trivial des lois de Dirac, les exemples fondamentaux de lois
indéfiniment divisibles sont obtenus en prenant des limites de convolutions de lois
de Bernoulli.
1
δ √ + δ1/√n )∗n = g
2 −1/ n
lim((1 − t/n)δ0 + t/nδ1 )∗n = p
lim(
où g est la loi de Gauss
2
e−x /2
dx
g(dx) = √
2π
et p est la loi de Poisson de paramètre t
p(dx) =
∞ n
X
t −t
e δn (dx)
n!
n=0
La formule de Lévy-Khinchine énonce que toutes les lois indéfiniment divisibles
s’obteinnent à partir de ces lois en prenant des combinaisons linéaires de variables
indépendantes et en prenant des limites. On a
Fµ (z) = exp ψµ (z)
où ψµ (z) est l’exposant de Lévy de la loi, et
2
ψµ (z) = az + bz +
Z
+∞
−∞
(ezx − 1 − z sin x)M (dx)
pour a > 0, un réel b et une mesure positive M (dx) satisfaisant
Z
inf(x2 , 1)M (dx) < ∞.
R
PROBABILITÉS LIBRES
3
1.4. Moments et cumulants pour plusieurs variables. Pour une mesure
de probabilités sur Rn , les moments sont les quantités
Z
xi11 . . . xinn µ(dx1 . . . dxn )
mi1 ,...,in =
Rn
La tranformée de Fourier Laplace est
Fµ (z1 , . . . , zn ) =
Z
e
P
zi xi
µ(dx1 . . . dxn )
R
Les cumulants sont les coefficients du développement
X
z i1 . . . znin
log Fµ (z1 , . . . , zn ) =
ci1 ,...,in 1
i1 ! . . . in !
Ils s’expriment comme des polynômes en les moments.
1.5. Combinatoire des cumulants de plusieurs variables. Soit A une
algèbre commutative unitaire sur le corps des nombres complexes, munie d’une
forme linéaire E. On pourra penser que A est une algèbre de variables aléatoires et
E est l’espérance. Soit c1 , . . . , cn , . . . des formes multilinéaires sur A, telles que cj
est j-linéaire. On note Πn l’ensemble des partitions de l’ensemble {1, . . . , n}. Pour
toute partition π ∈ Π on note
Y
cπ (a1 , . . . , an ) =
χI
I∈π
où χI = cp (ai1 , . . . , aip ) si I = {i1 , . . . , ip } avec i1 < i2 < . . . < ip .
Proposition 1.1. La formule
E(a1 . . . an ) =
X
cπ (a1 , . . . , an )
π∈Π
détermine complètement une les formes multilinéaires c1 , c2 , . . ..
On a
c1 (a1 ) = E[a1 ]
E[a1 a2 ] = c2 (a1 , a2 ) + c1 (a1 )c2 (a2 )
donc
etc
c2 (a1 , a2 ) = E[a1 a2 ] − E[a1 ]E[a2 ]
Les cn sont appelés les cumulants. Si X1 , . . . , Xn sont des variables aléatoires,
on a
cp (Xi1 . . . , Xip ) = ci1 ...ip
On considère maintenant un espace de probabilités (Ω, F , P ), et plusieurs soustribus Gi ⊂ F . On peut caractériser l’indépendance des Gi au moyen des cumulants
de la façon suivante.
Proposition 1.2. Les Gi sont indépendantes dans (Ω, F , P ) si et seulement si
pour tout n−uplet b1 , . . . , bn tel que
i) chaque bj est une variable mesurable par rapport à une tribu Gij
ii) il existe j et k tels que ij 6= ik ,
on a
cn (b1 , . . . , bn ) = 0
4
PHILIPPE BIANE
2. Deuxième cours, préliminaires. Algèbre linéaire
2.1. Théorème spectral. On note Md (C) l’espace des matrices de taille d×d
à coefficients complexes. L’adjoint de la matrice M = (Mij )1≤i,j≤d est la matrice
Mij∗ = M̄ji . Une matrice est dite hermitienne (ou auto-adjointe) si M = M ∗ .
Le théorème spectral pour les matrices hermitiennes énonce que toute matrice
hermitienne a un spectre réel et est diagonalisable dans une base orthonormée, i.e.
pour toute matrice M hermitienne, il existe une matrice de changement de base
U , unitaire (i.e. dont les vecteurs colonnes forment une base orthonormée) et une
matrice diagonale D, à coefficients réels, telle que
M = U DU ∗
Rappelons qu’une matrice est U unitaire si et seulement si U ∗ = U −1 .
Les coefficients diagonaux de la matrice D sont les valeurs propres de M , et les
vecteurs colonnes de U sont les vecteurs propres de M .
Les valeurs propres de M sont les racines du polynôme caractéristique
PM (z) = det(zI − M )
On peut aussi caractériser les valeurs propres au moyen de leurs sommes de puissances, i.e. des nombres
pk = T r(M k )
En effet si λ1 , . . . , λd sont les valeurs propres de M (comptées avec leurs multiplicités) on a
X
pk (λ) =
λki
où les fonctions pk sont des sommes de puissances. Les pk sont des fonctions
symétriques, et tout polynôme symétrique en les λi s’exprime comme un polynôme
en les pk .
Dans la suite on considérera les moments de M , qui sont les nombres
mk =
1
T r(M k )
d
Ce sont les moments d’une mesure de probabilités sur R, la mesure
1X
µM =
δλk
d
2.2. Invariants de plusieurs matrices. Dans le cas de plusieurs matrices on
dispose d’un théorème analogue, qui classifie les n-uplets de matrices hermitiennes
à conjugaison unitaire près.
Théorème 2.1. Soient L1 , . . . , Ln et M1 , . . . , Mn deux n-uplets de matrices.
Les deux conditions suivantes sont équivalentes:
1) Il existe un opérateur unitaire U tel que
Li = U Mi U ∗
2) pour tout i1 , . . . , ir ∈ {1, . . . , n} on a
i = 1, . . . , n
1
1
T r[Li1 . . . Lir ] = T r[Mi1 . . . Mir ]
d
d
PROBABILITÉS LIBRES
5
2.3. Matrices aléatoires. Nous aurons besoin de deux lois de probabilités
sur des espaces de matrices.
D’une part le GUE (gaussian unitary ensemble), qui est la loi gaussienne sur
l’espace des matrices hermitiennes. Une matrice aléatoire M = Mij est une matrice
du GUE si Mij = M̄ji . et les variables ℜ(Mij ), ℑ(Mij ), i < j et Mii sont des
variables gaussiennes centrées réduites, indépendantes. De façon équivalente, la
densité de cette loi sur l’espace des matrices hermitiennes est
(2π)−d
2
/2 −T r(M 2 )/2
e
.
D’autre part le CUE (circular unitary ensemble), qui est la mesure de Haar sur
l’espace des matrices unitaires. Les matrices unitaires de taille d forment un groupe
compact, et la mesure de Haar est l’unique loi de probabilités sur ce groupe qui soit
invariante par multiplication à droite, i.e. si dU désigne cette loi, alors pour tout
matrice unitaire V et toute fonction continue sur U (d) on a
Z
Z
f (U V )dU =
f (U )dU
U(d)
U(d)
On peut construire la mesure de Haar de la façon suivante: soit Xij une famille de
variable aléatoires gaussiennes complexes, indépendantes, centrées, de covariance
identié. On construit les vecteurs u1 , u2 , . . . , ud en appliquant le procédé de GramSchmidt à la suite des vecteurs colonnes de X. Alors la matrice U dont les vecteurs
colonnes sont les ui est unitaire et sa loi est la mesure de Haar sur U (d).
3. Troisième cours. Espaces de probabilité non-commutatifs, liberté,
cumulants libres
3.1. Espace de probabilités non-commutatif. Soit A une algèbre sur le
corps des nombres complexes et ϕ une forme linéaire sur A, telle que ϕ(1) = 1. On
supposera dans la suite que A est munie d’une involution
∗:A→A
antilinéaire (i.e. (a)∗ = a et (za)∗ = z̄a∗ ; z ∈ C, a ∈ A) et que ϕ est positive, i.e.
ϕ(a∗ a) ≥ 0;
a∈A
Un élément a de A est dit auto-adjoint si a = a∗ . Si a est autoadjoint alors les
nombres
ϕ(an );
n≥0
sont les moments d’une mesure de probabilités µa . On dira que µa est la loi de a.
Un élément u est dit unitaire s’il est inversible et si u−1 = u∗ . Dans ce cas, les
moments ϕ(un ) sont les moments d’une mesure de probabilités sur le cercle unité
{z ∈ C| |z| = 1}. En particulier, on dira que u est un unitaire de Haar si on a
ϕ(un ) = 0,
n = 1, 2, . . .
Dans ce cas la mesure de probabilités est la mesure uniforme sur le cercle unité.
6
PHILIPPE BIANE
3.2. Représentation GNS. La représentation GNS (d’après Gelfand, Naimark,
Segal) permet de représenter l’algèbre A par des opérateurs dans un espace de
Hilbert. Cela permet d’utiliser les ressources de la théorie spectrale.
Un élément a de A définit un opérateur linéaire ω(a) sur l’espace vectoriel A
par la formule
ω(a) : b 7→ ab
On munit l’espace A de la forme sesquilinéaire positive
ha, bi = τ (ab∗ )
En général on n’obtient pas ainsi un espace de Hilbert, mais on peut quotienter
l’espace, puis prendre une complétion pour obtenir un espace de Hilbert H. Pour
tout a ∈ A, on a donc opérateur ω(a) à domaine dense dans H. Si la forme linéaire
ϕ satisfait des conditions convenables, les opérateurs ω(a) sont fermables, et sont
auto-adjoints si a est auto-adjoint. Dans le cas d’une algèbre engendrée par une
variable auto-adjointe a, ces conditions sont reliées à l’unicité de la solution du
problème des moments ϕ(an ).
3.3. Liberté.
Définition 3.1. Soient (Bi ; i ∈ I) des sous-algèbres de A, contenant 1. Les
sous-algèbres (Bi ; i ∈ I) sont libres si on a
ϕ(a1 . . . an ) = 0
pour tout n-uplet aj tel que ϕ(aj ) = 0 pour tous j = 1, . . . , n and aj ∈ Bij et de
plus i1 6= i2 6= . . . 6= in .
Soient Hi ; i ∈ I, des sous-ensembles de A, on dira qu’ils sont libres si les sous*-algèbres unitaires engendrées par ces sous-ensembles sont libres.
Théorème 3.2. Soient (Bi ; i ∈ I) des algèbres complexes, unitaires, avec des
formes linéaires ϕi , normalisées (i.e. ϕi (1) = 1). Il existe une algèbre A, équipée
d’une forme linéaire normalisée ϕ, et des morphismes ιi : Bi → A, tels que ϕi =
ϕ ◦ ιi , et les algèbres ιi (Bi ); i ∈ I, sont libres dans A.
3.4. Unitaires de Haar. Soit (A, ϕ) un espace de probabilités non-commutatif.
On suppose qu’il existe dans A une sous-algèbre B et des éléments u1 , . . . , un tels
que les ui sont libres avec B, et sont libres entre eux, de plus les ui sont des unitaires
de Haar.
Théorème 3.3. Les algèbre ui Bu∗i sont libres dans A.
3.5. Partitions noncroisées. On considère l’ensemble {1, . . . , n} comme un
ensemble avec un ordre cyclique. On peut disposer les points sur un cercle aux
racines ne de l’unité.
Soit π une partition de {1, . . . , n}. On peut visualiser cette partition en reliant
les points successifs d’une même part par un segment. Chaque part correspond
alors à un polygone convexe. La partition sera dite noncroisée si ces polygones
ne se croisent pas. De façon équivalente, on appelle croiement de la partition un
quadruplet i < j < k < l ∈ {1, . . . , n} tel que i, k sont dans la même part de π, j, l
PROBABILITÉS LIBRES
7
sont dans la même part, mais i et j ne sont pas dans la même part. Une partition
noncroisée est une partition qui n’a pas de croisement.
1
2
8
3
7
6
4
5
La partition noncroisée
{1, 4, 5} ∪ {2} ∪ {3} ∪ {6, 8} ∪ {7}
On note N C(n) l’ensemble des partitions noncroisées de {1, . . . , n}. Son cardinal est égal à
1
2n
Cn =
n+1 n
e
le n nombre de Catalan.
3.6. Cumulants libres. Soit A une algèbre, munie d’une forme linéaire ϕ,
telle que ϕ(1) = 1.
Soit Rn une famille de formes multilinéaires sur A.
Pour toute partition π ∈ Π on note cπ la forme n-linéaire sur A donnée par
Y
Rπ (a1 , . . . , an ) =
ξI
I∈π
où χI = R|I| (ai1 , . . . , aip si I = {i1 , . . . , ip } avec i1 < i2 < . . . < ip .
Proposition 3.4. la formule
ϕ(a1 , . . . , an ) =
X
cπ (a1 , . . . , an )
π∈N C(n)
détermine complètement une les formes multilinéaires c1 , c2 , . . ..
Les formes multilinéaires cn sont les cumulants libres associés à ϕ.
Par exemple,
c1 (a) = ϕ(a)
c2 (a, b) = ϕ(ab) − ϕ(a)ϕ(b)
Théorème 3.5. Soit (Bi ; i ∈ I) une famille de sous-algèbres de A. Les (Bi ; i ∈
I) sont libres dans A si et seulement si pour tout n−uplet b1 , . . . , bn ∈ A tel que
i) chaque bj est dans l’une des algèbres Bij
ii) il existe j et k tels que ij 6= ik
on a
cn (b1 , . . . , bn ) = 0
8
PHILIPPE BIANE
3.7. Cumulants libres d’une variable. Soit a ∈ A, les cumulants libres
Rn (a) := cn (a, a, . . . , a)
peuvent se calculer au moyen des moments
mn = ϕ(an )
Soit
Ga (z) =
∞
1 X
1
+
mn z −n−1 = ϕ(
)
z n=1
z−a
Si µ désigne la loi de a alors Ga = Gµ la transformée de Stieljes de la loi µ.
La série formelle Gµ (z) admet un inverse pour la composition noté Kµ (z), qui
vérifie
Gµ (Kµ (z)) = z;
Kµ (Gµ (z)) = z
Proposition 3.6. On a
Kµ (z) =
∞
1 X
+
Rn (a)z n−1
z n=1
On posera
Rµ (z) =
∞
X
n=1
Rn (a)z n−1 = Kµ (z) −
1
z
3.8. Soit t > 0, il existe une (unique) mesure de probabilités dont la Rtransformée est
Rµt (z) = tz
On a
√
√
1 p
4t − x2 ;
x ∈ [−2 t, +2 t]
2π
La mesure µt s’appelle loi du demi-cercle, ou loi de Wigner (de variance t).
µt (dx) =
4. Quatrième cours. Convolution libre
4.1. Soient a et b des variables libres, les moments de la somme a + b peuvent
se calculer en terme des moments de a et de b. Plus précisément on a
Proposition 4.1. Soient a et b des variables libres, alors
Rn (a + b, a + b, . . . , a + b) = Rn (a, a, . . . , a) + Rn (b, b, . . . , b)
Pour vérifier la proposition il suffit de dévlopper Rn (a + b, a + b, . . . , a + b)
par multilinéarité puis d’appliquer le Théorème 3.5. Soient µ et ν des mesures
de probabilités sur R, à supports compacts, alors on peut définir une mesure de
probabilités µ ⊞ ν sur R, de la façon suivante. On considère deux variables libres a
et b dans un espace de probabilités non-commutatif, de lois respectives µ et ν. La
loi de a + b ne dépend que de µ et ν et elle est notée µ ⊞ ν. On peut la calculer à
l’aide des transformées de Stieljes Gµ et Gν .
Proposition 4.2. Soient µ et ν des mesures de probabilités à supports compacts, on a
Rµ⊞ν (z) = Rµ (z) + Rν (z)
PROBABILITÉS LIBRES
9
Lorsque les lois µ et ν ne sont pas à supports compacts, on peut quand même
trouver un voisinage conique de zéro
Θ = {z = x + iy| − B < y < 0; αy < x < −αy}
dans lequel elles admettent un inverse à droite, à valeurs dans un cône de la forme
Γ = {z = x + iy|y > A; −γy < x < γy}
Soient Kµ et Kν ces inverses à droite, on a
Gµ (Kµ (z)) = z = Gν (Kν (z))
si z ∈ Θ. On pose
1
1
Rν (z) = Kν (z) −
Rµ (z) = Kµ (z) − ,
z
z
Proposition 4.3. Il existe une unique mesure de probabilités µ ⊞ ν telle que
1
Gµ+ν ( + Rµ (z) + Rν (z)) = z
z
pour z ∈ Θ.
4.2. Théorème de la limite centrale libre. Commençons par remarquer
que la R transformée satisfait une propriété d’homogénéité. Si a est une variable
et λ > 0, alors
Rλa (z) = λ−1 Ra (λz)
on en déduit alors facilement le résultat suivant, qui est l’analogue en probabilités
libres du théorème central limite usuel.
Théorème 4.4. Soient a1 , . . . , an , . . . une suite de variables libres, de même
n
√
converge en disloi µ, centrées, avec un second moment égal à 1, alors a1 +...+a
n
tribution vers la loi du demi-cercle, lorsque n → ∞.
Les lois du demi-cercle de différentes variances forment un semi-groupe pour la
convolution libre:
µs ⊞ µt = µs+t
4.3. Loi de Poisson libre. On peut de même calculer la limite de
((1 − t/n)δ0 + (t/n)δ1 )⊞n
lorsque n →i nf ty.
Proposition 4.5. La mesure ((1 − t/n)δ0 + (t/n)δa )⊞n converge vers la loi de
Marchenko-Pastur lorsque n → ∞.
La loi de Marchenko Pastur (ou encore loi de Poisson libre) est donnée par
1 p 2
4ta − (x − a(1 + t))2 dx;
µa,t (dx) = max(0, 1 − t)δ0 + min(1, λ)
2πax
√
√
x ∈ [a(1 − t)2 , a(1 + t)2 ]
On a
Rµa,t (z) =
tz
1 − az
10
PHILIPPE BIANE
4.4. Formule de Lévy-Khinchine libre. Une mesure de probabilités µ sur
R est dite librement indéfiniment divisible si pour tout n il existe une mesure de
probabilités µn telle que µ⊞n
n =µ
Théorème 4.6. Une mesure de probabilités µ sur R est librement indéfiniment
divisible si et seulement si il existe un nombre réel α et une mesure positive finie ν
tels que
Z +∞
1 + tz
ν(dt)
ϕµ (z) = α +
−∞ z − t
5. Cinquième cours. Liberté et matrices aléatoires
Une des raisons pour lesquelles on s’intéresse aux variables libres est que ces
variables modélisent bien les matrices aléatoires de grande taille. Nous allons donner
un exemple de résultat dans ce domaine. Les modèles de matrices aléatoires que
nous regarderons seront du type suivant. On considère des matrices hermitiennes
A1 , . . . , Am de taille N × N dont on suppose qu’elles sont de norme bornée par une
constante C. On se donne des matrices unitaires U1 , . . . , Un aléatoires, choisies de
façon indépendante, avec pour loi la mesure de Haar sur le groupe unitaire U (N ).
Soient maintenant des variables a1 , . . . , am , u1 , . . . , um dans un espace de probabilités non-commutatif A, τ , telles que: Les ai sont bornées par C, les ui sont des
unitaires de Haar, libres entre eux et libres avec les ai , et pour tout monôme de
degré au plus k on a:
τ (ai1 . . . ail ) =
1
T r(Ai1 . . . Ail )
d
Théorème 5.1. On fixe k et C, et ǫ > 0, alors si N est assez grand, pour tout
l ≤ k et tout monôme de degré l, on a
τ (bi1 . . . bil ) − 1 T r(Bi1 . . . Bil ) < ǫ
d
où bi1 . . . bil désigne un monôme en les variables ai , uj et Bi1 . . . Bil le monôme
correspondant en les variables Ai , Bj .
Il est utile à ce stade de faire la remarque suivante.
Proposition 5.2. Soient, dans un espace de probabilités non-commutatif A, ϕ,
une famille de variables ai , i = 1, . . . , n et des unitaires de Haar ui , i = 1, . . . , n,
libres entre eux et avec les ai , alors la famille ui ai u∗i est une famille libre.
Un corollaire important du théorème 5.1 est obtenu lorsque l’on considère deux
matrices A et B diagonales. On suppose que l’on connait les spectres de A et B, et
on choisit alors des vecteurs propres au hasard autrement dit on considère les matrices U AU ∗ et V BV ∗ où U et V sont des matrices unitaires aléatoires, indépendantes,
tirées avec la mesure de Haar. Le résultat précédent nous dit que si N est grand,
alors nous pouvons prédire comment le spectre de la somme U AU ∗ + V BV ∗ (ou,
∗
plus généralement, de n’importe quel polynôme auto-adjoint en
BV ∗ )
PU AU et 1V P
1
δλi , µ = N
δµi
se comporte lorsque N est grand. Plus précisément, si λ = N
sont les mesures spectrales des matrices A et B, alors avec grande probabilité, la
mesure spectrale de U AU ∗ + V BV ∗ sera proche de la mesure de probabilités λ ⊞ µ.
PROBABILITÉS LIBRES
11
6. Sixième cours. Processus de Lévy libres
Un processus de Lévy libre est une famille d’éléments auto-adjoints at , t ≥ 0
dans un espace de probabilités noncommutatif, telle que pour tous s < t l’accroissement
at − as est libre avec la famille (au )u≤s , et sa distribution ne dépend que de t − s.
Si at , t ≥ 0 un processus de Lévy libre, appelons µt la distribution de at , on a
µs ⊞ µt = µs+t
autrement dit, les mesures µt forment un semigroupe de lois indéfiniment divisibles
libres.
La propriété la plus importante des processus de Lévy libres est la propriété
de Markov, que nous allons maintenant énoncer. Pour cela nous aurons besoin de
définir une espérance conditionnelle.
Proposition 6.1. Soit (A, τ ) un espace de probabilités non-commutatif, et
B ⊂ A une sous-algèbre. Si A et B sont des algèbres de von Neumann, alors pour
tout X ∈ A il existe un unique élément de B qui minimise la distance d2 (X, B) :=
τ (|X − B|2 ]1/2 . On appelle cet élément espérance conditionnelle de X sachant B et
on le note τ (X|B).
Remark 6.2. Le point essentiel dans la proposition est le fait que τ (X|B) est
dans B.
Nous pouvons maintenant énoncer la propriété de Markov.
Théorème 6.3. Soit (A, τ ) un espace de probabilités non-commutatif, et B ⊂ A
une sous-algèbre de von Neumann. Soient X, Y ∈ A, tels que X ∈ B et Y est libre
avec B. On note µ et ν les distributions de X et Y .
Il existe un noyau markovien K = k(x, dy) et une fonction F analytique dans
le demi-plan ℑ(z) > 0 tels que:
1) Pour toute foinction borélienne bornée sur R on a
τ (f (X + Y )|B) = Kf (X)
2) ℑ(F (z)) > ℑ(z) pour tout z tel que ℑ(z) > 0.
3) F (iy)
iy → ∞ quand y → ∞, y ∈ R
4) Pour tout z
Z
k(x, dy)
1
=
z−y
F (z) − x
5) Pour tout z
Gµ⊞ν (z) = Gµ (F (z))
L’application F est uniquement déterminée par les propriétés 2), 3) et 4).
References
[BP] Bercovici, Hari; Pata, Vittorino Stable laws and domains of attraction in free probability
theory. With an appendix by Philippe Biane. Ann. of Math. (2) 149 (1999), no. 3, 10231060.
[B1] Biane, Philippe Free probability for probabilists. Quantum probability communications,
Vol. XI (Grenoble, 1998), 5571, QP-PQ, XI, World Sci. Publ., River Edge, NJ, 2003.
arXiv:math/9809193
[B4] Biane, Philippe Processes with free increments. Math. Z. 227 (1998), no. 1, 143174.
[BV92] Bercovici, Hari; Voiculescu, Dan Lévy-Hinchin type theorems for multiplicative and additive free convolution. Pacific J. Math. 153 (1992), no. 2, 217248.
[BV93] Bercovici, Hari; Voiculescu, Dan Free convolution of measures with unbounded support.
Indiana Univ. Math. J. 42 (1993), no. 3, 733773.
12
PHILIPPE BIANE
CNRS, FRANCE