On en déduit, comme à la question précédente que P(A) ? {0, p.1 ,
on suppose maintenant que P(A) ? {0 ,
On prend E = {1) et P donnée par P({i}) = 1 4 , pour i ? {1, 2, 3, 4}. Puis, on choisit A 1 = {1, 2}, A 2 = {1, et X 3 sont bien indépendantes 2 à 2 ,
Les v.a.r. X et Y sont indépendantes si et seulement si ,
On pose Z = (X 1 , . . . , X n ) t (Z est donc un v.a. de dimension d 1 + . . . + d n ). Les v.a. X 1 , . . . , X n sont indépendantes si et seulement si ,
,N une famille de fonctions mesurables de E dans R muni de la tribu borélienne. Montrer que l'application f définie de E dans R N par, x) ? f (x) = (f 1 (x), . . . f N (x)) est mesurable ,
Montrer que p = ? (a,b) si et seulement si p 1 = ? a ,
de carré intégrable, la fonction Y est aussi un v.a. de carré intégrable En utilisant la linéarité de l'application Z ? E(Z), on calcule son espérance et sa variance ,
est pas inversible, alors le v.a. X prend p.s. ses valeurs dans un sous?espace affine de R d de dimension (inférieure ou) égale à d ? 1, et que la loi de X n'est pas absolument continue par rapport à la mesure de Lebesgue de R d ,
est pas inversible, il existe u ? R d , u 0, t.q. Cov(X)u = 0. On a donc Var(u · X) = u t Cov(X)u = 0 ,
Comme les fonctions X + et X ? sont positives et intégrables, il existe Z 1 ? E(X + |B) et Z 2 ? E(X ? |B) ,
On a défini l'espérance, conditionnée par B, d'une v.a.r. intégrable. On va maintenant montrer qu'on peut étendre la définition à des v.a.r. qui ne sont pas intégrables mais qui sont positives (la démonstration est déjà essentiellement dans la démonstration de la proposition 11.2) Pour cela, on va commencer par donner une p.s.-caractérisation de E(X|B) lorsque X est une v.a.r. positive et intégrable. Cette caractérisation n'utilisant pas l ,
On note ¯ E(X|B) l'ensemble des applications B-mesurables positives vérifiant (11.4) On a alors, Existence) ¯ E(X|B) ? ,
Alors, Z ? E(Y|X) si et seulement si il existe ? application borélienne de R dans R t ,
Y|X) si et seulement si il existe ? application borélienne positive de R dans R t ,
11 est que (sous les hypothèses de la proposition ) l'on cherche E(Y|X) sous la forme d'une fonction ?(X) (avec ? de R dans R) vérifiant (11.8) (ou (11.9)). On raisonne, en général, par condition nécessaire sur ? et, comme on sait que E(X|Y) existe, il est même inutile de vérifier que la fonction ?(X) que l'on trouve ,
B-mesurable bornée. On a alors E(XV|B) = VE(X|B) p.s.. (Voir l'exercice 11 ,
B n ) n?N une filtration et (X n ) n?N un processus réel On dit que (X n ) n?N est adapté à la filtration (B n ) n?N si ,
une filtration et X une v.a.r. intégrable. On pose X n = E(X|B n ) La suite (X n ) n?N est une martingale (par rapport à la filtration (B n ) n ). (Voir l'exercice 11 ,
Soit a ? Im(Z) (on suppose, bien sûr, ? ?) On a alors {Z = a} = {? ? ?; Z(?) = a} ?. Comme Z est B-mesurable, on a donc {Z = a} = ?. Une application B-mesurable est donc une fonction constante (réciproquement, une fonction constante est bien B-mesurable) ,
Z(?) = a pour tout ? ? ?. Le réel a doit alors vérifier E(aU) = E(UY) pour tout application U, B-mesurable de ? dans R. On a donc ab = E(ab) = E(bY) = bE(Y) pour tout b ? R, La seule solution est donc a = E(Y). L'ensemble E(Y|B) est donc réduit à un seul élément, la fonction constante et égale à E(Y) ,
Les parties B et B c sont non vides (car de probabilité strictement positive) Soit ? 1 ? B et a = Z(? 1 ) On a alors {Z = a} = {? ? ?; Z(?) = a} ? ,
ceci prouve que E(XV|B) = ZV p.s. (plus précisément, ZV est un élément de E(XV|B)). On a donc bien montré que E(XV|B) = E(X|B)V p.s ,
Selon le théorème 11.10, il existe ?, fonction borélienne bornée de R dans R, t.q. U = ?(Y) Comme ?(?(Y)) ? ?(Y), les v.a.r. X et ?(Y) sont aussi indépendantes, X?(Y)) = E(X)E(?(Y)) = E(E(X)?(Y)) ,
On suppose que ?(X) et B sont des tribus indépendantes, Montrer que E(X|B) = E(X) p.s ,
par définition, l'indépendance de X et Y est l'indépendance des tribus ?(X) et ?(Y)). La démonstration est très voisine de la précédente ,
Comme U est B-mesurable, on a ?(U) ? B. On en déduit que X et U sont indépendantes, )U) ,
G une sous?tribu de A et Y une v.a.r. intégrable. On pose Z = E(Y|G) (plus précisément, on confond ici, comme d'habitude ,
on pose ? n = T n (?) avec T n (s) = max{?n, min{n, s}} (pour s ? R) ,
quand n ? +? et que |Z? n | ? M|?| p.s. et |Y? n | ? M|?| p.s., le théorème de convergence dominée nous permet de passer à la limite dans ,
1, on doit avoir une égalité dans l'inégalité de Cauchy- Schwarz utilisée à la question précédente. Les v.a.r. X ? E(X) et Y ? E(Y) sont alors colinéaires. Il existe a, b ? R t.q. (a, b) (0, 0) t ,
X et Y sont constantes, on en déduit que, avec ? = ?a ,
On) et P définie par P({i}) = 1/3 pour i = 1, 2, 3. On définit X et Y en posant X(1) = 1, ) = ?1, p.2 ,
il existe toujours ? fonction borélienne de R dans R t ,
On peut la montrer à partir de la définition 11.1 en considérant T n (?(X)) avec T n (s) = min{max{?n ,
T n (?(X)) est ?(X)-mesurable bornée, Comme E(Y|X) = X p.s., on a donc ? YT n (?(X))dP = ? XT n (?(X))dP ,
q. a 1 X + (a 2 ? a 1 ?)Y ? N (m, ? 2 ) On a alors a 1 X + (a 2 ? a 1 ?)Y ? a 1 ? ? N (m ? a 1 ? ,
On rappelle que Z = X ? (? + ?Y) On remarque d'abord que (grâce à la première relation satisfaite par ? et ?) ,
intégrable (car sa loi est gaussienne) Pour montrer que E(X|Y) = l(Y) p.s., il suffit, d'après la proposition 11 ,
C) (c'est-à-dire que B est la tribu engendrée par C) ,
On note ?(Y) la tribu engendrée par Y. On suppose que ?(Y) et B 1 ,
On note D n la tribu engendrée par l'ensemble des v.a.r. S k , k ? n. Montrer que E(X 1 |D n ) = E(X 1 |S n ) = S n n p.s.. [On pourra utiliser l'exercice 11 ,
P(A) = 0 et X n (?) ? X(?) (quand n ? +?) pour tout ? ? A c . On procède alors comme à la question précédente en posant ¯ Y(?) = lim inf n?+? X n (?) La fonction ¯ Y va de ? dans R et est B p -mesurable pour tout p ? N (car X n est B p -mesurable pour n ? p) La fonction ¯ Y est donc B-mesurable et ¯ Y = X p.s. (car Y = X sur A c ). Enfin ,
Corrigé ? On peut montrer cette question en utilisant une petite remarque d'analyse fonctionnelle (voir la remarque 6.84) Puisque X n ? X faiblement dans L 2 (?, A, P) quand n ? +?, il existe une suite (Y n ) n?N t.q. i. Y n ? X dans, p.p ? n ,
X|B n ) (en étant quelque peu pointilleux, on devrait plutôt dire qu'on choisit un élément de l'ensemble E(X|B n )) ,
Comme (X n ) n?N est une sous?martingale, on a E(X n+1 |B n ) ? X n p.s ,
On suppose que E(X n+m |B n ) = X n p.s., pour tout n ? N. On veut montrer que E(X n+m+1 |B n ) = X n p.s., pour tout n ? N. Soit n ? N. Comme (X n ) n?N est une martingale, on a E(X n+m+1 |B n+m ) = X n+m p.s ,
On suppose que (X n ) n?N est une martingale (par rapport à la filtration (B n ) n?N ) et que ?(X n ) est intégrable pour tout n ? N (on rappelle que ?(X n ) est une notation pour désigner ? ? X n ) Montrer que (?(X n )) n?N est une sous-martingale (par rapport à la filtration (B n ) n?N ) ,
abord que ?(X n ) est bien B n -mesurable (car X n est B n -mesurable et ? est borélienne), pour tout n ? N. Pour montrer que (?(X n )) n?N est une sous-martingale, il suffit alors d'utiliser le proposition 11.7 sur l'inégalité de jensen ,
|B n ) = X n p.s., on en déduit E(?(X n+1 )|B n ) ? ?(X n ) p.s., ce qui montre bien que (?(X n )) n?N est une sous-martingale ,
espace probabilisé muni d'une filtration (B n ) n?N . Soit X une v.a.r. intégrable. Montrer que la suite (X n ) n?N définie par X n = E(X|B n ) (pour tout n ? N) est une martingale par rapport à la filtration ,
On remarque tout d'abord que X n est bien B n -mesurable et intégrable ,
Mail, comme B n ? B n+1 , la v.a.r. U est aussi B n+1 -mesurable et le fait que X n+1 = E(X|B n+1 ) p.s, donne alors E(X n+1 U) = E(XU). On a donc E(X n U) = E(X n+1 U) ,
Il est clair que X n est F n -mesurable. Comme X p est B n -mesurable pour tout p ? n, il est clair aussi que F n ? B n ,
on remarque tout d'abord que X n est bien intégrable pour tout n ? N. Pour tout n ? N, la v.a.r. X n est donc B n -mesurable et intégrable ,
En utilisant la proposition 3.30, on remarque que les v.a.r. X 0 , . . . , X n , J n+1 sont indépendantes . Puis, avec la proposition 2.60, on remarque que la tribu engendrée par J n+1 est indépendante de la tribu engendrée par X 0 , . . . , X n (qui est B n ) On en déduit que J n+1 et U sont des v.a.r. indépendantes, Ceci donne E(J n+1 U) = E(J n+1 )E(U) = 0 (car J n+1 est de moyenne nulle ,
On sait que X n ? X dans H, quand n ? +?, avec X n = P V n X où P V n désigne l'opérateur de projection orthogonale sur V n (X n est donc une somme partielle de la série de Fourier de X) ,
On pose B n = ?(e p , ?n ? p ? n) A-t-on V n ? L 2 ,
une suite de v.a.r., adaptée à la filtration (B n ) n?N, Soit E ? B(R) ,
X 1 (?) ? E}, on a ? = 1 C + 5 1 C c . Comme X 1 est une v.a.r., on a C ? A. La fonction ? est donc bien mesurable ,
on a {? = 5} = C c ? B 1 ? B 5 car X 1 est B 1 -mesurable et que (B n ) n?N est une filtration ,
On a {? + ? = n} = ? n p=0 ({? = p} ? {? = n ? p}) Pour tout 0 ? p ? n ,
Comme ? ? ?, on a {? = n} = ? n ,
Pour tout 1 ? k ? n, la v.a.r. (?X) k est B k -mesurable et donc B n -mesurable ,
On montre maintenant que E((? · X) n+1 |B n ) = (? · X) n p.s.. Pour cela, on utilise la linéarité de l'éspérance conditionnelle, on obtient E((? · X) n+1 |B n ) = ,
X n ) n?N est équi-intégrable si et seulement si (X n ) n?N est une martingale régulière (c'est-à-dire que la suite (X n ) n?N ,
X t.q. X n ? X p.s.. La suite (X n ) n?N étant bornée dans L q R (?, A, P) avec q > 1, le théorème 6.10 donne la convergence de (X n ) n?N vers X dans L 1 R (?, A, P) La suite (X n ) ,
On a P({n + n 0 ? T > n}) = E(1 {T?n+n 0 } 1 {T>n} ) Comme {T ? n} ? B n , on a {T > n} = {T ? n} c ? B n . La v.a.r. 1 {T>n} est donc B n -mesurable (et, bien sûr, bornée) On a donc ,
J n ) n?N * une suite de v.a.r.i.i.d. ne prenant que les valeurs 1 et ?1 et t.q. P({J n = 1}) = P({J n = ?1}) = 1/2. On pose X 0 = 0 et, pour n ? N, X n+1 = X n + J n+1, Soit a et b deux entiers strictement positifs et ,
?) = p + 1 pour tout ? ? ?. Montrer que ? p est aussi un temps d'arrêt (par rapport à (F n ) n?N ) ,
On a {? p = n} = ? ? F n si n = p + 1 et {? p = n} = ? ? F n si n p + 1. On a donc {? p = n} ? F n pour tout n ? N et ceci montre que ? est un temps d ,
On veut montrer que E(X n+1 |F n ) = X n p.s., c'est-à-dire que E(X n+1 U) = E(X n U) ,
X ? n 1 ? + X ? n 1 ? c = X n 1 ? + X n+1 1 ? c et X ? n = X n+1 ,
Analyse Fonctionnelle : Théorie et Applications, 1983. ,
Analyse, Théorie de l'ingégration. Paris : Vuibert, p.5, 2012. ,
Intégration et Espaces de Sobolev à Valeurs Vectorielles, 2001. ,
Mesure et intégration Avec une préface de Serge Dubuc. Les Presses de l, p.305, 1975. ,
Leçons sur l'intégration et la recherche des fonctions primitives professées au Collège de France ,
ISBN : 978-1-108-00185-4, p.138, 2009. ,
Bases mathématiques du calcul des probabilités, 1980. ,
Mesure et intégration, 1997. ,
Analyse réelle et complexe Translated from the first English edition by N. Dhombres and F. Hoffman, Third printing, p.397, 1980. ,
Mesure, intégration, convolution, & analyse de Fourier. Paris : Ellipses Édition Marketing, p.256, 1984. ,