?. Corrigé, A. Si, A. Est-indépendant-de-tous-les-Éléments-de, and . Lui-même, On en déduit, comme à la question précédente que P(A) ? {0, p.1

. Réciproquement, on suppose maintenant que P(A) ? {0

?. Corrigé and . Un, On prend E = {1) et P donnée par P({i}) = 1 4 , pour i ? {1, 2, 3, 4}. Puis, on choisit A 1 = {1, 2}, A 2 = {1, et X 3 sont bien indépendantes 2 à 2

X. Soit and Y. Deux, Les v.a.r. X et Y sont indépendantes si et seulement si

X. Soit, ,. .. , and ?. , On pose Z = (X 1 , . . . , X n ) t (Z est donc un v.a. de dimension d 1 + . . . + d n ). Les v.a. X 1 , . . . , X n sont indépendantes si et seulement si

. Soient-(-e,-t-)-un-espace-mesurable-et-k=1, ,N une famille de fonctions mesurables de E dans R muni de la tribu borélienne. Montrer que l'application f définie de E dans R N par, x) ? f (x) = (f 1 (x), . . . f N (x)) est mesurable

. Soit, Montrer que p = ? (a,b) si et seulement si p 1 = ? a

?. Corrigé, X. Comme, and U. V. , de carré intégrable, la fonction Y est aussi un v.a. de carré intégrable En utilisant la linéarité de l'application Z ? E(Z), on calcule son espérance et sa variance

S. Montrer-que and . Cov, est pas inversible, alors le v.a. X prend p.s. ses valeurs dans un sous?espace affine de R d de dimension (inférieure ou) égale à d ? 1, et que la loi de X n'est pas absolument continue par rapport à la mesure de Lebesgue de R d

S. Corrigé and . Cov, est pas inversible, il existe u ? R d , u 0, t.q. Cov(X)u = 0. On a donc Var(u · X) = u t Cov(X)u = 0

X. Existence-si and . Seulement-intégrable, Comme les fonctions X + et X ? sont positives et intégrables, il existe Z 1 ? E(X + |B) et Z 2 ? E(X ? |B)

A. Soit-(-? and A. Une-tribu-incluse-dans, On a défini l'espérance, conditionnée par B, d'une v.a.r. intégrable. On va maintenant montrer qu'on peut étendre la définition à des v.a.r. qui ne sont pas intégrables mais qui sont positives (la démonstration est déjà essentiellement dans la démonstration de la proposition 11.2) Pour cela, on va commencer par donner une p.s.-caractérisation de E(X|B) lorsque X est une v.a.r. positive et intégrable. Cette caractérisation n'utilisant pas l

X. Soit, On note ¯ E(X|B) l'ensemble des applications B-mesurables positives vérifiant (11.4) On a alors, Existence) ¯ E(X|B) ?

. On-suppose-que-y-est-intégrable, Alors, Z ? E(Y|X) si et seulement si il existe ? application borélienne de R dans R t

. On-suppose-que-y-est-positive and Z. Alors, Y|X) si et seulement si il existe ? application borélienne positive de R dans R t

. La-conséquence-de-la, 11 est que (sous les hypothèses de la proposition ) l'on cherche E(Y|X) sous la forme d'une fonction ?(X) (avec ? de R dans R) vérifiant (11.8) (ou (11.9)). On raisonne, en général, par condition nécessaire sur ? et, comme on sait que E(X|Y) existe, il est même inutile de vérifier que la fonction ?(X) que l'on trouve

V. Soit, B-mesurable bornée. On a alors E(XV|B) = VE(X|B) p.s.. (Voir l'exercice 11

. Soit, B n ) n?N une filtration et (X n ) n?N un processus réel On dit que (X n ) n?N est adapté à la filtration (B n ) n?N si

. Soit, une filtration et X une v.a.r. intégrable. On pose X n = E(X|B n ) La suite (X n ) n?N est une martingale (par rapport à la filtration (B n ) n ). (Voir l'exercice 11

?. Corrigé, Z. Soit, and R. Une-application-de-?-dans, Soit a ? Im(Z) (on suppose, bien sûr, ? ?) On a alors {Z = a} = {? ? ?; Z(?) = a} ?. Comme Z est B-mesurable, on a donc {Z = a} = ?. Une application B-mesurable est donc une fonction constante (réciproquement, une fonction constante est bien B-mesurable)

Z. Si, Z(?) = a pour tout ? ? ?. Le réel a doit alors vérifier E(aU) = E(UY) pour tout application U, B-mesurable de ? dans R. On a donc ab = E(ab) = E(bY) = bE(Y) pour tout b ? R, La seule solution est donc a = E(Y). L'ensemble E(Y|B) est donc réduit à un seul élément, la fonction constante et égale à E(Y)

?. Corrigé, Z. Soit, and R. Une-application-de-?-dans, Les parties B et B c sont non vides (car de probabilité strictement positive) Soit ? 1 ? B et a = Z(? 1 ) On a alors {Z = a} = {? ? ?; Z(?) = a} ?

Z. Comme, ceci prouve que E(XV|B) = ZV p.s. (plus précisément, ZV est un élément de E(XV|B)). On a donc bien montré que E(XV|B) = E(X|B)V p.s

?. Corrigé and U. Soit, Selon le théorème 11.10, il existe ?, fonction borélienne bornée de R dans R, t.q. U = ?(Y) Comme ?(?(Y)) ? ?(Y), les v.a.r. X et ?(Y) sont aussi indépendantes, X?(Y)) = E(X)E(?(Y)) = E(E(X)?(Y))

B. Soit and A. Sous-tribu-de, On suppose que ?(X) et B sont des tribus indépendantes, Montrer que E(X|B) = E(X) p.s

. Que, par définition, l'indépendance de X et Y est l'indépendance des tribus ?(X) et ?(Y)). La démonstration est très voisine de la précédente

U. Soit and B. Bornée, Comme U est B-mesurable, on a ?(U) ? B. On en déduit que X et U sont indépendantes, )U)

A. Soit-(-?, G une sous?tribu de A et Y une v.a.r. intégrable. On pose Z = E(Y|G) (plus précisément, on confond ici, comme d'habitude

?. Pour-n, on pose ? n = T n (?) avec T n (s) = max{?n, min{n, s}} (pour s ? R)

?. Comme and ?. , quand n ? +? et que |Z? n | ? M|?| p.s. et |Y? n | ? M|?| p.s., le théorème de convergence dominée nous permet de passer à la limite dans

S. Corrigé and . Cov, 1, on doit avoir une égalité dans l'inégalité de Cauchy- Schwarz utilisée à la question précédente. Les v.a.r. X ? E(X) et Y ? E(Y) sont alors colinéaires. Il existe a, b ? R t.q. (a, b) (0, 0) t

. Comme-la-v, X et Y sont constantes, on en déduit que, avec ? = ?a

?. Corrigé and . Voici-un-exemple-simple, On) et P définie par P({i}) = 1/3 pour i = 1, 2, 3. On définit X et Y en posant X(1) = 1, ) = ?1, p.2

. Réciproquement and . Qu, il existe toujours ? fonction borélienne de R dans R t

?. Corrigé and . Cette, On peut la montrer à partir de la définition 11.1 en considérant T n (?(X)) avec T n (s) = min{max{?n

?. N. En and L. V. , T n (?(X)) est ?(X)-mesurable bornée, Comme E(Y|X) = X p.s., on a donc ? YT n (?(X))dP = ? XT n (?(X))dP

?. Il-existe-donc-m-?-r-et-?, q. a 1 X + (a 2 ? a 1 ?)Y ? N (m, ? 2 ) On a alors a 1 X + (a 2 ? a 1 ?)Y ? a 1 ? ? N (m ? a 1 ?

. On-calcule-maintenant-cov, On rappelle que Z = X ? (? + ?Y) On remarque d'abord que (grâce à la première relation satisfaite par ? et ?)

?. Corrigé and R. La-v, intégrable (car sa loi est gaussienne) Pour montrer que E(X|Y) = l(Y) p.s., il suffit, d'après la proposition 11

B. Montrer-que, C) (c'est-à-dire que B est la tribu engendrée par C)

Y. Soit, On note ?(Y) la tribu engendrée par Y. On suppose que ?(Y) et B 1

?. Soit-n, On note D n la tribu engendrée par l'ensemble des v.a.r. S k , k ? n. Montrer que E(X 1 |D n ) = E(X 1 |S n ) = S n n p.s.. [On pourra utiliser l'exercice 11

X. Comme, ?. S. , A. , ?. ?. , and ¯. Y. , P(A) = 0 et X n (?) ? X(?) (quand n ? +?) pour tout ? ? A c . On procède alors comme à la question précédente en posant ¯ Y(?) = lim inf n?+? X n (?) La fonction ¯ Y va de ? dans R et est B p -mesurable pour tout p ? N (car X n est B p -mesurable pour n ? p) La fonction ¯ Y est donc B-mesurable et ¯ Y = X p.s. (car Y = X sur A c ). Enfin

?. , A. , ?. +?, and . Ii, Corrigé ? On peut montrer cette question en utilisant une petite remarque d'analyse fonctionnelle (voir la remarque 6.84) Puisque X n ? X faiblement dans L 2 (?, A, P) quand n ? +?, il existe une suite (Y n ) n?N t.q. i. Y n ? X dans, p.p ? n

?. Corrigé and =. On-pose-z-n, X|B n ) (en étant quelque peu pointilleux, on devrait plutôt dire qu'on choisit un élément de l'ensemble E(X|B n ))

?. Corrigé and ?. Soit-n, Comme (X n ) n?N est une sous?martingale, on a E(X n+1 |B n ) ? X n p.s

?. Soit-m, On suppose que E(X n+m |B n ) = X n p.s., pour tout n ? N. On veut montrer que E(X n+m+1 |B n ) = X n p.s., pour tout n ? N. Soit n ? N. Comme (X n ) n?N est une martingale, on a E(X n+m+1 |B n+m ) = X n+m p.s

R. Soit-?-une-fonction-convexe-de and R. , On suppose que (X n ) n?N est une martingale (par rapport à la filtration (B n ) n?N ) et que ?(X n ) est intégrable pour tout n ? N (on rappelle que ?(X n ) est une notation pour désigner ? ? X n ) Montrer que (?(X n )) n?N est une sous-martingale (par rapport à la filtration (B n ) n?N )

?. Corrigé and . On-remarque-tout-d, abord que ?(X n ) est bien B n -mesurable (car X n est B n -mesurable et ? est borélienne), pour tout n ? N. Pour montrer que (?(X n )) n?N est une sous-martingale, il suffit alors d'utiliser le proposition 11.7 sur l'inégalité de jensen

E. Comme, |B n ) = X n p.s., on en déduit E(?(X n+1 )|B n ) ? ?(X n ) p.s., ce qui montre bien que (?(X n )) n?N est une sous-martingale

A. Soit-(-?, espace probabilisé muni d'une filtration (B n ) n?N . Soit X une v.a.r. intégrable. Montrer que la suite (X n ) n?N définie par X n = E(X|B n ) (pour tout n ? N) est une martingale par rapport à la filtration

?. Corrigé and ?. Soit-n, On remarque tout d'abord que X n est bien B n -mesurable et intégrable

U. Soit, Mail, comme B n ? B n+1 , la v.a.r. U est aussi B n+1 -mesurable et le fait que X n+1 = E(X|B n+1 ) p.s, donne alors E(X n+1 U) = E(XU). On a donc E(X n U) = E(X n+1 U)

?. Soit-donc-n, Il est clair que X n est F n -mesurable. Comme X p est B n -mesurable pour tout p ? n, il est clair aussi que F n ? B n

?. Corrigé and . Par-récurrence-sur-n, on remarque tout d'abord que X n est bien intégrable pour tout n ? N. Pour tout n ? N, la v.a.r. X n est donc B n -mesurable et intégrable

U. Soit, En utilisant la proposition 3.30, on remarque que les v.a.r. X 0 , . . . , X n , J n+1 sont indépendantes . Puis, avec la proposition 2.60, on remarque que la tribu engendrée par J n+1 est indépendante de la tribu engendrée par X 0 , . . . , X n (qui est B n ) On en déduit que J n+1 et U sont des v.a.r. indépendantes, Ceci donne E(J n+1 U) = E(J n+1 )E(U) = 0 (car J n+1 est de moyenne nulle

X. Soit, On sait que X n ? X dans H, quand n ? +?, avec X n = P V n X où P V n désigne l'opérateur de projection orthogonale sur V n (X n est donc une somme partielle de la série de Fourier de X)

?. Soit-n, On pose B n = ?(e p , ?n ? p ? n) A-t-on V n ? L 2

. Soit, une suite de v.a.r., adaptée à la filtration (B n ) n?N, Soit E ? B(R)

?. Corrigé, C. =. En-posant, and ?. ?. , X 1 (?) ? E}, on a ? = 1 C + 5 1 C c . Comme X 1 est une v.a.r., on a C ? A. La fonction ? est donc bien mesurable

=. Si-n, on a {? = 5} = C c ? B 1 ? B 5 car X 1 est B 1 -mesurable et que (B n ) n?N est une filtration

?. Soit-n, On a {? + ? = n} = ? n p=0 ({? = p} ? {? = n ? p}) Pour tout 0 ? p ? n

?. Corrigé, A. Soit, and ?. Soit-n, Comme ? ? ?, on a {? = n} = ? n

?. Corrigé and . Soit-n-?-n-*, Pour tout 1 ? k ? n, la v.a.r. (?X) k est B k -mesurable et donc B n -mesurable

?. Soit-n, On montre maintenant que E((? · X) n+1 |B n ) = (? · X) n p.s.. Pour cela, on utilise la linéarité de l'éspérance conditionnelle, on obtient E((? · X) n+1 |B n ) =

. Montrer-que-la-suite, X n ) n?N est équi-intégrable si et seulement si (X n ) n?N est une martingale régulière (c'est-à-dire que la suite (X n ) n?N

?. Corrigé and . Comme, X t.q. X n ? X p.s.. La suite (X n ) n?N étant bornée dans L q R (?, A, P) avec q > 1, le théorème 6.10 donne la convergence de (X n ) n?N vers X dans L 1 R (?, A, P) La suite (X n )

?. Corrigé and ?. Soit-n, On a P({n + n 0 ? T > n}) = E(1 {T?n+n 0 } 1 {T>n} ) Comme {T ? n} ? B n , on a {T > n} = {T ? n} c ? B n . La v.a.r. 1 {T>n} est donc B n -mesurable (et, bien sûr, bornée) On a donc

A. Soit-(-?, J n ) n?N * une suite de v.a.r.i.i.d. ne prenant que les valeurs 1 et ?1 et t.q. P({J n = 1}) = P({J n = ?1}) = 1/2. On pose X 0 = 0 et, pour n ? N, X n+1 = X n + J n+1, Soit a et b deux entiers strictement positifs et

?. Soit-p, ?) = p + 1 pour tout ? ? ?. Montrer que ? p est aussi un temps d'arrêt (par rapport à (F n ) n?N )

?. Corrigé and ?. Soit-n, On a {? p = n} = ? ? F n si n = p + 1 et {? p = n} = ? ? F n si n p + 1. On a donc {? p = n} ? F n pour tout n ? N et ceci montre que ? est un temps d

?. Corrigé and ?. Soit-n, On veut montrer que E(X n+1 |F n ) = X n p.s., c'est-à-dire que E(X n+1 U) = E(X n U)

X. Mais, X ? n 1 ? + X ? n 1 ? c = X n 1 ? + X n+1 1 ? c et X ? n = X n+1

B. Ha?m, Analyse Fonctionnelle : Théorie et Applications, 1983.

B. Marc and P. Gilles, Analyse, Théorie de l'ingégration. Paris : Vuibert, p.5, 2012.

D. «. Jérôme, Intégration et Espaces de Sobolev à Valeurs Vectorielles, 2001.

J. Roger, Mesure et intégration Avec une préface de Serge Dubuc. Les Presses de l, p.305, 1975.

H. Leon and L. , Leçons sur l'intégration et la recherche des fonctions primitives professées au Collège de France

. Cambridge, ISBN : 978-1-108-00185-4, p.138, 2009.

N. Jacques, Bases mathématiques du calcul des probabilités, 1980.

R. Daniel, Mesure et intégration, 1997.

R. Walter, Analyse réelle et complexe Translated from the first English edition by N. Dhombres and F. Hoffman, Third printing, p.397, 1980.

V. Khoan, Mesure, intégration, convolution, & analyse de Fourier. Paris : Ellipses Édition Marketing, p.256, 1984.