Probabilistic numerical approximation schemes in finance: learning methods for high-dimensional BSDEs and unbiased Monte Carlo algorithms for stochastic volatility models - Archive ouverte HAL Accéder directement au contenu
Thèse Année : 2022

Probabilistic numerical approximation schemes in finance: learning methods for high-dimensional BSDEs and unbiased Monte Carlo algorithms for stochastic volatility models

Schémas d'approximation numérique probabiliste en finance: méthodes d'apprentissage pour les EDSRs de grande dimension et algorithmes de Monte Carlo sans biais pour des modèles à volatilité stochastique

Résumé

In this thesis, we propose some probabilistic numerical approximation in finance. Including a learning scheme by sparse grids and Picard approximations for semi-linear parabolic PDEs, high-order approximation for high-dimensional BSDEs by deep learning methods, and probabilistic representation of integration by parts formulae for some stochastic volatility models with unbounded drift. In the first part of this thesis, we rely on the classical connection between Backward Stochastic Differential Equations (BSDEs) and non-linear parabolic partial differential equations (PDEs), to propose a new probabilistic learning scheme for solving high-dimensional semi-linear parabolic PDEs. This scheme is inspired by the approach coming from machine learning and developed using deep neural networks in Han and al. However, our algorithm is based on a Picard iteration scheme in which a sequence of linear-quadratic optimisation problem is solved by means of stochastic gradient descent (SGD) algorithm. In the framework of a linear specification of the approximation space, we manage to prove a convergence result for our scheme, under some smallness condition. In practice, in order to be able to treat high-dimensional examples, we employ sparse grid approximation spaces. In the case of periodic coefficients and using pre-wavelet basis functions, we obtain an upper bound on the global complexity of our method. It shows in particular that the curse of dimensionality is tamed in the sense that in order to achieve a root mean squared error of order $\varepsilon$, for a prescribed precision $\varepsilon$, the complexity of the Picard algorithm grows polynomially in $\varepsilon^{-1}$ up to some logarithmic factor $|\log(\varepsilon)|$ whose exponent grows linearly with respect to the PDE dimension. Various numerical results are presented to validate the performance of our method and to compare them with some recent machine learning schemes proposed in Han, Pham, Huré and al.. Deep learning techniques are efficient techniques to overcome empirically the curse of dimensionality when solving high-dimensional backward stochastic differential equations (BSDEs). The current deep learning algorithms are based on an Euler type discretization. In the second work, we instead combine some high-order time discretization schemes such as Crank-Nicolson scheme or explicit multi stage Runge-Kutta scheme with non-linear regression. We prove theoretical convergence bounds for our algorithms. We then numerically compare the computational time cost of different methods and show that high order scheme for the discrete time error, if correctly implemented, are more efficient than classical Euler schemes. In the second part, we establish a probabilistic representation as well as some integration by parts formulae for the marginal law at a given time maturity of some stochastic volatility model with unbounded drift. Relying on a perturbation technique for Markov semigroups, our formulae are based on a simple Markov chain evolving on a random time grid for which we develop a tailor-made Malliavin calculus. Among other applications, an unbiased Monte Carlo path simulation method stems from our formulas so that it can be used in order to numerically compute with optimal complexity option prices as well as their sensitivities with respect to the initial values or Greeks in finance, namely the Delta and Vega, for a large class of non-smooth European payoff. Numerical results are proposed to illustrate the efficiency of the method.
Dans la première partie, nous analysons en détail la convergence théorique de la solution des équations différentielles stochastiques rétrogrades (EDSR) et des applications numériques dans le domaine de la finance avec à la fois l'algorithme SGD traditionnel et la méthode d'apprentissage en profondeur. Les méthodes sont basées sur la connexion classique entre les équations aux dérivées partielles (EDP) paraboliques non linéaires et les BSDE. Et de nombreux résultats numériques sur les EDSR de grande dimension sont présentés pour comparaison avec les autre articles. Dans le chapitre 2, nous introduisons ici un algorithme dont on montre qu'il converge vers un minimum global. Tout d'abord, nous passons de l'espace d'approximation des réseaux de neurones profonds à une spécification linéaire plus classique de l'espace d'approximation. Cependant, en raison de la non-linéarité du générateur f, le problème d'optimisation globale à résoudre est toujours non convexe. Pour contourner ce problème, nous utilisons une procédure d'itération Picard. La procédure globale devient alors une séquence de problèmes d'optimisation linéaire-quadratique qui sont résolus par un algorithme SGD. Notre premier résultat principal est un contrôle de l'erreur globale entre l'algorithme implémenté et la solution de la EDSR qui montre notamment la convergence de la méthode sous certaines conditions de petitesse, voir le Théorème 2.2.1. En particulier, contrairement à autre articles, notre résultat prend en compte l'erreur induite par l'algorithme SGD. Dans nos expériences numériques, nous nous appuyons sur des espaces d'approximation de sparse grid qui sont connus pour être bien adaptés pour traiter des problèmes de grande dimension. Dans le cadre des coefficients périodiques, nous établissons comme deuxième résultat principal, une borne supérieure sur la complexité globale pour notre algorithme implémenté, voir le Théorème 2.3.1. Nous montrons notamment que la malédiction de la dimensionnalité est apprivoisée dans le sens où la complexité est d'ordre $\varepsilon^{-p} |\log(\varepsilon)|^{q(d)}$, où $p$ est un constante qui ne dépend pas de la dimension PDE et $d\mapsto q(d)$ est une fonction affine. Nous démontrons également numériquement l'efficacité de nos méthodes dans un cadre de grande dimension. Dans le chapitre 3, nous rappelons d'abord la définition des schémas de Runge-Kutta pour les EDSR dans Section 3.2, puis nous étudions la stabilité des schémas de Runge-Kutta de deux manières différentes. Le Theorem 3.2.1 donne les erreurs en temps discret de 5 méthodes différentes qui seront étudiées dans ce chapitre. Dans Section 3.3, nous présentons une implémentation des schémas de Runge-Kutta pour résoudre les EDSR par réseaux de neurones, y compris le cas particulier des schémas d'Euler implicites, schéma d'Euler explicite, schéma de Crank-Nicolson, schéma de Runge-Kutta explicite en deux étapes. Nous fournissons le contrôle d'erreur de la méthode d'apprentissage générale par le schéma de Runge-Kutta et le réseau de neurones à la fin de cette section, voir le Theorem 3.3.2. Dans Section 3.4, nous vérifions numériquement l'ordre de convergence de l'erreur en temps discret des 5 méthodes du Theorem 3.2.1, et nous comparons également le coût du temps de calcul de ces méthodes. Dans la deuxième partie, nous présentons des formules de représentation probabilistes pour la loi marginale d'un modèles à volatilité stochastique à dérive non bornée. Nous établissons également des formules d'intégration par partie pour les Delta et Vega. Ces formules sont basées sur une chaîne de Markov évoluant le long d'une grille temporelle aléatoire donnée par les instants de saut d'un processus de renouvellement. Une méthode de Monte Carlo sans biais de complexité optimale découle de nos formules. La principale nouveauté de notre approche par rapport aux travaux est que nous permettons au coefficient de dérive d'être éventuellement non borné.
Fichier principal
Vignette du fichier
Main.pdf (4.06 Mo) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

tel-03695446 , version 1 (14-06-2022)

Identifiants

  • HAL Id : tel-03695446 , version 1

Citer

Junchao Chen. Probabilistic numerical approximation schemes in finance: learning methods for high-dimensional BSDEs and unbiased Monte Carlo algorithms for stochastic volatility models. Numerical Analysis [math.NA]. Université de Paris, 2022. English. ⟨NNT : ⟩. ⟨tel-03695446⟩
132 Consultations
63 Téléchargements

Partager

Gmail Facebook X LinkedIn More