Gaussian Models and Kernel Methods - Archive ouverte HAL Accéder directement au contenu
Thèse Année : 2016

Gaussian Models and Kernel Methods

Modèles Gaussiens et Méthodes à Noyaux

Résumé

Kernel methods have been extensively used to transform initial datasets by mapping them into a so-called kernel space or RKHS, before applying some statistical procedure onto transformed data. In particular, this kind of approach has been explored in the literature to try and make some prescribed probabilistic model more accurate in the RKHS, for instance Gaussian mixtures for classification or mere Gaussians for outlier detection. Therefore this thesis studies the relevancy of such models in kernel spaces. In a first time, we focus on a family of parameterized kernels - Gaussian RBF kernels - and study theoretically the distribution of an embedded random variable in a corresponding RKHS. We managed to prove that most marginals of such a distribution converge weakly to a so-called ''scale-mixture'' of Gaussians - basically a Gaussian with a random variance - when the parameter of the kernel tends to infinity. This result is used in practice to device a new method for outlier detection. In a second time, we present a one-sample test for normality in an RKHS based on the Maximum Mean Discrepancy. In particular, our test uses a fast parametric bootstrap procedure which circumvents the need for re-estimating Gaussian parameters for each bootstrap replication.
Les méthodes à noyaux ont été beaucoup utilisées pour transformer un jeu de données initial en les envoyant dans un espace dit « à noyau » ou RKHS, pour ensuite appliquer une procédure statistique sur les données transformées. En particulier, cette approche a été envisagée dans la littérature pour tenter de rendre un modèle probabiliste donné plus juste dans l’espace à noyaux, qu’il s’agisse de mélanges de gaussiennes pour faire de la classification ou d’une simple gaussienne pour de la détection d’anomalie. Ainsi, cette thèse s’intéresse à la pertinence de tels modèles probabilistes dans ces espaces à noyaux. Dans un premier temps, nous nous concentrons sur une famille de noyaux paramétrée - la famille des noyaux radiaux gaussiens - et étudions d’un point de vue théorique la distribution d’une variable aléatoire projetée vers un RKHS correspondant. Nous établissons que la plupart des marginales d’une telle distribution est asymptotiquement proche d’un « scale-mixture » de gaussiennes - autrement dit une gaussienne avec une variance aléatoire - lorsque le paramètre du noyau tend vers l’infini. Une nouvelle méthode de détection d’anomalie utilisant ce résultat théorique est introduite. Dans un second temps, nous introduisons un test d’adéquation basé sur la Maximum Mean Discrepancy pour tester des modèles gaussiens dans un RKHS. En particulier, notre test utilise une procédure de bootstrap paramétrique rapide qui permet d’éviter de ré-estimer les paramètres de la distribution gaussienne à chaque réplication bootstrap.
Fichier principal
Vignette du fichier
these(ultime ver valide).pdf (2.1 Mo) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)
Loading...

Dates et versions

tel-01697095 , version 1 (30-01-2018)

Identifiants

  • HAL Id : tel-01697095 , version 1

Citer

Jérémie Kellner. Gaussian Models and Kernel Methods. Statistics [math.ST]. Université des Sciences et Technologie de Lille 1, 2016. English. ⟨NNT : ⟩. ⟨tel-01697095⟩
74 Consultations
70 Téléchargements

Partager

Gmail Facebook X LinkedIn More