Asymptotic properties of mixture-of-experts models

Abstract : The statistical properties of the likelihood ratio test statistic (LRTS) for mixture-of-expert models are addressed in this paper. This question is essential when estimating the number of experts in the model. Our purpose is to extend the existing results for simple mixture models and mixtures of multilayer perceptrons. In this paper we first study a simple example which embodies all the difficulties arising in such models. We find that in the most general case the LRTS diverges but, with additional assumptions, the behavior of such models can be totally explicated.
Type de document :
Article dans une revue
Neurocomputing / EEG Neurocomputing, Elsevier, 2011, 74 (9), pp.1444-1449
Liste complète des métadonnées

Littérature citée [15 références]  Voir  Masquer  Télécharger
Contributeur : Joseph Rynkiewicz <>
Soumis le : jeudi 16 décembre 2010 - 15:34:19
Dernière modification le : mardi 28 novembre 2017 - 01:18:15
Document(s) archivé(s) le : jeudi 17 mars 2011 - 03:17:06


Fichiers produits par l'(les) auteur(s)


  • HAL Id : hal-00547520, version 1



Madalina Olteanu, Joseph Rynkiewicz. Asymptotic properties of mixture-of-experts models. Neurocomputing / EEG Neurocomputing, Elsevier, 2011, 74 (9), pp.1444-1449. 〈hal-00547520〉



Consultations de la notice


Téléchargements de fichiers