Autoapprentissage pour le regroupement en locuteurs : premières investigations - Archive ouverte HAL Accéder directement au contenu
Communication Dans Un Congrès Année : 2016

Autoapprentissage pour le regroupement en locuteurs : premières investigations

Résumé

This paper investigates self trained cross-show speaker diarization applied to collections of French TV archives, based on an i-vector/PLDA framework. The parameters used for i-vectors extraction and PLDA scoring are trained in a unsupervised way, using the data of the collection itself. Performances are compared, using combinations of target data and external data for training. The experimental results on two distinct target corpora show that using data from the corpora themselves to perform unsupervised iterative training and domain adaptation of PLDA parameters can improve an existing system, trained on external annotated data. Such results indicate that performing speaker indexation on small collections of unlabeled audio archives should only rely on the availability of a sufficient external corpus, which can be specifically adapted to every target collection. We show that a minimum collection size is required to exclude the use of such an external bootstrap.
Cet article traite de l’autoapprentissage d’un syste`me i-vector/PLDA pour le regroupement en locuteurs de collections d’archives audiovisuelles franc ̧aises. Les parame`tres d’extraction des i-vectors et du calcul des scores PLDA sont appris de fac ̧on non supervise ́e sur les donne ́es de la collection elle-meˆme. Diffe ́rents me ́langes de donne ́es cibles et de donne ́es externes sont compare ́s pour la phase d’apprentissage. Les re ́sultats expe ́rimentaux sur deux corpora cibles distincts montrent que l’utilisation des donne ́es des corpora en question pour l’apprentissage ite ́ratif non supervise ́ et l’adaptation des parame`tres de la PLDA peut ame ́liorer un syste`me existant, appris sur des donne ́es annote ́es externes. De tels re ́sultats indiquent que la structuration automatique en locuteurs de petites collections non annote ́es ne devrait reposer que sur l’existence d’un corpus externe annote ́, qui peut eˆtre spe ́cifiquement adapte ́ a` chaque collection cible. Nous montrons e ́galement qu’une collection suffisamment grande peut se passer de l’utilisation de ce corpus externe.
Fichier principal
Vignette du fichier
V01-JEP - copie.pdf (472.12 Ko) Télécharger le fichier
Origine : Fichiers éditeurs autorisés sur une archive ouverte

Dates et versions

hal-01433156 , version 1 (21-03-2017)

Identifiants

  • HAL Id : hal-01433156 , version 1

Citer

Gaël Le Lan, Sylvain Meignier, Delphine Charlet, Anthony Larcher. Autoapprentissage pour le regroupement en locuteurs : premières investigations. Journées d’Études sur la Parole (JEP'16), 2016, Paris, France. pp.80-82. ⟨hal-01433156⟩
356 Consultations
89 Téléchargements

Partager

Gmail Facebook X LinkedIn More