Skip to Main content Skip to Navigation
Conference papers

Algorithmes de bandit pour les systèmes de recommandation : le cas de multiples recommandations simultanées

Résumé : Les systèmes de recommandation (SR) à tirages multiples font référence aux SR qui recommandent plusieurs objets aux utilisateurs. La plupart des SR s'appuient sur des modèles d'apprentissage afin de décider les objets à recommander. Parmi les modèles d'apprentissage, les algorithmes de bandit offrent l'avantage de permettre d'apprendre tout en exploitant les éléments déjà appris. Les approches actuelles utilisent autant d'instances d'un algorithme de bandit que le SR doit recommander d'objets. Nous proposons au contraire de gérer l'ensemble des recommandations par une seule instance d'un algorithme de bandit pour rendre l'apprentissage plus efficace. Nous montrons sur deux jeux de données de références (Movielens et Jester) que notre méthode, MPB (Multiple Plays Bandit), permet d'obtenir un temps d'apprentissage jusqu'à treize fois plus rapide tout en obtenant des taux de clics équivalents. Nous montrons également que le choix de l'algorithme de bandit utilisé influence l'amélioration obtenue.
Complete list of metadata

Cited literature [12 references]  Display  Hide  Download

https://hal.archives-ouvertes.fr/hal-01659314
Contributor : Open Archive Toulouse Archive Ouverte (oatao) <>
Submitted on : Friday, December 8, 2017 - 12:00:41 PM
Last modification on : Thursday, March 18, 2021 - 2:18:38 PM

File

louedec_18743.pdf
Files produced by the author(s)

Identifiers

  • HAL Id : hal-01659314, version 1
  • OATAO : 18743

Citation

Jonathan Louedec, Max Chevalier, Aurélien Garivier, Josiane Mothe. Algorithmes de bandit pour les systèmes de recommandation : le cas de multiples recommandations simultanées. Conference francophone en Recherche d'Information et Applications (CORIA 2015), Mar 2015, Paris, France. pp. 73-88. ⟨hal-01659314⟩

Share

Metrics

Record views

143

Files downloads

654