Bandit algorithms for the multiple-play recommendation - Archive ouverte HAL Accéder directement au contenu
Article Dans Une Revue Document numérique - Revue des sciences et technologies de l'information. Série Document numérique Année : 2015

Bandit algorithms for the multiple-play recommendation

Algorithmes de bandits pour la recommandation à tirages multiples

Résumé

The multiple-play recommender systems (RS) are RS which recommend several items to the users. RS are based on learning models in order to choose the items to recommend. Among these models, the bandit algorithms offer the advantage to learn and exploite the learnt elements at the same time. Current approaches require running as many instances of a bandit algorithm as there are items to recommend. As opposed to that, we handle all recommendations simultaneously, by a single instance of a bandit algorithm. We show on two benchmark datasets (Movielens and Jester) that our method, MPB (Multiple Plays Bandit), obtains a learning rate about thirteen times faster while obtaining equivalent click-through rates. We also show that the choice of the bandit algorithm used impacts the level of improvement.
Les systèmes de recommandation (SR) à tirages multiples font référence aux SR recommandant plusieurs objets en même temps aux utilisateurs. La plupart des SR s'appuient sur des modèles d'apprentissage afin de décider les objets à recommander. Parmi ces modèles, les algorithmes de bandits offrent l'avantage d'apprendre tout en exploitant les éléments déjà appris. Les approches actuelles utilisent autant d'instances d'un algorithme de bandits que le nombre d'objets que doit recommander le SR. Nous proposons au contraire de gérer l'ensemble des recommandations par une seule instance d'un algorithme de bandits pour rendre l'apprentissage plus efficace. Nous montrons sur deux jeux de données de références (Movielens et Jester) que notre méthode, MPB (Multiple Plays Bandit), obtient des temps d'apprentissage jusqu'à treize fois plus rapides tout en obtenant des taux de clics équivalents. Nous montrons également que le choix de l'algorithme de bandits utilisé influence l'amélioration obtenue.
Fichier principal
Vignette du fichier
louedec_18750.pdf (491.47 Ko) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)
Loading...

Dates et versions

hal-01659313 , version 1 (08-12-2017)

Identifiants

Citer

Jonathan Louëdec, Max Chevalier, Aurélien Garivier, Josiane Mothe. Bandit algorithms for the multiple-play recommendation. Document numérique - Revue des sciences et technologies de l'information. Série Document numérique, 2015, 18 (2-3), pp.59-79. ⟨10.3166/DN.18.2-3.59-79⟩. ⟨hal-01659313⟩
110 Consultations
150 Téléchargements

Altmetric

Partager

Gmail Facebook X LinkedIn More