Q-Learning with Double Progressive Widening : Application to Robotics

Nataliya Sokolovska 1, 2 Olivier Teytaud 1, 2 Mario Milone 1
2 TAO - Machine Learning and Optimisation
CNRS - Centre National de la Recherche Scientifique : UMR8623, Inria Saclay - Ile de France, UP11 - Université Paris-Sud - Paris 11, LRI - Laboratoire de Recherche en Informatique
Abstract : Discretization of state and action spaces is a critical issue in $Q$-Learning. In our contribution, we propose a real-time adaptation of the discretization by the progressive widening technique which has been already used in bandit-based methods. Results are consistently converging to the optimum of the problem, without changing the parametrization for each new problem.
Type de document :
Communication dans un congrès
ICONIP 2011, Nov 2011, China. pp.103-112, 2011
Liste complète des métadonnées

Littérature citée [16 références]  Voir  Masquer  Télécharger

https://hal.archives-ouvertes.fr/hal-00624832
Contributeur : Nataliya Sokolovska <>
Soumis le : mardi 20 septembre 2011 - 03:23:55
Dernière modification le : jeudi 5 avril 2018 - 12:30:12
Document(s) archivé(s) le : mardi 13 novembre 2012 - 14:00:51

Fichier

ICONIP-0854.pdf
Fichiers produits par l'(les) auteur(s)

Identifiants

  • HAL Id : hal-00624832, version 1

Collections

Citation

Nataliya Sokolovska, Olivier Teytaud, Mario Milone. Q-Learning with Double Progressive Widening : Application to Robotics. ICONIP 2011, Nov 2011, China. pp.103-112, 2011. 〈hal-00624832〉

Partager

Métriques

Consultations de la notice

363

Téléchargements de fichiers

229