Un modèle de décision distribué pour la collecte d'information active multiagents
Résumé
Les systèmes multirobots ont permis de grandes avancées dans les domaines de l'exploration et de la surveillance. Néanmoins, les agents se contentent généralement de percevoir leur environnement passivement. Dans cet article, nous proposons un modèle permettant de récupérer l'information de manière active : les agents explorent, mettent à jour leurs croyances, évaluent la pertinence des informations qu'ils collectent et les communiquent aux autre agents. Ce modèle se base sur un processus de décision distribué où chaque robot met à jour une matrice représentant ses croyances sur l'environnement ainsi que sur les croyances des autres agents. Ce processus de décision utilise une fonction de récompense convexe basée sur l'évaluation de la pertinence d'une information ainsi que sur les divergences de croyances entre agents. Ce modèle permet de calculer une politique d'exploration visant à améliorer la recherche d'information en évitant les explorations redondantes et en communiquant. Un scénario expérimental a été développé pour des missions de recherche d'information en intérieur.
Origine : Fichiers éditeurs autorisés sur une archive ouverte
Loading...