Object Tracking and Re-identification in Multi-Camera Environments

Atif Ilyas 1
1 imagine - Extraction de Caractéristiques et Identification
LIRIS - Laboratoire d'InfoRmatique en Image et Systèmes d'information
Résumé : Le domaine de la vidéosurveillance a connu une très forte expansion ces dernières années. Mais la multiplication des caméras installées dans des espaces publics ou privés, rend de plus en plus difficile l’exploitation par des opérateurs humains des masses de données produites par ces systèmes. De nombreuses techniques d’analyse automatique de la vidéo ont été étudiées du point de vue de la recherche, et commencent à être commercialisées dans des solutions industrielles, pour assister les opérateurs de télésurveillance. Mais la plupart de ces systèmes considèrent les caméras d’une manière indépendante les unes des autres. L’objectif de cette thèse est de permettre d’appréhender la surveillance de zones étendues, couvertes par des caméras multiples, à champs nonrecouvrants. L’un des problèmes auxquels nous nous sommes intéressés est celui de la ré-identification d’objets : lorsqu’un objet apparaît dans le champ d’une caméra, il s’agit de déterminer si cet objet a déjà été observé et suivi par l’une des caméras du système. Nous souhaitons effectuer cette tâche sans aucune connaissance a priori du positionnement des caméras les unes par rapport aux autres. Il existe dans la littérature beaucoup d’algorithmes permettant le suivi des objets en mouvement dans une vidéo. Ces algorithmes sont suffisants pour détecter des fragments de la trajectoire et vérifier que les objets ont un mouvement cohérent. Par contre, ces algorithmes ne sont pas suffisamment robustes aux occultations, aux intersections, aux fusions et aux séparations. Cette insuffisance des algorithmes actuels pose problème, dans la mesure où ils forment les briques de base d’un suivi multi-caméras. Une première partie du travail de thèse a été donc de perfectionner les algorithmes de segmentation et de suivi de façon à les rendre plus robustes. Dans un premier temps, nous avons donc proposé une amélioration aux algorithmes de segmentation premier plan/arrière plan basés sur les dictionnaires (codebooks). Nous avons proposé une méthodologie d’évaluation afin de comparer de la manière la plus objective possible, plusieurs techniques de segmentation basées sur l’analyse de la précision et du rappel des algorithmes. En nous basant sur un jeu d’essai issu de bases de données publiques, nous montrons le bon comportement de notre algorithme modifié. Une deuxième contribution de la thèse concerne l’élaboration d’un descripteur robuste et compact pour le suivi des objets mobiles dans les vidéos. Nous proposons un modèle d’apparence simplifié, appelé caractéristique verticale (VF pour Vertical Feature), indépendant de l’angle de vue et de la taille apparente des objets. Ce descripteur offre un bon compromis entre les modèles colorimétriques très compacts, mais qui perdent toute l’organisation spatiale des couleurs des objets suivis, et les modèles d’apparence traditionnels, peu adaptés à la description d’objets déformables. Nous associons à ce descripteur un modèle de mouvement des objets suivis, et montrons la supériorité d’une approche combinant ces deux outils aux approches traditionnelles de suivi, basées sur le mean shift ou sur le filtre de Kalman. Chaque objet suivi par une caméra peut ainsi être associé à un descripteur. Dans le cadre du suivi multi-caméras, nous sommes confrontés à une certaine variabilité de ces descripteurs, en raison des changements des conditions d’éclairage, mais également en raison des caractéristiques techniques des caméras, qui peuvent être différentes d’un modèle à l’autre. Nous nous sommes donc intéressés au problème de l’étalonnage des couleurs acquises par les caméras, qui visent à rendre identiques les descripteurs d’un même objet observé par les différentes caméras du système. Les approches existantes estiment les fonctions de transfert de luminosité (BTF pour Brightness Tranfert Function) en mesurant la réponse donnée par chaque caméra à des objets connus. Nous comparons les méthodes basées sur une moyenne (MBTF) ou sur un cumul (CBTF) des histogrammes de couleur, et montrons les faiblesses de ces approches lorsque certaines couleurs sont trop peu représentées dans les objets servant à l’étalonnage. Nous proposons une alternative (MCBTF) dont nous montrons la supériorité par rapport aux méthodes existantes. Enfin, des expérimentations systématiques sont menées sur le problème de la ré-identification d’objets dans un environnement multi-caméras, qui permettent de valider l’ensemble de nos propositions.
Type de document :
Pré-publication, Document de travail
5159; T. 2011
Liste complète des métadonnées

https://hal.archives-ouvertes.fr/hal-01465691
Contributeur : Équipe Gestionnaire Des Publications Si Liris <>
Soumis le : lundi 13 février 2017 - 09:19:04
Dernière modification le : mardi 14 février 2017 - 01:10:32

Identifiants

  • HAL Id : hal-01465691, version 1

Collections

Citation

Atif Ilyas. Object Tracking and Re-identification in Multi-Camera Environments. 5159; T. 2011. <hal-01465691>

Partager

Métriques

Consultations de la notice

100