Where we look when we drive: A multidisciplinary approach - Archive ouverte HAL Accéder directement au contenu
Communication Dans Un Congrès Année : 2014

Where we look when we drive: A multidisciplinary approach

Résumé

This paper reviews a cluster of recent and current researches in the field of visual attention conducted at the LEPSIS Lab (IFSTTAR). Taking advantage of the multidisciplinary structure of the research team, contributions have been proposed in the fields of image processing, artificial intelligence, virtual reality, cognitive psychology and ethology. In image processing, we have contributed to predictive models of the gaze fixations in a driving task, namely, looking for road signs, proposing a computational model of top-down visual attention. In artificial intelligence, a simple computational model of visual attention was proposed and implemented in an agent-based microscopic traffic simulation model. In virtual reality, the blink frequency was proposed in order to assess the relevance of driving simulators in terms of the driver's mental workload. In cognitive psychology, the visual conspicuity of powered two wheels was assessed on a driving simulator, leading to recommendations about their lighting system design; another contribution gave evidence that oculomotor patterns can reveal crossing decisions at crossroads. In cognitive ethology, a joint work is in progress with the CEREMA in order to study oculomotor patterns at crossroads in a field test, thanks to a dedicated vehicle.
Cet article présente un ensemble de recherches récentes et en cours dans le domaine de l’attention visuelle, menées au laboratoire LEPSIS de l’IFSTTAR. Grâce à la structure pluridisciplinaire du laboratoire, des contributions ont été proposées dans les domaines du traitement d’images, de l’intelligence artificielle, de la réalité virtuelle, de la psychologie cognitive et de l’éthologie. En traitement d’images, nous avons proposé un modèle de calcul de la saillance visuelle des panneaux routiers, en référence à une tâche de conduite. En intelligence artificielle, nous avons implémenté un modèle d’attention visuelle pour améliorer la simulation de trafic microscopique. En réalité virtuelle, nous avons proposé d’utiliser les clignements pour mesurer la charge mentale sur simulateur de conduite. En psychologie cognitive, la saillance visuelle des deux roues motorisés a été étudiée, ce qui a permis d’aboutir à des recommandations sur le design des phares; nous avons également montré que les patterns oculomoteurs peuvent nous informer sur la décision de traverser en carrefour. En ethologie, des travaux conjoints avec le CEREMA sont en cours pour étudier le comportement oculomoteur en carrefour, grâce à un véhicule instrumenté.
Fichier principal
Vignette du fichier
doc00018468.pdf (530.13 Ko) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)
Loading...

Dates et versions

hal-01044746 , version 1 (24-07-2014)

Identifiants

  • HAL Id : hal-01044746 , version 1

Citer

Roland Bremond, Jean Michel Auberlet, Viola Cavallo, Lara Désiré, Vérane Faure, et al.. Where we look when we drive: A multidisciplinary approach. TRA - Transport Research Arena, Apr 2014, Paris, France. 10p. ⟨hal-01044746⟩
352 Consultations
405 Téléchargements

Partager

Gmail Facebook X LinkedIn More