Réseaux récurrents d'attention pour la régression de séries temporelles - Archive ouverte HAL Accéder directement au contenu
Communication Dans Un Congrès Année : 2022

Réseaux récurrents d'attention pour la régression de séries temporelles

Résumé

Cet article étudie une nouvelle architecture récurrente basée sur l'attention, plus légère et moins coûteuse en temps de calcul qu'un réseau d'attention global. Nous détaillons en quoi ce type d'architecture permet d'atteindre de meilleures performances que des réseaux récurrents plus classiques, dans le cas de la régression de séries temporelles. Nous montrons son intérêt pour la prédiction de l'état d'un réseau de communication, et plus particulièrement pour la détection de la congestion.
Fichier principal
Vignette du fichier
R_seaux_r_currents_d_attention_pour_la_r_gression_de_s_rie_temporelles_.pdf (733.16 Ko) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

hal-03683785 , version 1 (31-05-2022)

Identifiants

  • HAL Id : hal-03683785 , version 1

Citer

Victor Perrier, Emmanuel Lochin, Jean-Yves Tourneret, Patrick Gélard. Réseaux récurrents d'attention pour la régression de séries temporelles. XXVIIIème Colloque Francophone de Traitement du Signal et des Images -GRETSI'22, Sep 2022, Nancy, France. ⟨hal-03683785⟩
76 Consultations
153 Téléchargements

Partager

Gmail Facebook X LinkedIn More