Skip to Main content Skip to Navigation
New interface
Conference papers

Contribution d'informations syntaxiques aux capacités de généralisation compositionelle des modèles seq2seq convolutifs

Résumé : Les modèles neuronaux de type seq2seq manifestent d’étonnantes capacités de prédiction quand ils sont entraînés sur des données de taille suffisante. Cependant, ils échouent à généraliser de manière satisfaisante quand la tâche implique d’apprendre et de réutiliser des règles systématiques de composition et non d’apprendre simplement par imitation des exemples d’entraînement. Le jeu de données SCAN, constitué d’un ensemble de commandes en langage naturel associées à des séquences d’action, a été spécifiquement conçu pour évaluer les capacités des réseaux de neurones à apprendre ce type de généralisation compositionnelle. Dans cet article, nous nous proposons d’étudier la contribution d’informations syntaxiques sur les capacités de généralisation compositionnelle des réseaux de neurones seq2seq convolutifs.
Document type :
Conference papers
Complete list of metadata

https://hal.archives-ouvertes.fr/hal-03265890
Contributor : Yannick Parmentier Connect in order to contact the contributor
Submitted on : Wednesday, June 23, 2021 - 11:43:48 PM
Last modification on : Wednesday, July 6, 2022 - 4:24:51 AM
Long-term archiving on: : Friday, September 24, 2021 - 7:11:49 PM

File

28.pdf
Publisher files allowed on an open archive

Identifiers

  • HAL Id : hal-03265890, version 1

Citation

Diana Nicoleta Popa, William N Havard, Maximin Coavoux, Laurent Besacier, Éric Gaussier. Contribution d'informations syntaxiques aux capacités de généralisation compositionelle des modèles seq2seq convolutifs. Traitement Automatique des Langues Naturelles, 2021, Lille, France. pp.134-141. ⟨hal-03265890⟩

Share

Metrics

Record views

110

Files downloads

34