Skip to Main content Skip to Navigation
Conference papers

Filtrage et régularisation pour améliorer la plausibilité des poids d'attention dans la tâche d'inférence en langue naturelle

Résumé : Nous étudions la plausibilité d’un mécanisme d’attention pour une tâche d’inférence de phrases (entailment), c’est-à-dire sa capacité à fournir une explication plausible pour un humain de la relation entre deux phrases. En s’appuyant sur le corpus Explanation-Augmented Standford Natural Language Inference, il a été montré que les poids d’attention sont peu plausibles en pratique et tendent à ne pas se concentrer sur les tokens importants. Nous étudions ici différentes approches pour rendre les poids d’attention plus plausibles, en nous appuyant sur des masques issus d’une analyse morphosyntaxique ou sur une régularisation pour forcer la parcimonie. Nous montrons que ces stratégies permettent d’améliorer sensiblement la plausibilité des poids d’attention et s’avèrent plus performantes que les approches par carte de saillance.
Document type :
Conference papers
Complete list of metadata

https://hal.archives-ouvertes.fr/hal-03701492
Contributor : Yannick Parmentier Connect in order to contact the contributor
Submitted on : Friday, June 24, 2022 - 4:41:38 PM
Last modification on : Friday, August 5, 2022 - 2:54:52 PM
Long-term archiving on: : Sunday, September 25, 2022 - 9:34:46 PM

File

3845.pdf
Publisher files allowed on an open archive

Identifiers

  • HAL Id : hal-03701492, version 1

Citation

Duc Hau Nguyen, Guillaume Gravier, Pascale Sébillot. Filtrage et régularisation pour améliorer la plausibilité des poids d'attention dans la tâche d'inférence en langue naturelle. Traitement Automatique des Langues Naturelles, 2022, Avignon, France. pp.95-103. ⟨hal-03701492⟩

Share

Metrics

Record views

11

Files downloads

5