In recent years, word embeddings have been shown to improve the performance in NLP tasks such as syntactic parsing or sentiment analysis. While useful, they are problematic in representing ambiguous words with multiple meanings, since they keep a single representation for each word in the vocabulary. Constructing separate embeddings for meanings of ambiguous words could be useful for solving the Word Sense Disambiguation (WSD) task. In this work, we present how a word embeddings averagebased method can be used to produce semantic-rich meaning embeddings. We also open-source a WSD dataset that was created for the purpose of evaluating methods presented in this research.
Autorzy
- Grzegorz Beringer,
- Mateusz Jabłoński,
- Piotr Januszewski,
- dr inż. Andrzej Sobecki link otwiera się w nowej karcie ,
- dr hab. inż. Julian Szymański link otwiera się w nowej karcie
Informacje dodatkowe
- DOI
- Cyfrowy identyfikator dokumentu elektronicznego link otwiera się w nowej karcie 10.15439/2019f120
- Kategoria
- Publikacja w czasopiśmie
- Typ
- artykuły w czasopismach
- Język
- angielski
- Rok wydania
- 2019
Źródło danych: MOSTWiedzy.pl - publikacja "Towards semantic-rich word embeddings" link otwiera się w nowej karcie