Używam operacji embedding_lookup do generowania gęstych reprezentacji wektorów dla każdego tokenu w moim dokumencie, które są podawane do splotowej sieci neuronowej (architektura sieci jest podobna do tej w a WildML article).Osadzanie tabeli wyszukiwania nie maskuje wartości wypełnienia
Wszystko działa poprawnie, ale kiedy podkładam dokument wsuwając do niego wartość dopełnienia, wyszukiwanie osadzenia generuje również wektor tego tokena. Myślę, że to podejście mogłoby zmienić wyniki w zadaniu klasyfikacji. To, co chcę osiągnąć, to coś podobnego do tego, co robi Torch LookupTableMaskZero.
1) Czy to jest prawidłowe, co chcę zrobić?
2) Czy już wdrożono coś takiego?
3) Jeśli nie, w jaki sposób mogę zamaskować wartość wypełnienia, aby zapobiec generowaniu odpowiedniego wektora?
Dziękuję z góry,
Alessandro
Czy kiedykolwiek znalazłeś rozwiązanie? – Shatu