Używam Gaussa modelowej mieszaniny z Pythona scikit-learn pakietu trenować mojego zestawu danych, jednak ja Fount że kiedy kodscikit-learn GMM produkować prawdopodobieństwo dodatnie dziennika
- G = mixture.GMM (.. .)
- G.fit (...)
- G.score (funkcja suma)
otrzymany prawdopodobieństwo dziennika jest dodatnia liczba rzeczywista ... dlaczego tak jest? nie jest logarytmem prawdopodobieństwa, że będzie ujemny?
Rozumiem. jaki model miksowania Gaussa wraca do nas, a logarytm prawdopodobieństwa "gęstość" zamiast prawdopodobieństwa "masa", więc wartość dodatnia jest całkowicie uzasadniona.
Jeśli macierz kowariancji jest blisko liczbie pojedynczej, a następnie GMM nie będzie dobrze perfomr i generalnie oznacza to, że dane nie są dobre dla takiego generatywnej zadania
To brzmi jak błąd, czy możesz podać minimalistyczny skrypt do reprodukcji? BTW: możesz zgłaszać błędy bezpośrednio na https://github.com/scikit-learn/scikit-learn/issues – ogrisel