2017-01-13 9 views
6

Próbuję zrozumieć wyniki implementacji modelu gaussowskiego miksowania scikit-learn. Zapoznać się z poniższym przykładzie:Zrozumienie modeli mieszanin Gaussa

#!/opt/local/bin/python 
import numpy as np 
import matplotlib.pyplot as plt 
from sklearn.mixture import GaussianMixture 

# Define simple gaussian 
def gauss_function(x, amp, x0, sigma): 
    return amp * np.exp(-(x - x0) ** 2./(2. * sigma ** 2.)) 

# Generate sample from three gaussian distributions 
samples = np.random.normal(-0.5, 0.2, 2000) 
samples = np.append(samples, np.random.normal(-0.1, 0.07, 5000)) 
samples = np.append(samples, np.random.normal(0.2, 0.13, 10000)) 

# Fit GMM 
gmm = GaussianMixture(n_components=3, covariance_type="full", tol=0.001) 
gmm = gmm.fit(X=np.expand_dims(samples, 1)) 

# Evaluate GMM 
gmm_x = np.linspace(-2, 1.5, 5000) 
gmm_y = np.exp(gmm.score_samples(gmm_x.reshape(-1, 1))) 

# Construct function manually as sum of gaussians 
gmm_y_sum = np.full_like(gmm_x, fill_value=0, dtype=np.float32) 
for m, c, w in zip(gmm.means_.ravel(), gmm.covariances_.ravel(), 
       gmm.weights_.ravel()): 
    gmm_y_sum += gauss_function(x=gmm_x, amp=w, x0=m, sigma=np.sqrt(c)) 

# Normalize so that integral is 1  
gmm_y_sum /= np.trapz(gmm_y_sum, gmm_x) 

# Make regular histogram 
fig, ax = plt.subplots(nrows=1, ncols=1, figsize=[8, 5]) 
ax.hist(samples, bins=50, normed=True, alpha=0.5, color="#0070FF") 
ax.plot(gmm_x, gmm_y, color="crimson", lw=4, label="GMM") 
ax.plot(gmm_x, gmm_y_sum, color="black", lw=4, label="Gauss_sum") 

# Annotate diagram 
ax.set_ylabel("Probability density") 
ax.set_xlabel("Arbitrary units") 

# Draw legend 
plt.legend() 
plt.show() 

Resulting plot from the code above

Tutaj najpierw wygenerować rozdzielania próbek wykonaną z gaussians, a następnie dopasować Gaussa mieszaniny modelu do danych. Następnie chcę obliczyć prawdopodobieństwo dla niektórych danych wejściowych. Dogodnie, implementacja scikit oferuje właśnie taką metodę score_samples. Teraz staram się zrozumieć te wyniki. Zawsze myślałem, że mogę po prostu wziąć parametry gaussów z dopasowania GMM i skonstruować ten sam rozkład, sumując je, a następnie normalizując całkę do 1. Jednak, jak widać na wykresie, próbki pobrane z metoda score_samples idealnie pasuje (czerwona linia) do oryginalnych danych (niebieski histogram), ręcznie skonstruowana dystrybucja (czarna linia) nie. Chciałbym zrozumieć, gdzie moje myślenie poszło nie tak i dlaczego nie mogę sam zbudować dystrybucji, sumując gaussów, jak to wynika z dopasowania GMM!?! Wielkie dzięki za wszelkie dane wejściowe!

Odpowiedz

10

Just in case ktoś w przyszłości zastanawia się o to samo: Trzeba normalizować poszczególne składniki, a nie suma:

import numpy as np 
import matplotlib.pyplot as plt 
from sklearn.mixture import GaussianMixture 

# Define simple gaussian 
def gauss_function(x, amp, x0, sigma): 
    return amp * np.exp(-(x - x0) ** 2./(2. * sigma ** 2.)) 

# Generate sample from three gaussian distributions 
samples = np.random.normal(-0.5, 0.2, 2000) 
samples = np.append(samples, np.random.normal(-0.1, 0.07, 5000)) 
samples = np.append(samples, np.random.normal(0.2, 0.13, 10000)) 

# Fit GMM 
gmm = GaussianMixture(n_components=3, covariance_type="full", tol=0.001) 
gmm = gmm.fit(X=np.expand_dims(samples, 1)) 

# Evaluate GMM 
gmm_x = np.linspace(-2, 1.5, 5000) 
gmm_y = np.exp(gmm.score_samples(gmm_x.reshape(-1, 1))) 

# Construct function manually as sum of gaussians 
gmm_y_sum = np.full_like(gmm_x, fill_value=0, dtype=np.float32) 
for m, c, w in zip(gmm.means_.ravel(), gmm.covariances_.ravel(), gmm.weights_.ravel()): 
    gauss = gauss_function(x=gmm_x, amp=1, x0=m, sigma=np.sqrt(c)) 
    gmm_y_sum += gauss/np.trapz(gauss, gmm_x) * w 

# Make regular histogram 
fig, ax = plt.subplots(nrows=1, ncols=1, figsize=[8, 5]) 
ax.hist(samples, bins=50, normed=True, alpha=0.5, color="#0070FF") 
ax.plot(gmm_x, gmm_y, color="crimson", lw=4, label="GMM") 
ax.plot(gmm_x, gmm_y_sum, color="black", lw=4, label="Gauss_sum", linestyle="dashed") 

# Annotate diagram 
ax.set_ylabel("Probability density") 
ax.set_xlabel("Arbitrary units") 

# Make legend 
plt.legend() 

plt.show() 

enter image description here

+0

Dzięki za komentarz odpowiedź –

+0

To jest naprawdę zwięźle, dziękuję. Miałem dużo problemów z przekazywaniem danych do 'GaussianMixture.fit', ponieważ nie zdawałem sobie sprawy, że potrzebny jest kształt' np.expand_dims (samples, 1) .shape' zamiast 'samples.shape' – FriskyGrub

+0

. postaraj się o obliczenie prawdopodobieństwa nowej próbki testowej X (abyś mógł oszacować, czy jest prawdopodobne, że punkt danych jest nowością)? Z tego co zrozumiałem, np.exp (gmm.score_samples (X)) podaje wartość pliku PDF w X, a nie prawdopodobieństwo X. – felipeduque