2017-03-01 27 views
6

Próbuję użyć implementacji DBSCAN scikit-learning, aby zgrupować kilka dokumentów. Najpierw tworzę macierz TF-IDF za pomocą TfidfVectorizer scikit-learn (jest to rzadka macierz 163405x13029 typu numpy.float64). Następnie staram się grupować określone podzbiory tej macierzy. Wszystko działa dobrze, gdy podzbiór jest mały (powiedzmy, do kilku tysięcy wierszy). Ale z dużymi podzbiorami (z dziesiątkami tysięcy wierszy) otrzymuję ValueError: could not convert integer scalar."Nie można przekonwertować liczby całkowitej skalarnej" podczas korzystania z DBSCAN

Oto pełna traceback (idxs jest lista wskaźników):


ValueError      Traceback (most recent call last) 
<ipython-input-1-73ee366d8de5> in <module>() 
    193  # use descriptions to clusterize items 
    194  ncm_clusterizer = DBSCAN() 
--> 195  ncm_clusterizer.fit_predict(tfidf[idxs]) 
    196  idxs_clusters = list(zip(idxs, ncm_clusterizer.labels_)) 
    197  for e in idxs_clusters: 

/usr/local/lib/python3.4/site-packages/sklearn/cluster/dbscan_.py in fit_predict(self, X, y, sample_weight) 
    294    cluster labels 
    295   """ 
--> 296   self.fit(X, sample_weight=sample_weight) 
    297   return self.labels_ 

/usr/local/lib/python3.4/site-packages/sklearn/cluster/dbscan_.py in fit(self, X, y, sample_weight) 
    264   X = check_array(X, accept_sparse='csr') 
    265   clust = dbscan(X, sample_weight=sample_weight, 
--> 266      **self.get_params()) 
    267   self.core_sample_indices_, self.labels_ = clust 
    268   if len(self.core_sample_indices_): 

/usr/local/lib/python3.4/site-packages/sklearn/cluster/dbscan_.py in dbscan(X, eps, min_samples, metric, algorithm, leaf_size, p, sample_weight, n_jobs) 
    136   # This has worst case O(n^2) memory complexity 
    137   neighborhoods = neighbors_model.radius_neighbors(X, eps, 
--> 138               return_distance=False) 
    139 
    140  if sample_weight is None: 

/usr/local/lib/python3.4/site-packages/sklearn/neighbors/base.py in radius_neighbors(self, X, radius, return_distance) 
    584    if self.effective_metric_ == 'euclidean': 
    585     dist = pairwise_distances(X, self._fit_X, 'euclidean', 
--> 586           n_jobs=self.n_jobs, squared=True) 
    587     radius *= radius 
    588    else: 

/usr/local/lib/python3.4/site-packages/sklearn/metrics/pairwise.py in pairwise_distances(X, Y, metric, n_jobs, **kwds) 
    1238   func = partial(distance.cdist, metric=metric, **kwds) 
    1239 
-> 1240  return _parallel_pairwise(X, Y, func, n_jobs, **kwds) 
    1241 
    1242 

/usr/local/lib/python3.4/site-packages/sklearn/metrics/pairwise.py in _parallel_pairwise(X, Y, func, n_jobs, **kwds) 
    1081  if n_jobs == 1: 
    1082   # Special case to avoid picklability checks in delayed 
-> 1083   return func(X, Y, **kwds) 
    1084 
    1085  # TODO: in some cases, backend='threading' may be appropriate 

/usr/local/lib/python3.4/site-packages/sklearn/metrics/pairwise.py in euclidean_distances(X, Y, Y_norm_squared, squared, X_norm_squared) 
    243   YY = row_norms(Y, squared=True)[np.newaxis, :] 
    244 
--> 245  distances = safe_sparse_dot(X, Y.T, dense_output=True) 
    246  distances *= -2 
    247  distances += XX 

/usr/local/lib/python3.4/site-packages/sklearn/utils/extmath.py in safe_sparse_dot(a, b, dense_output) 
    184   ret = a * b 
    185   if dense_output and hasattr(ret, "toarray"): 
--> 186    ret = ret.toarray() 
    187   return ret 
    188  else: 

/usr/local/lib/python3.4/site-packages/scipy/sparse/compressed.py in toarray(self, order, out) 
    918  def toarray(self, order=None, out=None): 
    919   """See the docstring for `spmatrix.toarray`.""" 
--> 920   return self.tocoo(copy=False).toarray(order=order, out=out) 
    921 
    922  ############################################################## 

/usr/local/lib/python3.4/site-packages/scipy/sparse/coo.py in toarray(self, order, out) 
    256   M,N = self.shape 
    257   coo_todense(M, N, self.nnz, self.row, self.col, self.data, 
--> 258      B.ravel('A'), fortran) 
    259   return B 
    260 

ValueError: could not convert integer scalar 

Używam Python 3.4.3 (Red Hat), scipy 0.18.1 i scikit-learn 0.18.1.

Próbowałem łatki małpy sugerowanej here, ale to nie zadziałało.

Googling dookoła znalazłem bugfix, który najwyraźniej rozwiązał ten sam problem dla innych typów rzadkich macierzy (takich jak csr), ale nie dla coo.

Próbowałem wysyłać DBSCAN wykresu sąsiedztwa o rzadkim promieniu (zamiast macierzy funkcji), zgodnie z sugestią here, ale ten sam błąd występuje.

Próbowałem już HDBSCAN, ale ten sam błąd się dzieje.

Jak mogę to naprawić lub ominąć to?

+0

co to jest "idxs" w 'fit_predict (tfidf [idxs])'. Czy używasz tylko niektórych wartości z tfidf? –

+0

'idxs' lista indeksów (tak, używam tylko niektórych wartości z tfidf - ma w sumie ~ 163 tys. Dokumentów, ale używam tylko ~ 107k z nich) – Parzival

+0

Czy próbowałeś aktualizować wersję scipy i scikit? ? –

Odpowiedz

3

Nawet jeśli implementacja na to pozwoli, DBSCAN prawdopodobnie przyniesie złe wyniki w przypadku tak bardzo dużych danych wymiarowych (ze statystycznego punktu widzenia, z powodu przekleństwa wymiarowego).

Zamiast tego radziłbym użyć klasy TruncatedSVD, aby zmniejszyć wymiarowość wektorów funkcji TF-IDF do 50 lub 100 komponentów, a następnie zastosować DBSCAN do wyników.

Powiązane problemy