2015-12-13 20 views

Odpowiedz

10

Jeśli zainicjujesz model pod numerem verbose=True przed wywołaniem fit, powinieneś uzyskać dane wyjściowe wskazujące postęp. Na przykład GradientBoostedClassifer zapewnia wyjście postępu, który wygląda tak:

Iter  Train Loss Remaining Time 
    1   1.2811   0.71s 
    2   1.2595   0.58s 
    3   1.2402   0.50s 
    4   1.2263   0.46s 
    5   1.2121   0.43s 
    6   1.1999   0.41s 
    7   1.1876   0.39s 
    8   1.1761   0.38s 
    9   1.1673   0.37s 
    10   1.1591   0.36s 
    20   1.1021   0.29s 
    30   1.0511   0.27s 
    40   1.0116   0.25s 
    50   0.9830   0.22s 
    60   0.9581   0.19s 
    70   0.9377   0.16s 
    80   0.9169   0.14s 
    90   0.9049   0.12s 
    100   0.8973   0.10s 
+2

fit() otrzymała nieoczekiwany argument ze słowem kluczowym "verbose" –

+1

Dodaj słowo kluczowe do modelu, a nie dopasowanie metody połączenia. Ponadto, używając SVR, ustawienie verbose = True dodawało żadnego wyjścia, o ile wiem. – oskopek

+0

O ile czegoś mi nie brakuje, meta-estymatory używane do multiclass/multilabel nie dopuszczają takich słów kluczowych. Na przykład nie można użyć verbose = True jako parametru do OneVsRestClassifier(), tylko do klasyfikatora, którego używasz w nim. Jest to niefortunne, ponieważ nie można uzyskać postępu na wysokim poziomie. – Stephen

12

Wiele modeli podtrzymywać opisowy argument, który daje postępu (a czasami wskazanie na tempo konwergencji).

np.

clf = MPLClassifier(verbose=True)

(see MLPClassifier)

Jeśli masz pętlę poza modelu uczenia się, polecam tqdm.