Mam prosty model NN wykrywania ręcznie pisane cyfry z 28x28px obrazu napisany w Pythonie z użyciem Keras Theano (backend):Keras model.summary() Wynik - Zrozumienie liczbie parametrów
model0 = Sequential()
#number of epochs to train for
nb_epoch = 12
#amount of data each iteration in an epoch sees
batch_size = 128
model0.add(Flatten(input_shape=(1, img_rows, img_cols)))
model0.add(Dense(nb_classes))
model0.add(Activation('softmax'))
model0.compile(loss='categorical_crossentropy',
optimizer='sgd',
metrics=['accuracy'])
model0.fit(X_train, Y_train, batch_size=batch_size, nb_epoch=nb_epoch,
verbose=1, validation_data=(X_test, Y_test))
score = model0.evaluate(X_test, Y_test, verbose=0)
print('Test score:', score[0])
print('Test accuracy:', score[1])
ten działa dobrze i uzyskuję dokładność ~ 90%. Następnie wykonuję następujące polecenie, aby uzyskać podsumowanie struktury mojej sieci, wykonując print(model0.summary())
. To wyprowadza następujące:
Layer (type) Output Shape Param # Connected to
=====================================================================
flatten_1 (Flatten) (None, 784) 0 flatten_input_1[0][0]
dense_1 (Dense) (None, 10) 7850 flatten_1[0][0]
activation_1 (None, 10) 0 dense_1[0][0]
======================================================================
Total params: 7850
Nie rozumiem, w jaki sposób uzyskują one łącznie 7850 params i co to właściwie oznacza?
Dziękujemy! Dlaczego jest jedna waga połączenia z uprzedzeniem? Jaki jest tego cel? – user3501476