Moja maszyna ma następującą specyfikację:Dlaczego mój procesor graficzny jest wolniejszy od procesora podczas szkolenia modeli LSTM/RNN?
procesora: Xeon E5-1620 v4
GPU: Titan X (Pascal)
Ubuntu 16.04
sterownika Nvidia 375.26
CUDA tookit 8.0
cuDNN 5.1
Mam odwzorować na poniższych przykładach Keras z Tensorflow jak poparte reference:
SCRIPT NAME GPU CPU
stated_lstm.py 5sec 5sec
babi_rnn.py 10sec 12sec
imdb_bidirectional_lstm.py 240sec 116sec
imbd_lstm.py 113sec 106sec
Moja gpu jest wyraźnie się wykonując mój cpu w modelach bez LSTM.
SCRIPT NAME GPU CPU
cifar10_cnn.py 12sec 123sec
imdb_cnn.py 5sec 119sec
mnist_cnn.py 3sec 47sec
Czy ktoś jeszcze tego doświadczył?
Mogłabym zwiększyć wielkość partii zarówno dla mojego procesora GPU, jak i procesora, a oba będą działać podobnie, oczekiwałbym, że procesor gpu będzie działał lepiej. Wydaje się, że zbliżamy się do podobnych czasów, mimo że moja karta graficzna jest znacznie silniejsza niż 1050ti. Mój gpu wyraźnie przewyższa mojego cpu na cnns, ale nie lstm, dlaczego tak jest? – agsolid
@agsolid Twój procesor jest bardzo szybki. Mój Core i3-4330 oblicza imdb_lstm.py (partia = 128) w 110 sekundach na epokę a 25 na GPU. Twój procesor graficzny jest także szybszy niż mój. Różnica dotyczy procentu wykorzystania (twój jest niższy). –
Jak mogę wykorzystać pełną moc GPU? – agsolid