Jestem całkiem nowy w firmie tensorflow. Używałem theano do rozwijania głębokiego uczenia się. Zauważyłem różnicę między tymi dwoma, to jest, gdzie dane wejściowe mogą być przechowywane.Dane treningowe sklepu tensorflow na pamięci GPU
W Theano obsługuje wspólną zmienną do przechowywania danych wejściowych w pamięci GPU w celu zmniejszenia transferu danych między procesorem a GPU.
W tensorflow, musimy podać dane do symbolu zastępczego, a dane mogą pochodzić z pamięci procesora lub plików.
Moje pytanie brzmi: czy możliwe jest zapisanie danych wejściowych w pamięci GPU dla tensorflow? czy robi to już w jakiś magiczny sposób?
Dzięki.
Oto pełna Przykładem tego - [mnist fully_connected_preloaded.py] (https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/how_tos/reading_data/fully_connected_preloaded.py) –
@YaroslavBulatov Dzięki ! – xyd
@YaroslavBulatov nie jesteś pewien, czy wiesz, czy nie, ale podany kod wykonuje jedną epokę w 28 sekund, co jest straszne. (Btw to jest na GPU). Co więcej, nie mogę znaleźć nawet jednego dobrego przykładu tensorflow w Internecie, który jest bardzo dziwny w porównaniu do innych ram głębokiego uczenia się, takich jak theano i latarka. Czy to dlatego, że tensorflow jest naprawdę wolniejszy od innych? Jeśli nie, to dlaczego nikt z twórców nie próbuje rozwiązać tego problemu, podczas gdy wszyscy nowi użytkownicy tensorflow mają o tym problem? – zwlayer