2015-03-14 14 views
7

To nie jest nierozsądne pytanie. Architektura Nvidii i ATI różni się na tyle, że w przypadku niektórych zadań (takich jak wydobywanie bitcoinów) ATI jest znacznie lepsza niż Nvidia.Który model/marka GPU jest optymalny dla sieci neuronowych?

To samo może dotyczyć przetwarzania związanego z siecią neuronową. Próbowałem znaleźć porównania dwóch marek GPU w takim kontekście, ale nie udało mi się tego zrobić.

Oczekuję, że najważniejszą rzeczą w przetwarzaniu sieci neuronowych w GPU jest liczba rdzeni. Czy to prawda?

Odpowiedz

8

Prawie wszystkie oprogramowanie ML, które korzysta z GPU działa (najlepiej) z CUDA, zatem procesory graficzne Nvidii są lepsze.

Spójrz na this discussion. I jest artykuł o which GPU to get for deep learning (nowoczesne sieci neuronowe). Odpowiednia wycena:

Jaki rodzaj GPU powinienem uzyskać? NVIDIA czy AMD?

Standardowe biblioteki NVIDIA bardzo ułatwiły stworzenie pierwszych bibliotek do nauki głębokiej w CUDA, podczas gdy nie było tak potężnych standardowych bibliotek dla OpenCL AMD. W tej chwili nie ma dobrych bibliotek do głębokiego uczenia się kart AMD - tak jest w przypadku NVIDII. Nawet jeśli niektóre biblioteki OpenCL będą dostępne w przyszłości, pozostanę przy NVIDIA: chodzi o to, że społeczność GPU lub GPGPU jest bardzo duża dla CUDA i raczej mała dla OpenCL. Tak więc w społeczności CUDA dostępne są dobre rozwiązania open source i solidne porady dotyczące programowania.

Powodem NVIDIA skały jest to, że zainwestowała wiele wysiłku w poparcie obliczeń naukowych (patrz cuDNN np. Oznacza to, że uznają pole i spróbować przenieść do tych zastosowań).

Firma NVIDIA ma wiele procesorów graficznych. Który powinieneś dostać?

Krótka odpowiedź, na podstawie art cytowany powyżej (Sugeruję, aby ją przeczytać!): GTX 980.

Faktycznie, ilość rdzeni nie jest aż tak istotne. Procesory graficzne nie mają dużej ilości pamięci, więc komunikacja z hostem (twoja pamięć RAM) jest nieunikniona. Ważna jest więc ilość wbudowanej pamięci (aby można było ładować i przetwarzać więcej) oraz przepustowość (aby nie spędzać dużo czasu na oczekiwaniu).

Powiązane problemy