Prawie wszystkie oprogramowanie ML, które korzysta z GPU działa (najlepiej) z CUDA, zatem procesory graficzne Nvidii są lepsze.
Spójrz na this discussion. I jest artykuł o which GPU to get for deep learning (nowoczesne sieci neuronowe). Odpowiednia wycena:
Jaki rodzaj GPU powinienem uzyskać? NVIDIA czy AMD?
Standardowe biblioteki NVIDIA bardzo ułatwiły stworzenie pierwszych bibliotek do nauki głębokiej w CUDA, podczas gdy nie było tak potężnych standardowych bibliotek dla OpenCL AMD. W tej chwili nie ma dobrych bibliotek do głębokiego uczenia się kart AMD - tak jest w przypadku NVIDII. Nawet jeśli niektóre biblioteki OpenCL będą dostępne w przyszłości, pozostanę przy NVIDIA: chodzi o to, że społeczność GPU lub GPGPU jest bardzo duża dla CUDA i raczej mała dla OpenCL. Tak więc w społeczności CUDA dostępne są dobre rozwiązania open source i solidne porady dotyczące programowania.
Powodem NVIDIA skały jest to, że zainwestowała wiele wysiłku w poparcie obliczeń naukowych (patrz cuDNN np. Oznacza to, że uznają pole i spróbować przenieść do tych zastosowań).
Firma NVIDIA ma wiele procesorów graficznych. Który powinieneś dostać?
Krótka odpowiedź, na podstawie art cytowany powyżej (Sugeruję, aby ją przeczytać!): GTX 980.
Faktycznie, ilość rdzeni nie jest aż tak istotne. Procesory graficzne nie mają dużej ilości pamięci, więc komunikacja z hostem (twoja pamięć RAM) jest nieunikniona. Ważna jest więc ilość wbudowanej pamięci (aby można było ładować i przetwarzać więcej) oraz przepustowość (aby nie spędzać dużo czasu na oczekiwaniu).