W książce Programming Massively Parallel Processors
liczba gflops jest używana do porównania wydajności różnych jąder mnożenia macierzy. Jak obliczyć to dla moich własnych ziaren na mojej własnej maszynie?Jak zmierzyć gflops jądra mnożenia macierzy?
Gdzieś na forach NVIDIA znalazłem ten "algorytm", ale nie wiem, jak ważny jest on lub skąd pochodzą czasy drugie.
NumOps = 2 * pow(MatrixSize,3)
gflops = 1.0e-9 * NumOps/ExecutionTime
p.s. zmień znaczniki ...
+1. Po prostu dodam, że na sprzęcie z wbudowaną instrukcją FMAD (fused multiply and add), która zawiera wszystkie najnowsze procesory nvidia, ludzie będą sprzeczać się, czy użyć współczynnika 2 przed terminem MatrixSize^3. Tak długo, jak robisz to konsekwentnie, nie powinno to mieć większego znaczenia. –