2014-09-14 10 views
7

Większość naszych cykli CPU spędzamy na operacjach wykorzystujących małe macierze, więc zastanawiałem się, czy można zoptymalizować dla tego przypadku. Rozważmy następujący kod:Czysta Haskell 10x-100x szybciej niż HMatrix dla małych macierzy?

module Main where 

import Numeric.LinearAlgebra.HMatrix 
import Criterion.Main 


data Matrix2x2 = Matrix2x2 {-# UNPACK #-} !Double !Double !Double !Double 

mul2x2p :: Matrix2x2 -> Matrix2x2 -> Matrix2x2 
mul2x2p (Matrix2x2 a1 b1 c1 d1) (Matrix2x2 a2 b2 c2 d2) = 
    Matrix2x2 (a1*a2 + b1*c2) (a1*b2 + b1*d2) (c1*a2 + d1*c2) (c1*b2 + d1*d2) 

inv2x2 :: Matrix2x2 -> Matrix2x2 
inv2x2 (Matrix2x2 a b c d) = 
    let detInv = a * d - b * c 
    in Matrix2x2 (d/detInv) (-b/detInv) (-c/detInv) (a/detInv) 

add2x2 (Matrix2x2 a1 b1 c1 d1) (Matrix2x2 a2 b2 c2 d2) = 
    Matrix2x2 (a1+a2) (b1+b2) (c1+c2) (d1+d2) 

hm1 = matrix 2 [1, 2, 3, 4] 
hm2 = matrix 2 [5, 6, 7, 8] 

pm1 = Matrix2x2 1 2 3 4 
pm2 = Matrix2x2 5 6 7 8 

main = defaultMain [ 
    bgroup "matrix tests" [ bench "pure mult"  $ whnf (mul2x2p pm1) pm2 
         , bench "hmatrix mult" $ whnf (hm1 <>) hm2 
         , bench "pure add"  $ whnf (add2x2 pm1) pm2 
         , bench "hmatrix add" $ whnf (hm1 +) hm2 
         , bench "pure inv"  $ whnf inv2x2 pm1 
         , bench "hmatrix inv" $ whnf inv hm1 
         ]] 

Efekty:

benchmarking matrix tests/pure mult 
time     6.461 ns (6.368 ns .. 6.553 ns) 
        0.999 R² (0.998 R² .. 0.999 R²) 
mean     6.482 ns (6.394 ns .. 6.594 ns) 
std dev    345.1 ps (271.4 ps .. 477.3 ps) 
variance introduced by outliers: 77% (severely inflated) 

benchmarking matrix tests/hmatrix mult 
time     180.6 ns (178.2 ns .. 183.1 ns) 
        0.999 R² (0.998 R² .. 0.999 R²) 
mean     183.0 ns (180.6 ns .. 186.3 ns) 
std dev    9.363 ns (7.405 ns .. 12.73 ns) 
variance introduced by outliers: 71% (severely inflated) 

benchmarking matrix tests/pure add 
time     6.262 ns (6.223 ns .. 6.297 ns) 
        0.999 R² (0.999 R² .. 1.000 R²) 
mean     6.281 ns (6.220 ns .. 6.355 ns) 
std dev    235.0 ps (183.3 ps .. 321.0 ps) 
variance introduced by outliers: 62% (severely inflated) 

benchmarking matrix tests/hmatrix add 
time     116.4 ns (115.0 ns .. 117.9 ns) 
        0.999 R² (0.998 R² .. 0.999 R²) 
mean     116.3 ns (115.2 ns .. 117.7 ns) 
std dev    4.176 ns (3.447 ns .. 5.150 ns) 
variance introduced by outliers: 55% (severely inflated) 

benchmarking matrix tests/pure inv 
time     7.811 ns (7.718 ns .. 7.931 ns) 
        0.999 R² (0.998 R² .. 0.999 R²) 
mean     7.895 ns (7.808 ns .. 7.988 ns) 
std dev    296.4 ps (247.2 ps .. 358.3 ps) 
variance introduced by outliers: 62% (severely inflated) 

benchmarking matrix tests/hmatrix inv 
time     908.5 ns (901.3 ns .. 916.6 ns) 
        0.999 R² (0.998 R² .. 0.999 R²) 
mean     934.0 ns (917.6 ns .. 961.3 ns) 
std dev    73.92 ns (50.53 ns .. 108.6 ns) 
variance introduced by outliers: 84% (severely inflated) 

Moje pytania to:

1) Czy przyspieszyć rzeczywistym lub z powodu artefaktu z procesu benchmarkingu?

2) Jeśli przyspieszenie jest prawdziwe, czy istnieje istniejąca biblioteka, która będzie obsługiwać, na przykład, matryce 1x1, 2x2, 3x3, 4x4 jako przypadki specjalne?

3) Jeśli nie, jaki jest najlepszy sposób na owinięcie HMatrix, abyśmy mogli wybrać szybką ścieżkę, gdy macierz jest mała? ghc może rozpakowywać rekordy tylko z jednym konstruktorem. Czy istnieje sposób, aby automatycznie generować różne wersje naszego kodu, itp

Przykładem-test.cabal:

name:    example-test 
version:    0.1.0.0 
build-type:   Simple 
cabal-version:  >=1.10 
executable example-test 
    main-is: 
    Main.hs 
    build-depends: 
    base >=4.7 && <4.8, 
    criterion, 
    hmatrix 
    default-language: 
    Haskell2010 
    ghc-options: 
    -H12G -O3 -optc-O3 -fllvm -rtsopts -threaded -fexcess-precision -j6 +RTS -N6 -RTS -fno-ignore-asserts -fcontext-stack=150 
    -- -fforce-recomp 
+2

Rozumiesz, co „poważnie zawyżone” oznacza? –

+0

@BartekBanachewicz: To doskonały punkt, a ja zwykle to nazywam, ale wątpię, by miało to znaczący wpływ na te wyniki.Różnica w wydajności jest zdecydowanie zbyt duża; Hmatrix ma ponad 200 odchyleń od normy. –

+1

Jednak "poważnie zawyżone" może czasami wskazywać na coś nie tak z punktem odniesienia kryterium, więc jest to uzasadnione. –

Odpowiedz

3

HMatrix zapewnia funkcjonalny interfejs do standardowego gęstej algebry liniowej (SVD, wartości własnych, systemów liniowych itp.) opartej na doskonałych i wysoce zoptymalizowanych bibliotekach BLAS/LAPACK .

Istnieje narzut spowodowany przez FFI połączeń, alokacji pamięci, kontroli błędów, kod uniknąć transponuje jakąś matrycę itd To jest znikomy w porównaniu do czasu wymaganego przez typowych obliczeń macierzowych o umiarkowanych i dużych rozmiarach, , ale w przypadku bardzo małych tablic i prostych operacji obciążenie może być duże.

Nie ma bezpośrednich planów ponownego zastosowania obliczeń dla małych macierzy. To nie jest łatwe do zrobienia rzeczy lepiej niż BLAS/LAPACK, i nie jestem pewien, że pewna prędkość, jaką uzyska dla konkretnej aplikacji, jest ważniejsza niż prostota kodu i ogólność: .

Jeśli twoja aplikacja wymaga dużej liczby prostych operacji na macierzach 2x2, lub 3x3, to inne biblioteki prawdopodobnie będą bardziej odpowiednie dla tego zadania .

Zalecam jednak, aby uruchomić program w trybie profilowania, aby wykryć wąskie gardła w postaci . Benchmark wykorzystujący stałe dane może nie być w pełni reprezentatywny dla czasów spędzonych w "normalnym" programie.

Nawet jeśli okaże się, że większość czasu spędza się na tych obliczeniach z małymi macierzami , być może można przepisać swój algorytm przy użyciu równoważnego obliczenia macierzy o większym rozmiarze .

Powiązane problemy