Zastanawiam się, czy ktoś może mi pokazać, jak skutecznie wykorzystać pętlowanie/blokowanie pętli w celu efektywnego zwielokrotnienia dużej gęstości macierzy. Wykonuję C = AB z macierzami 1000x1000. Podążałem za przykładem na Wikipedii w kwestii układania pętli, ale mam gorsze wyniki przy użyciu kafelkowania niż bez.układanie pętli/blokowanie dużych mnożenia zwartych matryc
http://en.wikipedia.org/wiki/Loop_tiling
mam pod warunkiem jakiś poniższy kod. Metoda naiwna jest bardzo powolna z powodu chybienia pamięci podręcznej. Metoda transpozycji powoduje przetransponowanie w buforze wartości B B. Ta metoda daje najszybszy wynik (mnożenie macierzy idzie jako O (n^3) i transpozycja jako O (n^2), więc wykonanie transpozycji jest co najmniej 1000x szybsze). Metoda wiki bez blokowania jest również szybka i nie wymaga bufora. Metoda blokowania jest wolniejsza. Innym problemem z blokowaniem jest konieczność aktualizacji bloku kilka razy. Jest to wyzwanie dla wątków/OpenMP, ponieważ może powodować warunki wyścigu, jeśli nie jest ostrożny.
Należy zauważyć, że przy użyciu AVX z modyfikacją metody transpozycji uzyskuję wyniki szybciej niż Eigen. Jednak moje wyniki z SSE są nieco wolniejsze niż Eigen, więc myślę, że lepiej byłoby użyć buforowania.
Edytuj: Myślę, że mam pomysł, co chcę zrobić. To wynika z algorytmu Cannona od 1969
http://en.wikipedia.org/wiki/Matrix_multiplication#Communication-avoiding_and_distributed_algorithms
trzeba wykonać mnożenie macierzy bloku i ma każda nić uchwyt podpotok matrycy C zamiast i B . Na przykład, jeśli podzielę moje macierze na cztery bloki. Zrobiłbym:
[C1 C2 [A1 A2 [B1 B2
C3 C4] = A3 A4] x B3 B4]
thread 1: C1 = A1B1 + A2B3
thread 2: C2 = A1B2 + A2B4
thread 3: C3 = A3B1 + A4B3
thread 4: C4 = A3B2 + A4B4
Który usuwa stan wyścigu. Muszę o tym pomyśleć.
void matrix_mult_naive(const float*A , const float* B, float* C, const int N, const int M, const int K) {
#pragma omp parallel for
for(int i=0; i<N; i++) {
for(int j=0; j<K; j++) {
float tmp = 0;
for(int l=0; l<M; l++) {
tmp += A[M*i+l]*B[K*l+j];
}
C[K*i + j] = tmp;
}
}
}
void matrix_mult_transpose(const float*A , const float* B, float* C, const int N, const int M, const int K) {
float *B2 = (float*)aligned_malloc(M*K*sizeof(float), 32);
transpose(B, B2, M, K, 1);
#pragma omp parallel for
for(int i=0; i<N; i++) {
for(int j=0; j<K; j++) {
float tmp = 0;
for(int l=0; l<M; l++) {
tmp += A[M*i+l]*B2[M*j+l];
}
C[K*i + j] = tmp;
}
}
aligned_free(B2);
}
void matrix_mult_wiki(const float*A , const float* B, float* C, const int N, const int M, const int K) {
for(int i=0; i<N; i++) {
for(int j=0; j<K; j++) {
C[K*i + j] = 0;
}
}
#pragma omp parallel for
for(int i=0; i<N; i++) {
for(int l=0; l<M; l++) {
float a = A[M*i+l];
for(int j=0; j<K; j++) {
C[K*i + j] += a*B[K*l+j];
}
}
}
}
void matrix_mult_wiki_block(const float*A , const float* B, float* C, const int N, const int M, const int K) {
const int block_size = 8; //I have tried several different block sizes
for(int i=0; i<N; i++) {
for(int j=0; j<K; j++) {
C[K*i + j] = 0;
}
}
for(int l2=0; l2<M; l2+=block_size) {
for(int j2=0; j2<K; j2+=block_size) {
#pragma omp parallel for
for(int i=0; i<N; i++) {
for(int l=l2; l<min(M, l2+block_size); l++) {
for(int j=j2; j<min(K, j2+block_size); j++) {
C[K*i + j] += A[M*i+l]*B[K*l+j];
}
}
}
}
}
}
Chcesz, aby równoległość przechodziła wokół pętli zewnętrznej (płytki), a nie wewnątrz. Chodzi o to, aby każdy rdzeń mógł wykonywać mnożenie płytek w szybkiej lokalnej pamięci podręcznej, a kilka rdzeni mogło to robić w tym samym czasie. –
To tworzy warunek wyścigu. C [K * i + j] jest zapisywane kilka razy. –
Mam na myśli na przykład, że dla i = 0, j = 0 C [0] jest zapisywane wielokrotnie w metodzie blokowej. –