Próbuję przekonwertować kod c na zoptymalizowany za pomocą neonu wewnętrznej.Neonowy odpowiednik SSE intrinsics
Oto kody c, które operują na 2 operantach nie nad wektorami operantów.
uint16_t mult_z216(uint16_t a,uint16_t b){
unsigned int c1 = a*b;
if(c1)
{
int c1h = c1 >> 16;
int c1l = c1 & 0xffff;
return (c1l - c1h + ((c1l<c1h)?1:0)) & 0xffff;
}
return (1-a-b) & 0xffff;
}
Wersja tej operacji SEE zoptymalizowany został już wdrożony brzmienie:
#define MULT_Z216_SSE(a, b, c) \
t0 = _mm_or_si128 ((a), (b)); \ //Computes the bitwise OR of the 128-bit value in a and the 128-bit value in b.
(c) = _mm_mullo_epi16 ((a), (b)); \ //low 16-bits of the product of two 16-bit integers
(a) = _mm_mulhi_epu16 ((a), (b)); \ //high 16-bits of the product of two 16-bit unsigned integers
(b) = _mm_subs_epu16((c), (a)); \ //Subtracts the 8 unsigned 16-bit integers of a from the 8 unsigned 16-bit integers of c and saturates
(b) = _mm_cmpeq_epi16 ((b), C_0x0_XMM); \ //Compares the 8 signed or unsigned 16-bit integers in a and the 8 signed or unsigned 16-bit integers in b for equality. (0xFFFF or 0x0)
(b) = _mm_srli_epi16 ((b), 15); \ //shift right 16 bits
(c) = _mm_sub_epi16 ((c), (a)); \ //Subtracts the 8 signed or unsigned 16-bit integers of b from the 8 signed or unsigned 16-bit integers of a.
(a) = _mm_cmpeq_epi16 ((c), C_0x0_XMM); \ ////Compares the 8 signed or unsigned 16-bit integers in a and the 8 signed or unsigned 16-bit integers in b for equality. (0xFFFF or 0x0)
(c) = _mm_add_epi16 ((c), (b)); \ // Adds the 8 signed or unsigned 16-bit integers in a to the 8 signed or unsigned 16-bit integers in b.
t0 = _mm_and_si128 (t0, (a)); \ //Computes the bitwise AND of the 128-bit value in a and the 128-bit value in b.
(c) = _mm_sub_epi16 ((c), t0); ///Subtracts the 8 signed or unsigned 16-bit integers of b from the 8 signed or unsigned 16-bit integers of a.
Mam prawie przekształcony ten jeden użyciu neon intrinsics:
#define MULT_Z216_NEON(a, b, out) \
temp = vorrq_u16 (*a, *b); \
// ??
// ??
*b = vsubq_u16(*out, *a); \
*b = vceqq_u16(*out, vdupq_n_u16(0x0000)); \
*b = vshrq_n_u16(*b, 15); \
*out = vsubq_s16(*out, *a); \
*a = vceqq_s16(*c, vdupq_n_u16(0x0000)); \
*c = vaddq_s16(*c, *b); \
*temp = vandq_u16(*temp, *a); \
*out = vsubq_s16(*out, *a);
Jestem brakuje tylko neonowych odpowiedników _mm_mullo_epi16 ((a), (b));
i _mm_mulhi_epu16 ((a), (b));
. Albo coś nie rozumiem, albo nie ma w NEON takich rzeczy wewnętrznych. Jeśli nie ma odpowiednika, jak zarchiwizować te kroki za pomocą NEONS intrinsics?
UPDATE:
ja zapomniał podkreślić następujące rzeczy: operand funkcji są uint16x8_t wektory NEON (każdy element jest uint16_t> = liczby całkowite od 0 do 65535). W odpowiedzi ktoś zaproponował użycie wewnętrznego vqdmulhq_s16()
. Użycie tego nie będzie zgodne z daną implementacją, ponieważ mnożenie wewnętrzne interpretuje wektory jako podpisane wartości i generuje błędne wyjście.
Jeśli będziesz mieć wartości> 32767, będziesz musiał użyć proponowanego poniżej poszerzenia (vmull_u16). Jeśli wiesz, że twoje wartości będą <32768, wtedy możesz użyć vqdmulhq_s16. – BitBank