Chociaż procesory graficzne mają być używane z typami zmiennoprzecinkowymi, byłbym zainteresowany, jak szybko GPU może przetwarzać operacje bitowe. Są one najszybsze na procesorze, ale czy GPU emuluje operacje bitowe lub czy są one w pełni obliczane na sprzęcie? Planuję użyć ich w programach cieniujących napisanych przy pomocy GLSL. Również przypuszczam, że jeśli operacje bitowe mają pełną wydajność, to powinny również istnieć typy danych liczb całkowitych, ale potrzebuję potwierdzenia tego.Wydajność operacji na liczbach całkowitych i bitowych na GPU
Aby być bardziej precyzyjnym, docelowymi wersjami są OpenGL 3.2 i GLSL 1.5. Sprzętem, który powinien to uruchomić, jest jakakolwiek karta graficzna Radeon HD i seria GeForce 8 i nowsza. Jeśli są jakieś poważne zmiany w nowszych wersjach OpenGL i GLSL związane z szybkościami przetwarzania bitowych operacji/liczb całkowitych, byłbym zadowolony, gdybyś " Wskaż je.
Musisz podać konkretną architekturę GPU lub przynajmniej wersję OpenGL. W tej chwili to pytanie jest strasznie niejasne. –
@BenVoigt zaktualizowany, czy jest on wystarczająco dokładny, czy potrzebujesz konkretnej nazwy kodowej architektury (zmieniają się tak jak w przypadku każdej nowej karty) – Raven
Raven: Istnieje kilka ogromnych zmian między Radeonem HD 1xxx i HD 7xxx, ale ta dodatkowa informacja to duża poprawa. Zakładając, że patrzysz na karty, które reklamują obsługę OpenGL 3.2 (lub później), to prawdopodobnie wystarczająco jasne. –