10

Próbuję zrobić jakąś manipulację obrazem na iPhonie, opierając się na przykładzie z przykładu GLImageProcessing firmy Apple.Zapisywanie do tego czytania z pozaoperacyjnego FBO na iPhonie; działa na symulatorze, ale nie na urządzeniu?

Ostatecznie chciałbym załadować obraz do tekstury, wykonać jedną lub więcej operacji w kodzie przykładowym (odcień, nasycenie, jasność itp.), A następnie odczytać wynikowy obraz z powrotem do późniejszego przetwarzania/zapisywania. W przeważającej części nigdy nie musiałby dotykać ekranu, więc pomyślałem, że może to być droga do FBO.

Na początek skleiłem razem mały przykład, który tworzy poza ekranem FBO, rysuje do niego, a następnie odczytuje dane z powrotem jako obraz. Byłem podekscytowany, kiedy to działało idealnie w symulatorze, a potem było bumowane, gdy zdałem sobie sprawę, że mam czarny ekran na rzeczywistym urządzeniu.

Nota prawna: mój OpenGL jest na tyle duży, że miałem sporo krzywej uczenia się w OpenGL ES i nigdy nie byłem zbyt wielkim czarodziejem tekstur. Wiem, że urządzenie ma inną charakterystykę od symulatora w zakresie dostępu do bufora ramki (obowiązkowe poza ekranem FBO i zamiana na urządzeniu, bezpośredni dostęp do symulatora), ale nie byłem w stanie znaleźć tego, co robiłem źle , nawet po dość rozległych poszukiwaniach.

Wszelkie sugestie?

// set up the offscreen FBO sizes 

int renderBufferWidth = 1280; 
int renderBufferHeight = 720; 

// now the FBO 
GLuint fbo = 0; 
glGenFramebuffersOES(1, &fbo); 
glBindFramebufferOES(GL_FRAMEBUFFER_OES, fbo); 

GLuint renderBuffer = 0; 
glGenRenderbuffersOES(1, &renderBuffer); 
glBindRenderbufferOES(GL_RENDERBUFFER_OES, renderBuffer); 
glRenderbufferStorageOES(GL_RENDERBUFFER_OES, 
         GL_RGBA8_OES, 
         renderBufferWidth, 
         renderBufferHeight); 

glFramebufferRenderbufferOES(GL_FRAMEBUFFER_OES, 
          GL_COLOR_ATTACHMENT0_OES, 
          GL_RENDERBUFFER_OES, 
          renderBuffer); 

GLenum status = glCheckFramebufferStatusOES(GL_FRAMEBUFFER_OES); 
if (status != GL_FRAMEBUFFER_COMPLETE_OES) { 
    NSLog(@"Problem with OpenGL framebuffer after specifying color render buffer: %x", status); 
} 

// throw in a test drawing 
glClearColor(0.5f, 0.5f, 0.5f, 1.0f); 
glClear(GL_COLOR_BUFFER_BIT); 


static const GLfloat triangleVertices[] = { 
    -0.5f, -0.33f, 
    0.5f, -0.33f, 
    -0.5f, 0.33f 
}; 

static const GLfloat triangleColors[] = { 
    1.0, 0.0, 0.0, 0.5, 
    0.0, 1.0, 0.0, 0.5, 
    0.0, 0.0, 1.0, 0.5 
}; 

GLint backingWidth = 320; 
GLint backingHeight = 480; 

NSLog(@"setting up view/model matrices"); 
glMatrixMode(GL_PROJECTION); 
glLoadIdentity(); 

glMatrixMode(GL_MODELVIEW); 
glLoadIdentity(); 


glVertexPointer(2, GL_FLOAT, 0, triangleVertices); 
glEnableClientState(GL_VERTEX_ARRAY); 
glColorPointer(4, GL_FLOAT, 0, triangleColors); 
glEnableClientState(GL_COLOR_ARRAY); 



// draw the triangle 
glDrawArrays(GL_TRIANGLE_STRIP, 0, 3); 


// Extract the resulting rendering as an image 
int samplesPerPixel = 4; // R, G, B and A 
int rowBytes = samplesPerPixel * renderBufferWidth; 
char* bufferData = (char*)malloc(rowBytes * renderBufferHeight); 
if (bufferData == NULL) { 
    NSLog(@"Unable to allocate buffer for image extraction."); 
} 

// works on simulator with GL_BGRA, but not on device 
glReadPixels(0, 0, renderBufferWidth, 
      renderBufferHeight, 
      GL_BGRA, 
      GL_UNSIGNED_BYTE, bufferData); 
NSLog(@"reading pixels from framebuffer"); 

// Flip it vertically - images read from OpenGL buffers are upside-down 
char* flippedBuffer = (char*)malloc(rowBytes * renderBufferHeight); 
if (flippedBuffer == NULL) { 
    NSLog(@"Unable to allocate flipped buffer for corrected image."); 
} 

for (int i = 0 ; i < renderBufferHeight ; i++) { 
    bcopy(bufferData + i * rowBytes, 
      flippedBuffer + (renderBufferHeight - i - 1) * rowBytes, 
      rowBytes); 
} 

// unbind my FBO 
glBindFramebufferOES(GL_FRAMEBUFFER_OES, 0); 

// Output the image to a file 


CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB(); 
int bitsPerComponent = 8; 

CGBitmapInfo bitmapInfo = kCGImageAlphaNoneSkipFirst | kCGBitmapByteOrder32Host; 
CGContextRef contextRef = CGBitmapContextCreate(flippedBuffer, 
               renderBufferWidth, 
               renderBufferHeight, 
               bitsPerComponent, 
               rowBytes, colorSpace, bitmapInfo); 
if (contextRef == nil) { 
    NSLog(@"Unable to create CGContextRef."); 
} 

CGImageRef imageRef = CGBitmapContextCreateImage(contextRef); 

if (imageRef == nil) { 
    NSLog(@"Unable to create CGImageRef."); 
} else { 
    if (savedImage == NO) { 
     UIImage *myImage = [UIImage imageWithCGImage:imageRef]; 
     UIImageWriteToSavedPhotosAlbum(myImage, nil, nil, nil); 
     savedImage = YES; 
    } 
} 

Edit:

Odpowiedź, oczywiście, było to, że format bitmapy powinny być GL_RGBA nie GL_BGRA:

// works on simulator with GL_BGRA, but not on device 
glReadPixels(0, 0, renderBufferWidth, 
     renderBufferHeight, 
     **GL_RGBA**, 
     GL_UNSIGNED_BYTE, bufferData); 
+0

zrobiłeś z tym postęp? Szukam czegoś podobnego: http://stackoverflow.com/questions/4412587/how-can-i-access-the-raw-pixel-data-of-an-opengles--2-screen- render-buffer – akaru

+0

Andrew, czy twoja zmiana oznacza, że ​​zmiana naprawiła twój problem? Jeśli tak, powinieneś dodać ją jako odpowiedź i zaakceptować. Ale co mnie najbardziej interesuje: czy zakończyłeś bibliotekę obróbki obrazu opartą na GLImageProcessing? – Palimondo

Odpowiedz

4

Jak Andrew odpowiedział sam sobie:

Odpowiedź było to, że format bitmapy powinien być GL_RGBA, a nie GL_BGRA

// works on simulator with GL_BGRA, but not on device 
glReadPixels(0, 0, renderBufferWidth, 
          renderBufferHeight, 
          GL_RGBA, // <-- 
          GL_UNSIGNED_BYTE, bufferData); 
Powiązane problemy