2015-03-15 9 views
5

Jako programista wysokiego poziomu/iOS, jestem zainteresowany wykorzystaniem SceneKit do projektów animacji.Renderowanie sceny SceneKit do wyjścia wideo

Od kilku miesięcy bawię się z SceneKit, mimo że jest on oczywiście przeznaczony do interakcji "na żywo", uważam za niezwykle przydatne, aby móc "renderować" SKScene do wideo. Obecnie używam rejestratora ekranu Quicktime do przechwytywania obrazu wideo, ale (oczywiście) spada w tym czasie liczba klatek na sekundę. Czy istnieje alternatywa, która pozwala na renderowanie sceny we własnym tempie i generowanie jej jako płynnego pliku wideo?

Rozumiem, że jest mało prawdopodobne, aby było to możliwe ... Pomyślałem, że zapytam, na wypadek, gdyby brakowało mi czegoś na niższym poziomie!

+0

Z której opcji skorzystałeś? Czy udało Ci się znaleźć coś, co również renderowało wideo, jakby zostało zrobione z ruchomego węzła kamery? – Crashalot

Odpowiedz

2

To byłoby całkiem proste! Oto pseudokod, jak chciałbym to zrobić (na SCNView):

int numberOfFrames = 300; 
int currentFrame = 0; 
int framesPerSecond = 30; 

-(void) renderAFrame{ 
    [self renderAtTime:1/framesPerSecond]; 

    NSImage *frame = [self snapshot]; 

    // save the image with the frame number in the name such as f_001.png 

    currentFrame++; 

    if(currentFrame < numberOfFrames){ 
     [self renderAFrame]; 
    } 

} 

To wyświetli Ci sekwencję obrazów, świadczonych z prędkością 30 klatek na sekundę, które można importować w dowolnym programie do edycji i konwersji do wideo.

+0

wykonałeś tę pracę za Ciebie? próbowaliśmy czegoś podobnego, ale zmiana sceny między ramkami (np. umieszczenie węzłów lub przesuwanie kamery) nie została zsynchronizowana z zrzutem ekranu/migawką, co oznacza, że ​​utworzono by blok, ale nie został on odzwierciedlony w następnej migawce. – Crashalot

1

Można użyć obiektu SCNRenderer, aby renderować obraz CGImage poza ekranem, a następnie dodać obraz CG do strumienia wideo za pomocą funkcji AVFoundation.

Napisałem to rozszerzenie Swift do renderowania na obraz CG.

public extension SCNRenderer { 

    public func renderToImageSize(size: CGSize, floatComponents: Bool, atTime time: NSTimeInterval) -> CGImage? { 

     var thumbnailCGImage: CGImage? 

     let width = GLsizei(size.width), height = GLsizei(size.height) 
     let samplesPerPixel = 4 

     #if os(iOS) 
      let oldGLContext = EAGLContext.currentContext() 
      let glContext = unsafeBitCast(context, EAGLContext.self) 

      EAGLContext.setCurrentContext(glContext) 
      objc_sync_enter(glContext) 
     #elseif os(OSX) 
      let oldGLContext = CGLGetCurrentContext() 
      let glContext = unsafeBitCast(context, CGLContextObj.self) 

      CGLSetCurrentContext(glContext) 
      CGLLockContext(glContext) 
     #endif 

     // set up the OpenGL buffers 
     var thumbnailFramebuffer: GLuint = 0 
     glGenFramebuffers(1, &thumbnailFramebuffer) 
     glBindFramebuffer(GLenum(GL_FRAMEBUFFER), thumbnailFramebuffer); checkGLErrors() 

     var colorRenderbuffer: GLuint = 0 
     glGenRenderbuffers(1, &colorRenderbuffer) 
     glBindRenderbuffer(GLenum(GL_RENDERBUFFER), colorRenderbuffer) 
     if floatComponents { 
      glRenderbufferStorage(GLenum(GL_RENDERBUFFER), GLenum(GL_RGBA16F), width, height) 
     } else { 
      glRenderbufferStorage(GLenum(GL_RENDERBUFFER), GLenum(GL_RGBA8), width, height) 
     } 
     glFramebufferRenderbuffer(GLenum(GL_FRAMEBUFFER), GLenum(GL_COLOR_ATTACHMENT0), GLenum(GL_RENDERBUFFER), colorRenderbuffer); checkGLErrors() 

     var depthRenderbuffer: GLuint = 0 
     glGenRenderbuffers(1, &depthRenderbuffer) 
     glBindRenderbuffer(GLenum(GL_RENDERBUFFER), depthRenderbuffer) 
     glRenderbufferStorage(GLenum(GL_RENDERBUFFER), GLenum(GL_DEPTH_COMPONENT24), width, height) 
     glFramebufferRenderbuffer(GLenum(GL_FRAMEBUFFER), GLenum(GL_DEPTH_ATTACHMENT), GLenum(GL_RENDERBUFFER), depthRenderbuffer); checkGLErrors() 

     let framebufferStatus = Int32(glCheckFramebufferStatus(GLenum(GL_FRAMEBUFFER))) 
     assert(framebufferStatus == GL_FRAMEBUFFER_COMPLETE) 
     if framebufferStatus != GL_FRAMEBUFFER_COMPLETE { 
      return nil 
     } 

     // clear buffer 
     glViewport(0, 0, width, height) 
     glClear(GLbitfield(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT)); checkGLErrors() 

     // render 
     renderAtTime(time); checkGLErrors() 

     // create the image 
     if floatComponents { // float components (16-bits of actual precision) 

      // slurp bytes out of OpenGL 
      typealias ComponentType = Float 

      var imageRawBuffer = [ComponentType](count: Int(width * height) * samplesPerPixel * sizeof(ComponentType), repeatedValue: 0) 
      glReadPixels(GLint(0), GLint(0), width, height, GLenum(GL_RGBA), GLenum(GL_FLOAT), &imageRawBuffer) 

      // flip image vertically — OpenGL has a different 'up' than CoreGraphics 
      let rowLength = Int(width) * samplesPerPixel 
      for rowIndex in 0..<(Int(height)/2) { 
       let baseIndex = rowIndex * rowLength 
       let destinationIndex = (Int(height) - 1 - rowIndex) * rowLength 

       swap(&imageRawBuffer[baseIndex..<(baseIndex + rowLength)], &imageRawBuffer[destinationIndex..<(destinationIndex + rowLength)]) 
      } 

      // make the CGImage 
      var imageBuffer = vImage_Buffer(
       data: UnsafeMutablePointer<Float>(imageRawBuffer), 
       height: vImagePixelCount(height), 
       width: vImagePixelCount(width), 
       rowBytes: Int(width) * sizeof(ComponentType) * samplesPerPixel) 

      var format = vImage_CGImageFormat(
       bitsPerComponent: UInt32(sizeof(ComponentType) * 8), 
       bitsPerPixel: UInt32(sizeof(ComponentType) * samplesPerPixel * 8), 
       colorSpace: nil, // defaults to sRGB 
       bitmapInfo: CGBitmapInfo(CGImageAlphaInfo.PremultipliedLast.rawValue | CGBitmapInfo.ByteOrder32Little.rawValue | CGBitmapInfo.FloatComponents.rawValue), 
       version: UInt32(0), 
       decode: nil, 
       renderingIntent: kCGRenderingIntentDefault) 

      var error: vImage_Error = 0 
      thumbnailCGImage = vImageCreateCGImageFromBuffer(&imageBuffer, &format, nil, nil, vImage_Flags(kvImagePrintDiagnosticsToConsole), &error)!.takeRetainedValue() 

     } else { // byte components 

      // slurp bytes out of OpenGL 
      typealias ComponentType = UInt8 

      var imageRawBuffer = [ComponentType](count: Int(width * height) * samplesPerPixel * sizeof(ComponentType), repeatedValue: 0) 
      glReadPixels(GLint(0), GLint(0), width, height, GLenum(GL_RGBA), GLenum(GL_UNSIGNED_BYTE), &imageRawBuffer) 

      // flip image vertically — OpenGL has a different 'up' than CoreGraphics 
      let rowLength = Int(width) * samplesPerPixel 
      for rowIndex in 0..<(Int(height)/2) { 
       let baseIndex = rowIndex * rowLength 
       let destinationIndex = (Int(height) - 1 - rowIndex) * rowLength 

       swap(&imageRawBuffer[baseIndex..<(baseIndex + rowLength)], &imageRawBuffer[destinationIndex..<(destinationIndex + rowLength)]) 
      } 

      // make the CGImage 
      var imageBuffer = vImage_Buffer(
       data: UnsafeMutablePointer<Float>(imageRawBuffer), 
       height: vImagePixelCount(height), 
       width: vImagePixelCount(width), 
       rowBytes: Int(width) * sizeof(ComponentType) * samplesPerPixel) 

      var format = vImage_CGImageFormat(
       bitsPerComponent: UInt32(sizeof(ComponentType) * 8), 
       bitsPerPixel: UInt32(sizeof(ComponentType) * samplesPerPixel * 8), 
       colorSpace: nil, // defaults to sRGB 
       bitmapInfo: CGBitmapInfo(CGImageAlphaInfo.PremultipliedLast.rawValue | CGBitmapInfo.ByteOrder32Big.rawValue), 
       version: UInt32(0), 
       decode: nil, 
       renderingIntent: kCGRenderingIntentDefault) 

      var error: vImage_Error = 0 
      thumbnailCGImage = vImageCreateCGImageFromBuffer(&imageBuffer, &format, nil, nil, vImage_Flags(kvImagePrintDiagnosticsToConsole), &error)!.takeRetainedValue() 
     } 

     #if os(iOS) 
      objc_sync_exit(glContext) 
      if oldGLContext != nil { 
       EAGLContext.setCurrentContext(oldGLContext) 
      } 
     #elseif os(OSX) 
      CGLUnlockContext(glContext) 
      if oldGLContext != nil { 
       CGLSetCurrentContext(oldGLContext) 
      } 
     #endif 

     return thumbnailCGImage 
    } 
} 


func checkGLErrors() { 
    var glError: GLenum 
    var hadError = false 
    do { 
     glError = glGetError() 
     if glError != 0 { 
      println(String(format: "OpenGL error %#x", glError)) 
      hadError = true 
     } 
    } while glError != 0 
    assert(!hadError) 
} 
+0

To wygląda niesamowicie! Czy to działałoby, gdybyśmy chcieli przechwycić wideo tak, jakby pochodził z ruchomego węzła kamery? Innymi słowy, celem jest symulacja wideo z węzła kamery badającego SCNView. – Crashalot

+0

Yah, to renderuje z bieżącego węzła scene.pointOfView renderera, więc możesz po prostu przenieść ten węzeł i/lub zmienić jego SCNCamera pomiędzy klatkami, aby animować. –

+0

Dzięki @WilShipley! Jeśli nie masz nic przeciwko, chciałbyś poprosić o coś przez e-mail. Jaki jest najlepszy sposób, aby do Ciebie dotrzeć? – Crashalot

0

Można zrobić to w ten sposób z SKVideoNode można umieścić w SKScene który służy do mapie jako SCNode za SCMaterial.Diffuse.Content (mam nadzieję, że jest jasne;))

 player                = AVPlayer(URL: fileURL!) 
     let videoSpriteKitNodeLeft           = SKVideoNode(AVPlayer: player) 
     let videoNodeLeft             = SCNNode() 
     let spriteKitScene1             = SKScene(size: CGSize(width: 1280 * screenScale, height: 1280 * screenScale)) 
     spriteKitScene1.shouldRasterize          = true 

     videoNodeLeft.geometry            = SCNSphere(radius: 30) 
     spriteKitScene1.scaleMode           = .AspectFit 
     videoSpriteKitNodeLeft.position          = CGPoint(x: spriteKitScene1.size.width/2.0, y: spriteKitScene1.size.height/2.0) 
     videoSpriteKitNodeLeft.size           = spriteKitScene1.size 

     spriteKitScene1.addChild(videoSpriteKitNodeLeft) 

     videoNodeLeft.geometry?.firstMaterial?.diffuse.contents    = spriteKitScene1 
     videoNodeLeft.geometry?.firstMaterial?.doubleSided     = true 

     // Flip video upside down, so that it's shown in the right position 
     var transform              = SCNMatrix4MakeRotation(Float(M_PI), 0.0, 0.0, 1.0)    transform               = SCNMatrix4Translate(transform, 1.0, 1.0, 0.0) 

     videoNodeLeft.pivot             = SCNMatrix4MakeRotation(Float(M_PI_2), 0.0, -1.0, 0.0) 
     videoNodeLeft.geometry?.firstMaterial?.diffuse.contentsTransform = transform 

     videoNodeLeft.position            = SCNVector3(x: 0, y: 0, z: 0) 

     scene.rootNode.addChildNode(videoNodeLeft) 

I ve wyodrębnił kod z mojego projektu Github dla odtwarzacza wideo 360 za pomocą SceneKit, aby odtworzyć wideo wewnątrz sfery 3D: https://github.com/Aralekk/simple360player_iOS/blob/master/simple360player/ViewController.swift

Mam nadzieję, że to pomoże!

Arthur

2

** To jest odpowiedź dla programu SceneKit przy użyciu metalu.

** Ostrzeżenie: ta metoda może nie być odpowiednia dla sklepu App Store. Ale działa.

Krok 1: Zamień metodę nextDrawable of CAMetalLayer na nową za pomocą swizzling. Zapisz CAMetalDrawable dla każdej pętli renderowania.

extension CAMetalLayer { 
    public static func setupSwizzling() { 
    struct Static { 
     static var token: dispatch_once_t = 0 
    } 

    dispatch_once(&Static.token) { 
     let copiedOriginalSelector = #selector(CAMetalLayer.orginalNextDrawable) 
     let originalSelector = #selector(CAMetalLayer.nextDrawable) 
     let swizzledSelector = #selector(CAMetalLayer.newNextDrawable) 

     let copiedOriginalMethod = class_getInstanceMethod(self, copiedOriginalSelector) 
     let originalMethod = class_getInstanceMethod(self, originalSelector) 
     let swizzledMethod = class_getInstanceMethod(self, swizzledSelector) 

     let oldImp = method_getImplementation(originalMethod) 
     method_setImplementation(copiedOriginalMethod, oldImp) 
     method_exchangeImplementations(originalMethod, swizzledMethod) 
    } 
    } 


    func newNextDrawable() -> CAMetalDrawable? { 
    let drawable = orginalNextDrawable() 
    // Save the drawable to any where you want 
    AppManager.sharedInstance.currentSceneDrawable = drawable 
    return drawable 
    } 

    func orginalNextDrawable() -> CAMetalDrawable? { 
    // This is just a placeholder. Implementation will be replaced with nextDrawable. 
    return nil 
    } 
} 

Krok 2: Konfiguracja swizzling w AppDelegate: didFinishLaunchingWithOptions

func application(application: UIApplication, didFinishLaunchingWithOptions launchOptions: [NSObject: AnyObject]?) -> Bool { 
    CAMetalLayer.setupSwizzling() 
    return true 
} 

Krok 3: Wyłącz framebufferOnly dla Twojego za SCNView za CAMetalLayer (W celu wywołania getBytes dla MTLTexture)

if let metalLayer = scnView.layer as? CAMetalLayer { 
    metalLayer.framebufferOnly = false 
} 

Krok 4: W swoim uczestniku SCNView (SCNSceneRendererDelegate), graj z t exture

func renderer(renderer: SCNSceneRenderer, didRenderScene scene: SCNScene, atTime time: NSTimeInterval) { 
    if let texture = AppManager.sharedInstance.currentSceneDrawable?.texture where !texture.framebufferOnly { 
     AppManager.sharedInstance.currentSceneDrawable = nil 
     // Get image from texture 
     let image = texture.toImage() 
     // Use the image for video recording 
    } 
} 

extension MTLTexture { 
    func bytes() -> UnsafeMutablePointer<Void> { 
    let width = self.width 
    let height = self.height 
    let rowBytes = self.width * 4 
    let p = malloc(width * height * 4) //Beware for memory leak 
    self.getBytes(p, bytesPerRow: rowBytes, fromRegion: MTLRegionMake2D(0, 0, width, height), mipmapLevel: 0) 
    return p 
    } 

    func toImage() -> UIImage? { 
    var uiImage: UIImage? 
    let p = bytes() 
    let pColorSpace = CGColorSpaceCreateDeviceRGB() 
    let rawBitmapInfo = CGImageAlphaInfo.NoneSkipFirst.rawValue | CGBitmapInfo.ByteOrder32Little.rawValue 
    let bitmapInfo:CGBitmapInfo = CGBitmapInfo(rawValue: rawBitmapInfo) 

    let selftureSize = self.width * self.height * 4 
    let rowBytes = self.width * 4 
    let provider = CGDataProviderCreateWithData(nil, p, selftureSize, {_,_,_ in })! 

    if let cgImage = CGImageCreate(self.width, self.height, 8, 32, rowBytes, pColorSpace, bitmapInfo, provider, nil, true, CGColorRenderingIntent.RenderingIntentDefault) { 
     uiImage = UIImage(CGImage: cgImage) 
    } 
    return uiImage 
    } 

    func toImageAsJpeg(compressionQuality: CGFloat) -> UIImage? { 
    } 
} 

Krok 5 (opcjonalnie): może trzeba potwierdzić rozciągliwej w CAMetalLayer są coraz to swój cel. (Jeśli jest więcej niż jedna warstwa CAMetalLayer w tym samym czasie)