Opis aplikacji: Prędkościomierz. Ma igłę i animowaną igłę jako nakładkę na wideo. Generuję animację igły na wideo poprzez przetwarzanie końcowe. Używam AVAssetExportSession i konstruuję AVComposition zawierający moje animowane warstwy wraz ze ścieżkami wideo i audio z wideo. To działa dobrze. Wideo pokazuje, animuje igłę.Jak połączyć/zsynchronizować animację z nagraniem wideo w czasie rzeczywistym?
Obecnie, aby odtworzyć animację podczas przetwarzania końcowego, zaoszczędziłem każdej zmiany prędkości z czasem, od kiedy zaczęło się "nagrywanie" wideo. Podczas postprocessingu odpalam timer (y) w oparciu o zapisane dane czasu/prędkości, aby następnie animować igłę do następnej prędkości.
Problem: Wynikające wideo/para animacja nie są w pełni dokładne i tam często jest niedopasowanie pomiędzy prędkością wskazywaną gdy film został usunięty, a gdy jest odtwarzany i komponowane. (zwykle igła jest przed wideo) ze względu na fakt, że kompozycja/kompresja podczas eksportu niekoniecznie jest w czasie rzeczywistym.
Pytanie: Czy istnieje sposób mogę umieścić informacje o prędkości do strumienia wideo nagrywania, a następnie uzyskać do niego dostęp, gdy jest eksportowane tak, że film i prędkościomierz są czasowo dopasowane?
Byłoby miło uzyskać wywołanie zwrotne w określonych godzinach podczas eksportu, który zawiera moje dane dotyczące prędkości.
Jak zawsze ... dzięki!
W jaki sposób dodajemy animację lub efekt przejścia do wideo, stworzyliśmy wideo z obrazów, czy moglibyście wiedzieć, w jaki sposób dodajemy efekt. Użyliśmy https://github.com/caferrara/img-to-video do stworzenia obrazu wideo. –