Jestem początkującym początkującym użytkownikiem Androida SDK, a ogólnym celem tego projektu jest stworzenie aplikacji bardzo podobnej do Ustream lub Qik (tak, nie wiem, jaki jest najlepszy pomysł dla początkującego). Muszę przesłać na żywo dźwięk i wideo do internetu. Pojawi się serwer wideo, najprawdopodobniej za pomocą Wowzy, obsługujący kodowanie filmów do właściwego formatu.Przesyłanie strumieniowe audio i wideo z systemu Android na komputer/sieć.
Z tego, co odkryłem do tej pory, muszę użyć Android MediaRecorder z kamerą jako źródłem i skierować wyjście na serwer. To ma dla mnie sens, ale nie wiem dokładnie, jak to zrobić. Czy ktoś może dać mi impuls we właściwym kierunku? Przeglądałem przykład na stronie "http://ipcamera-for-android.googlecode.com/svn/trunk", ale wydaje się, że jest to o wiele bardziej skomplikowane, niż jest to konieczne dla tego, co muszę zrobić i nie byłem w stanie uzyskać to działa w Zaćmienie, aby go przetestować.
Mam podobny problem, próbowałem używać WebRTC, ale nie działał w Smart TV (moim problemem jest transmisja między androidem i smart tv), smart tv nie ma chrome :( – vrbsm