Soy principiante reciente de Android SDK, y el objetivo general de este proyecto es crear una aplicación muy similar a Ustream o Qik (sí, no sé la mejor idea para un principiante). Necesito transmitir audio y video en vivo a la web. Habrá un servidor de video, muy probablemente usando Wowza, manejando la codificación de los videos al formato apropiado.Transmisión de audio y video de Android a PC/web.
Según lo que he encontrado hasta ahora, necesito usar el MediaRecorder de Android con la cámara como fuente y dirigir la salida al servidor. Eso tiene sentido para mí, pero no sé exactamente cómo hacer eso. ¿Alguien puede darme un empujón en la dirección correcta? He navegado a través de un ejemplo en "http://ipcamera-for-android.googlecode.com/svn/trunk", pero parece ser mucho más complicado de lo necesario para lo que tengo que hacer y no he podido obtener está trabajando en eclipse para probarlo de todos modos.
Tengo un problema similar, probé usar WebRTC, pero no funcionó en Smart TV (mi problema es la transmisión entre Android y Smart TV), smart tv no tiene Chrome :( – vrbsm