Puede combinar dos cámaras, enviar la secuencia a un servidor (como SRS) y usar ffplay para visualizar esto en tiempo real.
.\ffmpeg.exe -f dshow -i video="LRCP USB2.0" -i .\right.avi -filter_complex "nullsrc=size=1280x1440 [base];[0:v] setpts=PTS-STARTPTS,scale=1280x720 [upper];[1:v] setpts=PTS-STARTPTS,scale=1280x720 [lower];[base][upper] overlay=shortest=1 [temp1];[temp1][lower] overlay=shortest=1:y=720" -c:v libx264 -preset:v ultrafast -tune:v zerolatency -f flv rtmp://192.168.1.136:1935/live/stream
se puede ver el vídeo combinado en tiempo real como en este image example.
Avísame si todavía no está claro.
"Combinar" ¿cómo? ¿Quiere decir que quiere mostrar dos transmisiones de video una al lado de la otra, o tiene algún otro tipo de mezcla de video en mente? –
Quiero leer la matriz de transmisión de ambas cámaras, aplicar un algoritmo para combinar ambas matrices, por lo que ofrece una única vista de amplio rango y mostrarla como una secuencia en vivo –
¿Podría ayudarme? –