Quiero exportar una película con AVAssetWriter
y no puedo encontrar la manera de incluir las pistas de audio y video en sincronización. Exportar solo video funciona bien, pero cuando agrego audio la película resultante se ve así:¿Cómo escribir una película con video Y audio usando AVAssetWriter?
Primero veo el video (sin audio), luego el video se congela (mostrando el último cuadro de la imagen hasta el final) y después de algunos segundos oigo el audio.
He intentado algunas cosas con CMSampleBufferSetOutputPresentationTimeStamp
(restando la primera CMSampleBufferGetPresentationTimeStamp
de la corriente) para el audio, pero todo no funcionaba y no creo que es la dirección correcta, ya que el vídeo & de audio en la fuente película debería estar en sintonía de todos modos ...
Mi configuración en resumen: creo una AVAssetReader
y 2 AVAssetReaderTrackOutput
(uno para vídeo, una para audio) y añadirlos a la AVAssetReader
, entonces creo una AVAssetWriter
y 2 AVAssetWriterInput
(video & audio) y agrégalos al AVAssetWriter
... Comienzo todo con:
[assetReader startReading];
[assetWriter startWriting];
[assetWriter startSessionAtSourceTime:kCMTimeZero];
Luego ejecutar 2 colas para hacer las cosas de tampón de muestra:
dispatch_queue_t queueVideo=dispatch_queue_create("assetVideoWriterQueue", NULL);
[assetWriterVideoInput requestMediaDataWhenReadyOnQueue:queueVideo usingBlock:^
{
while([assetWriterVideoInput isReadyForMoreMediaData])
{
CMSampleBufferRef sampleBuffer=[assetReaderVideoOutput copyNextSampleBuffer];
if(sampleBuffer)
{
[assetWriterVideoInput appendSampleBuffer:sampleBuffer];
CFRelease(sampleBuffer);
} else
{
[assetWriterVideoInput markAsFinished];
dispatch_release(queueVideo);
videoFinished=YES;
break;
}
}
}];
dispatch_queue_t queueAudio=dispatch_queue_create("assetAudioWriterQueue", NULL);
[assetWriterAudioInput requestMediaDataWhenReadyOnQueue:queueAudio usingBlock:^
{
while([assetWriterAudioInput isReadyForMoreMediaData])
{
CMSampleBufferRef sampleBuffer=[assetReaderAudioOutput copyNextSampleBuffer];
if(sampleBuffer)
{
[assetWriterAudioInput appendSampleBuffer:sampleBuffer];
CFRelease(sampleBuffer);
} else
{
[assetWriterAudioInput markAsFinished];
dispatch_release(queueAudio);
audioFinished=YES;
break;
}
}
}];
En el bucle principal espero a las dos colas hasta que terminen:
while(!videoFinished && !audioFinished)
{
sleep(1);
}
[assetWriter finishWriting];
Además Intento guarde el archivo resultante en la biblioteca con el siguiente código ...
NSURL *url=[[NSURL alloc] initFileURLWithPath:path];
ALAssetsLibrary *library = [[ALAssetsLibrary alloc] init];
if([library videoAtPathIsCompatibleWithSavedPhotosAlbum:url])
{
[library writeVideoAtPathToSavedPhotosAlbum:url completionBlock:^(NSURL *assetURL, NSError *error)
{
if(error)
NSLog(@"error=%@",error.localizedDescription);
else
NSLog(@"completed...");
}];
} else
NSLog(@"error, video not saved...");
[library release];
[url release];
... pero me sale el error:
Video /Users/cb/Library/Application Support/iPhone Simulator/4.2/Applications/E9865BF9-D190-4912-9248-66768B1AB635/Documents/export.mp4 cannot be saved to the saved photos album: Error Domain=NSOSStatusErrorDomain Code=-12950 "Movie could not be played." UserInfo=0x5e4fb90 {NSLocalizedDescription=Movie could not be played.}
El código funciona sin problemas en otro programa. Entonces, ¿algo está mal con la película ...?
Escribí una publicación en stackoverflow para crear una película a partir de un archivo de audio y una matriz de imágenes. Quizás alguna parte del código pueda ayudarte. http://stackoverflow.com/questions/6061092/make-movie-file-with-picture-array-and-song-file-using-avasset – TheRonin