2012-01-23 14 views
8

he hecho el procesamiento de video en tiempo real en iOS utilizando AVFoundation framework, ayuda de this link. He probado que funciona bien. ahora quiero usar codificación y decodificación h264 [Antes del sorteo] .o intento obtener datos codificados en h264 de AVCaptureSession, así que he configurado AVVideoCodecH264 en la creación de videos de AVCaptureSession, antes de comenzar a capturar.h 264 Codificación/decodificación de hardware para IOS (IPhone/Ipad)?

NSDictionary * videoSettings = [NSDictionary dictionaryWithObjectsAndKeys: valor, llave, AVVideoCodecH264, AVVideoCodecKey, nil]; [captureOutput setVideoSettings: videoSettings];

El código anterior no produce ningún cambio en el búfer de salida, el mismo formato de búfer se obtiene como antes. cómo cumplir mi requerimiento? Es posible ? de ser así, ayúdame a empezar, h264 en ios.

+0

y el dispositivo está? –

+0

estoy buscando dispositivo armv7 ... –

+0

@Asta: ¿Funcionó la respuesta de Daniel? Si no, ¿cómo finalmente resolviste esto? –

Respuesta

1

No hay acceso directo a fotogramas clave codificados. Es posible que encuentre algunas observaciones interesantes acerca de eso aquí: https://stackoverflow.com/questions/4399162/how-to-stream-live-video-from-iphone-to-a-media-server-like-wowza

Un par AVVideoCodecH264, AVVideoCodecKey se puede utilizar como parámetros en outputSettings en

NSError *error = nil; 
NSDictionary *outputSettings = [NSDictionary dictionaryWithObjectsAndKeys: 
           AVVideoCodecH264, AVVideoCodecKey, nil]; 

AVAssetWriterInput *assetWriterInput = [[AVAssetWriterInput alloc] 
            initWithMediaType:AVMediaTypeVideo 
             outputSettings:outputSettings]; 
AVAssetWriter *assetWriter = [[AVAssetWriter alloc] initWithURL:fileURL 
                 fileType:AVFileTypeMPEG4 
                  error:&error]; 
if (!error && [assetWriter canAddInput:assetWriterInput]) 
    [assetWriter addInput:assetWriterInput]; 
Cuestiones relacionadas