Estoy escribiendo una aplicación de iPhone que crea imágenes fijas desde la cámara utilizando AVFoundation. Leyendo la guía de programación Encontré un código que casi tengo que hacer, así que estoy tratando de "invertir la ingeniería" y entenderlo.
Estoy encontrando algunas dificultades para comprender la parte que convierte un CMSampleBuffer en una imagen.
Así que aquí está lo que entendí y más tarde el código.
El CMSampleBuffer representa un búfer en la memoria donde se almacena la imagen con datos adicionales. Más tarde llamo a la función CMSampleBufferGetImageBuffer() para recibir un CVImageBuffer con solo los datos de la imagen.
Ahora hay una función que no entendí y solo puedo imaginar su función: CVPixelBufferLockBaseAddress (imageBuffer, 0); No puedo entender si es un "bloqueo de hilo" para evitar operaciones múltiples en él o un bloqueo a la dirección del búfer para evitar cambios durante la operación (y ¿por qué debería cambiar? ... otro fotograma, no se copian datos en otro lugar?). El resto del código es claro para mí.
Intenté buscar en google pero todavía no encontré nada útil.
¿Alguien puede traer algo de luz?CVPixelBufferLockBaseAddress ¿por qué? Capturar imagen fija usando AVFoundation
-(UIImage*) getUIImageFromBuffer:(CMSampleBufferRef) sampleBuffer{
// Get a CMSampleBuffer's Core Video image buffer for the media data
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
// Lock the base address of the pixel buffer
CVPixelBufferLockBaseAddress(imageBuffer, 0);
void *baseAddress = CVPixelBufferGetBaseAddress(imageBuffer);
// Get the number of bytes per row for the pixel buffer
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
// Get the pixel buffer width and height
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);
// Create a device-dependent RGB color space
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
// Create a bitmap graphics context with the sample buffer data
CGContextRef context = CGBitmapContextCreate(baseAddress, width, height, 8,
bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
// Create a Quartz image from the pixel data in the bitmap graphics context
CGImageRef quartzImage = CGBitmapContextCreateImage(context);
// Unlock the pixel buffer
CVPixelBufferUnlockBaseAddress(imageBuffer,0);
// Free up the context and color space
CGContextRelease(context);
CGColorSpaceRelease(colorSpace);
// Create an image object from the Quartz image
UIImage *image = [UIImage imageWithCGImage:quartzImage];
// Release the Quartz image
CGImageRelease(quartzImage);
return (image);
}
Gracias, Andrea
Gracias, eso es una pista.Como en las funciones llamadas no hay rastro de copiar o crear, estoy empezando a pensar que el búfer se pasa por referencia, por lo que es un tipo de congelación del búfer de memoria. – Andrea
Agregué algunas razones posibles sobre el por qué. –
YEP, supongo que la razón principal es un punto medio entre su respuesta y la que encontré en github. "Image.lock(), que difiere todas las actualizaciones de búfer hasta que se llame de nuevo a Image.unlock()", el idioma no es ObjC, pero el significado debe ser el mismo. – Andrea