estoy tratando de construir un reemplazo para UIImagePickerController
, utilizando AVCaptureSession
con AVCaptureDeviceInput
y AVCaptureStillImageOutput
, como entrada/salida, respectivamente. Para obtener una vista previa de la secuencia de la cámara estoy AVCaptureVideoPreviewLayer
usando.diferencias entre la cámara y UIImagePickerController AVCaptureSession en el iPhone
Ahora está funcionando correctamente para capturar y almacenar fotos como la cámara predeterminada.
Sin embargo, me encontré con 3 problemas he podido resolver:
- fotos capturadas no obtener la misma calidad de la cámara por defecto proporciona
- el ángulo de visión/captura se acorta, al igual que el uso de la captura de vídeo en la cámara por defecto
- hay manera de controlar las opciones específicas de la cámara como flash
¿hay alguna manera de llegar al nivel de UIImagePickerController
usando un enfoque más personalizable (es decir AVFoundation
o cualquier otro)?
¿Qué es exactamente lo que quieres hacer, tal vez no necesitas el buffer de píxeles, tal vez simplemente superponer algo? Si desea obtener un búfer de alta calidad como UIImagePickerController para que pueda hacer algún procesamiento de imagen, no creo que sea posible (o al menos no fácil, porque como dijo, no hay API pública de control de flash o de enfoque disponible). Con AVFoundation obtendrá buffers ** brutos ** de entrada de cámara, así que no espere que sean tan buenos;) – nacho4d
Necesité más personalización que una superposición en UIImagePickerController, pero si no hay otra forma de obtener su características, creo que tendré que seguir así ... Gracias por tu comentario. – paulo