Estoy escribiendo una aplicación de iPhone que utiliza AVFoundation para tomar una foto y recortarla. La aplicación es similar a un lector de códigos QR: utiliza una AVCaptureVideoPreviewLayer con una superposición. La superposición tiene un cuadrado. Quiero recortar la imagen para que la imagen recortada sea exactamente la que tiene el usuario dentro del cuadrado.Recortar imagen capturada por AVCaptureSession
La capa de vista previa tiene la gravedad AVLayerVideoGravityResizeAspectFill.
Parece que lo que la cámara realmente captura no es exactamente lo que el usuario ve en la capa de vista previa. Esto significa que necesito pasar del sistema de coordenadas de vista previa al sistema de coordenadas de la imagen capturada para poder recortar la imagen. Para esto, creo que necesito los siguientes parámetros: 1. ración entre el tamaño de la vista y el tamaño de la imagen capturada. 2. información que indica qué parte de la imagen capturada coincide con la que se muestra en la capa de vista previa.
¿Alguien sabe cómo puedo obtener esta información, o si hay un enfoque diferente para recortar la imagen.
(p.s.) capturar una captura de pantalla de la vista previa no es una opción, ya que entiendo que podría resultar en la rechazo de la aplicación).
gracias de antemano
no ayudaría como la cámara también gira la imagen. Consulte una pregunta similar aquí http://cmgresearch.blogspot.co.il/2012/07/cropping-results-from.html – Dejell