Tengo una imagen bastante grande, casi a pantalla completa, que voy a mostrar en un iPad. La imagen es aproximadamente 80% transparente. Necesito, en el cliente, determinar el cuadro delimitador de los píxeles opacos y luego recortarlo en ese cuadro delimitador.Recortar UIImager a alpha
Escaneo otras preguntas aquí en StackOverflow y la lectura de algunos de los documentos CoreGraphics, creo que podría lograr esto mediante:
CGBitmapContextCreate(...) // Use this to render the image to a byte array
..
- iterate through this byte array to find the bounding box
..
CGImageCreateWithImageInRect(image, boundingRect);
Eso sólo parece muy ineficiente y torpe. ¿Hay algo inteligente que pueda hacer con las máscaras de CGImage o algo que haga uso de la aceleración de gráficos del dispositivo para hacer esto?
¿Has probado esto en un dispositivo? Apuesto a que sería más rápido de lo que piensas. –
Es verdad: una vez que me senté e implementé, el tiempo de procesamiento fue mucho más rápido de lo que pensé. – MikeQ