Estoy tratando de usar la imagen central en el iphone. Puedo combinar mis colores usando cuarzo para dibujar una uiview, pero quiero separar cada componente en CALayer
(UIview consume más recursos).colores compuestos: CALayer y modo de mezcla en el iPhone
Así que tengo una máscara blanca que quiero usar para filtrar un mapa de bits de fondo, y quiero probar diferentes modos de fusión. Desafortunadamente, las capas solo están "agregando" sus colores.
Aquí está mi código:
@implementation WhiteLayerHelper
- (void)drawLayer:(CALayer *)theLayer
inContext:(CGContextRef)myContext
{
// draw a white overlay, with special blending and alpha values, so that the saturation can be animated
CGContextSetBlendMode(myContext,kCGBlendModeSaturation);
CGContextSetRGBFillColor(myContext,1.0,1.0,1.0,0.9);
CGContextFillRect(myContext,[UIScreen mainScreen].bounds);
}
@end
Y aquí es el código de la vista principal drawrect
, donde utilizo mi CALayer:
- (void)drawRect:(CGRect)rect {
//get the drawing context
CGContextRef myContext = UIGraphicsGetCurrentContext();
// draw the background
[self fillContext:myContext withBounds:m_overlayRect withImage:m_currentImage];
[whiteLayer renderInContext:myContext];
}
¿Hay algo mal?
¿No está disponible CoreImage ahora en iOS? – openfrog
@openfrog sí, pero es limitado en comparación con OS X. Por ejemplo, en CALIBRADOR OS X, los usuarios pueden tener filtros de composición rs. En iOS, no tanto. –