Tengo, por ejemplo, una imagen 4 * 4. Quiero extraer los componentes Y, U y V por separado. Cómo hacerlo si la imagen es YUV 422, YUV 420 y YUV444. Estoy interesado en conocer la estructura de la matriz de cómo se almacenan Y, U y V en 422,420 y 444, para que se pueda acceder a ella.YUV 422, YUV 420, YUV 444
Respuesta
This sitio le da una muy buena visión general de los diferentes formatos YUV. También hay una estructura de píxeles dada.
Para aclarar: Estos números son para la determinación de color component subsampling. Por ejemplo YUV 444 = 4: 4: 4 submuestreo, lo que significa que cada uno de los tres componentes (Y, U y V) tiene la misma frecuencia de muestreo. Mientras que 4: 2: 2 indica que U y V solo se muestrean con la mitad de la tasa de Y. O, en otras palabras, 2 bytes para Y y para U y V 1 Byte, respectivamente, si la profundidad es de 1 Byte. Esto implica que Y puede tener un rango dinámico más alto.
Vale la pena señalar que el estándar JPEG define los factores de muestreo horizontales y verticales para cada componente de color. El sistema visual humano tiene un 20:1 ratio of the luma sensors (rods) to chroma sensors (cones). Por este motivo, normalmente el componente de luminosidad no se muestrea por submuestreo, pero el JPEG standard permite codificar dicho contenido.
es una pregunta muy antigua, sin embargo, acabo de terminar un trabajo sobre la decodificación de YUV y me gustaría compartir algunas informaciones. Hay 3 aspectos principales del esquema YUV: 1 - si el buffer YUV de origen es un buffer empaquetado o planar. Empaquetado significa que los bits YUV se agrupan juntos, planar significa que los búferes Y, U y V están separados en 3 áreas de memoria diferentes. 2 - Tamaño del canal YUV; el único canal Y, U, V podría ser de 8 bits, 10 bits, 12 bits, etc. 3 - la relación de muestreo; A B C. 4: 2: 2 significa que tiene horizontalmente 1 valor Y para cada píxel y un valor único para U y V compartido entre dos píxeles del tablero.
Acabo de trabajar en la decodificación YUV 4: 2: 2 v210, después de esto link existe el código fuente GLSL para decodificar y los recursos a los que me he referido. Cualquier consejo es bienvenido, es mi primer decodificador.
- 1. Visualización de la imagen YUV en Android
- 2. sws_scale YUV -> imagen distorsionada RGB
- 3. ¿Cómo lidiar con RGB a YUV conversión
- 4. Conversión de YUV a RGB por fragment shader
- 5. ¿Cómo leer un marco del archivo YUV en OpenCV?
- 6. ¿Cómo realizar la conversión RGB-> YUV en C/C++?
- 7. ¿Dónde puedo obtener un archivo YUV sin procesar?
- 8. Necesito ayuda con la visualización de YUV en OpenGl
- 9. YUV a RGBA en Apple A4, ¿debería usar shaders o NEON?
- 10. Cómo tomar un video con formato YUV de la cámara, visualizarlo y procesarlo
- 11. Diferencia entre la serie completa (420f) y el rango de vídeo (420V) para los formatos YUV de píxeles en IOS
- 12. SIMD: ¿Por qué la conversión de color SSE RGB a YUV es aproximadamente la misma velocidad que la implementación de C++?
- 13. Cómo puedo obtener datos brutos de un objeto CVImageBuffer
- 14. Intentando reproducir múltiples archivos de video simultáneamente en Gstreamer
- 15. Obtener una instantánea de una cámara web con Delphi
- 16. color android entre dos colores, en función del porcentaje?
- 17. ¿Por qué git está creando archivos de solo lectura (444)?
- 18. cámara web de streaming a través de UDP usando GStreamer
- 19. OpenCV para programas de ejemplo de Android que muestran el error
- 20. ¿Por qué se bloquea este gstreamer pipeline?
- 21. ¿Cómo obtener el componente Y de CMSampleBuffer como resultado de AVCaptureSession?
- 22. ¿Qué causa un error 422 de entidad no procesable en Rails 3?
- 23. Conversión más rápida de YUV420P a RGBA en iOS usando la CPU
- 24. Combinar varios videos en un
- 25. Conversión de espacio de color de PIL YCbCr -> RGB
- 26. AVCaptureVideoDataOutput y el establecimiento de kCVPixelBufferWidthKey y kCVPixelBufferHeightKey
- 27. Agregar extensión de archivo a archivo de extensión-menos
- 28. ¿Cómo calcula H.264 o los codificadores de video en general la imagen residual de dos cuadros?
- 29. Cómo videomixer programa usando Gstreamer C API
- 30. Android: ¿cómo mostrar la vista previa de la cámara con devolución de llamada?