Así que aquí está mi problema:imagen perceptual Downsampling
tengo una imagen, esa imagen es grande (alta resolución) y tiene que ser pequeño (resolución mucho más baja).
Así que hago lo ingenuo (matar a cada dos píxeles) y el resultado parece pobre.
Así que trato de hacer algo más inteligente (filtrado de paso bajo utilizando una transformada de Fourier y re-muestreo en el espacio de Fourier) y el resultado es un poco mejor, pero aún bastante pobre.
Así que mi pregunta es si existe un algoritmo (o implementación) de muestreo de imágenes con motivación perceptiva.
edit: Si bien conozco una serie de técnicas de remuestreo, mi aplicación está más preocupada por preservar las características perceptivas, en lugar de producir imágenes uniformes.
Edit2: es seguro asumir que tengo un cierto nivel de familiaridad con el procesamiento de señal digital, circunvoluciones, las transformadas de tren de ondas, etc
bien, ¿qué tipo de imágenes está tratando de ¿escala? ¿Dibujos de líneas? ¿Fotografías? He tratado principalmente con imágenes de video, y los algoritmos de escalado que funcionan bien en video pueden no funcionar bien cuando intentas preservar características específicas (como líneas en la animación tradicional, por ejemplo). –
Por el momento digamos que es la imagen de un oso (eliminado de su fondo) y una vez redimensionado quiero que todavía se vea como un oso. – tzenes
oso dibujado a mano? Una fotografía de un oso? Pedobear? ¿Por qué factor estás escalando? Según su descripción ("matar a todos los demás píxeles"), parece que solo está escalando por un factor de 2, por lo que un buen algoritmo de propósito general debería funcionar bien (a menos que su imagen sea lineal con líneas de 1 píxel de ancho, caso, no se verá tan bien ...) Me gustaría saber cómo funciona ese enfoque de vectorización para usted. –