2012-10-11 32 views

Respuesta

4

El desenfoque de movimiento es un problema difícil de superar. Los mejores resultados se obtienen cuando

  1. La velocidad de la cámara con respecto a la escena se conoce
  2. tiene muchas fotografías del objeto borrosa que se puede correlacionar.

Tiene una gran ventaja en que está viendo texto (que normalmente constituye características de alto contraste). Si solo aplica deconvolución a alto contraste (sé que la teoría suele excluir áreas de alto contraste) de su imagen, debería obtener resultados que le permitan reconocer mejor a los caracteres. También una combinación de filtros de nitidez/difuminado antes/después del procesamiento puede ayudar.

Recuerdo haber sido impresionado con this paper anteriormente. Quizás valga la pena una adaptación en su implementación.

0

No se puede eliminar el desenfoque de movimiento. La información se pierde para siempre. Con lo que se trata es de un CCD que está grabando múltiples objetos reales en un solo píxel, uniéndolos. En otras palabras, si el píxel lee 56, no puede determinar mágicamente que la lectura real debería haber sido 37 en el momento 1, y 62 en el momento 2, y 43 en el momento 3.

Otra forma de ver esto: imagínese tener 5 fotos A continuación, usa photoshop para combinar las imágenes, promediando el valor de cada píxel. ¿Puedes ahora de alguna manera, a partir de la imagen mezclada, decir cuáles fueron las 5 imágenes originales? No, no puedes, porque no tienes la información para hacerlo.

+7

No es cierto, si puede estimar la función de dispersión de puntos (PSF), entonces puede aplicar un algoritmo de deconvolución (como lo indica el OP en el título) para mejorar la imagen. – TheJuice

+0

Supongo que depende de su definición de "mejorar". Como cuestión práctica, no se puede desbloquear una imagen de ninguna manera que una persona normal considere como una mejora significativa. La deconvolución solo es relevante desde un punto de vista práctico cuando se tiene una transformación de señal conocida. Un desenfoque de movimiento es una función ALTAMENTE caótica que no podrá determinar en ningún grado de utilidad, excepto en algún ejemplo de laboratorio artificial. –

+1

Una imagen digital típica del mundo real tiene MUCHA redundancia, es por eso que puede recuperarse de muchas transformaciones que significarían pérdida de información irreversible cuando se aplica a imágenes con la máxima entropía. – enobayram

1

Creo que la estimación de la función de propagación de puntos es más importante que el algoritmo utilizado. Depende del tipo de desenfoque de movimiento que trates de eliminar, es probable que el movimiento lineal sea el más fácil, pero es poco probable que sea del tipo que intentas eliminar: me imagino que es no lineal causado por el movimiento de la mano durante la exposición .

+0

Sí, no es lineal. Cuando las personas presionan el botón de la cámara, su mano parece acelerar la cámara en la práctica. Entonces definitivamente hay un componente no lineal. – sashoalm

6

De acuerdo con @TheJuice, su problema radica en la estimación de PSF. Por lo general, para poder hacer esto desde un solo cuadro, se deben hacer varias suposiciones sobre los factores que conducen al desenfoque (movimiento del objeto, tipo de movimiento del sensor, etc.).

Puede encontrar algunos punteros, especialmente en el caso monodimensional, here. Utilizan un método de filtrado que deja principalmente correlación del desenfoque, descartando la correlación espacial de la imagen original, y la utilizan para deducir la dirección del movimiento y, por lo tanto, la PSF. Para pequeños desenfoques, es posible que pueda considerar el movimiento como constante; de lo contrario, tendrá que usar un modelo de movimiento acelerado más complejo. Desafortunadamente, la falta de definición del teléfono móvil es un compuesto de integración CCD y movimiento no lineal (traducción perpendicular a la línea de visión, movimiento de la muñeca y rotación alrededor de la muñeca), por lo que el método de Yitzhaky y Kopeika resultados aceptables en una minoría de casos. Sé que hay métodos para lidiar con eso ("conciencia de profundidad" y otros) pero nunca tuve ocasión de tratar con ellos.

Puede obtener una vista previa de los resultados utilizando software de recuperación de fotografías como Focus Magic; si bien no emplean el estimador YK (la descripción del movimiento le queda a usted), el flujo de trabajo restante es necesariamente muy similar. Si sus imágenes son susceptibles de recuperación Focus Magic, entonces probablemente método YK funcionará. Si no son (o no son suficientes, o no son suficientes para valer la pena), entonces no tiene sentido siquiera tratar de implementarlo.

+0

Intenté Focus Magic en [uno de mis ejemplos de prueba] (http://i.imgur.com/6Txyq.png) y [este es el resultado] (http://i.imgur.com/No1s0.png) Usé para los parámetros del paso 6 y 70 grados, pero el resultado parece en realidad un poco peor. ¿Crees que YK podría hacer mucho mejor que eso? – sashoalm

Cuestiones relacionadas