De acuerdo con @TheJuice, su problema radica en la estimación de PSF. Por lo general, para poder hacer esto desde un solo cuadro, se deben hacer varias suposiciones sobre los factores que conducen al desenfoque (movimiento del objeto, tipo de movimiento del sensor, etc.).
Puede encontrar algunos punteros, especialmente en el caso monodimensional, here. Utilizan un método de filtrado que deja principalmente correlación del desenfoque, descartando la correlación espacial de la imagen original, y la utilizan para deducir la dirección del movimiento y, por lo tanto, la PSF. Para pequeños desenfoques, es posible que pueda considerar el movimiento como constante; de lo contrario, tendrá que usar un modelo de movimiento acelerado más complejo. Desafortunadamente, la falta de definición del teléfono móvil es un compuesto de integración CCD y movimiento no lineal (traducción perpendicular a la línea de visión, movimiento de la muñeca y rotación alrededor de la muñeca), por lo que el método de Yitzhaky y Kopeika resultados aceptables en una minoría de casos. Sé que hay métodos para lidiar con eso ("conciencia de profundidad" y otros) pero nunca tuve ocasión de tratar con ellos.
Puede obtener una vista previa de los resultados utilizando software de recuperación de fotografías como Focus Magic; si bien no emplean el estimador YK (la descripción del movimiento le queda a usted), el flujo de trabajo restante es necesariamente muy similar. Si sus imágenes son susceptibles de recuperación Focus Magic, entonces probablemente método YK funcionará. Si no son (o no son suficientes, o no son suficientes para valer la pena), entonces no tiene sentido siquiera tratar de implementarlo.
No es cierto, si puede estimar la función de dispersión de puntos (PSF), entonces puede aplicar un algoritmo de deconvolución (como lo indica el OP en el título) para mejorar la imagen. – TheJuice
Supongo que depende de su definición de "mejorar". Como cuestión práctica, no se puede desbloquear una imagen de ninguna manera que una persona normal considere como una mejora significativa. La deconvolución solo es relevante desde un punto de vista práctico cuando se tiene una transformación de señal conocida. Un desenfoque de movimiento es una función ALTAMENTE caótica que no podrá determinar en ningún grado de utilidad, excepto en algún ejemplo de laboratorio artificial. –
Una imagen digital típica del mundo real tiene MUCHA redundancia, es por eso que puede recuperarse de muchas transformaciones que significarían pérdida de información irreversible cuando se aplica a imágenes con la máxima entropía. – enobayram