También he escrito algo a mí mismo que sólo utiliza la interfaz de OpenCV Python y que no usamos scipy
. drawMatches
es parte de OpenCV 3.0.0 y no es parte de OpenCV 2, que es lo que estoy usando actualmente. Aunque llego tarde a la fiesta, aquí está mi propia implementación que imita el drawMatches
de la mejor manera posible.
He proporcionado mis propias imágenes, donde una es de un hombre de la cámara, y la otra es la misma imagen, pero girada en sentido contrario a las agujas del reloj 55 grados.
La premisa básica de lo que escribí es que asigno una imagen RGB de salida donde la cantidad de filas es el máximo de las dos imágenes para acomodar las dos imágenes en la imagen de salida y las columnas son simplemente la suma de ambas columnas juntas. Coloco cada imagen en sus lugares correspondientes, luego corro a través de un bucle de todos los puntos clave coincidentes. Extraigo los puntos clave que coinciden entre las dos imágenes, luego extraigo sus coordenadas (x,y)
. Luego dibujo círculos en cada una de las ubicaciones detectadas, luego trazo una línea que conecta estos círculos.
Tenga en cuenta que el punto clave detectado en la segunda imagen es con respecto a su propio sistema de coordenadas. Si desea colocar esto en la imagen final de salida, necesita desplazar la columna coordinada por la cantidad de columnas de la primera imagen para que la columna coordinada sea con respecto al sistema de coordenadas de la imagen de salida .
Sin más preámbulos:
import numpy as np
import cv2
def drawMatches(img1, kp1, img2, kp2, matches):
"""
My own implementation of cv2.drawMatches as OpenCV 2.4.9
does not have this function available but it's supported in
OpenCV 3.0.0
This function takes in two images with their associated
keypoints, as well as a list of DMatch data structure (matches)
that contains which keypoints matched in which images.
An image will be produced where a montage is shown with
the first image followed by the second image beside it.
Keypoints are delineated with circles, while lines are connected
between matching keypoints.
img1,img2 - Grayscale images
kp1,kp2 - Detected list of keypoints through any of the OpenCV keypoint
detection algorithms
matches - A list of matches of corresponding keypoints through any
OpenCV keypoint matching algorithm
"""
# Create a new output image that concatenates the two images together
# (a.k.a) a montage
rows1 = img1.shape[0]
cols1 = img1.shape[1]
rows2 = img2.shape[0]
cols2 = img2.shape[1]
out = np.zeros((max([rows1,rows2]),cols1+cols2,3), dtype='uint8')
# Place the first image to the left
out[:rows1,:cols1,:] = np.dstack([img1, img1, img1])
# Place the next image to the right of it
out[:rows2,cols1:cols1+cols2,:] = np.dstack([img2, img2, img2])
# For each pair of points we have between both images
# draw circles, then connect a line between them
for mat in matches:
# Get the matching keypoints for each of the images
img1_idx = mat.queryIdx
img2_idx = mat.trainIdx
# x - columns
# y - rows
(x1,y1) = kp1[img1_idx].pt
(x2,y2) = kp2[img2_idx].pt
# Draw a small circle at both co-ordinates
# radius 4
# colour blue
# thickness = 1
cv2.circle(out, (int(x1),int(y1)), 4, (255, 0, 0), 1)
cv2.circle(out, (int(x2)+cols1,int(y2)), 4, (255, 0, 0), 1)
# Draw a line in between the two points
# thickness = 1
# colour blue
cv2.line(out, (int(x1),int(y1)), (int(x2)+cols1,int(y2)), (255, 0, 0), 1)
# Show the image
cv2.imshow('Matched Features', out)
cv2.waitKey(0)
cv2.destroyAllWindows()
para ilustrar que esto funciona, aquí están las dos imágenes que he utilizado:


utilicé de OpenCV Detector ORB para detectar los puntos clave, y usó la distancia de Hamming normalizada como la medida de distancia para similitud ya que este es un descriptor binario. Como tal:
import numpy as np
import cv2
img1 = cv2.imread('cameraman.png') # Original image
img2 = cv2.imread('cameraman_rot55.png') # Rotated image
# Create ORB detector with 1000 keypoints with a scaling pyramid factor
# of 1.2
orb = cv2.ORB(1000, 1.2)
# Detect keypoints of original image
(kp1,des1) = orb.detectAndCompute(img1, None)
# Detect keypoints of rotated image
(kp2,des2) = orb.detectAndCompute(img2, None)
# Create matcher
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)
# Do matching
matches = bf.match(des1,des2)
# Sort the matches based on distance. Least distance
# is better
matches = sorted(matches, key=lambda val: val.distance)
# Show only the top 10 matches
drawMatches(img1, kp1, img2, kp2, matches[:10])
Ésta es la imagen me sale:

Gracias por su respuesta !! – user1433201