Ho anche scritto qualcosa di me stesso che utilizza solo l'interfaccia OpenCV Python e non ho usato scipy
. drawMatches
fa parte di OpenCV 3.0.0 e non fa parte di OpenCV 2, che è quello che sto attualmente utilizzando. Anche se sono in ritardo per la festa, ecco la mia implementazione che riproduce lo drawMatches
al meglio delle mie possibilità.
ho fornito le mie immagini in cui uno è di un uomo della macchina fotografica, e l'altro è la stessa immagine, ma ruotata di 55 gradi in senso antiorario.
La premessa di base di ciò che ho scritto è che io allocare un'immagine d'uscita RGB, dove la quantità di righe è il massimo delle due immagini per ospitare dell'immissione entrambe le immagini l'immagine di uscita e le colonne sono semplicemente la somma di entrambe le colonne insieme. Metto ogni immagine nei punti corrispondenti, quindi eseguo un ciclo di tutti i punti chiave corrispondenti. Estraggo i punti chiave corrispondenti tra le due immagini, quindi estraiamo le loro coordinate (x,y)
. Quindi disegno cerchi in ciascuna delle posizioni rilevate, quindi disegna una linea che collega questi cerchi insieme.
tenga presente che il punto chiave rilevato nella seconda immagine è rispetto al proprio sistema di coordinate. Se si desidera inserirlo nell'immagine di output finale, è necessario sfalsare la coordinata della colonna in base alla quantità di colonne della prima immagine in modo che la coordinata della colonna sia rispetto al sistema di coordinate dell'immagine di output .
Senza ulteriori indugi:
import numpy as np
import cv2
def drawMatches(img1, kp1, img2, kp2, matches):
"""
My own implementation of cv2.drawMatches as OpenCV 2.4.9
does not have this function available but it's supported in
OpenCV 3.0.0
This function takes in two images with their associated
keypoints, as well as a list of DMatch data structure (matches)
that contains which keypoints matched in which images.
An image will be produced where a montage is shown with
the first image followed by the second image beside it.
Keypoints are delineated with circles, while lines are connected
between matching keypoints.
img1,img2 - Grayscale images
kp1,kp2 - Detected list of keypoints through any of the OpenCV keypoint
detection algorithms
matches - A list of matches of corresponding keypoints through any
OpenCV keypoint matching algorithm
"""
# Create a new output image that concatenates the two images together
# (a.k.a) a montage
rows1 = img1.shape[0]
cols1 = img1.shape[1]
rows2 = img2.shape[0]
cols2 = img2.shape[1]
out = np.zeros((max([rows1,rows2]),cols1+cols2,3), dtype='uint8')
# Place the first image to the left
out[:rows1,:cols1,:] = np.dstack([img1, img1, img1])
# Place the next image to the right of it
out[:rows2,cols1:cols1+cols2,:] = np.dstack([img2, img2, img2])
# For each pair of points we have between both images
# draw circles, then connect a line between them
for mat in matches:
# Get the matching keypoints for each of the images
img1_idx = mat.queryIdx
img2_idx = mat.trainIdx
# x - columns
# y - rows
(x1,y1) = kp1[img1_idx].pt
(x2,y2) = kp2[img2_idx].pt
# Draw a small circle at both co-ordinates
# radius 4
# colour blue
# thickness = 1
cv2.circle(out, (int(x1),int(y1)), 4, (255, 0, 0), 1)
cv2.circle(out, (int(x2)+cols1,int(y2)), 4, (255, 0, 0), 1)
# Draw a line in between the two points
# thickness = 1
# colour blue
cv2.line(out, (int(x1),int(y1)), (int(x2)+cols1,int(y2)), (255, 0, 0), 1)
# Show the image
cv2.imshow('Matched Features', out)
cv2.waitKey(0)
cv2.destroyAllWindows()
Per illustrare che questo funziona, qui ci sono le due immagini che ho usato:
ho usato OpenCV di Rivelatore ORB per rilevare i punti chiave, e ha usato la distanza normalizzata di Hamming come misura della distanza per similarità in quanto questo è un descrittore binario. In quanto tale:
import numpy as np
import cv2
img1 = cv2.imread('cameraman.png') # Original image
img2 = cv2.imread('cameraman_rot55.png') # Rotated image
# Create ORB detector with 1000 keypoints with a scaling pyramid factor
# of 1.2
orb = cv2.ORB(1000, 1.2)
# Detect keypoints of original image
(kp1,des1) = orb.detectAndCompute(img1, None)
# Detect keypoints of rotated image
(kp2,des2) = orb.detectAndCompute(img2, None)
# Create matcher
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)
# Do matching
matches = bf.match(des1,des2)
# Sort the matches based on distance. Least distance
# is better
matches = sorted(matches, key=lambda val: val.distance)
# Show only the top 10 matches
drawMatches(img1, kp1, img2, kp2, matches[:10])
Questa è l'immagine che ottengo:
Grazie per la risposta !! – user1433201