2013-01-23 18 views
7

Desidero scoprire in quale posizione di un'immagine di origine viene visualizzata una determinata sottoimmagine (ad esempio immagine sorgente: http://i.pictr.com/6xg895m69q.png, sottoimmagine: http://i.pictr.com/jdaz9zwzej.png). Per quanto ne so è necessario trasformare gli array per renderli "leggibili" su OpenCV, questo è quello che ho provato, ma per qualche ragione, non funziona. qui è il mio codice finora:Immagine in Immagine con cvMatchTemplate - ma come?

from PIL import Image 
import numpy 
from pylab import * 
import cv2 
import cv 

image = cv2.imread('source_img.jpg') 
template = cv2.imread('template_img.jpg') 

im = cv.fromarray(image) 
templ = cv.fromarray(template) 
result = numpy.zeros(shape=(1,10)) ##create a matrix with 0s 
a = cv.fromarray(result) 
cv.MatchTemplate(im, templ, a, cv.CV_TM_CCORR) 
print result 
print image 

il mio obiettivo è quello di scrivere le coordinate dei sub-immagini nella matrice risultato (il resto della matrice dovrebbe mantenere il valore 0 (lo so che il mio codice non farà questo . fino ad ora) questo il messaggio di errore, ottengo quando si esegue il codice:.

OpenCV Error: Assertion failed (result.size() == cv::Size(std::abs(img.cols - templ.cols) + 1, std::abs(img.rows - templ.rows) + 1) && result.type() == CV_32F) in cvMatchTemplate, file /opt/local/var/macports/build/_opt_local_var_macports_sources_rsync.macports.org_release_tarballs_ports_graphics_opencv/opencv/work/OpenCV-2.4.3/modules/imgproc/src/templmatch.cpp, line 376 Traceback (most recent call last): File "/Users/strongbow/imagerecognition.py", line 27, in cv.MatchTemplate(im, templ, a, cv.CV_TM_CCORR) cv2.error: result.size() == cv::Size(std::abs(img.cols - templ.cols) + 1, std::abs(img.rows - templ.rows) + 1) && result.type() == CV_32F

sono nuovo di OpenCV e davvero non so cosa fare con questo errore-messaggio Chiunque un'idea/puntatore cosa

risposta

8
import sys 
import cv2 
import numpy 

img = cv2.imread(sys.argv[1]) 
template = cv2.imread(sys.argv[2]) 
th, tw = template.shape[:2] 

result = cv2.matchTemplate(img, template, cv2.TM_CCORR_NORMED) 
threshold = 0.99 
loc = numpy.where(result >= threshold) 
for pt in zip(*loc[::-1]): 
    cv2.rectangle(img, pt, (pt[0] + tw, pt[1] + th), 0, 2) 

cv2.imwrite(sys.argv[3], img) 

enter image description here

+0

grazie così tanto !! La tua soluzione funziona alla grande! – julianschnell

5
import cv2 
from cv2 import cv 

image = cv2.imread('1_tree.jpg') 
template = cv2.imread('1_tree_detail.jpg') 

values = cv2.matchTemplate(image, template, method=cv.CV_TM_SQDIFF) 
best_fit_point = cv2.minMaxLoc(values)[2] 
bottom_right = best_fit_point[0]+template.shape[0], best_fit_point[1]+template.shape[1] 
cv2.rectangle(image, best_fit_point, bottom_right, (255,255,255)) 
cv2.imshow('tree',image) 
cv2.imwrite('tree_match.jpg', image) 
cv2.waitKey() 

enter image description here enter image description here enter image description here

+2

Commento molto piccolo - invece di aggiungere 'da cv2 import cv' per ottenere la costante' cv.CV_TM_SQDIFF', in realtà puoi semplicemente averlo in cv2 direttamente con 'cv2.TM_SQDIFF'. (Questo non è menzionato nei documenti OpenCV per qualche ragione.) –