2011-12-15 14 views
10

używam skompilować i uruchomić kod z Features2D + Homography to find a known object tutorialu, a ja otrzymuję ten błąd wykonaniaOpenCV cv :: Runtime error findHomography

OpenCV Error: Assertion failed (npoints >= 0 && points2.checkVector(2) == npoint 
s && points1.type() == points2.type()) in unknown function, file c:\Users\vp\wor 
k\ocv\opencv\modules\calib3d\src\fundam.cpp, line 1062 

. po debugowaniu stwierdzam, że program się zawiesza w funkcji findHomography.

Unhandled exception at 0x760ab727 in OpenCVTemplateMatch.exe: Microsoft C++ exception: cv::Exception at memory location 0x0029eb3c.. 

w Introduction z OpenCV, rozdział „cv nazw” mówi, że

Niektóre z obecnych lub przyszłych nazw zewnętrznych OpenCV mogą być sprzeczne z STL lub innych bibliotek. W takim przypadku należy użyć jawnych specyfikatorów przestrzeni nazw, aby rozwiązać konflikty nazw:

Zmieniłem kod i używam wszędzie jawnych specyfikatorów nazw, ale problem nie został rozwiązany. Jeśli możesz, pomóż mi w tym problemie lub powiedz, która funkcja działa tak samo jak findHomography, i nie załamuj programu.

I to jest mój kod

#include <stdio.h> 
#include <iostream> 
#include "opencv2/core/core.hpp" 
#include "opencv2/features2d/features2d.hpp" 
#include "opencv2/highgui/highgui.hpp" 
#include "opencv2/calib3d/calib3d.hpp" 

void readme(); 

/** @function main */ 
int main(int argc, char** argv) 
{ 
    if(argc != 3) 
    { readme(); return -1; } 

    cv::Mat img_object = cv::imread(argv[1], CV_LOAD_IMAGE_GRAYSCALE); 
    cv::Mat img_scene = cv::imread(argv[2], CV_LOAD_IMAGE_GRAYSCALE); 

    if(!img_object.data || !img_scene.data) 
    { std::cout<< " --(!) Error reading images " << std::endl; return -1; } 

    //-- Step 1: Detect the keypoints using SURF Detector 
    int minHessian = 400; 

    cv::SurfFeatureDetector detector(minHessian); 

    std::vector<cv::KeyPoint> keypoints_object, keypoints_scene; 

    detector.detect(img_object, keypoints_object); 
    detector.detect(img_scene, keypoints_scene); 

    //-- Step 2: Calculate descriptors (feature vectors) 
    cv::SurfDescriptorExtractor extractor; 

    cv::Mat descriptors_object, descriptors_scene; 

    extractor.compute(img_object, keypoints_object, descriptors_object); 
    extractor.compute(img_scene, keypoints_scene, descriptors_scene); 

    //-- Step 3: Matching descriptor vectors using FLANN matcher 
    cv::FlannBasedMatcher matcher; 
    std::vector<cv::DMatch> matches; 
    matcher.match(descriptors_object, descriptors_scene, matches); 

    double max_dist = 0; double min_dist = 100; 

    //-- Quick calculation of max and min distances between keypoints 
    for(int i = 0; i < descriptors_object.rows; i++) 
    { double dist = matches[i].distance; 
    if(dist < min_dist) min_dist = dist; 
    if(dist > max_dist) max_dist = dist; 
    } 

    printf("-- Max dist : %f \n", max_dist); 
    printf("-- Min dist : %f \n", min_dist); 

    //-- Draw only "good" matches (i.e. whose distance is less than 3*min_dist) 
    std::vector<cv::DMatch> good_matches; 

    for(int i = 0; i < descriptors_object.rows; i++) 
    { if(matches[i].distance < 3*min_dist) 
    { good_matches.push_back(matches[i]); } 
    } 

    cv::Mat img_matches; 
    cv::drawMatches(img_object, keypoints_object, img_scene, keypoints_scene, 
     good_matches, img_matches, cv::Scalar::all(-1), cv::Scalar::all(-1), 
     std::vector<char>(), cv::DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS); 

    //-- Localize the object 
    std::vector<cv::Point2f> obj; 
    std::vector<cv::Point2f> scene; 

    for(int i = 0; i < good_matches.size(); i++) 
    { 
     //-- Get the keypoints from the good matches 
     obj.push_back(keypoints_object[ good_matches[i].queryIdx ].pt); 
     scene.push_back(keypoints_scene[ good_matches[i].trainIdx ].pt); 
    } 

    cv::Mat H = cv::findHomography(obj, scene, CV_RANSAC); 

    //-- Get the corners from the image_1 (the object to be "detected") 
    std::vector<cv::Point2f> obj_corners(4); 
    obj_corners[0] = cvPoint(0,0); obj_corners[1] = cvPoint(img_object.cols, 0); 
    obj_corners[2] = cvPoint(img_object.cols, img_object.rows); obj_corners[3] = cvPoint(0, img_object.rows); 
    std::vector<cv::Point2f> scene_corners(4); 

    cv::perspectiveTransform(obj_corners, scene_corners, H); 

    //-- Draw lines between the corners (the mapped object in the scene - image_2) 
    cv::line(img_matches, scene_corners[0] + cv::Point2f(img_object.cols, 0), scene_corners[1] + cv::Point2f(img_object.cols, 0), cv::Scalar(0, 255, 0), 4); 
    cv::line(img_matches, scene_corners[1] + cv::Point2f(img_object.cols, 0), scene_corners[2] + cv::Point2f(img_object.cols, 0), cv::Scalar(0, 255, 0), 4); 
    cv::line(img_matches, scene_corners[2] + cv::Point2f(img_object.cols, 0), scene_corners[3] + cv::Point2f(img_object.cols, 0), cv::Scalar(0, 255, 0), 4); 
    cv::line(img_matches, scene_corners[3] + cv::Point2f(img_object.cols, 0), scene_corners[0] + cv::Point2f(img_object.cols, 0), cv::Scalar(0, 255, 0), 4); 

    //-- Show detected matches 
    cv::imshow("Good Matches & Object detection", img_matches); 

    cv::waitKey(0); 
    return 0; 
} 

/** @function readme */ 
void readme() 
{ std::cout << " Usage: ./SURF_descriptor <img1> <img2>" << std::endl; } 
+1

To nie wygląda jak problem przestrzeni nazw. Jeśli spojrzysz na swój pierwszy komunikat o błędzie, mówi, że asercja nie powiodła się (prawdopodobnie dla funkcji 'findHomography'): wygląda na to, że przynajmniej jedna z twoich tablic punktów wejściowych do' findHomography' nie ma wystarczającej liczby punktów. Czy możesz zamieścić fragment pokazujący jak używasz 'findHomography' i jak generujesz punkty? –

+0

patrz wyżej, edytowałem moje pytanie – haykart

+1

Hmmm ... Wypróbuj 'std :: cout'ing' obj.size() 'i' scene.size() 'tuż przed' findHomography' - być może optymalizator może ' t znaleźć dobre dopasowania pomiędzy 'obj' i' scene', więc 'findHomography' nie ma wystarczającej ilości, aby wykonać obliczenia. –

Odpowiedz

5

Dzisiaj napotkasz ten sam problem z tym kodem np. @ Matematyczna kawa miała rację, nie było żadnych funkcji wyodrębnionych, dlatego obiekt i scena były puste. Wymieniłem zdjęcia testowe i zadziałało. Z obrazów w stylu tekstury nie można wyodrębnić funkcji SURF.

Innym sposobem jest obniżenie parametru minHessianve.g. `int minHessian = 20;

lub skorzystać z funkcji FAST detektor zmieniając kilka wierszy:

//-- Step 1: Detect the keypoints using SURF Detector 
    int minHessian = 15; 

    FastFeatureDetector detector(minHessian); 
1

miałem ten sam problem, a ja za rozwiązanie przez MMH. Tylko pisanie

cv::Mat H = cv::findHomography(cv::Mat(obj), cv::Mat(scene), CV_RANSAC); cv::perspectiveTransform(cv::Mat(obj_corners), cv::Mat(scene_corners), H);

rozwiązało problem.

3

Rzeczywista odpowiedź jest w błędzie:

npoints >= 0 && points2.checkVector(2) == npoints && points1.type() == points2.type() 

Human tłumaczenia czytelny, trzeba spełnić następujące twierdzenia:

  • Twój wkład musi mieć dodatnią liczbę punktów (w praktyce findHomography potrzebuje 4 lub więcej punktów).

  • Lista punktów "obiekt" i "scena" musi mieć tę samą liczbę punktów.

  • Lista punktów "obiekt" i "scena" musi mieć ten sam typ punktów.

1

Bardziej prawdopodobne, że problem jest tutaj:

if(matches[i].distance < 3*min_dist) 

Ścisłe nierówność nie jest to, co chcesz. Jeśli min_dist == 0, bardzo dobry mecz, zignorujesz wszystkie punkty zerowej odległości.Zamień na:

if(matches[i].distance <= 3*min_dist) 

i powinieneś zobaczyć dobre wyniki dla dobrze pasujących obrazów.

Aby wyjść z wdziękiem, chciałbym również dodać, np .:

if (good_matches.size() == 0) 
{ 
    std::cout<< " --(!) No good matches found " << std::endl; return -2; 
} 
1

trzeba dodać warunek przed findHomography

if(obj.size()>3){ 
    ///-- Get the corners from the image_1 (the object to be "detected") 
    vector<Point2f> obj_corners(4); 
    obj_corners[0] = Point(0,0); obj_corners[1] = Point(img_object.cols, 0); 
    obj_corners[2] = Point(img_object.cols, img_object.rows); obj_corners[3] = Point(0, img_object.rows); 

    Mat H = findHomography(obj, scene,CV_RANSAC ); 
    perspectiveTransform(obj_corners, scene_corners, H); 
    ///-- Draw lines between the corners (the mapped object in the scene - image_2) 
    for(int i = 0; i < 4; ++i) 
     line(fram_tmp, scene_corners[i]+offset, scene_corners[(i + 1) % 4]+offset, Scalar(0, 255, 0), 4); 
} 
Powiązane problemy