开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 8 天
1 概述
在FLANN特征匹配的基础上,还可以进一步利用Homography映射找出已知物体。具体来说就是利用findHomography函数通过匹配的关键点找出相应的变换,再利用perspectiveTransform函数映射点群。
也就是分为以下两个大的步骤。
(1)使用函数 findHomography 寻找匹配上的关键点的变换。
(2)使用函数 perspectiveTransform 来映射点.
下面,我们分别对相关该函数进行简单介绍。
2 寻找透视变换: findHomography()函数
此函数的作用是找到并返回源图像和目标图像之间的透视变换 H:
C++:
Mat findHomography (
InputArray srcPoints,
InputArray dstPoints,
int method=0,
double ransacReprojThreshold=3,
OutputArray mask=noArray()
)
-
第一个参数,InputArray 类型的 srePoints,源平面上的对应点,可以是CV_32FC2 的矩阵类型或者 vector。
-
第二个参数,InputArray 类型的 dstPoints,目标平面上的对应点,可以是CV_32FC2的矩阵类型或者 vector。
-
第三个参数,int 类型的 method,用于计算单应矩阵的方法。可选标识符为如表所示。
表 计算单应矩阵可选标识符
标识符 | 含义 |
---|---|
0 | 使用所有点的常规方法(默认值) |
CV_RANSAC | 基于RANSAC的鲁棒性方法 |
CV_LMEDS | 最小中值鲁棒性方法 |
- 第四个参数, double类型的ransacReprojThreshold,有默认值3,处理点对为内围层时,允许重投影误差的最大值。这就是说,当
时,这里的点i被看做 内围层。若srePoints和dstPoints是以像素为单位的,那么此参数的取值范围一般在 1 到 10 之间。
- 第五个参数, OutputArray类型的mask,有默认值noArray(),是一个可选的参数,通过上面讲到的鲁棒性方法((CV_RANSAC或者CV_LMEDS()设置输出掩码。需要注意的是,输入掩码值会被忽略掉。
3 进行透视矩阵变换:perspectiveTransform()函数
perspectiveTransform 函数的作用是进行向量透视矩阵变换。
C++:
void perspectiveTransform(InputArray src,OutputArray dst, InputArray m)
- 第一个参数, InputArray 类型的 sre,输入图像,即源图像,填 Mat 类的对象即可,且需为双通道或三通道浮点型图像,其中的每个元素是二维或三维可被转换的矢量。
- 第二个参数,OutputArray类型的 dst,函数调用后的运算结果存在这里,即这个参数用于存放函数调用后的输出结果,需和源图片有一样的尺寸和类型。
- 第三个参数, InputArray类型的m,变换矩阵,为3x3或者4x4浮点型矩阵。
4 示例程序:寻找已知物体
本节我们将放出用OpenCV寻找已知物体的详细注释的程序源代码。
源码
//---------------------------------【头文件、命名空间包含部分】----------------------------
// 描述:包含程序所使用的头文件和命名空间
//-----------------------------------------------------------------------------------------
#include "opencv2/core/core.hpp"
#include "opencv2/features2d/features2d.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/calib3d/calib3d.hpp"
#include "opencv2/nonfree/nonfree.hpp"
#include <iostream>
using namespace cv;
using namespace std;
//-----------------------------------【main( )函数】--------------------------------------------
// 描述:控制台应用程序的入口函数,我们的程序从这里开始执行
//--------------------------------------------------------------------------------------------
int main( )
{
//【0】改变console字体颜色
system("color 1F");
//【1】载入原始图片
Mat srcImage1 = imread( "1.jpg", 1 );
Mat srcImage2 = imread( "2.jpg", 1 );
if( !srcImage1.data || !srcImage2.data )
{ printf("读取图片错误,请确定目录下是否有imread函数指定的图片存在~! \n"); return false; }
//【2】使用SURF算子检测关键点
int minHessian = 400;//SURF算法中的hessian阈值
SurfFeatureDetector detector( minHessian );//定义一个SurfFeatureDetector(SURF) 特征检测类对象
vector<KeyPoint> keypoints_object, keypoints_scene;//vector模板类,存放任意类型的动态数组
//【3】调用detect函数检测出SURF特征关键点,保存在vector容器中
detector.detect( srcImage1, keypoints_object );
detector.detect( srcImage2, keypoints_scene );
//【4】计算描述符(特征向量)
SurfDescriptorExtractor extractor;
Mat descriptors_object, descriptors_scene;
extractor.compute( srcImage1, keypoints_object, descriptors_object );
extractor.compute( srcImage2, keypoints_scene, descriptors_scene );
//【5】使用FLANN匹配算子进行匹配
FlannBasedMatcher matcher;
vector< DMatch > matches;
matcher.match( descriptors_object, descriptors_scene, matches );
double max_dist = 0; double min_dist = 100;//最小距离和最大距离
//【6】计算出关键点之间距离的最大值和最小值
for( int i = 0; i < descriptors_object.rows; i++ )
{
double dist = matches[i].distance;
if( dist < min_dist ) min_dist = dist;
if( dist > max_dist ) max_dist = dist;
}
printf(">Max dist 最大距离 : %f \n", max_dist );
printf(">Min dist 最小距离 : %f \n", min_dist );
//【7】存下匹配距离小于3*min_dist的点对
std::vector< DMatch > good_matches;
for( int i = 0; i < descriptors_object.rows; i++ )
{
if( matches[i].distance < 3*min_dist )
{
good_matches.push_back( matches[i]);
}
}
//绘制出匹配到的关键点
Mat img_matches;
drawMatches( srcImage1, keypoints_object, srcImage2, keypoints_scene,
good_matches, img_matches, Scalar::all(-1), Scalar::all(-1),
vector<char>(), DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS );
//定义两个局部变量
vector<Point2f> obj;
vector<Point2f> scene;
//从匹配成功的匹配对中获取关键点
for( unsigned int i = 0; i < good_matches.size(); i++ )
{
obj.push_back( keypoints_object[ good_matches[i].queryIdx ].pt );
scene.push_back( keypoints_scene[ good_matches[i].trainIdx ].pt );
}
Mat H = findHomography( obj, scene, CV_RANSAC );//计算透视变换
//从待测图片中获取角点
vector<Point2f> obj_corners(4);
obj_corners[0] = cvPoint(0,0); obj_corners[1] = cvPoint( srcImage1.cols, 0 );
obj_corners[2] = cvPoint( srcImage1.cols, srcImage1.rows ); obj_corners[3] = cvPoint( 0, srcImage1.rows );
vector<Point2f> scene_corners(4);
//进行透视变换
perspectiveTransform( obj_corners, scene_corners, H);
//绘制出角点之间的直线
line( img_matches, scene_corners[0] + Point2f( static_cast<float>(srcImage1.cols), 0), scene_corners[1] + Point2f( static_cast<float>(srcImage1.cols), 0), Scalar(255, 0, 123), 4 );
line( img_matches, scene_corners[1] + Point2f( static_cast<float>(srcImage1.cols), 0), scene_corners[2] + Point2f( static_cast<float>(srcImage1.cols), 0), Scalar( 255, 0, 123), 4 );
line( img_matches, scene_corners[2] + Point2f( static_cast<float>(srcImage1.cols), 0), scene_corners[3] + Point2f( static_cast<float>(srcImage1.cols), 0), Scalar( 255, 0, 123), 4 );
line( img_matches, scene_corners[3] + Point2f( static_cast<float>(srcImage1.cols), 0), scene_corners[0] + Point2f( static_cast<float>(srcImage1.cols), 0), Scalar( 255, 0, 123), 4 );
//显示最终结果
imshow( "效果图", img_matches );
waitKey(0);
return 0;
}
效果图