ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

高翔视觉SLAM14讲学习笔记-第7讲

2021-02-11 20:03:38  阅读:276  来源: 互联网

标签:dist img matches descriptors keypoints 笔记 SLAM14 匹配 高翔


高翔视觉SLAM14讲学习笔记-第7讲

特征点法

特征点:就是图像中有代表性的点,图像中一些特别的地方,如角点(角点就是角的点)、边缘、区块等。
图片来自《视觉slam14讲》

ORB特征

在这里插入图片描述

实践:特征提取和匹配

暴力匹配运算量大,程序中使用的是快速最邻近算法(FLANN)。

/*
if ( argc != 3 )
{
    cout<<"usage: feature_extraction img1 img2"<<endl;
    return 1;
	// argc 为执行程序时的输入参数,程序在Linux终端执行时,执行 ./feature_extraction 1.png 2.png 共3个参数。在kde中执行时,可自行修改成以下。
	
}
//-- 读取图像
Mat img_1 = imread ( argv[1], CV_LOAD_IMAGE_COLOR );
Mat img_2 = imread ( argv[2], CV_LOAD_IMAGE_COLOR );
// Mat类:自动分配内存,释放内存 图片信息为2维,大小为480*(640*3)

*/
Mat img_1 = imread ( "图片路径/1.png", CV_LOAD_IMAGE_COLOR );
Mat img_2 = imread ( "图片路径/2.png", CV_LOAD_IMAGE_COLOR );

//-- 初始化
std::vector<KeyPoint> keypoints_1, keypoints_2;
//定义两个Vector容器,存放KeyPoint类型。
// 准备存放两张图中的特征点的。

Mat descriptors_1, descriptors_2;
Ptr<FeatureDetector> detector = ORB::create();
Ptr<DescriptorExtractor> descriptor = ORB::create();
// Ptr<FeatureDetector> detector = FeatureDetector::create(detector_name);
// Ptr<DescriptorExtractor> descriptor = DescriptorExtractor::create(descriptor_name);
Ptr<DescriptorMatcher> matcher  = DescriptorMatcher::create ( "BruteForce-Hamming" );
		
// 三个智能指针。智能指针:会主动释放内存,防止内存泄漏。

第一步,detect函数

//-- 第一步:检测 Oriented FAST 角点位置
detector->detect ( img_1,keypoints_1 );
detector->detect ( img_2,keypoints_2 );

// detect函数,分析像素,将特征点存于容器keypoints中。两个参数,输入和输出,第三个参数先不管。

//-- 第二步:根据角点位置计算 BRIEF 描述子
descriptor->compute ( img_1, keypoints_1, descriptors_1 );
descriptor->compute ( img_2, keypoints_2, descriptors_2 );

//compute函数:对Keypoint中的每个像素点进行描述子的计算。存于Mat类中的descriptor中。
// 通过cout<<descriptors_1<<endl 可以在终端打印描述子。 书上说BRIEF描述子由 01 组成,但打印出来的是0-255之间的矩真,不知道为啥。

Mat outimg1;
drawKeypoints( img_1, keypoints_1, outimg1, Scalar::all(-1), DrawMatchesFlags::DEFAULT );
imshow("ORB特征点",outimg1);
// DrawKeypoint函数 新定义一个Mat类变量,将特征点img_1画出来并存为一个新图像进行展示。调用了drawKeypoint函数
// 使用默认值将img_1于keypoint_1中存储的特征点进行圈画。

//-- 第三步:对两幅图像中的BRIEF描述子进行匹配,使用 Hamming 距离
vector<DMatch> matches;
//BFMatcher matcher ( NORM_HAMMING );
matcher->match ( descriptors_1, descriptors_2, matches );
 定义容器,类型为cv::DMatch。 DMatch类型变量用来存储特征点之间的匹配情况,每个变量有四个成员对图像内的索引,分别是所选中的特征点所对应的keypoint容器中对应的标号。Distance代表特征点之间的距离,使用汉明距离。距离越小越好。
 使用match函数将descriptors 1,2 进行相似度匹配,存于matches容器中。

这儿就声明了两个double类型的数。

//-- 第四步:匹配点对筛选
double min_dist=10000, max_dist=0;

基本语法比较好理解。遍历所有的匹配点,并找出最小距离和最大距离。存到刚才的两个double类型函数中。

//找出所有匹配之间的最小距离和最大距离, 即是最相似的和最不相似的两组点之间的距离
for ( int i = 0; i < descriptors_1.rows; i++ )
{
    double dist = matches[i].distance;
    if ( dist < min_dist ) min_dist = dist;
    if ( dist > max_dist ) max_dist = dist;
}
printf ( "-- Max dist : %f \n", max_dist );
printf ( "-- Min dist : %f \n", min_dist );

//当描述子之间的距离大于两倍的最小距离时,即认为匹配有误.但有时候最小距离会非常小,设置一个经验值30作为下限.
std::vector< DMatch > good_matches;
for ( int i = 0; i < descriptors_1.rows; i++ )
{
    if ( matches[i].distance <= max ( 2*min_dist, 30.0 ) )
    {
        good_matches.push_back ( matches[i] );
    }
}

//-- 第五步:绘制匹配结果
Mat img_match;
Mat img_goodmatch;
drawMatches ( img_1, keypoints_1, img_2, keypoints_2, matches, img_match );
drawMatches ( img_1, keypoints_1, img_2, keypoints_2, good_matches, img_goodmatch );
 drawMatches函数,对两张图片之间的特征点匹配对进行连线与拼接。 将两张图拼接成一张图,存入Mat类型的img_match中。


imshow ( "所有匹配点对", img_match );
imshow ( "优化后匹配点对", img_goodmatch );
waitKey(0);

我是初学者,错误肯定很多,请大家指正。谢谢啦

标签:dist,img,matches,descriptors,keypoints,笔记,SLAM14,匹配,高翔
来源: https://blog.csdn.net/weixin_43148926/article/details/113791630

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有