OpenCV Practise 03 - Image sticthing

2,622 阅读7分钟

图像拼接

一、总体方法和流程讲解

将两张视角不同的图像拼接起来

  1. 如何将两张图像的视角进行匹配?

    使用特征提取后的特征匹配,找出匹配最佳的四对特征点,反解出变换矩阵 H ,将其中一幅图像使用此变换矩阵进行投影变换,从而实现视角匹配

  2. 如何将匹配视角后的两幅图像进行拼接?

    直接利用numpy的阵列操作将两幅图图像组合在一起即可。

二、补充知识

主要是Opencv中的findHomography的参数method中的ransacReprojThreshold含义,还有就是detectAndCompute返回值中的kps参数包含内容。

1. findHomography函数(Cpp版)

  1. 计算多个二维点对之间的最优单映射变换矩阵 H(3行x3列) ,使用最小均方误差或者RANSAC方法

  2. 函数功能:找到两个平面之间的转换矩阵。

     Mat cv::findHomography	(	
    
             InputArray 	srcPoints,
             ​                                
             InputArray 	dstPoints,
             ​                                
             int 	method = 0,
             ​                                
             double 	ransacReprojThreshold = 3,
             ​                                
             OutputArray 	mask = noArray(),
             ​                               
             const int 	maxIters = 2000,
             ​                               
             const double 	confidence = 0.995 
             ​	
             )
    
  3. 参数详解:

    1. srcPoints 源平面中点的坐标矩阵,可以是CV_32FC2类型,也可以是vector类型

    2. dstPoints 目标平面中点的坐标矩阵,可以是CV_32FC2类型,也可以是vector类型

    3. method 计算单应矩阵所使用的方法。不同的方法对应不同的参数,具体如下:

      • 0 - 利用所有点的常规方法

      • RANSAC - RANSAC-基于RANSAC的鲁棒算法

      • LMEDS - 最小中值鲁棒算法

      • RHO - PROSAC-基于PROSAC的鲁棒算法

      • ransacReprojThreshold 将点对视为内点的最大允许重投影错误阈值(仅用于RANSAC和RHO方法)。如果 dstPoints i convertPointsHomogeneous (HsrcPointsi)> ransacReprojThreshold \| \text { dstPoints }_{i}-\text { convertPointsHomogeneous }\left(H * \operatorname{srcPoints}_{i}\right) \|>\text { ransacReprojThreshold }则点被认为是个外点(即错误匹配点对)。若srcPoints和dstPoints是以像素为单位的,则该参数通常设置在1到10的范围内。

    4. mask 可选输出掩码矩阵,通常由鲁棒算法(RANSAC或LMEDS)设置。 请注意,输入掩码矩阵是不需要设置的。

    5. maxIters RANSAC算法的最大迭代次数,默认值为2000。 confidence 可信度值,取值范围为0到1. 该函数能够找到并返回源平面和目标平面之间的转换矩阵H,以便于反向投影错误率达到最小。

2. detectAndCompute返回值中的kps

kps是关键点。它所包含的信息有:

  1. angle:角度,表示关键点的方向,为了保证方向不变形,SIFT算法通过对关键点周围邻域进行梯度运算,求得该点方向。-1为初值。
  2. class_id:当要对图片进行分类时,我们可以用class_id对每个特征点进行区分,未设定时为-1,需要靠自己设定
  3. octave:代表是从金字塔哪一层提取的得到的数据。
  4. pt:关键点点的坐标
  5. response:响应程度,代表该点强壮大小,更确切的说,是该点角点的程度。
  6. size:该点直径的大小

3. match与KnnMatch返回值解释

  1. 二者的返回值都是DMatch的数据结构。

  2. match:

    1. 代码:

      bf = cv.BFMatcher_create()
      matches = bf.match(des1, des2)
      for matche in matches:
          print(matche)
      
      
    2. 结果:

      <DMatch 0x7fcf509b90b0>
      <DMatch 0x7fcf509b90d0>
      <DMatch 0x7fcf509b90f0>
      <DMatch 0x7fcf509b9110>
      
  3. Dmatch数据结构:

    主要含有三个非常重要的数据:queryIdx,trainIdx,distance

    1. queryIdx:测试图像的特征点描述符的下标(第几个特征点描述符),同时也是描述符对应特征点的下标。
    2. trainIdx:样本图像的特征点描述符下标,同时也是描述符对应特征点的下标。
    3. distance:代表这对匹配的特征点描述符的欧式距离,数值越小也就说明两个特征点越相似。
  4. 区别

    Match匹配是“最佳”匹配,所以返回值list中的元素类型都是单个Dmatch,而 KnnMatch在设定参数 k = 2 后,就会对同一点进行最佳匹配和次佳匹配,所以返回值list中的元素类型都是一对Dmatch,也即[Dmatch, Dmatch]

三、代码

1. Stitcher.py

主要用于定义Stitcher类,封装了拼接两幅视角不同的图像的基本流程和方法。

import numpy as np
import cv2

# 自定义匹配类型
class Stitcher:

    # 拼接函数, 0.75 是 OpenCV 官方给出的数据,reprojThresh用于滤除匹配不当的特征点对
    # showMatches 用于判别是否需要显示处理后的图像
    def stitch(self, images, ratio=0.75, reprojThresh=4.0,showMatches=False):
        # 获取输入图片
        (imageB, imageA) = images
        # 检测A、B图片的SIFT关键特征点,并计算特征描述子
        (kpsA, featuresA) = self.detectAndDescribe(imageA)
        (kpsB, featuresB) = self.detectAndDescribe(imageB)

        # 匹配两张图片的所有特征点,返回匹配结果
        M = self.matchKeypoints(kpsA, kpsB, featuresA, featuresB, ratio, reprojThresh)

        # 如果返回结果为空,没有匹配成功的特征点,退出算法
        if M is None:
            return None

        # 否则,提取匹配结果
        # H是3x3视角变换矩阵      
        (matches, H, status) = M
        # 将图片A进行视角变换,result是变换后图片,最后一个参数是拼接后的图像尺寸
        # 也即是 将 A 进行视角变换后,并扩充其原图像,便于之后拼接
        result = cv2.warpPerspective(imageA, H, (imageA.shape[1] + imageB.shape[1], imageA.shape[0]))
        self.cv_show('result', result)
        # 将图片B传入result图片最左端,拼接
        result[0:imageB.shape[0], 0:imageB.shape[1]] = imageB
        self.cv_show('result', result)

        # 检测是否需要显示图片匹配
        if showMatches:
            # 生成匹配图片
            vis = self.drawMatches(imageA, imageB, kpsA, kpsB, matches, status)
            # 返回结果
            return (result, vis)

        # 返回匹配结果
        return result

    # 自定义图像显示函数
    def cv_show(self,name,img):
        cv2.imshow(name, img)
        cv2.waitKey(0)
        cv2.destroyAllWindows()

    # 特征检测
    def detectAndDescribe(self, image):
        # 将彩色图片转换成灰度图
        gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)

        # 建立SIFT生成器
        descriptor = cv2.SIFT_create()
        # 检测SIFT特征点,并计算描述子
        (kps, features) = descriptor.detectAndCompute(image, None)

        # kps中包含了坐标、角度、大小等一系列参数,将特征点集转换成NumPy数组
        kps = np.float32([kp.pt for kp in kps])

        # 返回特征点集,及对应的描述特征
        return (kps, features)

    # 使用Knn算法进行暴力匹配
    def matchKeypoints(self, kpsA, kpsB, featuresA, featuresB, ratio, reprojThresh):
        # 建立暴力匹配器
        matcher = cv2.BFMatcher()
  
        # 使用KNN检测来自A、B图的SIFT特征匹配对,K=2,一个点最多只会对应两个点
        # Knn蛮力匹配会自动进行排序,距离小的在前(最佳匹配在前)
        rawMatches = matcher.knnMatch(featuresA, featuresB, 2)

        matches = []
        for m in rawMatches:
            # 当最近距离跟次近距离的比值小于ratio值时,保留此匹配对
            if len(m) == 2 and m[0].distance < m[1].distance * ratio:
            # 存储两个点在featuresA, featuresB中的索引值
                matches.append((m[0].trainIdx, m[0].queryIdx))

        # 当筛选后的匹配对大于4时,计算视角变换矩阵
        if len(matches) > 4:
            # 获取匹配对的点坐标
            # 利用列表生成式先生成list,再生成阵列
            # matches内部的数据格式为 : [((x_B, y_B),(x_A, y_A)), ((),()), ..., ((),())]
            ptsA = np.float32([kpsA[i] for (_, i) in matches])
            ptsB = np.float32([kpsB[i] for (i, _) in matches])

            # 计算视角变换矩阵
            (H, status) = cv2.findHomography(ptsA, ptsB, cv2.RANSAC, reprojThresh)

            # 返回结果
            return (matches, H, status)

        # 如果匹配对小于4时,返回None
        return None
    # 只是将两张未处理的图直接拼接在一起后标记出特征点联系
    def drawMatches(self, imageA, imageB, kpsA, kpsB, matches, status):
        # 初始化可视化图片,将A、B图左右连接到一起
        (hA, wA) = imageA.shape[:2]
        (hB, wB) = imageB.shape[:2]
        vis = np.zeros((max(hA, hB), wA + wB, 3), dtype="uint8")
        # 宽度相加、高度自适应
        vis[0:hA, 0:wA] = imageA
        vis[0:hB, wA:] = imageB

        # 联合遍历,画出匹配对
        for ((trainIdx, queryIdx), s) in zip(matches, status):
            # 当点对匹配成功时,画到可视化图上
            if s == 1:
                # 画出匹配对
                ptA = (int(kpsA[queryIdx][0]), int(kpsA[queryIdx][1]))
                # 宽度叠加
                ptB = (int(kpsB[trainIdx][0]) + wA, int(kpsB[trainIdx][1]))
                cv2.line(vis, ptA, ptB, (0, 0, 255), 1)

        # 返回可视化结果
        return vis

2. ImageStiching.py

主函数,控制程序执行流程

from Stitcher import Stitcher
import cv2

# 读取拼接图片
imageA = cv2.imread("left_01.png")
imageB = cv2.imread("right_01.png")

# 把图片拼接成全景图
# 实例化 Stitcher 类
stitcher = Stitcher()

# 最后的参数用来是控制是否在处理过程中显示图像
(result, vis) = stitcher.stitch([imageA, imageB], showMatches=True)

# 显示所有图片
cv2.imshow("Image A", imageA)
cv2.imshow("Image B", imageB)
cv2.imshow("Keypoint Matches", vis)
cv2.imshow("Result", result)
cv2.waitKey(0)
cv2.destroyAllWindows()

四、效果展示

  1. 原图像:

    左边图像

    left_01.png

    右边图像:

    right_01.png

  2. 将右边图像进行映射变换(单应)并进行填充后的结果:

    image-20220507164155590.png

    可以看出上述图像有少许失真。

  3. 拼接成功的图像:

    左边图像无需处理,直接填入即可。

    image-20220507164304720.png

  4. 两张原图像和Knn特征匹配后的结果:

    image-20220507164405662.png

五、总结

  1. 图像拼接只需要改动其中一张图像的“视角”,也就是只需要对其中一张图像进行单应变换。且最终结果就是直接拼接。

  2. 注意detectAndCompute方法返回的kps中返回的不止是坐标信息还有角度、大小等信息

  3. 注意KnnMatch的返回值信息