基于宽基线的弱纹理特征点提取与匹配方法研究.docx

上传人:滴答 文档编号:1256111 上传时间:2019-01-19 格式:DOCX 页数:18 大小:713.72KB
下载 相关 举报
基于宽基线的弱纹理特征点提取与匹配方法研究.docx_第1页
第1页 / 共18页
基于宽基线的弱纹理特征点提取与匹配方法研究.docx_第2页
第2页 / 共18页
基于宽基线的弱纹理特征点提取与匹配方法研究.docx_第3页
第3页 / 共18页
基于宽基线的弱纹理特征点提取与匹配方法研究.docx_第4页
第4页 / 共18页
基于宽基线的弱纹理特征点提取与匹配方法研究.docx_第5页
第5页 / 共18页
点击查看更多>>
资源描述

1、基于宽基线的弱纹理特征点提取与匹配方法研究摘要随着计算机技术与高分辨率 CCD 数码相机技术的高速发展 , 其灵活,快捷以及非接触等优势使其成为了获取三维空间信息的主要方式之一。其中,从不同视角对同一场景进行拍摄,在所得到的图像序列中得到可靠的对应点是该技术的关键问题之一,并且其也是后续数据分析,三维重建等的基础,另一方面,由于传统的特征点提取方法不能在弱纹理区域中提取可靠的对应点,因此其成为了该领域亟待解决的难点之一。本文针对该问题进行了研究。论文涉及模式识别,寻优算法,数字图像处理等多学科的理论方法。主要包括: 1. 介绍了特征点提取与匹配方法的基本原理,详细地阐述和总结了国内外对特征点提

2、取方法的的研究进展和现况及其应用领域;概述了将其应用于三维重建中所涉及到的关键技术,并介绍了模式识别中相关方法的理论及其在各自领域中相应的应用,包括:稀疏表示,图割算法以及 Meanshift 算法,为本文所研究的基于宽基线的弱纹理特征点的提取与匹配算法提供了理论依据和基本思路。2. 对弱纹理区域的特点进行了研究,提出了一种适用于提取弱纹理区域中特征点的方法。该方法基于区域局部自相似性的概念提取图像中自相似性较高的点作为相应的特征点,另一方面,由于弱纹理特征点的特征不明显,因而较难找到一种合适的特征描述子对其特征进行描述,从而使得传统的基于欧氏距离的特征点匹配方法对其并不适用,因此,设计了一种

3、基于稀疏表示的特征点匹配方法,该方法对特征描述子的选取并不敏感,且其具有较强的稳定性及鲁棒性。实验结果表明该方法对弱纹理特征点的匹配准确率要远远高于传统的基于欧式距离的匹配效果。3. 为了将传统特征点提取算子及匹配方法的适用性进行扩展,使其能够在图像弱纹理区域中提取到相应的特征点并进行准确的匹配,提出了一种基于纹理合成的弱纹理特征点提取方法。该方法以纹理合成算法为基础,并采用仿射变换将所合成的纹理分别添加到图像对的弱纹理区域中替换之前的弱纹理区域,此外,为了确保所添加后的纹理的准确性(即,若之前在弱纹理区域中对应的点,在替换后仍为对应点) ,我们采用图割算法(Graph Cut)对所提取到的特

4、征点对进行修正,通常采用这种粗匹配到精确匹配相结合的特征点匹配方法,建立了一套基于纹理合成的弱纹理特征点匹配机制。通过对各种包含弱纹理的图像进行实验验证,结果证明本方法在扩展了传统特征点提取方法的基础上,保证了较高的匹配准确率,可用于宽基线下对弱纹理区域的稠密匹配。4. 传统的深度图像大多是在窄基线的情况下所生成的,但该方法不具有通用性,并且所受限制条件过多,另一方面,由于传统的特征点提取方法可在宽基线情况下提取到相应的特征点,但由于其提取出的特征点周围一般都具有较强的纹理特征,但在现实环境中往往存在大量的弱纹理区域,因而该方法较难应用于实际中。为此,我们提出了一种基于Meanshift 的特

5、征描述机制,根据每一点周围的纹理强度,采用 Meanshift 算法找出其对应的区域,根据该区域给出对应的特征描述子,最后,利用极线约束在极线上找到匹配的特征点,并根据匹配结果采用图割算法调节相应的能量函数来得到最终的深度图像。实验结果表明,该方法能够在宽基线下得到较为准确的深度图像,扩展了传统立体匹配的适用范围。论文最后对所做的研究工作进行了总结,并对下一步的研究内容及研究方向进行了讨论和展望。第一章 绪论1.研究背景和意义随着计算机,半导体以及通信技术的快速发展,人类生活的各个领域正向着高度信息化的方向所发展。在所有信息中视觉系统承担了人类处理,感知和理解外部世界信息的绝大部分工作,实际生

6、活中,人类所获取信息总量的 75%以上来自视觉系统。目前,包括心理学、神经学、认知科学等各领域科学家对人类视觉系统进行了大量的研究,然而人类对其工作原理及认知过程的了解还远远不够;对视觉感知缺乏切实可信的数学模型;并且对大脑皮层如何视觉信息处理的具体过程尚不明确。计算机视觉作为图像分析领域的一个重要分支,其主要的研究目的是根据摄像机所拍摄到的一幅或多幅 2D 图像认知或重现真实的 3D 场景信息,例如物体的形状、位置、大小以及运动等的信息,即通过计算机实现对真实世界的三维场景的识别、感知及理解。该学科不仅对工程领域具有重要的实用价值,更是一门极富挑战性的研究领域,用于该领域的研究方法涉及物理学

7、、信号处理、认知科学、应用数学以及统计学等各个学科的相关知识。20 世纪 60 年代中期计算机视觉领域进入了其开创性的阶段。最初美国麻省理工学院的Roberts 成功地利用计算机语言对三维积木世界进行了描述【】 。之后,Waltz, Clows 以及Huffman 等人在此基础上将二维图像分析推广到三维的场景分析中,解决了阴影处理和景物解释等问题。该进展标志着计算机视觉的诞生,并在接下来的 20 年中其迅速发展成了一门新的研究领域。此外,Marr 教授在 70 年代末到 80 年代初将神经生理学、图像处理技术以及心理物理学等学科的研究成果融入到计算机视觉领域中,创立了该领域的理论体系。计算机视

8、觉在工程领域中,如建筑、航空测绘、机器人视觉、产品外观设计和医学整形等都有着广泛的应用前景,因此它成为了当今国际上的热门研究领域之一。一些发达国家例如德国、美国、日本等相继在 60 年代开始了对其的研究,其中美国更是将其列为了国家的“重大挑战”课题。数字图像处理技术与计算机视觉有着密切的关系,其中数字图像处理已取得了众多的成果,部分趋于成熟的技术已应用于实际的工程领域中,该领域的研究内容主要包括运动分析、边缘检测、图像识别与分割等,其往往作为计算机视觉的前期处理结果用于对图像的认知与推理。从整体上讲,由于当前对计算机视觉后期过程的研究还较不完善,因此很难将数字图像处理与计算机视觉的研究内容严格

9、的区分开。通常情况下在获得二维图像序列后,立体视觉系统大致可分为如下六个步骤【】:(1)图像获取:利用多个摄像机得到同一场景在不同角度下的图像。(2)摄像机标定(或摄像机建模):其作用是求出摄像机内部的参数,用于求解之后的深度信息并对摄像机透镜所造成的畸变进行校正。(3)特征提取:在不同摄像机所拍摄到的图像序列中提取具有高度鲁棒性的特征点(例如对称点,角点以及边界点等) ,所选出的特征点应具有可重复性,即:同一场景在不同角度所拍摄的图像中所提取的特征点应为同名特征点。(4)特征点匹配:找到图像序列中的同名特征点对。(5)深度确定:根据摄像机标定过程所得的摄像机内部参数和同名特征点对求出物体在三

10、维空间中的实际位置。(6)深度图插值:在实际环境中,由于所得的特征点往往比较稀疏,因此无法对三维场景中的每个点采用上述方法求出其对应的三维空间坐标,因此需要采用插值的方法来得到其他点的深度信息。在上述的六个步骤中,图像获取、摄像机标定、深度确定以及深度插值已相对较为成熟,而特征提取及特征点匹配技术是当前计算机视觉领域的重要研究内容。本课题来源于上海市科委基础研究重点项目“仿人形多气囊柔性并联机器人生机电一体化的研究” 。考虑到对人体模型采用基于图像的三维重建方法时,由于物体表面具有较强的弱纹理特征,因而导致传统特征点提取方法不能提取到这类物体表面的特征点,因此,本论文针对弱纹理区域进行研究。该

11、方法弥补了传统特征点提取方法在弱纹理区域中提取不到特征点的缺陷,丰富了计算机视觉的基本理论和方法,具有重要的意义和广阔的应用前景。1.2 国内外研究现状及研究问题的提出本文的研究涉及宽基线情况下图像中的弱纹理点的提取与匹配问题。为此,首先介绍宽基线的概念,然后分别阐述特征点提取与匹配算法以及立体匹配算法的国内外研究现状并引出本文所要研究的内容。1.2.1 宽基线立体影像图 1-1 窄基线与宽基线摄影原理图图 1-1 中左图和右图分别为窄基线情况下与宽基线情况下的摄影原理图。其中, 与1P分别为从不同角度下所对应的相机平面, , 表示不同相机所对应的透镜中心,2P1S2表示所拍摄到的点在真实三维

12、场景中的位置。通常所谓的窄基线情况要求摄像机之间的A相对位置为单一方向上平移关系,更进一步,在满足该条件的情况下,物体的深度信息可通过摄像机之间的相对平移量所描述,尽管在该情况下所采集到的图像对能够采用最简单的匹配算法 SSD(Squared Sum Difference, 平方和求偏差的方法),但其对摄像机的位置要求较严格,因此该方法对通常情况下所采集到的图像不能直接进行深度估计。如图 1-1 所示相比于窄基线的情况,在宽基线的情况下,相机之间位置没有特殊的要求,即,相机的位置可以存在较大的平移并可伴随着旋转,因而具有更广的适应性,可用于实际的三维场景重建过程,然而,由于其灵活性的增强使得同

13、名特征点在不同图像上产生了尺度,方向以及亮度上的变化,因此给特征点的提取和匹配带来了困难。迄今为止,基于宽基线的特征点匹配方法仍然是计算机视觉领域的研究热点与难点之一。通常情况下,基于宽基线的深度图像获取过程中,首先需要提取足够多的特征点,并通过对这些特征点进行匹配从而构建出整个物体深度的大致信息,最后通过插值的方法得到最终的深度图像,但由于传统的特征点匹配算法在图像中的弱纹理区域几乎检测不到特征点,因此对弱纹理区域进行深度估计时,若采用传统的特征点提取算法无法估计出该区域的深度信息。本文在宽基线的情况下,针对弱纹理区域的特征点提取进行了研究,一定程度上弥补了传统特征点提取算法的在该区域检测不

14、到特征点的缺点。1.2.2 特征点的提取与匹配算法当目标物体的图像获取后,从二维图像中提取图像特征并利用该特征与对应的约束关系恢复出传感器的几何投影模型成为了计算机视觉的首要工作。对于宽基线的情况,通常采用局部特征点的方法来描述向相应的特征,并采用特征点之间的关系来计算相应的模型参数。另一方面,局部特征点在遮挡,背景模糊以及其他条件变化的情况下具有较强的鲁棒性,目前该技术的难点主要集中在如下方面:(1) 当两幅图像存在变化时,得到稳定的不变特征点。(2) 在图像对之间得到尽可能多的特征点。(3) 在弱纹理区域得到稳定的特征点过去十几年中,人们采用了许多不同的方法来解决上述问题,通常该方法可分为

15、三个步骤:1. 特征点的提取,2. 根据规则或算法生成相应的特征描述子,3. 对特征描述子进行匹配找到对应的特征点对。1.2.2.1 尺度不变特征点的提取早在上世纪 80 年代,Crowley 和 Parker 分别提出了三维的尺度空间的概念,该方法采用 Difference-of Gaussian(DoG)滤子作为对应的特征值,并通过选取的三维尺度空间中具有极大特征值的点作为特征点,该方法假设特征点在各个方向上的尺度变化都相同。之后,针对三维尺度空间采用了各种不同的表示方法,Lindeberg(1998) 采用 Laplacian-of-Gaussian(LoG)来描述尺度空间,该空间通过采

16、用不同尺度的高斯核来描述,由于 LoG 算子具有镜像对称性,因此,可用来检测图像中的圆形结构。Bertner 和 Lindeberg(1998)据此提出了尺度自适应的特征点检测方法。 Lowe(1999)基于 DoG 尺度空间的概念提出了一种有效的目标检测方法。该方法通过高斯核将输入的图像变化为连续的样本,并通过将相邻样本做差来得到相应的 DoG 尺度空间,尽管 DoG 算子是 LoG 算子的近似,但其有效的加快了算法的速度。由于 DoG 和 LoG 在信号单一方向上产生变化时会检测到与轮廓邻近的点,然而这些点往往是由于噪声所产生,因此其鲁棒性较差,Mikolajczyk(2002)针对这一缺

17、点进行了改进,提出了一种基于 Hessian 矩阵的特征点检测方法,该方法通过计算 Hessian 矩阵,并将具有极大秩的点作为特征点,且通过计算信号的二阶导数,去除了仅在单一方向上变化的点。此外,Kadir 和 Brady(2001)提出了一种不同的尺度选择方法,该方法考虑特征点的局部复杂度作为尺度大小的衡量标准提出了基于熵极大值的尺度检测方法,由于该方法需要检测特征点周围的复杂程度,因此,该方法对局部特征描述子有较强的依赖。1.2.2.2 仿射不变特征点的提取由于在仿射变换本身包含了不同方向上的尺度变换,因此,仿射不变的特征点检测方法可以看成是尺度不变方法的扩展。其包含了两方面的内容:尺度

18、的变化和形状的变化。Alvarez 和 Morales(1997)提出了一种用于检测角点的仿射不变检测算法。该算法利用多尺度空间上的仿射形态学来分析和提取角点,即,通过构造同一图像结构在不同尺度上的所检测到的特征点串,并通过特征点串所得到的等分线来估计最终特征点的位置和方向。类似的方法被 Deriche 和 Giraudon(1993)所提出。由于实际环境中的特征点并不能被完美的表示成为一个拐角,并且由于特征点串中的点并不能严格的沿着等分线排列,因此,该方法对仿射不变性并不具有通用性。Tuytelaaars 和 VanGool(1999,2000)分别提出了两种仿射不变的图像特征检测方法,前一

19、种方法通过采用 Harris 算子所检测到的特征点与每个特征点的相邻边界来确定图像特征的边界,因此该方法需要采用可靠的边界提取方法做保障,后一种方法采用图像灰度,将局部灰度最大的点作为特征点,并通过该点周围的灰度分布估计出对应的结构。Matas(2002)等根据分水岭算法提出了类似的方法。 Lindeberg 和Garding(1997)提出了一种检测圆形仿射变换特征的方法,该方法通过利用二阶矩矩阵和迭代过程估计局部区域的仿射变换,通过提取尺度空间中的极值点作为特征点,并通过迭代来调整其相应的尺度与形状,但在该方法中由于所采用的特征点在迭代的初始状态就已经确定,因此,在实际情况下点的位置会受仿

20、射变换的影响而导致轻微偏移。Laptev 和Lindeberg(2001)将该方法应用于手部跟踪(椭圆形检测) 。Baumberg (2000 )将仿射形状估计用于匹配和识别中,他通过 Harris 特征检测算子检测到相应的特征点,并通过Lindeberg 提出的迭代方法确定该点所对应的形状。此外,Schaffalitzky 和Zisserman(2002)利用 Baumberg 提出的方法扩展了 Harris-laplace(Mikolajczyk 和 Schmid, 2001))检测算子。 1.2.2.3 其他特征点的提取尽管目前大多数对特征点提取的研究工作主要集中在提取尺度不变以及仿射不

21、变的特征点,但由于该方法大多采用图像灰度的梯度分布来进行检测,因此所采集到的特征点往往集中在具有较强纹理分布的区域中,然而在实际场景中存在大量的弱纹理或无纹理区域,因而采用传统的特征点检测方法将导致在该部分区域中检测不到到稳定特征点,并且由于弱纹理区域的弱梯度场分布特性,使得传统特征点描述方法在对该区域中的点进行描述时,其产生的特征描述子具有低区分度,从而导致了该部分区域的信息丢失。文献4提出了一种 MSER 方法,该方法通过将区域中具有最低或最高灰度极值的点作为特征点,尽管所检测区域可以被看成是弱纹理的,但该方法依赖于特征点周围的轮廓信息,因此当其附近没有相应的轮廓信息时,其特征点将不能被检

22、测出。与其相似,文献10利用局部描述子与轮廓描述子相结合的方法检测特征点,但该方法仍然对轮廓具有较强的依赖性。Ralf Dragon(2010)等提出了一种无特征的特征点检测方法,该方法首先通过传统方法检测出传统的特征点,并通过定义图像中点与传统特征点之间的距离确定出弱纹理特征点,最后,通过采用局部的图像信息给出对应弱纹理特征点的特征描述子。1.2.3 立体匹配算法立体匹配一直以来是计算机视觉的一项重要研究内容之一。通常人们采用两台窄基线放置的摄像机作为获取图像的工具通过处理所得到的图像得到最终物体的深度信息,该方法也被称为:双目立体视觉方法。任何视觉处理算法都需要对实际的环境做一些理想的假设

23、。例如,如何匹配两幅图像中来自同一场景的投影点?这里一般假设物体表面的图像信息不受拍摄视角的影响。在立体视觉中常假设拍摄场景具有分块光滑的表面。大多数立体视觉方法可被分为如下四个步骤:(1). 计算匹配误差(2). 对误差进行求和(3). 视差图的计算或优化(4). 视差图的调整在实际的算法中,并不需要如上所述的所有步骤,例如传统的 SSD 视差图获取方法仅采用上述的(1),(2),(3)。文献Hannah,1974, Bolles 1993,Zabih , Woodfill 1994 将步骤 1 与步骤 2 合并分别提出了标准自相关方法和序变换方法。另一方面,全局优化方法则跳过了步骤 2,(

24、Marroquin, 1987; Barnard, 1989, Scharstein 1998, Boykov 2001)。1.2.3.1 匹配误差的计算在误差匹配方面,不少文献对其进行了详细的研究,提出了各种不同的方法,文献Anandan 1989;Matthies, 1989;Simoncelli,1991提出了灰度平方差方法(SD) ,文献Kanade,1994提出了灰度绝对值差方法。文献Black and Anadan, 1993; Seharstein and Szeliski, 1998提出了 TQCG(truncated quadratics and contaminated G

25、aussians)方法,该方法可将加权阶段的误差控制在一定的范围内。此外,文献hannah,1974; Ryan 1980 提出了标准互相关方法,该方法的效果等同于经典的 SSD 方法。 1.2.3.2 误差的加权在误差的加权阶段则通常采用局部窗法,即,将窗口中的灰度误差进行加权。采用的窗口可以是一维的,也可以是二维的,当其是一维时,所生成的视差空间图(DSI)是二维的,相应的,当其是二维的,则对应的 DSI 为三维。加权时经典的方法是采用高斯模板进行卷积。此外,文献Arnold 1983,bobick 1998移动窗法,文献Okutomi 1994提出了尺度自适应窗法。1.2.3.3 视差图

26、的计算与优化该部分通常可以分为两种方法:局部方法和全局方法。其中,局部方法主要强调算法步骤 1 与步骤 2 即:匹配误差的计算与匹配误差的加权。其最终视差的计算则相对简单,只需对每个点选择出最小误差所对应的视差值即可。该方法的缺陷主要是对点的唯一性只对参考图像进行约束,而对另一幅图像中则没有进行约束。相反,全局优化方法的主要工作集中在视差图的计算中,并通常跳过误差加权步骤。一般来讲,全局优化方法都可归纳为一种求能量函数最小值的方法。最终的目的是对下式进行最小化:(1.1)datsmothEEd其中 表示数据项能量,其作用是用于估计相应视差值所产生的误差大小。其可datE表示为:(1.2) ,d

27、atxyECdxy其中 表示有初始状态生成的 DSI。C平滑项 根据分块平滑假设,对算法的平滑度进行估计。为了加快处理速度,smothEd通常需要对平滑项进行限制,即:对每个点只估计其与相邻点的视差,如下式所示:(1.3) ,1,1smothxydxydxy其中 表示一个单调递增函数,文献Poggio 1985选择一个二次函数作为 ,但其在物体 边缘的效果并不理想。为此,文献Black 1998提出了一种保不连续性的鲁邦 函数。此外,文献Gamble 1987;Fua,1993;Boykov, 2001提出平滑项 也可由灰度差所决定,该方smothEd法所提出的 具有保不连续性,对图像中的灰度

28、边缘等较好的效果,其公式如下所示:(1.4),1,1,d IxyyxyIy一旦全局能量函数给定,则可以采用一系列的优化算法对之进行最小化处理,例如,文献Blake 1987 采用马尔科夫随机场对其进行寻优,模拟退火Geman 1984,最大最小流以及图割方法等Roy 1998, Veksler,1999,此外,还有动态规划方法Geiger 1992,协同优化算法Dev, 1974等。1.2.3.4 视差图的调整大多数立体匹配算法的应用领域中(机器人导航,人体跟踪等 )所采用的视差值是离散的,例如,整数视差值。 然而,在图像渲染领域中采用离散的视差值会导致结果过于单调,简单,为了弥补这一缺陷,许

29、多算法采用亚像素的概念来调整离散视差图所给出的结果。对亚像素级的视差图进行估计的常用方法包括:梯度下降法,曲线拟合法Ryan 1980, Lucas and Kanade 1981, 这些方法通过轻微提高计算复杂度,从而添加了原始的立体匹配算法所得结果的分辨率。 尽管如此,该算法要求所拟合的平面具有较强的光滑性,并且索尼和区域必须要在同一平面上。1.3 论文主要内容和创新点 1.4 论文的章节安排第二章 计算机视觉理论基础与关键技术2.1 引言在计算机视觉中,图像的特征点提取与匹配方法是模式识别,视频跟踪,宽基线匹配,相机标定,图像匹配等研究领域的关键技术。马赫效应支出人类视觉系统对灰度变化明

30、显的部分具有特别强烈的感觉,相应的,人们在计算机中通过图像灰度场的变化程度来描述该效应,并利用这一概念设计了不同的特征点检测方法,另一方面,不同拍摄视角图像中点的匹配问题是用来解决立体匹配与三维重建的基础。2.1 Self-Similarity 特征点提取方法由于在实际应用中,通常希望提取到尽可能多的特征点,但由于在实际所拍摄到的场景往往包含弱纹理区域,这导致采用传统的检测方法在该区域失效,其原因是由于经典方法大多基于灰度场变化强度来选择特征点,因此,为了避免这一缺点需要采用非梯度场概念的特征检测算子来检测特征点。特征描述子尺度空间纹理合成稀疏表示graph cut 算法第五章 基于 Mean

31、shift 的特征点描述子的构造方法及宽基线下深度图像的获取 5.3 基于 Meanshift 的特征点描述子深度图像的获取往往利用窄基线的双目摄像机所拍摄到的照片来获取,由于所拍摄的照片往往处在同一水平线上,因此无需考虑点的匹配问题。因而,对于图像中弱纹理的点深度只需采用不同的视差等级并利用连续性假设即可得到,但在宽基线情况下,由于匹配点不处在同一水平线上,因此无法直接采用水平视差这一概念来获取深度图像。从而需要对不同图像的特征点进行匹配,通常情况下,对宽基线图像对进行特征点匹配时,常采用具有高重复性以及鲁棒性的特征检测算子,例如:SIFT, SURF, Harris 等,但这些算子通常只能

32、采集到具有高灰度变化的特征点,然而在深度图像的获取时,往往需要对图像中的所有点进行深度估计,因而传统的特征点提取与匹配算法无法处理图像中的弱纹理点,因此这些方法也无法用于宽基线的深度图像获取中。在本章中,我们利用 Meanshift 算法构造一种适用于实际情况的特征描述算子。5.3.1 基于纹理特征的特征点描述方法为了在宽基线下获得准确的匹配点对,我们这里采用点附近的纹理分布来描述其对应的特征,然而由于宽基线情况下所得到的图像受光照变化,拍摄角度变化以及尺度变化等的影响较严重,因此不同图像对之间的纹理并不具有鲁棒性,如图 5-1 所示,不同角度拍摄下的图像在同名点周围所对应的纹理(圆形区域)不

33、尽相同,从而不能直接用于特征点的描述。 图 5-1与此相反,经典的特征点检测算法可以在宽基线情况下得到稳定的匹配特征点对,因而,用该方法所得到的特征点对可以用于特征的描述,因此我们采用经典的 SIFT 方法来得到相应的稳定特征点。另一方面,为了得到宽基线下图像的深度信息,我们需对图像的每一点进行匹配,而采用SIFT 方法所得到的特征点数目往往是上百或上千,因此若在每一点进行匹配时,采用所有特征点来描述其对应的特征,则会导致大量的冗余信息,并降低了算法的运行效率,为此,我们采用部分特征点来构造图像中每一点特征描述向量,这里为了确定图像中每一点所对应的特征点集合,我们采用以该点中心的圆形区域内所检

34、测到的特征点作为相应的特征点集,并采用 Meanshift 方法来确定该圆形区域的尺度。最后,采用该圆形区域内所检测到的特征点集的统计信息来描述图像中每一点的特征。图 5-2 为构造特征描述子的流程图M e a n s h i f t 窗口尺度获取特征点获取特征描述图 5-25.3.2 基于 Meanshift 的特征点描述子构造方法 4如图 5-1 所示为了在每一点周围得到其对应的特征描述子,需要在每一点周围寻找与其对应的特征点集,并通过这些特征点集来构造该点所对应的特征描述子。因此,首先需要采用一种方法来确定该点所对应的特征点集,这里我们采用 Meanshift 算法来得到其对应的特征尺度

35、。5.3.2.1 基于 Meanshift 的特征尺度获取Meanshift 方法可用来跟踪目标,其原理是通过样本密度分布最大值来确定目标的位置,给出一个 维 空间中的点集序列 ,可以通过密度核 及窗口半径 来得到dR1inxKXh相应的密度估计函数 fx(5.1 )1nidifKhxx根据实际问题可采用多种形式的密度核 ,其中最常用的形式如下所示:X(5.2 )2/2expdNKx根据上两式,可得密度估计函数:(5.3 )1nidifKh令 ,则核函数 可定义为:gkxGx(5.4 )2=Cgx其中 为标准化的常数。根据公式【】 【】 ,可得密度函数的梯度为:C(5.5 )2212 2121

36、211niidiniid di niinii niiff khhghhghg xxxxx令 ,根据上述公式可得21, 21niihGniighMxx(5.6 )2, /hGGfMCxx该式表明密度估计函数的梯度可由核函数表示,更进一步,密度估计函数的最大值点多对应的坐标可通过对 进行迭代来得到。,hGx在实际应用中往往需要把对应的问题转化为具有上式结构的数学模型,通常情况下,常采用 Bhattacharyya 系数来估计出相应的位置坐标 : 假设目标特征为 ,并且该目标模型的z密度函数为 ,候选目标的中心位置为 ,且其对应的密度估计函数 ,为了找到与zqyzpy目标最接近的候选目标的中心位置,可以通过如下的 Bhattacharyya 系数来估计 与zq之间的距离:zpy

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 学术论文资料库 > 毕业论文

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。