版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
机器视觉原理及应用3.1双目立体视觉原理之后计算出两个相机之间的关系,即旋转矩阵R和平移矩阵T。获得了两个相机之间的转换关系(R,T)之后,就可以通过三角测量法,求解目标的三维坐标。最后通过重投影矩阵获得目标的相对于相机的三维坐标。
3.1.1双目立体视觉测深原理图3-1三角测量法示意图3.1双目立体视觉原理
3.1.2极线约束图3-2极线约束关系3.2双目立体视觉系统
双目立体视觉系统由左右两部摄像机组成。如图3-3所示,图中分别以下标l和r标注左、右摄像机的相应参数。3.2.1双目立体视觉系统分析图3-3立体视觉的基本原理3.2双目立体视觉系统
在平行光轴的立体视觉系统中如图3-4所示,左右两台摄像机的焦距及其它内部参数均相等,光轴与摄像机的成像平面垂直,两台摄像机的X轴重合,Y轴相互平行。3.2.2平行光轴的系统结构图3-4平行光轴的立体视觉系统示意图3.2双目立体视觉系统
非平行光轴模型如图3-5所示,目标物(Object)上的任意一点,经针孔模型在左、右相机的图像面上分别成点像为和
。3.2.3非平行光轴的系统结构图3-5非平行光轴模型3.2双目立体视觉系统
3.2.4双目立体视觉的精度分析3.3图像特征点3.3.1SIFT特征点DOG算子检测SIFT算法下的图像特征点的局部极值,通过比较每个像素点与其26个邻域像素的值,将最大或最小的点保存为候选特征点,代表图像的特征子集。尺度空间理论即是采用高斯核理论思想对初始的图片进行尺度变换运算,得到图片在多个不同尺度下的尺度空间的描述序列,最后在尺度空间下对得到的序列进行特征提取。1.尺度空间的生成在上一步中,得到了图像的特征点,然后利用特征点邻域像素的梯度方向分布特性对每个特征点赋一个方向,使得这些特征点具有旋转不变性。光滑与粗糙程度、形状、结构和纹理等特征在图像上的表象。SIFT计算特征向量算法2.DOG极值点检测与定位3.特征点
方向分配4.特征点描述子的生成SIFT(ScaleInvariantFeatureTransform,尺度不变特征变换)方法是DavidLowe于1999年提出的,一种基于尺度空间的图像局部特征表示方法,它具有图像缩放、旋转甚至仿射变换不变的特性,并于2004年进行了更深入的发展和完善。3.3图像特征点3.3.2SURF特征点Bay提出的SURF(SpeededUpRobustFeatures)算法是一个速度较快、鲁棒性能较好的方法。它是SIFT算法的改进,融合了Harris特征和积分图像,加快了程序的运行速度。(1)建立积分图像SURF算法的积分图用于加速图像卷积,所以加快了SURF算法的计算速度,计算时间减少。对于一个灰度图像I计算公式如下:(2)构建Hessian矩阵和高斯金字塔尺度空间在图像坐标点(x,y)处,尺度为σ的Hessian矩阵为:3.3图像特征点3.3.2SURF特征点SURF算法选用DOG算子代替LOG算子来近似的表达,得到类似的Hessian矩阵的结果:(3)定位极值点得到各像素点的Hessian矩阵后,根据其行列式的正负判断是否为极值点,并使用非极大值抑制法在3×3×3立体邻域检测极值点。(4)确定主方向对于每个候选特征点作为中心,Harr小波统计了总响应的60度扇区和X在Y方向的所有特征点,以中心角60度扇区模板遍历整个圆形区域,如图3-6所示,将最长的向量作为特征点的方向。(5)生成特征点描述子图3-6选取特征点的主方向3.3图像特征点3.3.3ORB特征点(1)oFAST特征检测2011年Rublee等人提出了ORB(OrientedFastandRotatedBrief)算法,即带有方向信息的FAST特征检测oFAST和带有旋转角度的rBRIEF描述子组合的ORB算法。FAST算法,认为若某点像素值与其周围某邻域内一定数量的点的像素值相差较大,则该像素可能是角点。而ORB算法用灰度质心法(IntensityCentroid,简称IC)附加方向。其定义为:角点视为物体,物体质心(即角点质心)与角点灰度之间有偏移量存在,这个偏移量可以确定角点方向。oFAST组成如下所示:3.3图像特征点3.3.3ORB特征点(2)rBRIEF特征描述rBRIEF特征描述是在BRIEF特征描述的基础上加入旋转因子改进的。BRIEF以特征点为中心,对邻域内5×5的随机子窗口用σ=2的高斯核卷积。然后以一定采样方式选取N个点对如公式所示进行二进制赋值。在特征点邻域内选取n对二进制特征点的集合,引入一个2×n的矩阵如公式所示:用oFAST特征点的方向θ,计算描述子旋转矩阵,之后S矩阵更改为这样就给描述子加上了方向信息。3.3图像特征点3.3.4基于深度学习的特征点MihaiDusmanu等人提出的D2-Net方法使用卷积神经网络同时进行特征检测与特征描述符提取。这里卷积神经网络具有两个功能:它既是密集特征描述符也是特征检测器。稀疏匹配一般采用检测然后描述的方法。如图3-7(a)所示。而D2-Net方法将两者合二为一,通过神经网络得到的特征图既代表特征检测结果又代表特征描述结果,如图3-7(b)所示。图3-7不同检测方法对比(a)(b)3.4立体匹配
立体匹配是从左右两个方向对目标进行拍摄,采集图像数据,然后对图像中的像素进行分析,找到左右视图所对应的像素对,再通过计算得到像素的视差,根据相机的参数以及三角测距的原理来获得物理世界的三维信息。按照特征点的稀疏程度将立体匹配分为稀疏匹配和稠密匹配。代价计算代价聚合视差估计立体图像特征网络4Dcost聚合网络3Dcost
回归图3-8立体匹配网络的算法流程3.4立体匹配3.4.2稀疏匹配
稀疏匹配是对参照图和对照图进行特征提取,并计算图像特征的距离,使得特征距离最小的点即为要求的特征点,最后根据对应特征点得到视差。在稀疏匹配中特征的选择非常重要,匹配特征应该对应景物一定的特征,尽量避免产生误匹配。常用到的特征包括:角点、边缘、闭合区域、直线段等。左图右图匹配图3-9立体匹配示意图3.4.1稠密匹配3.4立体匹配
稠密匹配是基于生成的视差图,对于所有像素都能生成确定视差值。稠密匹配通过改变两组图像的尺度或将两组图像划分为许多具有相同尺寸的子窗口来确定对应的区域,参照图中待匹配的点为中心选定一个小区域,并以中心像素点邻域像素分布特征来表征该点的像素特征,然后在对准图当中寻找一个像素,若该点特征与参照图中待匹配点的特征满足相似性准则条件时,则认为该点为对应的匹配点。稠密匹配启发式立体匹配算法深度网络立体匹配算法序号名称特点1半全局立体匹配算法半全局匹配是一种介于全局和局部匹配之间的算法,结合了两者的优点,在效率和准确性上达到较好的平衡。2全局立体匹配算法全局立体匹配算法通过建立对整张图的约束,有效保留了图像中的结构信息,可较为准确的计算出稠密视差。3端到端的立体匹配算法端到端的立体匹配算法与以往的立体匹配算法不同的是,这类算法舍弃掉分而治之的解决方案,开始使用深度学习中的端到端思路。1.启发式立体匹配算法3.4立体匹配3.4立体匹配2.深度网络立体匹配算法代价计算代价聚合光流计算未校正图像特征网络5Dcost聚合网络4Dcost
回归
自由立体匹配与典型的行对齐立体匹配最大的区别在于匹配点的搜索范围。自由立体匹配网络通过增加垂直方向视差的搜索,并升级为5维矩阵来进行匹配代价计算。在代价聚合过程中,使用4维循环神经网络代替4维CNN卷积,以降低运算量。此外,还添加了新的模块,提高匹配搜索过程的正确率,受到对极几何的约束。这些改进使得自由立体匹配具有更高的准确性,但也导致运算量增加。图3-10自由立体匹配网络的理想算法流程3.5.1相机标定3.5案例-双目立体视觉实现深度测量(1)相机标定板的制作参照棋盘格布局在计算机上画出10*7(25mm*25mm)的棋盘格(2)采集标定板图像改变标定板的姿态和距离,拍摄不同状态下的标定的图像10幅到20幅之间图3-11制作棋盘格图3-12采集图像3.5.1相机标定3.5案例-双目立体视觉实现深度测量(3)标定步骤1.运行calib_gui标定程序,对左相机进行标定,选择Standrad;2.点击Imagenames,输入已经拍摄好的左相机的12幅图片的通配模式,如图3-13所示;3.MATLAB加载左相机所有标定图片后,点击Extractgridcorners,在图片上选择四个拐点,按照左上—右上—右下—左下的顺时针顺序选择,重复12次,如图3-14所示;4.点击Calibration,标定并查看标定结果,命令行会显示内参和畸变系数;5.点击Save,在目录中保存标定的结果,将“Calib_Results.mat”改成“Calib_Results_left.mat”;6.点击Comp.Extrinsic计算外参;7.重复第一步到第六步,对右相机进行标定,将右相机标定结果将“Calib_Results.mat”改成“Calib_Results_right.mat”;8.运行双目校正程序stereo_gui,计算双目校正参数;9.点击Loadleftandrightcalibrationfiles,默认输入即可得到相机的内外参(如果想得到优化结果,点击Runstereocalibration即可);图3-13加载图像图3-14提取角点3.5.2实验图片采集和矫正3.5案例-双目立体视觉实现深度测量(1)分别利用左右相机拍摄图片(图3-15),存成ImageLeft和ImageRight,在此为空间中的圆进行编号,左为圆1,中为圆2,右为圆3。(2)将拍摄的左右图像进行矫正存为frameLeftRectTestL.bmp和frameRightRectTestL.bmp如图3-16所示图3-15左相机图像右相机图像图3-16矫正后左相机图像矫正后右相机图3.5.3圆心坐标提取3.5案例-双目立体视觉实现深度测量(1)利用MATLAB选择感兴趣区域;(2)在MATLAB中把图像二值化,得到二值化后的图像,如图3-27所示;(3)利用质心法提取空间中圆的圆心,如图3-17所示;(4)输出圆心坐标左图像圆心坐标为X:705.34 812.09 960.49Y:638.02 803.98 678.38
右图像圆心坐标为X:535.60 638.80 807.80Y:642.94 809.18 683.52图3-17对图像进行处理3.5.4视差和深度计算3.5案例-双目立体视觉实现深度测量视差如公式所示:
通过计算,得到圆1与圆3深度差为84.4233mm,圆2与圆3深度差为98.6945mm,圆1与圆2深度差为15.2712mm(注:视差以像素为单位,转化成mm需要乘以像元大小5.3um)。3.5.5计算三维坐标并三维输出空间位置3.5案例-双目立体视觉实现深度测量利用函数function[XL,XR]=stereo_triangulation(xL,xR,om,T,fc_left,cc_left,kc_left,alpha_c_left,fc_right,cc_right,kc_right,alpha_c_right)将标定时的得到的内参和外参输入到MATLAB命令行中,再调用函数即可得到空间点的三维坐标。XL1=[1.0e+003*-0.0446-0.0839-1.0829]XR1=[1.0e+003*0.0697-0.0888-1.0829]XL2=[1.0e+003*-0.1131-0.1883-1.0429]XR2=[1.0e+003*0.0001-0.1930-1.0445]XL3=[1.0e+003*-0.2491-0.1272-1.2348]XR3=[1.0e+003*-0.1302-0.1330-1.2407]3.5.5计算三维坐标并三维输出空间位置3.5案例-双目立体视觉实现深度测量XL1=[1.0e+003*-0.0446-0.0839-1.0829]XR1=[1.0e+003*0.0697-0.0888-1.0829]XL2=[1.0e+003*-0.1131-0.1883-1.0429]XR2=[1.0e+003*0.0001-0.1930-1.0445]XL3=[1.0e+003*-0.2491-0.1272-1.2348]XR3=[1.0e+003*-0.1302-0.1330-1.2407]至此得到空间中三个点的三维坐标如上,画出三维空间中各个点的位置,如图3-18所示。图3-18三维坐标3.6双目立体成像3.6.1立体摄像机原理(1)色差式原理色差式3D技术,其本质是利用三基色原理来达成3D显示效果。将左右相机拍摄到的视角不同的左图像和右图像分别进行不同的颜色渲染,然后合成在同一幅图像中,经渲染后合成的两幅图像错位重叠在一起。图3-18色差式成像效果图
图3-19红蓝眼镜
3.6双目立体成像3.6.1立体摄像机原理(2)快门式原理快门式3D显示技术主要是利用的是人眼的滞留现象来达到将左右图像分别、同时、独立的导入双眼的目的。快门式3D显示技术的具体方法是将左图像和右图像连续、交错的显示在屏幕上,与此同时快门式3D眼镜的左右液晶镜片的开和关由红外信号发射器同步控制,使左右图像能够分别、独立、同时的输送到左、右双眼,然后大脑根据接收到的具有视差的左右图像合成3D立体图像。图3-20快门式三维立体成像示意图
图3-21快门式3D眼镜
3.6双目立体成像3.6.1立体摄像机原理(3)偏振式原理
偏振式3D显示技术的理论基础是光的偏振原理,光是一种电磁波,由相互垂直的电场和磁场形成,而自然光是由众多电磁波相互混合而成的,这导致它在各个方向均匀的振动,若自然光通过偏光膜,则在偏光膜的作用下,在各个方向都有振动的自然光将变成一种偏振光,其振动方向与偏光膜方向完全一致。图3-22偏振式3D显示技术原理图
图3-23偏振式3D眼镜
3.6双目立体成像3.6.1立体摄像机原理(4)裸眼式原理裸眼式3D显示技术主要由于色彩灰度的不同而使人眼产生视觉上的错觉,而将二维的计算机屏幕感知为三维图像。基于色彩学的有关知识,三维物体边缘的凸出部分一般显高亮度色,而凹下去的部分由于受光线的遮挡而显暗色图3-24裸眼3D原理图
图3-25裸眼3D显示
3.6双目立体成像3.6.2立体摄像机拍摄技术(1) 打开AEE运动摄像机,如图(a)所示,对周围环境进行拍摄。(2) 打开2D转3D显示屏,并将画面保持在2D转3D的设置中,如图(b)所示。(3) 佩戴偏振式眼镜便可观看由AEE运动相机所拍摄的3D画面,实践效果如图(c)所示。图3-26AEE运动摄像机
图3-27
显示屏
图3-28
视觉实践图
3.7案例-双目立体视觉三维测量3.7.1相机标定在相机标定的实验过程中,使用的是两部摄像机对棋盘格进行拍摄,总共采集了12对图像。具体的过程如下:(1)制作棋盘格参照棋盘格的布局在计算机上画出10*7的棋盘格,并打印出来粘贴在一块板上,如图3-29所示图3-29棋盘格3.7案例-双目立体视觉三维测量3.7.1相机标定(2)两台摄像机拍摄棋盘格将棋盘格摆出各种不同角度的姿态,同时用摄像机进行拍摄,根据算法的需要拍摄了左右各12幅不同的图像。利用MATLAB相机标定工具箱进行角点提取、图像重投影、误差分析等求出摄像机的内、外参数,利用非线性优化对标定结果进行优化。图3-30左相机采集图像图3-31右相机采集图像图3-32位置关系图3.7案例-双目立体视觉三维测量3.7.2立体匹配根据标定好的摄像机采集物体图像,得到物体的双目图像对,紧接着对起初的图像对进行校正。获得匹配点之后,采用视差函数求得视差图,如图3-33所示。图3-33中各个区域的不同灰度值反映了双目图像对的视差信息,从实验得出的视差图可以看出视差图较为平滑,而且不同物体之间的视差也比较明显。图3-34为左右两图像合成在一张图中的效果,如果带上红蓝立体眼镜,可感觉到图3-34的立体场景。图3-33视差图图3-34实际物体图3.7案例-双目立体视觉三维测量3.7.3三维重建在视差与标定的基础上,进一步得到物体的三维重建结果,通过修改程序中深度的参数,去除了一些不必要的干扰的得到效果图如图3-35所示:图3-35三维深度图TheEnd机器视觉原理及应用《机器视觉原理及应用》第4章面结构光三维视觉4.1单幅相位提取方法4.2多幅相位提取方法4.3相位展开方法4.4案例-基于条纹投影结构光三维扫描仪的牙模扫描4.5案例-鞋底打磨4.1单幅相位提取方法单幅相位提取是图像处理中常用的技术之一,用于从图像中提取出相位信息。以下是一些常见的单幅相位提取方法:
傅里叶变换法窗傅立叶脊法二维连续小波变换法BEMD法VMD法变分图像分解法4.1单幅相位提取方法单幅相位提取是图像处理中常用的技术之一,用于从图像中提取出相位信息。以下是一些常见的单幅相位提取方法:
傅里叶变换法窗傅立叶脊法二维连续小波变换法BEMD法VMD法变分图像分解法傅里叶变换(法语:TransformationdeFourier、英语:Fouriertransform)是一种线性积分变换,用于信号在时域(或空域)和频域之间的变换,在物理学和工程学中有许多应用。傅里叶4.1单幅相位提取方法4.1.1傅里叶变换法在FPP测量中,CCD采集到的条纹图公式如下所示:其中为背景,和分别为调制部分和相位部分,为载频频率。
4.1.2窗傅里叶脊法
4.1.2窗傅里叶脊法
4.1.3二维连续小波变换法
二维连续小波变换是一种将二维信号或图像进行频域分解的数学工具。相对于离散形式的小波变换,二维连续小波变换是连续时间和连续尺度的扩展。根据二维连续小波变换定义,二维连续小波变换为:
4.1.3二维连续小波变换法
在二维连续小波变换中,小波函数的选择对于变换结果是至关重要的。常用的小波基函数有Fan小波基、Morlet小波基、Paul小波基等。每种小波基函数具有不同的时频分辨率特性和方向选择性,适合于不同类型的信号或图像。选取合适的小波基函数,可以使得变换结果更加准确和有意义。例如,Fan小波基为:
4.1.3二维连续小波变换法
在对条纹图进行二维连续小波变换后,可以通过检测小波变换系数的小波脊来获取位置处的条纹相位。小波脊是指在二维连续小波变换中,使得小波变换系数取得最大值的位置。进而,通过以下公式计算该位置处的条纹相位:
4.1单幅相位提取方法(1)概念4.1.4BEMD法BEMD法是指基于经验模态分解的方法(BidimensionalEmpiricalModeDecomposition)。这种方法是一种信号处理技术,用于将非线性和非平稳信号分解成若干个具有不同频率特征的子信号。BEMD法包含两个步骤:首先,将信号分解为一系列的本征模态函数(IMF)。这些IMF主要包含原始信号在不同频率下的成分。然后,通过迭代过程,进一步将IMF分解为子IMF,直到获得满足特定条件的IMF。BEMD法被广泛应用于信号处理、图像处理、模式识别等领域,具有较高的适应性和鲁棒性。一个信号包含若干个本征模态函数(IntrinsicModeFunction,IMF),EMD则自适应地将信号中所含IMF按频率从高到低的顺序依次提取出来。它的基本思想是首先找出信号的极值,包括极大值和极小值,然后对这些极值点进行插值,来获得信号的上下包络线和均值包络线。最后利用筛的算法,把本征模态函数一步一步分离出来。这样最终把信号分解为若干个经验模态分量和近似分量。4.1单幅相位提取方法(2)EMD实现过程4.1.4BEMD法第五步,判断h(x,y)是否满足筛选条件,如果不满足,继续重复1-4步骤,如果满足,把h(x,y)作为一个IMF,记为c1(x,y);第六步,从s(x,y)减去得到的h(x,y),得到剩余值序列r1(x,y)=s(x,y)-h(x,y),对重复以上5个步骤得到第2个、第3个直至第n个IMFcn(x,y),当满足一定的条件时,停止处理,经过上述6个步骤,将信号分解成若干个IMFcn(x,y)和一个余项rn(x,y):。经验模态分解存在模态混合问题,在同一模态函数里会有其他不同尺度的信号混杂,或者统一尺度的信号出现在不同本证模态函数里。
4.1.4BEMD法
(3)MOBEMD算法中脊估计和包络面估计的步骤4.1单幅相位提取方法首先进行脊位置获取:第一步,对噪声条纹图像进行滤波预处理;第二步,对滤波后的条纹图利用形态学函数进行开启处理,其中采用的形态学函数为一个半径为2个像素左右的圆盘形函数,取值仅为0或者1。该函数对条纹图的作用特性为:条纹图中除处于凸曲面和狭窄曲面之上以外的灰度值都会被该函数抑制。也就是说条纹脊附近的灰度值得到保持,而其余部分的灰度值受到抑制而变为0或趋向于0,从而得到了形态学开启后的条纹灰度图;第三步,对上一步中得到的条纹灰度图进行二值化处理,即把灰度得到保持的像素灰度值置为1,而把被抑制的像素灰度值置为0。通过二值化处理,经形态学开启后操作的条纹灰度图变为一系列沿脊线分布的黑白分明的条带图。通过形态学的进一步细化处理,这些条带线可以被转化为具有单像素宽度的单值线,在此单值线图中可能残留一些孤立的点,这些点可以通过“去端”操作来消除;第四步,将上一步中获取的单值线图作为初始脊位置图,并通过迭代方法来获取更加精确的脊位置图R0(x,y)。4.1.4BEMD法
(4)MOBEMD算法中脊估计和包络面估计的步骤4.1单幅相位提取方法
4.1单幅相位提取方法4.1.5VMD法
变分模态分解属于新近提出的一种自适应信号分析方法,其建立在变分法和维纳滤波基础上,能自适应的将具有几种不同模态的信号进行分离,即能得到带限本征模态函数。首先,对于每一个本征模态,通过Hilbert变换计算相应的解析信号获得单边频谱。其次,对每一个单边谱模态,通过混合一个中心频率的指数调制项移动每一个频谱到“基带”。最后,通过解调信号的高斯光滑性(梯度的范数)估计带宽。综上所述,对于一维信号,通过变分模态分解分析构成如下约束变分问题公式如下所示:4.1.6变分图像分解法
Fourier变换、二维小波变换和经验模态分解属于频域或者时频分析的方法,在对FPP条纹分析过程中,它们是从频域的角度来分析FPP条纹。通常,FPP条纹背景被认为是缓慢变化的,即其Fourier变换谱集中在零频点附近,而条纹部分由于受载频项的调制其频谱会远离原点,这样背景部分和条纹部分在频域上是分开的。在Fourier变换方法中可以通过带通滤波滤除背景部分来保留条纹部分。采用变分图像分解对FPP条纹图进行描述是非常直观的,因为变分图像分解建立在空间域,具有f=μ+ν+w这种简洁的形式。而Fourier变换的思想是将FPP条纹图变换到频域,从频域中分析三个部分的特性和进行滤波处理。此外,采用变分图像分解还具有其他优势,比如其可以借助已经建立的图像空间和变分图像分解模型,寻找适合描述FPP条纹分析的有效模型,如采用TV-Hilbert-L2模型来描述FPP条纹图。4.1.6变分图像分解法
采用变分图像分解和MO-BEMD对图4-3a进行处理,这里采用低通滤波(LP)和离散小波变换(DWT)进行预滤波。图4-3d-图4-3-f分别为MO-BEMD-LP,MO-BEMD-DWT和变分图像分解提取出的背景部分,图4-3g-图4-3i为MO-BEMD-LP,MO-BEMD-DWT和变分图像分解提取出的条纹部分。采用MO-BEMD-LP,MO-BEMD-DWT和变分图像分解提取的背景部分的信噪比为31.0,27.2和31.6dB,提取的条纹部分信噪比为15.1,14.5和20.3dB。多幅相位提取方法主要以相移法为代表的基于多幅条纹图的相位提取。由于多幅投影条纹图比单幅投影条纹图提供了更多的信息,通常相移法比其他方法具有更高的精度。与相移法相比,基于单幅投影图的条纹相位提取是在某一时刻只采集一幅图像,受环境扰动的影响较小,更适合动态过程的三维测量和显示。相移法主要是通过精密仪器对相位进行特定长度的步进产生多幅具有不同相位的条纹图,再对这些条纹图进行处理以获得所需的相位,最终获得所需检测的物理量。相移法通用式可以下公式表示:4.2多幅相位提取方法
4.2多幅相位提取方法四步相移是FPP条纹分析中一种常用的方法。右图给出了四步相移提取条纹图像的过程
4.2多幅相位提取方法图1、图2、图3展示了四步相移法测量一塑料盒三维形状过程:首先通过投影仪投射相移条纹图到被测物体,相机采集不同相移条件下的变形条纹图(图1)。然后通过四步相移法提取包裹相位(图2),进一步进行解包裹和去载频得到解包裹相位(图3)。
4.2多幅相位提取方法图1四步相移条纹图图2四步相移提取包裹相位图图3解包裹相位图4.3.1格雷码格雷码(GrayCode)是数字电子技术和自动化检测中的一种重要编码。为了求解出指定扫描点的空间坐标信息,必须准确地标识出每一个匹配单元,并由此确定出标识单元来得到其解码序列,进而解算出扫描点的空间坐标信息,因此格雷码图像的编解码便成了确定解码序列的重要手段。格雷码编码方法属于时间编码,在编码图像中只包含黑、白两种颜色的条纹,且黑、白两种颜色分别对应于二进制数中的0和1。在格雷码编码图像的构成上,格雷码编码图像可由黑、白、白、黑或白、黑、黑、白两种模式来构建。4.3.1格雷码N幅正弦相移条纹投射图案仅能针对一个条纹周期T的空间进行解码,被测空间范围大则需要周期大,那么编码图案中相邻像素点的灰度差变小,致使灰度噪声影响增大、编解码准确度降低。格雷码编解码方法则不受被测深度空间限制,此方法已经得到广泛应用,但被测空间越大则所需投射图案越多。格雷码通常采用黑色条纹和白色条纹进行编码,黑色条纹对应码值为0,白色条纹对应码值为1,且相邻两个的码字之间只有一位不同,抗干扰能力强。
4.3.2外差多频4.3.2外差多频
4.3.3三频相位展开方法(式1)(式2)
(式3)
4.3.3三频相位展开方法(式4)该三频相位展开方法将具有适当波长的三个条纹图案投影到物体上,可
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 装载机用车合同(2篇)
- 第24课《愚公移山》八年级语文上册精讲同步课堂(统编版)
- 2024年吉林省长春市中考地理真题卷及答案解析
- 16.1《赤壁赋》-高一语文上学期同步备课拓展(统编版必修上册)
- 说课稿课件政治
- 西京学院《现代教育技术》2023-2024学年第一学期期末试卷
- 西京学院《企业级框架基础》2021-2022学年期末试卷
- 社区环境 课件
- 外研版必修一module2-mynewteachers(reading)课件
- 西华师范大学《装饰绘画》2022-2023学年第一学期期末试卷
- 多变的天气-说课
- 关于冬季儿童呼吸道疾病防治培训
- 医养结合养老院(养老中心)项目实施方案
- 焊工施工方案
- 营养指导员理论考试题库及答案
- 2023秋季学期国开电大专本科《法律文书》在线形考(第一至五次考核形考任务)试题及答案
- 辽宁省大连市金普新区2023-2024学年九年级上学期期中化学试题
- 2023国有企业统战工作调研报告
- 酒店住宿水单模板1
- 消防安全重点单位消防安全管理人员报告备案表
- 数据清洗课件-第4章-数据采集与抽取
评论
0/150
提交评论