一、圆和椭圆边缘检测的快速方法(论文文献综述)
束安[1](2021)在《空间非合作目标的三目立体视觉位姿测量技术研究》文中研究指明科学技术的进步不断促进着人类对浩瀚太空的探索,航天活动日趋频繁,越来越多的卫星被送入太空。随着空间航天器和碎片的增多,应用于空间碎片移除、失效航天器回收、燃料加注,以及在轨维修升级等任务的非合作航天器在轨服务技术越来越受到各国研究人员的关注,成为航天领域研究的热点。在轨服务技术的关键在于两航天器近距离阶段解决对非合作目标相对位姿的高精度实时测量的难题。本文研究了空间非合作目标的三目立体视觉位姿测量技术,主要包括汇聚式三目立体视觉测量数学模型、非合作目标对接环快速识别、显着特征提取、特征点三目交叉极线约束匹配、立体视觉位姿测量、算法嵌入式平台移植优化以及DSP多核并行处理等关键技术的研究。针对立体视觉测量数学模型,分析了视觉相机的成像机理,推导了空间点2D图像坐标与3D空间坐标之间的一一映射关系;分析了双目立体视觉理论模型、立体视觉极线约束准则和三目立体视觉测量模型,论证了三目立体视觉测量的可行性。研究测量模型的结构参数配置与测量精度之间的关系,以及立体视觉相机位置摆放结构与有效探测视场之间的关系,为汇聚式三目立体视觉模型的系统构型和最优配置提供了理论依据。通过三目测量系统的单目相机标定和立体视觉标定,以及相机坐标系与世界坐标系之间的全站仪外测方案设计,得到三目测量系统的内外参数,为非合作目标的立体视觉高精度位姿测量奠定了基础。针对非合作目标表面的显着几何特征(对接环椭圆特征和显着特征点),研究多椭圆特征的改进弧支撑线段拟合算法和显着特征点检测算法。首先,针对复杂场景下的大尺寸、多椭圆特征的非合作目标图像,提出改进弧支撑线段椭圆拟合算法:根据图像的噪声特性利用双边滤波算法对其进行保边降噪的预处理工作;在椭圆参数拟合的过程中根据对接环内外环和发动机喷嘴均为同心圆的几何结构,优化弧线段分组机制,利用更多的椭圆边缘弧段拟合精确的椭圆参数,提高了初始椭圆集合到最终椭圆参数的转化率,进一步提高了椭圆检测效率。利用立体视觉极线约束准则和对接环半径约束建立完善的椭圆筛选机制,剔除无效椭圆信息的干扰,实现正确圆环的提取。之后通过两次遍历法快速标记连通区域,并加入面积和曲率约束,提取目标表面的显着特征点。最后利用立体视觉原理重建非合作目标的对接环平面和显着特征点数据,建立目标坐标系,计算目标与视觉测量系统的相对位姿关系。针对非合作目标失稳状态下,目标的对接环和显着特征点不能稳定清晰成像的问题,将目标看作几何结构未知的非合作目标,研究基于ORB特征点匹配的三目立体视觉位姿测量方法。通过基于FAST算子和Harris算子结合的ORB算法快速检测三目图像的特征点信息,提出利用三目交叉极线约束的方法进行三目同名特征点的匹配。通过第三个相机带来的额外极线约束条件,保证了目标特征点在三目图像上几何位置的唯一性,有效避免了复杂场景下图像相似性匹配带来的特征点定位误匹配问题。从而得到较密集的匹配点数据和较高的匹配精度,提高了位姿测量方法的适用性和鲁棒性。针对在轨服务视觉测量方法难以星上自主实时位姿测量的研究现状,搭建了三目立体视觉位姿测量嵌入式平台。首先,在VC环境下编写本文的三目立体视觉位姿测量算法;接着开展三目算法向DSP6678多核嵌入式平台的移植与优化工作;其次,为了提高嵌入式平台位姿测量算法的计算效率,设计了基于数据流模型的多核处理方法,完成了从相机获取三目图像,到图像处理单元进行非合作目标关键特征提取,再到位姿处理单元立体视觉位姿解算的数据流处理模式。最终位姿测量数据的输出更新率为1Hz。为了验证本文所提方法的有效性,完成了非合作目标15.0m~1.8m运动仿真实验和非合作目标地面测试实验。目标运动仿真实验结果表明,相较于单一的双目视觉测量系统,三目视觉测量系统融合了三组两两组合的双目视觉测量结果,具有较高的位姿解算精度和安全可靠性。此外,地面测试实验结果表明,复杂场景下三目立体视觉位姿测量嵌入式平台的测试范围达到12.0m-1.7m,整体的相对位置测量精度优于1.3cm;相对姿态测量精度优于1.7°。本文通过实验验证了该方法具有较高的位姿解算精度和较高的鲁棒性,可以提供实时连续的非合作目标高精度位姿测量结果。
陈玲玲[2](2021)在《基于仿射非局部均值去噪算法的研究与平台构建》文中认为在现实生活中,除非图像是完全由计算机生成的,否则它必定会受到采集噪声的影响,导致图像质量下降,因此图像去噪成为计算机图形领域的重点研究课题之一,研究者期望能够通过图像去噪技术最大程度的提高图像质量,并且在去除噪声的同时保留图像的结构和特征。非局部均值算法作为经典图像去噪算法之一,一直以来都是研究的热点。针对它的缺点和不足,各种关于它的改进算法也不断被提出。为了解决“规则方形图像块易在去噪边缘产生噪声晕”这一问题,仿射非局部均值去噪算法提出使用仿射协变椭圆区域代替方形图像块,并引入仿射不变相似性度量来获得更丰富的块空间,去噪效果得到了很大提高。本文结合仿射非局部均值去噪算法,经过深入分析和研究,提出了进一步的改进方法:第一:提出快速仿射非局部均值去噪算法。针对仿射非局部均值算法在去噪过程中用时过长的问题,提出了快速仿射非局部均值去噪算法。该算法首先使用仿射协变结构张量特征向量的夹角代替SIFT算子的主方向,然后将仿射非局部均值方法中的仿射不变相似性度量使用快速傅里叶变换,加速仿射协变特征区域之间相似性度量的计算。实验证明,与原来的仿射非局部均值算法相比,速度得到了很大的提升。第二:提出基于参数自适应的仿射非局部均值去噪算法。受仿射非局部均值去噪算法的启发,为了提高图像边缘的去噪效果,提出改变搜索窗口和图像块的形状,根据图像自身的内部结构生成稳定的椭圆搜索窗口,利用仿射协变结构张量生成圆形图像块,并且自适应的选择其大小;接下来从区分纹理的角度出发,利用Canny边缘检测算子实现平滑系数的自适应性。实验证明该算法使得去噪性能得到了进一步的提升。此外,围绕仿射非局部均值算法搭建了一个视觉体验平台。该平台包含图像去噪和算法体验两大功能,用户不仅能够使用一键去噪的功能,还可以根据需求体验非局部均值、快速非局部均值、仿射非局部均值、快速仿射非局部均值以及参数自适应仿射非局部均值这五大功能模块,了解各个算法在不同的参数下的图像去噪效果。通过该平台,用户可以在动态的选择和体验中不断加深对算法原理的理解。
王志敏[3](2021)在《基于弧段提取的椭圆检测算法研究》文中指出椭圆是自然界最常见的几何形状之一,现实中的许多物体都具有椭圆的几何特征。在计算机视觉领域,椭圆检测一直是一项基础、重要的任务。在实际应用中,目前的椭圆检测算法还面临着许多问题,例如漏检小椭圆、复杂背景下的目标检测结果中会出现重复椭圆、检测速度不够快难以在线应用等。针对这些问题,本文提出了基于弧段提取的椭圆检测算法,该算法用双阈值从图像边缘中提取出椭圆弧段,将不同类别的三段弧组成三元组,三元组受到弧的相对位置、极性和帕斯卡定理的约束,经过参数估计后得到候选椭圆,最后再去除假椭圆和重复椭圆。与其他先进方法相比,本文方法在检测速度上提高了10%以上的同时检测精度也在处于领先位置。本文的主要研究工作和取得的成果如下:(1)利用Canny边缘检测算法得到图像边缘,基于像素点的梯度和连接性得到边缘弧段,使用三角形面积法去除曲率过低的弧段,最后使用双阈值方法准确地删除噪声、保留小椭圆弧段,解决漏检小椭圆的问题。将三元组中是否包含同一段弧和拟合出的椭圆参数是否接近作为重复椭圆的判断依据,将重复椭圆中分数最高的椭圆作为检测结果,删除其他椭圆,解决了检测结果中出现重复椭圆的情况。(2)为了加快算法的运行速度,在弧相对位置约束的基础上,加入了弧极性和帕斯卡定理约束条件,对弧段组成的三元组进行筛选,大量减少了参与拟合的三元组数量。(3)搭建了一个简易的单目视觉系统,利用椭圆检测的方法识别和定位椭圆物体,该方法不仅能够估计出椭圆物体在三维空间中的位置,还能估计出该物体的椭圆参数,并进行实验证明了该方法的有效性。
朱尧平[4](2021)在《轨道车辆轴端接地装置摩擦盘视觉检测方法研究》文中提出近年来,随着轨道交通的高速发展,高铁、地铁、轻轨等轨道车辆已逐渐成为人们出行的主要交通工具。一方面轨道车辆以其运量大、速度快、准点率高等特点大大提高了人们的生活质量以及工作效率,但另一方面性能的提升也伴随着更多的安全隐患。因此,采用技术手段对轨道车辆各关键部件进行检测显得尤为重要。轴端接地装置是轨道车辆行驶过程中的重要保护装置,而车速的提升加大了轴端接地装置中摩擦盘与碳刷之间的摩擦。摩擦盘作为轴端接地装置中运动的核心部件,其在线路运行中的过度磨损或损坏使接地装置的保护功能大大降低,对轨道车辆的运行安全产生了严重的威胁。因此研究一种用以检测轨道车辆轴端接地装置摩擦盘磨损情况的视觉检测方法,对保障轨道车辆的安全运行、延长轨道车辆的使用寿命具有重要意义。根据现有摩擦盘及视觉检测的研究现状,研究了一种轨道车辆轴端接地装置摩擦盘视觉检测方法。建立了由EP4CE6E22C8N型FPGA开发板、OV5640摄像机、步进电机、滑台、支撑架及激光器组成的摩擦盘视觉检测系统。采用与摩擦盘表面磨损纹理相似的同心二次曲线靶标对检测系统进行标定。研究了Sobel算子与主动轮廓模型相结合的靶标同心二次曲线矩阵参数提取方法。根据同心二次曲线投影单应矩阵列向量组合间的线性相关性及随机抽样一致性算法完成了摩擦盘检测系统参数标定并以参数化的光平面与靶标同心二次曲线交点距离为目标对系统参数进行了优化。在FPGA中调用FIFO寄存器完成了对检测系统摩擦盘图像卷积窗口的并行读入及实时处理并通过Modelsim仿真器对所编译的代码进行了仿真验证和试验验证。研究了节约资源的根据绝对值近似判定的摩擦盘光条中心快速提取方法并完成了评估FPGA摩擦盘图像处理时间的对比试验。完成了摩擦盘视觉检测系统的三维重建试验。以具有基准尺寸的模拟摩擦盘作为误差评价基准,对三种不同边缘提取方法及系统优化的直径及深度重建误差进行了试验研究。最后对摩擦盘检测系统的激光平面等结构参数对重建结果的影响进行了理论误差分析。
梁景朝[5](2021)在《基于区域检测和弧筛选的椭圆检测方法》文中指出椭圆是现实世界最常见的形状之一,因此椭圆检测算法是现代计算机视觉应用程序的重要组成部分。椭圆检测算法已经被广泛应用于细胞检测,工件检测,交通标志检测,机器人平台对象跟踪等领域。到目前为止,人们还没有提出一种能够高效准确地检测小椭圆,扁椭圆,嵌套椭圆的算法。现有椭圆检测方法分为传统椭圆检测方法和基于深度学习的椭圆检测方法。传统方法以椭圆边缘点为核心进行椭圆检测,但是小椭圆的像素比较少,属于不同嵌套椭圆的像素点距离较近,因此传统方法对于小椭圆和嵌套椭圆的检测效果不理想。深度学习椭圆检测方法使用的Loss函数不能很好地衡量预测椭圆与较扁的目标椭圆的差异性,所以现有的深度学习方法对于扁椭圆的检测效果较差。另外,数据集图片过少和图片尺寸不一致仍然影响着此类方法的效果。为了提升深度学习检测椭圆的效果,本文提出了基于区域检测的椭圆检测算法。该算法提出一种针对现有椭圆数据集的预处理方法,弥补了椭圆数据集的缺陷;针对深度学习Loss函数的缺陷,本方法使用了一种新型的Loss,利用椭圆的五个参数构造高斯分布,将预测椭圆跟目标椭圆的差异性用两个对应的高斯分布的差异性来衡量,能够较好地衡量预测椭圆和较扁的目标椭圆的差异性。实验结果表明在具有大量小椭圆和扁椭圆的数据集上,本方法取得了比现有方法更好的检测精度。但是基于区域检测的椭圆检测算法检测速度较慢,对于纹理复杂的现实生活图片检测效果较差,进而本文提出区域检测与弧筛选相结合的椭圆检测方法。区域检测方法能够找到小椭圆所在区域,进而使用Bicubic算法对这些区域进行放大,实现对小椭圆像素的补偿,解决了小椭圆的检测问题。弧筛选算法对边缘弧段进行严格分类,解决了嵌套椭圆的检测问题。实验结果表明本方法在较短的检测时间内,在检测各个数据集时取得了良好效果。
苗建伟[6](2021)在《渐开线圆柱齿轮齿廓与径向圆跳动的视觉测量技术研究》文中进行了进一步梳理齿廓与径向圆跳动是渐开线圆柱齿轮的两个重要检测参数。径向跳动分为径向圆跳动和径向全跳动。由于齿轮齿宽通常较窄,生产中一般只测量齿轮的径向圆跳动。在分析了现有齿轮非接触测量技术的基础上,根据国标GB/T 13924-2008,本文研究渐开线圆柱齿轮和齿轮轴的齿廓与径向圆跳动的视觉测量技术。利用CCD摄像机和标准工业镜头,根据摄像机的针孔成像原理,研究获取齿廓测点的三维坐标的方法,在减小齿轮中心投影畸变影响的基础上,建立渐开线圆柱齿轮齿廓与径向圆跳动的测量模型并进行实验验证。首先,根据摄像机的针孔成像原理,研究了获取齿轮上测量点三维世界坐标的方法。由于齿轮和齿轮轴的结构特征不同,采用机器视觉测量齿轮,线结构光视觉测量齿轮轴。齿轮端面是齿轮的测量平面,为了标定齿轮端面的位置,本文提出了一种仅用一个已知直径的圆环进行标定的方法。该方法解决了齿轮中心孔的孔径、倒角和齿轮端面平面度对标定精度的影响。建立了线结构光视觉测量齿轮轴的测量系统,并采用多目标优化算法对测量系统进行标定。其次,由于视觉测量齿轮的齿廓与径向圆跳动需要确定齿轮测量平面上多个圆和椭圆的中心,因此为了减小投影畸变的影响,研究齿轮测量平面上圆和椭圆中心的获取方法。获取齿轮端面上一般测量圆的圆心时,通过建立圆成像的斜圆锥面方程提出了减小投影畸变影响的方法。获取齿轮端面中心孔的圆心时,通过在中心孔内放置三个相同直径的圆环提出了减小了投影畸变影响的方法,避免了中心孔倒角对边缘检测的影响。获取齿轮轴齿顶光椭圆中心时,通过建立齿顶光椭圆成像的斜椭圆锥面方程提出了减小投影畸变影响的方法。再次,针对渐开线齿廓和径向圆跳动,分别建立了齿轮的机器视觉测量模型和齿轮轴的线结构光视觉测量模型。由于齿轮的渐开线齿廓通常较短,用代数拟合法难以保证渐开线齿廓的拟合精度,因此本文研究了渐开线齿廓的最小二乘几何拟合法以提高齿廓的测量精度,并通过测量齿距偏差验证了该方法的有效性。然后通过渐开线齿廓和齿顶圆的几何拟合,建立了齿轮径向圆跳动量和方向的视觉测量模型。最后,通过实验对提出的渐开线圆柱齿轮齿廓与径向圆跳动的视觉测量方法进行了分析和验证。仿真和实验结果表明,测量方法能够有效地实现齿轮渐开线齿廓和径向圆跳动的非接触在线测量,测量精度主要受标定精度和图像上检测点精度的影响。本研究对视觉测量技术和先进制造技术的发展具有重要意义。
郑洋[7](2020)在《智能斜视诊断中的人眼检测方法研究》文中指出斜视是一种常见多发的眼科疾病,约有4%的人群遭受斜视的困扰。斜视不仅会对视力造成严重的后果,而且会对患者的精神心理、社交、工作就业、生活质量等带来严重的影响。为了给予斜视患者合适的治疗,及时有效的诊断尤为重要。但是,临床上的斜视诊断依赖于医师的执行和解释,诊断具有主观性。随着成像技术、计算机技术、图像处理技术等不断发展,尤其是人眼检测技术的广泛应用,基于计算机辅助的智能斜视诊断技术以其自动性、客观性、可重复性的特点日益受到研究者们的关注。目前,国内外研究人员在智能斜视诊断领域的研究尚不成熟,存在的问题主要表现在:(1)采用专门的眼动追踪设备(如眼动仪)或人眼检测专用设备进行眼睛检测和追踪以检查斜视偏斜的方法,设备价格昂贵,一般需要测试前校准过程,对于年幼的儿童和无法进行常规感觉运动检查的患者则不适用;(2)现有的设备或研究对于斜视的诊断主要给出斜视存在与否或方向的结论,而对于斜视程度的量化则研究较少或只是一个粗略的估计;(3)大多数研究关注于智能斜视诊断算法的研究,而斜视专科测试则仍由专业医师执行并利用摄像头等设备手动记录测试的过程,诊断具有半自动性。本论文围绕智能斜视诊断中的人眼检测方法进行了系统介绍和重点问题的研究。论文主要研究工作总结如下:(1)在智能斜视诊断中,为了实现廉价消费者硬件在较少约束环境下获取的低质量眼睛图像上准确鲁棒的瞳孔定位,提出了一种基于级联Haar特征和改进Starburst的瞳孔定位算法。首先通过Haar特征的级联及区域直方图上的Kmeans聚类分割,获取粗略的瞳孔区域;通过边缘检测、边缘滤波以及扇区化操作,得到了不同扇区的瞳孔轮廓点;最后基于扇区化RANSAC策略实现了瞳孔的椭圆拟合。该算法和四种经典的瞳孔定位方法在Pupil-5795、Swirski-600和CASIA-581数据集上做了测试。结果表明该算法在三个数据库上的表现都是最优的,在5个像素误差范围内的瞳孔定位准确率分别达到了92.1%,85.2%,80.2%。(2)针对智能斜视诊断中仅通过瞳孔定位测量眼位偏斜无法排除轻微头部运动的干扰,以及对于单个特征的人眼检测不能综合反映眼睛的整体特性,提出了一种卷积神经网络引导的进化参数眼建模算法。首先眼睛模型由四条参数曲线组成;卷积神经网络模型Dense Net-121被采用作为适应性函数以指导进化;伴随着GA进化搜索,参数眼睛模型向着优化的方向进化以获取最优的模型参数。该算法和五种经典的眼睛建模方法在FAED-50和CASIA-Iris-Distance数据集上做了测试。该算法在FAED-50上表现最优,在眼睛各组分及综合轮廓拟合指标Eiris、Epupil、Esocket及ECTtotal上分别达到了0.62,0.61,0.27和1.50,并且虹膜与瞳孔中心定位在5个像素误差范围内的准确率分别达到了86%和96%;在CASIA-Iris-Distance上,该算法同样达到了可比较或最优的效果。(3)针对目前斜视诊断专科检查依赖于专业医师执行,智能斜视诊断自动化程度不高的问题,搭建了基于遮盖测试的自动遮盖同步追踪的智能斜视诊断硬件平台。操作者通过上位机界面发送指令经USB3.0传输到FPGA,FPGA在接收到指令后控制伺服电机执行相应的动作;近红外相机模组实现在执行自动遮盖测试时同步记录下患者的近红外影像。系统在50s以内完成了斜视专科检查的自动遮盖测试,通过对24个斜视数据的统计分析验证了所提出系统对于实现眼睛斜视诊断的可行性。(4)针对智能斜视诊断对于眼位偏斜测量量化不足的问题,我们收集了24个有效的斜视数据,并提出了一种基于自动遮盖测试的智能视频斜视诊断方法,包括眼睛区域提取、虹膜检测及模板生成、关键帧检测、瞳孔检测、偏移量计算以及斜视诊断等步骤。所提出的智能诊断方法可以实现自动的斜视诊断,尤其是对于斜视偏移量的准确测量上表现出了令人满意的效果,在水平方向8个斜视度误差范围内准确率达到91%以上,在垂直方向4个斜视度误差范围内准确度达到86%以上。另外所提出方法在斜视诊断结果上获得了88.9%的灵敏性,93.3%的特异性,以及91.7%的准确性。
张欣[8](2020)在《基于图像处理的单晶硅直径测量技术研究》文中进行了进一步梳理单晶硅材料是信息技术产业和太阳能光伏产业最重要的基础功能材料。目前国内的单晶硅的生产技术尚且达不到国外水平。国内大多单晶硅生产设备都是进口海外,其价格昂贵,维护困难,并且技术有所保留。因此,国内的单晶硅生产技术需要进一步创新和研究以迎合日益严格的工业要求。本文的主要创新点及研究内容如下:(1)实现单晶硅图像ROI的自动提取。针对单晶硅直径测量技术自动化的要求和单晶硅图像不能自动提取感兴趣区域的现状,本文着力于单晶硅ROI的自动提取,研究单晶硅图像灰度分布规律,创建目标函数S,设置目标函数斜率的阈值T,记录目标函数S斜率首次小于T时的灰度级T0,以T0+(max_gray-T0)/2作为自动选择的二值化阈值。之后使用bwlabel函数标记整张图像的各个连通区域。通过求得最大连通区域确定感兴趣区域的最小矩形模块,使用imcrop函数提取每张单晶硅图像的感兴趣区域,最终实现单晶硅图像ROI的自动提取。本文对300张单晶硅图像进行处理,其中282张图片能够完整的提取出目标区域,即本文提出的ROI自动提取算法的准确率能够达到94%。在正确提取ROI的图像里,ROI区域占总图像的8.2%到14.2%不等,能够去除85.8%-91.8%的无效背景区域。(2)在边缘检测阶段,针对高温产生的噪声影响,提出对图像进行二值化和形态学操作相结合予以消除。针对像素级边缘检测中普遍存在的边缘“粗大”问题,本文提出了使用能够检测像素点各个方向灰度变化的Harris角点进行检测。最终能够去除原图像检测到的边缘点中90%的零散噪声,光晕噪声和冗余边缘点。为了提高边缘检测精度,改进传统的Zernike矩算法中离散模板不合适及子像素阈值效率低的缺点,实现小于1个像素的边缘检测精度。(3)在椭圆拟合阶段,考虑到释能环的上边缘噪声较多,不能贴合真实边缘,对边缘检测得到的月牙状边缘点集I设计去上边缘去除算法,得到下边缘点集I1。上边缘去除算法的准确度能够达到91.3%。然后选择计算简单快速的最小二乘法进行椭圆拟合,其椭圆拟合的准确度达到88%。针对拟合结果偏差较大的情况,分析偏差产生的原因,提出以椭圆半短轴长度b为阈值,当边缘点到拟合椭圆的中心距离s小于阈值,即当s<b时,剔除该边缘点。最后对两个不同的单晶硅图像集R1和R2进行实验,该剔除算法将椭圆拟合的准确度提高到93.3%。且检测到的直径值平均浮动范围在6.95个像素内。
包昊菁[9](2020)在《基于机器视觉的链轮径向跳动测量技术研究》文中提出链轮是链传动的主要零件,其加工精度直接影响链传动的工作性能。径向跳动是形位误差的重要组成部分,是评价链轮加工精度的主要指标之一,直接影响链传动的动态特性。测量链轮的径向跳动是提高链轮加工精度和装配精度、保证链轮传动性能的重要前提。随着现代汽车发动机制造技术的进步,对链轮径向跳动的在线或原位测量提出了要求。本文以链轮径向跳动的原位或在线测量为目标,利用机器视觉测量技术,研究建立链轮径向跳动的机器视觉测量模型。由于链轮的几何形状和测量参数与轴齿类零件类似,所以建立该模型的方法也可以用于研究其他轴齿类零件相关参数的视觉测量。首先,在基于平面的两步标定法的基础上,提出校正摄像机主点的摄像机标定改进算法。利用两对共轭曲线之间的最短线段集合,获得由这些线段集合相交形成的多边形顶点坐标,通过求解多边形质心校正摄像机主点。以标准量块的尺寸为被测量,通过实验验证摄像机标定改进算法的准确性,为提高视觉测量精度奠定基础。其次,考虑到工厂复杂的光照条件、链轮表面的颜色等因素的影响,在分析现有亚像素边缘检测算法的基础上,以检测边缘的准确性和抗噪性为指标,通过实验对边缘插值算法、空间矩法以及拟合法进行测试,确定适用于现场提取链轮边缘图像的亚像素边缘检测算法。再次,在被测链轮端面上建立世界坐标系以描述被测链轮。将特制的同心圆环放置在被测链轮的中心孔内,并拍摄链轮端面的图像。利用已知的圆环半径和链轮中心孔半径以及椭圆拟合得到的圆环和链轮孔边缘曲线方程的系数,确定世界坐标系与摄像机坐标系的变换关系,即确定视觉测量链轮径向跳动的外参,为建立视觉测量链轮径向跳动模型奠定基础。然后,利用视觉测量链轮径向跳动的外参,将检测的链轮边缘点投影到与链轮端面平行的坐标面后,分别对齿沟边缘点和齿顶边缘点进行椭圆拟合,求解齿沟圆弧的最低点和齿顶圆弧的最高点,最终建立齿沟和齿顶相对于链轮中心点的径向跳动视觉测量模型。最后,在本文建立的机器视觉测量模型的基础上,对四个不同节距和齿数的链轮的径向跳动进行实际测量,并与测绘投影仪和三坐标测量机的测量结果进行对比和分析,验证机器视觉测量模型的正确性,分析影响测量精度的因素。
刘阳[10](2020)在《面向星箭对接环的视觉位姿测量方法研究》文中进行了进一步梳理空间机器人在未来太空探索活动中扮演着至关重要的角色,它能够代替宇航员执行各种空间任务,成为了当前航天领域的研究热点。其中,视觉测量技术是其成功开展在轨服务的关键,它能够提供目标航天器的位姿参数,从而提高在轨操作的安全性。本文将星箭对接环选作在轨航天器的通用视觉特征,详细分析了空间机器人接近阶段的全局视觉测量方案以及捕获阶段的手眼视觉测量方案。太空环境下光照条件较差,MLI保温隔热层的高反射性极易产生“过曝”或“亮斑”现象,同时低压芯片也对算法的实时性能提出了更高的需求。针对上述问题,本文提出了一种基于弧段重组的自适应椭圆检测算法。它能够根据图像二维信息熵自动调整边缘检测阈值,降低了光照影响,同时基于曲率连续性假设从图像中提取单像素边缘曲线集合,奠定了椭圆检测的基础;设计了一种基于轨迹方向的分段线性插值算法,通过比较长度偏差以及轨迹方向的分布规律实现了直线特征的判别,在保持图像基本轮廓的前提下大幅减少了数据量;分析了椭圆弧的几何判别条件并以其作为基本元素来拟合椭圆,同时在椭圆缺失区域内搜索遗漏边缘点来校正检测结果,提高了检测精度并有效防止多重检测现象的发生。研究了空间机器人接近过程中的全局视觉测量算法。提出了空间锥视觉测量模型,以二次型的形式建立了2D图像平面与3D空间圆的映射关系,进而推导出位姿参数的闭式解。通过优化双目空间锥约束方程以及姿态角的定义,解决了传统算法中的姿态二义性问题。在此基础上,讨论了相机故障情况下的单目空间锥视觉测量算法,根据相似对角化原理简化了空间锥表达式,并就半径已知及半径未知两种情况分别提供了对应的解决方案,提高了视觉测量算法的可靠性及在轨服务的安全性。研究了空间机器人捕获过程中的手眼视觉测量算法。针对近距离情况下星箭对接环图像特征不完整的问题,设计了三线结构光近距离视觉测量系统,由单目手眼相机以及平行前向的三束线激光器构成。在传统双线结构光的基础上增添了一组线激光器,解决了特殊姿态下间断点丢失的状况,同时冗余设计也增加了视觉系统的可靠性。借助结构光平面与星箭对接环端面相交形成的6个间断点特征,逐步实现了对接环位姿参数的求解:设计了基于Ar Uco标记的平面标定板来标定线结构光平面方程,进而根据间断点的图形投影求得其空间三维坐标,然后利用最小二乘原理推导出星箭对接环位姿参数的解析表达式,解决了传统几何交点法的数据抖动现象,提高了视觉测量精度。此外,讨论了三种常见的失败检测案例并给出相应的解决方案,同时分析了图像定位精度对于间断点三维测量误差的影响。搭建了基于OpenGL的虚拟仿真平台,它能够排除镜头畸变、电磁噪声等干扰因素的影响,得到目标卫星的实时仿真图像,同时又可提供实际的位姿参数,解决了星箭对接环虚拟圆心参考点不易直接测量的问题,便于视觉测量算法前期的开发与调试。围绕空间机器人各个阶段的视觉位姿测量任务,分别开展了相关验证实验。针对位姿测量结果中的异常数据,提出了基于灰色预测模型的卡尔曼滤波算法,能够得到最小均方差条件下的最优估计结果,改善了视觉测量中的误检与漏检现象,同时实现了噪声数据的平滑滤波,提高了空间机器人系统的跟踪控制精度,增强了在轨服务的安全性。
二、圆和椭圆边缘检测的快速方法(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、圆和椭圆边缘检测的快速方法(论文提纲范文)
(1)空间非合作目标的三目立体视觉位姿测量技术研究(论文提纲范文)
摘要 |
Abstract |
第1章 引言 |
1.1 研究背景 |
1.2 空间目标在轨服务研究现状 |
1.2.1 美国在轨服务研究现状 |
1.2.2 欧空局在轨服务研究现状 |
1.2.3 德国在轨服务研究现状 |
1.2.4 日本在轨服务研究现状 |
1.2.5 我国在轨服务研究现状 |
1.3 非合作目标视觉测量技术研究现状 |
1.4 本文主要研究内容与组织架构 |
第2章 三目立体视觉位姿测量数学模型 |
2.1 引言 |
2.2 坐标系建立及转换关系 |
2.2.1 像素坐标系 |
2.2.2 图像坐标系 |
2.2.3 相机坐标系 |
2.2.4 世界坐标系 |
2.2.5 目标坐标系 |
2.3 双目立体视觉测量模型 |
2.3.1 双目立体视觉结构模型 |
2.3.2 极线约束准则 |
2.4 三目立体视觉测量模型 |
2.5 三目视觉系统测量精度分析及位置结构设计 |
2.5.1 立体视觉测量模型精度分析 |
2.5.2 三目视觉相机位置结构设计 |
2.6 三目视觉相机标定及测量系统全站仪外测方法 |
2.6.1 相机标定现状 |
2.6.2 单目相机标定原理 |
2.6.3 三目立体视觉标定原理 |
2.6.4 三目系统标定实验 |
2.6.5 三目视觉测量系统全站仪外测方法 |
2.7 本章小结 |
第3章 非合作目标关键特征识别与位姿解算 |
3.1 引言 |
3.2 多椭圆特征的改进弧支撑线段拟合算法 |
3.2.1 常用椭圆检测方法及局限性分析 |
3.2.2 改进的弧支撑线段椭圆拟合算法 |
3.3 显着特征点识别算法 |
3.4 基于对接环和显着特征点的三目立体视觉位姿测量方法 |
3.4.1 基于立体视觉极线约束和半径尺寸约束的对接环筛选方法 |
3.4.2 三目立体视觉位姿测量 |
3.5 基于ORB特征点匹配的三目立体视觉位姿测量方法 |
3.5.1 三目ORB特征点检测 |
3.5.2 三目立体视觉交叉极线约束 |
3.5.3 基于RANSAC方法的非合作目标位姿测量 |
3.6 本章小结 |
第4章 三目测量算法的嵌入式平台移植与多核处理方法设计 |
4.1 引言 |
4.2 三目相机选型 |
4.3 DSP选型 |
4.4 嵌入式平台算法处理模块 |
4.5 三目视觉算法的DSP移植优化 |
4.6 基于数据流模型的三目视觉算法多核处理方法 |
4.7 本章小结 |
第5章 三目立体视觉位姿测量实验与分析 |
5.1 引言 |
5.2 实验平台介绍 |
5.3 三目与双目视觉测量对比实验 |
5.4 对接环和显着特征点位姿测量实验与分析 |
5.4.1 非合作目标模型静态实验 |
5.4.2 三目视觉相机由远及近位置逼近实验 |
5.4.3 非合作目标模型姿态转动实验 |
5.4.4 实验结果分析 |
5.5 ORB特征点匹配位姿测量实验与分析 |
5.5.1 非合作目标模型静态实验 |
5.5.2 非合作目标模型三轴位置移动实验 |
5.5.3 非合作目标模型姿态转动实验 |
5.5.4 实验结果分析 |
5.6 本章小结 |
第6章 总结与展望 |
6.1 论文研究工作总结 |
6.2 论文主要创新点 |
6.3 论文研究工作展望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(2)基于仿射非局部均值去噪算法的研究与平台构建(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 图像去噪的研究现状 |
1.2.2 非局部均值算法的研究现状 |
1.3 论文主要工作和章节安排 |
1.3.1 论文主要工作 |
1.3.2 章节安排 |
第2章 相关理论 |
2.1 图像噪声模型 |
2.2 图像质量评价标准 |
2.3 非局部均值图像去噪算法 |
2.3.1 局部均值去噪思想 |
2.3.2 非局部均值去噪思想 |
2.4 仿射非局部均值算法原理 |
2.5 本章小结 |
第3章 快速仿射非局部均值去噪 |
3.1 仿射非局部均值算法 |
3.2 快速仿射非局部均值 |
3.2.1 基于结构张量的仿射变换 |
3.2.2 基于FFT的仿射不变相似性度量 |
3.3 改进的算法流程 |
3.4 实验分析与结果 |
3.4.1 快速仿射非局部均值 |
3.4.2 比较R和D的用时情况 |
3.4.3 比较不同尺寸的图像对速度的影响 |
3.5 本章小结 |
第4章 基于参数自适应的仿射非局部均值去噪 |
4.1 自适应搜索窗口 |
4.1.1 形状自适应搜索窗口 |
4.1.2 大小自适应搜索窗口 |
4.2 自适应图像块 |
4.2.1 图像块的大小自适应 |
4.2.2 图像块的形状自适应 |
4.3 自适应平滑系数 |
4.3.1 Canny边缘检测 |
4.3.2 自适应平滑系数 |
4.4 参数自适应NLM算法流程 |
4.5 实验分析与结果 |
4.5.1 自适应搜索窗口 |
4.5.2 自适应图像块 |
4.5.3 自适应平滑系数 |
4.5.4 参数自适应非局部均值 |
4.6 本章小结 |
第5章 基于仿射NLM图像去噪的视觉体验平台 |
5.0 系统开发的意义 |
5.1 开发环境及工具 |
5.1.1 Python语言 |
5.1.2 Django框架 |
5.2 需求分析 |
5.2.1 设计需求 |
5.2.2 功能需求 |
5.3 系统总体设计 |
5.3.1 方案设计 |
5.3.2 功能设计 |
5.4 基于仿射NLM图像去噪平台模块设计 |
5.4.1 传统非局部均值模块 |
5.4.2 快速非局部均值模块 |
5.4.3 仿射非局部均值模块 |
5.4.4 快速仿射非局部均值模块 |
5.4.5 参数自适应仿射非局部均值模块 |
5.5 系统测试 |
第6章 总结与展望 |
6.1 总结 |
6.2 工作展望 |
参考文献 |
攻读学位期间取得的成果 |
致谢 |
(3)基于弧段提取的椭圆检测算法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 基于最小二乘的方法 |
1.2.2 基于霍夫变换的方法 |
1.2.3 基于弧段提取的方法 |
1.3 论文的研究内容与创新点 |
1.4 论文的章节安排 |
第2章 相关基础理论 |
2.1 引言 |
2.2 边缘检测算法 |
2.2.1 Sobel算子 |
2.2.2 Laplacian算子 |
2.2.3 Canny算子 |
2.3 帕斯卡定理 |
2.3.1 定理介绍 |
2.3.2 定理证明 |
2.4 小结 |
第3章 基于弧段提取的椭圆检测算法 |
3.1 引言 |
3.2 算法流程 |
3.3 弧段检测 |
3.3.1 边缘弧段提取 |
3.3.2 无效弧段去除 |
3.4 椭圆拟合 |
3.4.1 弧段分类 |
3.4.2 弧段组合 |
3.4.3 参数估计 |
3.5 椭圆验证 |
3.5.1 假椭圆 |
3.5.2 重复椭圆 |
3.6 实验结果 |
3.6.1 评判准则 |
3.6.2 数据集 |
3.6.3 在数据集上的表现 |
3.6.4 与现有算法的比较 |
3.7 小结 |
第4章 基于椭圆检测的物体识别和定位方法 |
4.0 引言 |
4.1 坐标系 |
4.2 相机标定 |
4.2.1 原理 |
4.2.2 实验结果 |
4.3 椭圆形物体识别和定位 |
4.3.1 方法介绍 |
4.3.2 实验结果 |
4.4 小结 |
第5章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
致谢 |
攻读硕士期间参加的项目及成果 |
(4)轨道车辆轴端接地装置摩擦盘视觉检测方法研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 论文研究的背景和意义 |
1.2 轨道车辆轴端接地装置摩擦盘视觉检测的国内外研究现状 |
1.2.1 轨道车辆轴端接地装置试验台研究现状 |
1.2.2 视觉检测方法的国内外研究现状 |
1.2.3 图像边缘提取方法的国内外研究现状 |
1.3 论文主要研究内容 |
第2章 轨道车辆轴端接地装置摩擦盘视觉检测系统标定方法 |
2.1 摩擦盘视觉检测系统模型构建 |
2.2 基于主动轮廓模型的靶标椭圆提取及参数解算 |
2.2.1 基于主动轮廓模型的靶标椭圆提取原理 |
2.2.2 基于主动轮廓模型的靶标椭圆参数解算 |
2.3 摩擦盘视觉检测系统摄像机及光平面优化标定 |
2.3.1 基于同心二次曲线的视觉检测系统摄像机内外参数标定 |
2.3.2 摩擦盘视觉检测系统光平面坐标解算 |
2.3.3 摩擦盘视觉检测系统摄像机及光平面优化 |
2.4 本章小结 |
第3章 轨道车辆轴端接地装置摩擦盘视觉检测系统重建方法 |
3.1 基于FPGA的摩擦盘光条中心点提取系统构建 |
3.2 基于FPGA的摩擦盘光条中心点提取方法研究 |
3.2.1 基于FPGA的摩擦盘图像中值滤波方法 |
3.2.2 基于FPGA的摩擦盘图像光条中心识别 |
3.3 轴端接地装置摩擦盘视觉检测系统重建原理 |
3.4 本章小结 |
第4章 轴端接地装置摩擦盘视觉检测系统重建试验与误差分析 |
4.1 摩擦盘视觉检测系统重建试验 |
4.2 摩擦盘视觉检测系统测量误差影响因素理论分析 |
4.2.1 摩擦盘视觉检测系统摄像机内外参数影响分析 |
4.2.2 摩擦盘视觉检测系统激光平面提取精度影响分析 |
4.2.3 摩擦盘视觉检测系统图像坐标提取精度影响分析 |
4.3 摩擦盘视觉检测系统重建误差试验 |
4.4 本章小结 |
第5章 总结与展望 |
5.1 论文总结 |
5.2 论文展望 |
参考文献 |
作者简介及科研成果 |
致谢 |
(5)基于区域检测和弧筛选的椭圆检测方法(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 基于霍夫变换的方法 |
1.2.2 最小二乘法 |
1.2.3 基于边缘跟踪的算法 |
1.2.4 基于深度学习的方法 |
1.3 本文研究内容 |
1.3.1 基于区域检测的椭圆检测方法 |
1.3.2 区域检测与弧筛选相结合的椭圆检测方法 |
1.4 本文组织结构 |
2 椭圆检测中的理论和算法 |
2.1 卷积神经网络 |
2.1.1 数据输入层 |
2.1.2 卷积层 |
2.1.3 激励层 |
2.1.4 池化层 |
2.1.5 全连接层 |
2.2 边缘检测算法 |
2.3 特征数 |
2.3.1 特征数的定义 |
2.3.2 两段弧/三段弧的特征数计算 |
3 基于区域检测的椭圆检测算法 |
3.1 新的椭圆数据集处理方法 |
3.2 准确衡量椭圆差异的Loss函数 |
3.2.1 将椭圆方程表示成高斯分布 |
3.2.2 二维高斯分布的KL散度 |
3.3 网络训练 |
3.3.1 椭圆包围框的生成 |
3.3.2 训练分类网络 |
3.3.3 训练回归网络 |
3.4 实验结果及分析 |
3.4.1 评价指标及数据集介绍 |
3.4.2 与现有方法比较 |
4 区域检测与弧筛选相结合的椭圆检测算法 |
4.1 预处理 |
4.2 弧组合筛选 |
4.2.1 象限约束 |
4.2.2 坐标约束 |
4.2.3 特征数约束 |
4.3 椭圆拟合与验证 |
4.3.1 椭圆拟合 |
4.3.2 椭圆验证 |
4.4 小椭圆等特殊椭圆的检测 |
4.4.1 Faster-RCNN的结构 |
4.4.2 Faster-RCNN的训练集的构造和测试结果 |
4.4.3 基于区域检测的特殊椭圆检测 |
4.5 实验结果及分析 |
4.5.1 数据集介绍 |
4.5.2 椭圆检测器参数设置 |
4.5.3 与现有方法比较 |
结论 |
参考文献 |
攻读硕士学位期间发表学术论文情况 |
致谢 |
(6)渐开线圆柱齿轮齿廓与径向圆跳动的视觉测量技术研究(论文提纲范文)
摘要 |
abstract |
本文的主要符号及测量方案说明 |
第1章 绪论 |
1.1 论文的选题背景和研究意义 |
1.1.1 论文的选题背景 |
1.1.2 论文的研究意义 |
1.2 机器视觉和齿轮测量技术介绍 |
1.2.1 齿轮测量技术概述 |
1.2.2 机器视觉测量技术概述 |
1.2.3 齿轮光学测量技术概述 |
1.3 论文的基础技术介绍 |
1.3.1 摄像机的标定技术 |
1.3.2 图像处理技术 |
1.3.3 曲线拟合算法 |
1.4 论文的主要研究内容及结构 |
第2章 齿轮上测量点三维世界坐标的获取 |
2.1 机器视觉的基本测量原理 |
2.1.1 齿轮测量平面的确定 |
2.1.2 摄像机的针孔成像模型 |
2.1.3 机器视觉三角测量原理 |
2.2 坐标系的变换关系 |
2.2.1 世界坐标系的建立 |
2.2.2 基于Rodrigues旋转的坐标变换 |
2.2.3 约束世界坐标系的X轴时的坐标变换 |
2.3 齿轮的测量图像处理 |
2.3.1 图像的滤波降噪 |
2.3.2 图像特征点的提取及筛选 |
2.4 齿轮测量平面的标定及测量点三维世界坐标的获取 |
2.4.1 齿轮端面的标定及测量点三维世界坐标的获取 |
2.4.2 齿轮轴的线结构光系统标定及测量点三维世界坐标的获取 |
2.5 齿轮端面标定精度检验实验 |
2.5.1 标定实验设备与标定对象 |
2.5.2 标定实验过程及结果 |
2.5.3 标定实验评价与分析 |
2.6 本章小结 |
第3章 减小投影畸变对齿轮测量平面的圆和椭圆中心获取的影响 |
3.1 圆和椭圆成像的投影畸变分析 |
3.2 齿轮端面测量圆圆心的获取 |
3.2.1 齿轮端面一般测量圆圆心的获取 |
3.2.2 齿轮端面中心孔圆心的获取 |
3.3 光平面上齿顶光椭圆中心的获取 |
3.4 齿轮测量平面圆和椭圆中心获取精度检验实验 |
3.4.1 齿轮端面测量圆圆心获取精度的检验与分析 |
3.4.2 光平面上齿顶光椭圆中心获取精度的检验与分析 |
3.5 本章小结 |
第4章 齿轮渐开线齿廓的视觉测量模型及评价方法 |
4.1 齿轮测量平面齿廓测量点三维坐标的确定 |
4.1.1 齿轮端面齿廓测量点的世界坐标 |
4.1.2 齿轮轴测量平面齿廓测量点的局部坐标 |
4.2 齿轮渐开线齿廓的几何拟合模型 |
4.2.1 假想坐标系的建立 |
4.2.2 检测点和渐开线齿廓上与检测点垂直对应点的几何关系 |
4.2.3 测量平面上基圆圆心位置的确定 |
4.2.4 渐开线齿廓的几何拟合模型 |
4.3 用以评价渐开线齿廓的齿距偏差测量模型 |
4.3.1 分度圆齿距的计算 |
4.3.2 齿距偏差的计算 |
4.4 本章小结 |
第5章 齿轮径向圆跳动的视觉测量模型 |
5.1 齿轮齿圈径向跳动的机器视觉测量模型 |
5.2 齿轮轴径向圆跳动的线结构光视觉测量模型 |
5.2.1 齿轮轴径向圆跳动量的测量 |
5.2.2 齿轮轴径向圆跳动方向的测量 |
5.3 本章小结 |
第6章 渐开线圆柱齿轮齿廓与径向圆跳动测量实验与分析 |
6.1 实验设备与条件 |
6.1.1 实验用齿轮与齿轮轴 |
6.1.2 视觉测量的实验设备 |
6.1.3 对比测量的实验设备 |
6.2 齿轮基圆半径的测量实验 |
6.2.1 实验步骤 |
6.2.2 实验结果 |
6.3 渐开线齿廓齿距偏差的测量实验 |
6.3.1 实验步骤 |
6.3.2 实验结果 |
6.4 齿轮径向圆跳动的测量实验 |
6.4.1 实验步骤 |
6.4.2 实验结果 |
6.5 测量精度的影响因素分析 |
6.5.1 测量装置的影响 |
6.5.2 摄像机标定精度的影响 |
6.5.3 特征点检测精度的影响 |
6.5.4 改进方向 |
6.6 本章小结 |
第7章 结论与展望 |
7.1 结论与创新点 |
7.2 不足与展望 |
参考文献 |
附录1 用于齿轮端面标定实验的标定图像 |
附录2 用于齿轮测量平面圆和椭圆中心获取实验的标定图像 |
附录3 实验用齿轮的设计图纸 |
附录4 实验用齿轮轴的设计图纸 |
附录5 用于齿轮渐开线齿廓与径向圆跳动测量实验的标定图像 |
附录6 用于齿轮轴渐开线齿廓与径向圆跳动测量实验的标定图像 |
附录7 齿轮齿距偏差测量结果 |
附录8 齿轮径向圆跳动测量结果 |
攻读学位期间发表的论文及取得的科研成果 |
致谢 |
(7)智能斜视诊断中的人眼检测方法研究(论文提纲范文)
摘要 |
abstract |
第1章 引言 |
1.1 研究背景及意义 |
1.2 斜视诊断研究现状 |
1.2.1 基于图像或视频的斜视诊断方法 |
1.2.2 基于眼动追踪的斜视诊断方法 |
1.3 商业化斜视诊断设备 |
1.4 人眼检测国内外研究现状 |
1.4.1 基于投影的人眼检测方法 |
1.4.2 基于眨眼眼动的人眼检测方法 |
1.4.3 基于亮暗瞳效应的人眼检测方法 |
1.4.4 基于模板匹配的人眼检测方法 |
1.4.5 基于形状特征的人眼检测方法 |
1.4.6 基于强度梯度特征的人眼检测方法 |
1.4.7 基于机器学习的人眼检测方法 |
1.5 现存问题 |
1.6 本文主要研究内容及章节安排 |
1.6.1 本文主要研究内容 |
1.6.2 论文章节安排 |
第2章 智能斜视诊断技术基础 |
2.1 眼睛结构及运动 |
2.1.1 眼睛结构 |
2.1.2 眼睛运动 |
2.2 斜视专科检查 |
2.2.1 斜视分类 |
2.2.2 角膜映光法 |
2.2.3 遮盖测试 |
2.3 智能斜视诊断评价指标 |
2.4 智能斜视诊断系统框架 |
2.5 本章小结 |
第3章 基于级联Haar特征和改进Starburst的瞳孔定位算法 |
3.1 瞳孔区域粗略定位 |
3.1.1 Haar特征模板 |
3.1.2 粗略定位瞳孔区域 |
3.2 瞳孔轮廓点获取 |
3.2.1 Starburst方法 |
3.2.2 瞳孔轮廓点收集 |
3.3 瞳孔模型拟合 |
3.4 实验验证 |
3.4.1 数据集 |
3.4.2 比较算法 |
3.4.3 结果分析 |
3.5 本章小结 |
第4章 卷积神经网络引导的进化参数眼建模方法 |
4.1 参数化眼睛模型 |
4.2 卷积神经网络引导的参数建模 |
4.2.1 卷积神经网络介绍 |
4.2.2 适应性函数设计 |
4.3 进化搜索过程 |
4.3.1 遗传算法简介 |
4.3.2 进化建模算法 |
4.4 实验结果分析 |
4.4.1 数据集构建 |
4.4.2 Contour-Eye图像的评价标准 |
4.4.3 CNN模型的评估 |
4.4.4 进化搜索的评估 |
4.4.5 精细眼睛建模评估 |
4.5 本章小结 |
第5章 智能斜视诊断硬件设计关键技术 |
5.1 智能斜视诊断系统 |
5.2 自动遮盖模块 |
5.3 同步追踪模块 |
5.4 实验结果分析 |
5.4.1 实验设计 |
5.4.2 数据初步分析 |
5.5 本章小结 |
第6章 智能斜视诊断软件设计关键技术 |
6.1 斜视诊断系统简介及数据采集 |
6.1.1 系统简介 |
6.1.2 数据采集 |
6.2 软件设计 |
6.2.1 眼睛区域提取 |
6.2.2 虹膜度量与模板检测 |
6.2.3 关键帧检测 |
6.2.4 瞳孔定位 |
6.2.5 偏移量计算 |
6.2.6 斜视检测 |
6.3 智能斜视诊断软件结果分析 |
6.3.1 虹膜测量的结果 |
6.3.2 关键帧检测的结果 |
6.3.3 瞳孔定位的结果 |
6.3.4 偏移量测量的结果 |
6.4 智能斜视诊断系统优化 |
6.4.1 自动遮盖模块的优化 |
6.4.2 同步追踪模块的优化 |
6.4.3 系统的保护和封装 |
6.4.4 系统安全性验证 |
6.4.5 系统模块集成 |
6.5 本章小结 |
第7章 总结与展望 |
7.1 论文主要研究内容 |
7.2 未来工作展望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(8)基于图像处理的单晶硅直径测量技术研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题的研究意义与目的 |
1.2 单晶硅直径检测的研究现状 |
1.2.1 研究背景 |
1.2.2 单晶硅直径检测的现状 |
1.3 关键问题分析 |
1.4 研究的主要内容 |
1.5 本文的主要贡献及创新点 |
1.6 章节安排 |
第2章 单晶硅图像ROI的自动提取 |
2.1 引言 |
2.2 常用的二值化方法研究 |
2.2.1 常用二值化方法理论研究 |
2.2.2 常用二值化方法效果 |
2.3 本文提出的自动二值化算法 |
2.3.1 单晶硅图像灰度分布分析 |
2.3.2 创新的二值化阈值自动选择 |
2.3.3 算法验证 |
2.4 ROI的自动定位与提取 |
2.5 本章小结 |
第3章 单晶硅高温边缘检测 |
3.1 引言 |
3.2 基于Harris角点检测的像素级边缘检测 |
3.2.1 像素级边缘检测算法理论研究 |
3.2.2 常用的像素级边缘检测算法的效果研究 |
3.2.3 单晶硅图像中的光晕消除 |
3.2.4 Harris角点检测效果研究 |
3.3 基于改进Zernike矩的亚像素边缘检测 |
3.3.1 常用的亚像素级边缘检测算法 |
3.3.2 Zernike矩的算法原理 |
3.3.3 改进的Zernike矩算法 |
3.3.4 Zernike矩算法边缘检测效果 |
3.4 实验分析 |
3.5 本章小结 |
第4章 边缘点的椭圆拟合 |
4.1 引言 |
4.2 释能环上边缘去除 |
4.3 基于最小二乘法的椭圆拟合 |
4.3.1 常用的椭圆检测技术 |
4.3.2 椭圆拟合效果 |
4.4 椭圆拟合优化算法 |
4.5 实验分析 |
4.5.1 椭圆拟合准确度分析 |
4.5.2 直径动态范围分析 |
4.6 本章小结 |
第5章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
致谢 |
(9)基于机器视觉的链轮径向跳动测量技术研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 论文背景与研究意义 |
1.1.1 论文背景 |
1.1.2 论文研究的意义 |
1.2 链轮径向跳动测量技术 |
1.2.1 接触式测量技术 |
1.2.2 非接触式测量技术 |
1.3 机器视觉测量技术的研究现状 |
1.4 机器视觉测量技术中的关键方法 |
1.4.1 摄像机标定算法 |
1.4.2 曲线拟合算法 |
1.4.3 图像边缘检测算法 |
1.5 本文主要研究内容 |
第2章 摄像机成像模型的标定 |
2.1 摄像机的成像模型 |
2.1.1 摄像机成像模型的坐标系 |
2.1.2 摄像机的成像模型 |
2.1.3 摄像机镜头的畸变 |
2.2 基于平面模板的两步标定法 |
2.2.1 确定摄像机成像模型的内参初值 |
2.2.2 确定摄像机成像模型的外参初值 |
2.2.3 求解摄像机的成像模型参数 |
2.3 基于平面模板的两步标定法的改进算法 |
2.3.1 摄像机主点位置的校正 |
2.3.2 求解摄像机主点的位置 |
2.3.3 改进参数初值求解过程 |
2.4 摄像机成像模型的标定实验及误差分析 |
2.4.1 摄像机成像模型的标定实验条件 |
2.4.2 摄像机成像模型的标定实验 |
2.4.3 标定改进算法的精度评价 |
2.5 本章小结 |
第3章 链轮边缘图像的亚像素边缘检测算法研究 |
3.1 图像滤波算法 |
3.1.1 常用的图像滤波算法 |
3.1.2 评价图像滤波算法的实验 |
3.2 亚像素边缘检测算法 |
3.2.1 基于插值法的亚像素边缘检测算法 |
3.2.2 基于空间矩法的亚像素边缘检测算法 |
3.2.3 基于拟合法的亚像素边缘检测算法 |
3.3 亚像素边缘检测算法的评价实验 |
3.3.1 亚像素边缘检测算法精度评价实验 |
3.3.2 亚像素边缘检测算法鲁棒性评价实验 |
3.4 本章小结 |
第4章 视觉测量链轮径向跳动的外参标定算法 |
4.1 基于链轮端面建立世界坐标系 |
4.1.1 世界坐标系的建立 |
4.1.2 标定圆环与链轮端面的成像关系 |
4.2 链轮中心点世界坐标的确定 |
4.2.1 链轮孔边缘曲线的椭圆方程 |
4.2.2 链轮中心点世界坐标的求解 |
4.3 求解世界坐标与摄像机坐标的变换矩阵 |
4.4 本章小结 |
第5章 链轮径向跳动的视觉测量算法 |
5.1 链轮径向跳动的视觉测量 |
5.1.1 链轮径向跳动的视觉测量模型 |
5.1.2 链轮齿廓边缘点的坐标变换 |
5.1.3 视觉测量链轮径向跳动 |
5.2 链轮齿廓边缘点的处理 |
5.3 链轮齿根圆和齿顶圆直径的测量算法 |
5.3.1 基于代数椭圆拟合的测量算法 |
5.3.2 基于几何椭圆拟合的测量算法 |
5.4 本章小结 |
第6章 链轮径向跳动的视觉测量实验与分析 |
6.1 链轮径向跳动视觉测量的实验条件 |
6.2 测绘投影仪测量链轮径向跳动 |
6.3 三坐标测量机测量链轮径向跳动 |
6.4 视觉测量模型的标定 |
6.4.1 标定摄像机内部参数 |
6.4.2 世界坐标与摄像机坐标的变换矩阵 |
6.5 链轮径向跳动的视觉测量实验 |
6.5.1 链轮中心点的视觉测量实验 |
6.5.2 链轮径向跳动的视觉测量实验 |
6.5.3 链轮齿根圆和齿顶圆直径的视觉测量实验 |
6.6 链轮径向跳动视觉测量的验证与分析 |
6.7 本章小结 |
第7章 结论与展望 |
7.1 总结和创新点 |
7.2 不足与展望 |
参考文献 |
附录1 用于摄像机成像模型的标定实验图像 |
附录2 用于亚像素边缘检测的标定实验图像 |
附录3 图像亚像素边缘检测结果 |
附录4 被测链轮设计图纸 |
附录5 用于链轮径向跳动视觉测量模型的标定实验图像 |
附录6 测绘投影仪测量链轮的测量结果 |
附录7 三坐标测量机测量链轮的测量结果 |
附录8 视觉测量与测绘投影仪及三坐标测量结果的对比 |
攻读学位期间发表的学术论文及取得的科研成果 |
致谢 |
(10)面向星箭对接环的视觉位姿测量方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题背景及研究意义 |
1.1.1 课题背景 |
1.1.2 研究目的与意义 |
1.2 面向星箭对接环的视觉检测算法综述 |
1.2.1 基于优化的椭圆检测算法 |
1.2.2 基于霍夫变换的椭圆检测算法 |
1.2.3 基于弧段特征的椭圆检测算法 |
1.2.4 椭圆检测在星箭对接环检测中的应用 |
1.2.5 研究现状简析 |
1.3 接近阶段视觉位姿测量算法综述 |
1.3.1 基于单目相机的视觉位姿测量算法 |
1.3.2 基于双目相机的视觉位姿测量算法 |
1.3.3 基于多传感器融合的视觉位姿测量算法 |
1.3.4 基于模型的视觉位姿测量算法 |
1.3.5 基于空间锥的视觉位姿测量算法 |
1.3.6 研究现状简析 |
1.4 捕获阶段视觉位姿测量算法综述 |
1.4.1 基于圆特征的视觉位姿测量算法 |
1.4.2 基于矩形特征的视觉位姿测量算法 |
1.4.3 基于三角特征的视觉位姿测量算法 |
1.4.4 基于线结构光的视觉位姿测量算法 |
1.4.5 基于多相机融合的视觉位姿测量算法 |
1.4.6 研究现状简析 |
1.5 本文的主要研究内容 |
第2章 面向星箭对接环的自适应椭圆检测算法 |
2.1 引言 |
2.2 环境自适应边缘曲线检测算法 |
2.2.1 自适应边缘检测阈值 |
2.2.2 局部梯度极大值点 |
2.2.3 边缘曲线连接算法 |
2.3 基于轨迹方向的分段线性插值算法 |
2.3.1 直线长度估计策略 |
2.3.2 轨迹方向分布特征 |
2.3.3 初始直线长度探究 |
2.4 基于弧段重组的椭圆检测算法 |
2.4.1 椭圆弧提取 |
2.4.2 椭圆弧重组 |
2.4.3 椭圆拟合 |
2.4.4 椭圆校正 |
2.5 实验与分析 |
2.5.1 评估体系 |
2.5.2 对比实验 |
2.6 本章小结 |
第3章 接近阶段星箭对接环视觉位姿测量算法 |
3.1 引言 |
3.2 接近阶段空间锥视觉测量模型 |
3.2.1 空间锥模型 |
3.2.2 相机成像模型 |
3.3 面向星箭对接环的双目位姿测量 |
3.4 面向星箭对接环的单目位姿测量 |
3.4.1 半径已知测量算法 |
3.4.2 半径未知测量算法 |
3.5 基于OPENGL的双目仿真平台设计 |
3.5.1 目标卫星模型 |
3.5.2 双目仿真平台设计 |
3.6 仿真实验与分析 |
3.6.1 仿真参数设计 |
3.6.2 仿真实验分析 |
3.7 本章小结 |
第4章 捕获阶段星箭对接环视觉位姿测量算法 |
4.1 引言 |
4.2 捕获阶段三线结构光视觉测量模型 |
4.3 线结构光平面两步标定法 |
4.3.1 标定板设计与标定 |
4.3.2 三线结构光平面标定 |
4.4 星箭对接环近距离视觉测量方案 |
4.4.1 参考坐标点的视觉测量 |
4.4.2 对接环视觉位姿测量 |
4.5 星箭对接环视觉测量误差分析 |
4.6 仿真实验与分析 |
4.6.1 仿真参数设计 |
4.6.2 仿真实验分析 |
4.7 本章小结 |
第5章 星箭对接环视觉位姿测量实验 |
5.1 引言 |
5.2 面向星箭对接环的自适应椭圆检测实验 |
5.2.1 环境自适应边缘曲线检测实验 |
5.2.2 基于轨迹方向的分段线性插值实验 |
5.2.3 基于弧段重组的椭圆检测实验 |
5.3 接近阶段星箭对接环视觉位姿测量实验 |
5.3.1 面向星箭对接环的双目视觉位姿测量实验 |
5.3.2 面向星箭对接环的单目视觉位姿测量实验 |
5.4 捕获阶段星箭对接环视觉位姿测量实验 |
5.4.1 实验系统组成 |
5.4.2 近距离视觉位姿测量实验 |
5.5 实验与分析 |
5.5.1 基于卡尔曼滤波的数据去噪 |
5.5.2 基于灰色模型的异常数据处理 |
5.5.3 数据处理实验与分析 |
5.6 本章小结 |
结论 |
参考文献 |
附录1 双目仿真平台系统设计 |
附1.1 仿真平台的系统函数 |
附1.2 虚拟相机参数设置 |
附1.3 光照材质设置 |
攻读博士学位期间发表的论文及其它成果 |
致谢 |
个人简历 |
四、圆和椭圆边缘检测的快速方法(论文参考文献)
- [1]空间非合作目标的三目立体视觉位姿测量技术研究[D]. 束安. 中国科学院大学(中国科学院上海技术物理研究所), 2021(01)
- [2]基于仿射非局部均值去噪算法的研究与平台构建[D]. 陈玲玲. 扬州大学, 2021(08)
- [3]基于弧段提取的椭圆检测算法研究[D]. 王志敏. 东华大学, 2021(01)
- [4]轨道车辆轴端接地装置摩擦盘视觉检测方法研究[D]. 朱尧平. 吉林大学, 2021(01)
- [5]基于区域检测和弧筛选的椭圆检测方法[D]. 梁景朝. 大连理工大学, 2021(01)
- [6]渐开线圆柱齿轮齿廓与径向圆跳动的视觉测量技术研究[D]. 苗建伟. 吉林大学, 2021(01)
- [7]智能斜视诊断中的人眼检测方法研究[D]. 郑洋. 中国科学院大学(中国科学院西安光学精密机械研究所), 2020(06)
- [8]基于图像处理的单晶硅直径测量技术研究[D]. 张欣. 上海师范大学, 2020(02)
- [9]基于机器视觉的链轮径向跳动测量技术研究[D]. 包昊菁. 吉林大学, 2020(01)
- [10]面向星箭对接环的视觉位姿测量方法研究[D]. 刘阳. 哈尔滨工业大学, 2020