一、视频交通图像自适应阈值边缘检测(论文文献综述)
李贵远[1](2021)在《基于深度学习的智能车辆可行驶区域检测方法研究》文中提出车辆智能化已经成为现代汽车行业发展的必然趋势,而环境感知技术是实现车辆智能化的基础和关键,其中道路可行驶区域检测是环境感知研究的重点内容,是决定智能车辆自动化水平的核心技术之一。随着深度学习的兴起,深度卷积神经网络在目标识别方面相关研究取得的显着成果直接影响并促进了智能汽车环境感知技术的发展,但由于网络的性能受其空间和时间复杂度的制约,这种矛盾导致现有的深度网络应用于智能车辆时难以同时满足环境感知系统对精度和速度的要求。因此,在当前深度卷积网络的理论研究深度及车载传感器技术的发展水平下,基于深度学习实现具有鲁棒性、准确性、快速性的道路可行区域检测算法仍是一项极具挑战的任务。在上述背景下,本论文依托辽宁省教育厅重大科技平台项目《基于车用雷达与视觉传感器信息融合的环境感知技术研究》(JP2016018),重点围绕“人—车—路”环境系统,基于深度学习方法对可行驶区域检测中的关键技术:路面检测、行人目标检测以及多目标联合检测展开研究,论文具体研究工作包括:(1)路面检测是可行驶区域检测的核心内容,快速准确的路面检测结果是智能车辆进行轨迹规划的基础和保障汽车安全行驶的关键。针对现有基于深度学习的路面分割方法由于采用多层级递推的金字塔结构和注意力机制导致网络复杂度高、计算效率低的问题,提出一种空域注意力迁移机制的路面分割方法。该方法根据卷积神经网络层间特征的分布规律,将Non-local空间注意力机制与通道注意力机制相结合,采用先合后分的策略实现将底层特征中蕴含的空间远程依赖关系赋予顶层特征,有效地提高了特征的感受野并降低了计算量。同时设计了一种1×1卷积核随机失活方法,实现有效利用注意力机制的前提下避免网络过拟合。在Cityscapes数据集上的测试结果表明,本文所提出的方法相对于现有同类方法在保持较高路面检测精度的同时显着提高了检测速度,并在跨数据集测试中表现出较好的泛化能力。(2)行人检测是可行驶区域检测的重要内容,实时精准的行人检测结果是智能车辆进行行为决策的依据和避免造成人员伤害的前提。针对现有基于深度学习的行人检测方法采用的级联多特征融合结构无法充分发挥各自优势导致对目标遮挡及表观状态变化的鲁棒性差的问题,提出一种级联自适应提升算法联合深度卷积网络的行人检测方法。该方法设计了一种级联AdaBoost分类器作为区域候选方法与CNN结合构成两阶段目标检测网络。采用快速聚合通道特征金字塔以高效获取多尺度特征,利用级联AdaBoost逐级递进式筛选正样本的特点设计一种负样本回捡策略,对难检样本按一定比例随机选出并送入到CNN中检测,实现了级联AdaBoost与CNN之间效率与精度的优势互补。在Caltech数据集上的测试结果表明,本文方法与同类方法相比漏检率显着降低的同时保持较高的检测速度。在实际采集的校园行车视频上进行的跨数据集测试中对行人的变化具有较好的鲁棒性。(3)在上述研究的基础上,针对当前视频处理的多任务方法逐帧特征提取存在大量冗余计算所导致实时性难以获得进一步提升的问题,提出一种空间相关特征传播的多任务检测算法。利用视频中帧间图像的相似性,设计一种空间相关引导的特征传播方法,通过Sobel算子得到表征空间变化的偏移量,利用该偏移量对关键帧的高层特征进行可微分的双线插值得到非关键帧的高层特征,有效地提高了特征提取的总体计算效率。以该特征传播方法为基础构建了路面分割与车辆、行人检测多任务网络框架,利用高层特征一致性约束设计辅助训练网络增强特征传播网络的参数训练,提升了特征传播网络对特征变化的建模能力。在具有代表性的KITTI和Cam Vid数据集的测试显示,本文所提出的方法在路面分割及行人、车辆检测上分别取得了与当前最新水准算法相当的精度但速度取得了明显的提升,在实际采集的城市道路视频上进行的跨数据集测试中对路面阴影、行人的变化具有较好的鲁棒性。
郭治成[2](2021)在《基于背景建模的复杂场景中运动目标检测方法研究》文中指出智能视频分析技术融合了机器视觉和传统监控系统,是人工智能与机器视觉领域的一个重要研究方向,广泛应用于国家公共安全相关系统、智能交通网络、智能电力、建筑智能化等领域。智能视频分析技术需要建立视频及其描述之间的映射关系,通过机器视觉、模式识别、图像处理和人工智能等技术,理解原始数据语义信息。运动目标检测在提高智能视频分析系统的计算速度、准确性和鲁棒性上发挥着极其重要的作用,直接影响系统整体性能。背景建模法是运动目标检测领域最为常用的方法,通过视频序列建立稳定的背景模型,将已建立好背景模型中的像素值、直方图、纹理等特征信息与输入图像对应特征做差分运算获取运动目标。背景建模法的核心是背景模型的建立和更新,优点是原理简单、运算速度快、计算量小、具有较高的实时性和目标检测准确率。本文利用机器视觉等相关理论,针对视频复杂场景、光照突变场景中运动目标的识别和优化进行了深入研究,提出了以下四种背景建模方法。(1)为提高运动目标检测的准确性,构建鲁棒的背景模型,在综合考虑视频图像在同一位置像素点的时间相关性和邻域像素空间相关性的基础上,提出基于多种特征融合的背景建模方法,选取视频序列中四种特征建立背景模型。首先采集视频第一帧,利用像素与其邻域像素相关一致性的特点,快速初始化背景模型;其次融合视频序列多种特征更新背景模型,在检测目标时消除背景模型初始化产生的鬼影区域;最后通过提取输入帧的像素值和背景模型中的特征值自适应调整阈值,提高背景模型在复杂场景下检测目标的适应性和检测率。(2)为解决背景建模方法在光照突变场景下引起全帧像素值大范围变化时检测目标十分困难的问题,提出基于改进Census变换的多特征背景建模方法。首先选取33’Census变换窗口的中值代替中心像素值,减少Census变换特征值对中心像素的依赖;其次建立Census模板和更新模板规则,有效改善Census变换对视频处理的鲁棒性和稳定性;最后将改进后的Census变换等特征融合建立背景模型,实现运动目标检测,在光照突变场景下提高了对目标检测的准确性,利用自适应敏感系数衡量视频不同区域的动态程度设置相应的更新规则,提高了在复杂场景中检测运动目标的鲁棒性。(3)针对大多数背景建模方法对背景的复杂变化较为敏感,尤其在复杂场景中背景动态变化大往往引起检测前景目标和识别背景的错误,导致检测率较低的问题,提出基于自适应复杂场景的背景建模方法。采集视频前5帧初始化背景模型,通过输入帧获取像素信息更新背景模型,减少噪声和帧内边缘对检测目标的影响,改善了初始化易造成鬼影现象的问题。针对复杂场景动态变化大,难以直接用像素值描述特征,使用自适应离散系数描述像素动态变化幅度,降低在复杂场景中提取前景目标的难度,减少了由背景像素值大幅度变化产生的假前景。(4)针对大多数背景建模方法检测运动目标易出现假目标、前景孔洞和鬼影的问题,提出基于改进形态学的背景建模方法。首先以改进的Vi Be算法为基础快速检测运动目标;其次通过动态系数将背景像素划分为简单背景和复杂背景两类区域,约束腐蚀操作范围,降低假前景对检测结果的影响,改进膨胀结构元,填补目标孔洞。通过限定腐蚀和膨胀区域,降低腐蚀和膨胀在视频序列执行频率,减少形态学对模型检测速度的影响;最后提出基于邻域中值鬼影区域检测与消除方法,很好抑制了鬼影区域的产生。
马明荣[3](2021)在《基于图像处理的炉膛火焰监测系统研究和设计》文中研究指明煤粉锅炉炉膛火焰监测系统是煤粉锅炉中不可或缺的安全保护系统,是保证锅炉安全、稳定、环保和高效运行的重要配套设施。煤粉锅炉炉膛火焰监测系统有助于提高锅炉和燃料的利用率,减少有害物的产生,降低对环境的污染;同时能够提高锅炉的安全性能,实时调节炉膛内的火焰燃烧状态,防止燃烧系统不稳定导致锅炉炉膛爆炸事故和炉膛灭火故障,保障居民人身安全,减少财产损失。本文结合某热力公司供暖控制系统设计工程项目,设计一套基于图像处理的炉膛火焰监测系统,实时监测并调节炉膛内的燃烧状态,保证锅炉安全、稳定、高效和环保的运行。首先,分析火焰监测系统的发展现状和研究趋势,结合工业现场实际工艺流程和设备状况,综合考虑各种现场因素的影响,对炉膛火焰监测系统作总体结构规划。然后,根据炉膛内火焰的燃烧特性,结合机电一体化的思想,设计可在高温、粉尘的复杂炉膛环境内可持续、稳定、高质量工作的图像采集监控系统,包括采集系统总体结构设计、冷却子系统设计、进给子系统、设备选型和图像采集控制系统设计。其次,研究火焰视频图像,确定火焰图像在成像过程中遭受的污染源,设计自适应预处理滤波算法,对火焰图像中的突变噪声点进行滤波处理,并对自适应预处理进行验证,确定自适应预处理结合自适应滤波算法对火焰噪声图像进行复原处理。随后,识别并提取火焰特征区域。首先采用Sobel算子边缘检测法火焰特征区域边缘进行检测,然后采用Otsu阈值分割法对特征区域进行分割,将火焰特征区域进行识别和提取,并对火焰特征区域进行拉普拉斯锐化,增强其纹理结构信息。最后,研究分析火焰图像的特征量,识别并提取能够表征火焰燃烧状态的特征量,根据火焰在不同燃烧阶段和燃烧状态下,特征量的变化特性对燃烧状态进行判定;通过OPC和Modbus建立图像采集系统、MATLAB、可编程控制器PLC和变频器间的通讯,实现数据实时传输和控制;设计控制系统,编制控制程序,最终实现对锅炉燃烧状态的监控和调节,满足其安全、稳定、高效和环保运行的工业生产需求。
庄漫[4](2021)在《道路运动目标检测和跟踪算法的改进与原型设计》文中提出智能交通系统中,道路运动障碍物的检测跟踪一直都是一个重点的研究内容。由于行车过程中车载摄像头运动导致背景运动,使得视频中存在运动的障碍物与背景两个相互独立的运动导致目标检测和后续跟踪困难。对于在汽车辅助驾驶系统中,道路上运动障碍目标的检测时由于车载摄像头运动引起的背景复杂以及对检测跟踪结果的实时性准确性等技术要求,提出一种有效的解决方案。该论文主要工作有:(1)目标检测问题上,将视频图片帧进行感兴趣ROI的选取,对ROI区域进行中值滤波,灰度化等操作去噪增强。再进行图像特征点的提取,通过分级特征角点检测算法计算图像特征角点,然后采用改进的金字塔LK光流法对感兴趣的特征点计算光流误差,在帧间进行匹配跟踪以此建立帧间的运动光流场。(2)在光流场基础上,本文提出一种基于光流点特征的DBSCAN聚类分割改进算法,用于光流场的区域目标的分割,得到光流失量图。结合光流矢量点的特征属性,改进相似性度量的准则,将光流点速度矢量的相似性和光流点的坐标密度分布纳入相似性度量函数。通过这个改进的度量可以判断光流点是否是处于一个目标区域,能够得到比较好的分割效果,实现光流场的目标分割,定位当前帧的运动目标区域,初步实现多目标的检测。(3)道路运动目标检测跟踪算法的设计与改进工作。主要是:1)提出一种分块自适应阈值算法,通过对图像分块提高阈值分割的准确性,得到阈值分割图。2)提出一种基于运动三图融合的运动目标检测流程,结合Canny检测获得边缘分割图,将光流失量图与分块阈值图,边缘融合图通过按像素相与操作,多次形态学处理,区域生长法获得精确的二值化图像,提高在移动车载摄像下对运动目标的检测准确率。3)在后续帧运动跟踪问题上,结合Cam Shift算法,构建系统的卡尔曼运动模型,建立目标的动态方程和观测方程,使用卡尔曼滤波器通过不断的迭代,预测各个目标在下一帧中的位置,减少Cam Shift算法的迭代次数,增加跟踪的稳定性。4)设计道路运动目标检测跟踪的系统,完成系统的原型设计与实现的工作。实验表明,该算法可以在车辆行驶过程中能够很好的检测出运动的目标,分割效果良好。同时跟踪算法也有良好的效果,而且在复杂道路上有良好的跟踪准确率。
李欣芮[5](2021)在《交通标志检测识别算法研究与嵌入式设备应用》文中研究说明近些年,随着辅助驾驶系统、智能交通系统、自动驾驶等技术的发展,交通标志的检测与识别成为至关重要的一环。道路交通标志的检测识别过程,通常针对采集、处理后的车辆行驶道路场景图像分别使用目标检测和目标识别算法,确定交通标志的位置、范围和类别。在传统的图像检测识别中,一般需要完成复杂的特征工程,而这种模式对特征的设计要求很高,往往需要具备尺寸不变性、旋转不变性、光照不变性等优良特性。随着深度学习的发展,高鲁棒性的检测识别结果在学术界引起广泛关注,然而这种结果却需要依靠海量数据集的支撑和复杂模型的训练来提高泛化效果,同时很难直接应用于嵌入式设备。传统图像处理的算法设计与目标任务存在直接联系且具备明显的可扩展性、透明性、研究性,与CNN相结合可以正好做到优势互补。因此本文就以道路交通标志为对象,分别对基于传统图像处理检测算法和基于轻量级CNN识别算法展开深入研究,同时基于Fast-RCNN框架将两者算法进行结合并在移动嵌入式设备上完成原型系统的设计与实现。其中主要研究工作如下:1.针对道路交通标志检测阶段,根据交通标志颜色和形状的宏观特性提出了多色彩空间的联合分割算法,在此基础之上又提出了基于区域生长的改进算法,对颜色分割后的二值图中的连通域进行消除和融合以获取含有完整交通标志的颜色区块,接着在处理颜色区块中提出了斜投影下的形状检测算法,使得提取到的交通标志样本得到变形恢复,最终实现了基于候选框提取并以LBP-SVM为分类器的传统交通标志检测算法。2.针对道路交通标志的识别阶段,在使用传统图像处理方法对数据集进行预处理和图像增强之后,提出了一种结合局部二进制模式下的轻量型卷积网络结构,完成了对道路交通标志的识别任务,并具有较高的鲁棒性。3.针对交通标志检测识别系统,提出了一种基于本文传统图像处理方法所设计的候选框提取算法与LB-Ghost轻量级CNN网络相结合的检测识别系统,为交通标志检测识别算法应用于搭载车载系统的嵌入式设备提供了一种可行方案。4.本文所提出的算法在德国交通标志数据集上均进行了相应的实验分析,并且基于移动嵌入式设备设计和实现了相应的原型系统。根据原型系统的性能测试显示,该算法基本可以应用于搭载车载系统的嵌入式设备中。
吴天友[6](2020)在《基于视频图像处理的交通流实时检测系统》文中研究说明随着城市化进程的推进,交通拥堵问题日益突出。交通信息是道路状况的直观反映,及时掌握交通信息对合理的配置交通资源、缓解拥堵具有重要意义,同时也为智能交通的发展提供数据支撑。为了实时获取道路交通信息,本文设计了一种基于FPGA的车流量和车辆排队长度检测系统。本文的主要研究内容如下:第一,对系统需求进行分析,介绍了系统的总体结构设计和软件实现的流程,并且对使用到的开发平台、仿真工具进行了简述。第二,对图像预处理、车辆存在检测算法、车流量统计算法和车辆排队长度检测算法进行研究。针对传统Sobel边缘检测阈值选取算法不利于硬件实现的问题,给出了根据整体和局部亮度求取阈值的改进Sobel边缘检测算法。对于车流量统计算法,在传统的基于检测窗口统计算法基础上,加入了数据流提取和帧数修正,提高了检测精度。设计了车辆排队长度提取算法,并针对FPGA硬件特点进行了算法优化。最后对涉及的算法进行详细阐述、使用Matlab进行算法验证。第三,使用ISE14.7软件对各个模块进行实现,并利用Modelsim软件对各个模块进行仿真,验证了各个模块的正确性。完成了主要外围硬件的选型和电路的设计,最后对排队长度检测模块进行了板级调试,实验证明本系统排队长度检测结果较为准确。本文设计的交通流检测系统是完全的硬件属性,所以执行速度快,能够实时获取道路交通信息,并为道路交通资源优化、交通灯信号控制等提供参考依据,具有一定的实际意义。图[64]表[4]参[80]
单雄飞[7](2020)在《基于计算机视觉的海上多目标船舶检测与跟踪关键技术研究》文中进行了进一步梳理在全球“工业4.0”以及《中国制造2025》的推动下,信息、计算机、通信、网络以及人工智能等技术得到了快速发展。作为海洋强国战略的核心内容,海洋科技创新成为争夺海洋领导权和话语权的关键领域,智能船舶是海洋科技创新领域的重要方面,在世界各国航运领域和科研机构范围内得到了广泛研究。作为智能船舶的关键技术,基于计算机视觉的信息感知技术能够有效弥补船用雷达和自动识别系统在海上目标检测与跟踪等方面的不足,保障船舶航行安全。在智能船舶领域,由于船载摄像机自身的六自由度低频晃动和高频抖动以及公开的海上可见光数据集相对较少,阻碍了计算机视觉在船舶检测与跟踪领域的发展。因此,本文研究了基于计算机视觉的海上多目标船舶检测与跟踪关键技术,主要包括海天线检测算法、图像序列内船舶运动特征建模、海上目标船舶检测算法以及海上多目标船舶跟踪算法。在海天线检测算法中,针对当前海天线检测算法实时性和稳定性较差的问题,将船载摄像机和惯性传感器数据相融合,研究了海天线快速估算模型和海天线精确检测模型。前者分析了摄像机在海上的六自由度运动,利用惯性传感器提供的横摇角和纵摇角数据,构建了海天线估算模型;后者在候选区域内利用改进的边缘检测模型获取图像边缘,利用改进的霍夫变换模型将边缘信息变换到霍夫空间,实现了海天线位置的精确检测。试验结果表明:估算模型具有较低的估算误差;精确检测模型对海天线的误检和漏检具有非常好的鲁棒性,精确率和召回率分别达到了 95.71%和96.88%。在图像序列内船舶运动特征建模中,针对船载摄像机自身运动的问题,分析了连续帧内船舶的运动特征,通过特征点匹配、海天线匹配、特征点分类、单应矩阵计算四个步骤构建了光流运动模型,实现了图像序列内动态和静态目标准确地运动估计,为海上多目标船舶检测与跟踪算法提供了准确的候选位置。在海上目标船舶检测算法中,从三个方面对现有算法进行了改进。算法1在候选区域内应用改进的最小障碍距离变换算法分割目标船舶,在保证精度的前提下,实现了目标船舶的快速提取;算法2在候选区域内应用光流运动模型获取了稳像图像内的船舶候选框,并利用图像分类模型实现了海上目标船舶的定位、识别;算法3从分块检测和自适应锚框聚类两个方面改进了 YOLOv3模型,并在新加坡海事数据集和自建数据集上实现了高精度的目标船舶检测。试验结果表明:对比离散余弦变换算法,算法1的平均精确率和运行速度分别提高了 12.36%和62.07%,实现了传统检测算法性能的大幅提升;算法 2 的平均精确率达到 90.03%,高于 SSD-resnet50-fpn、Faster-rcnn-resnet50 和 YOLOv3算法;算法3的平均精确率达到95.63%,高于其它对比算法,实现了更好的船舶检测精度。在海上多目标船舶跟踪算法中,研究了基于Deep SORT的改进算法,针对运动模型,利用光流运动模型代替卡尔曼滤波模型,消除船载摄像机自身运动的影响;针对外观模型,利用改进的Resnet50分类模型代替深度余弦模型作为骨干网络,进行船舶身份重识别;针对相似性度量,利用联合度量代替级联度量,对跟踪框和检测框进行有效匹配,并利用匈牙利算法将二者进行数据关联,实现了多目标船舶的逐帧跟踪。试验结果表明:算法的整体性能明显优于其它算法,在岸基和船载数据集上,分别有四项和五项性能指标获得了最佳跟踪效果。本文的研究成果能够有效弥补传统信息感知设备的不足,快速建立起清晰直观的情景感知意识,提升海上船舶避碰、防海盗以及遇险救助能力,保障海上人命财产安全,为智能船舶的发展提供可靠的技术支持,促进海洋科技创新,推动海洋强国战略的发展。
孙晓芳[8](2020)在《基于边缘计算的森林火灾视频识别技术的研究》文中进行了进一步梳理2020年《全球森林资源评估》科学报告指出,我国森林覆盖率大约为22.96%,年均净增加量位于全世界第一。然而我国林地分布区域化明显,主要林区为南方集体林区、东北林区、北方林区和西南林区,森林生态环境较为脆弱,容易发生重、特大森林火灾。因此,利用现有的高效技术和方法实现对森林火灾的监测和预警,加强对森林火灾监测系统的研究具有极为重要的意义。本文对传统林火烟雾视频识别算法进行优化,综合运用图像处理、人工智能,模式识别以及云计算技术等方法,建立了基于边缘计算的火灾数据监测预警云平台系统,提高了林火视频监测的时效性和有效性。(1)视频数据预处理是林火烟雾视频关键帧提取前的首要环节,本文提出了一种基于SURF和SIFT特征的视频镜头边界检测算法。该算法镜头边界检测准确率为93%(切变镜头)和76%(渐变镜头),召回率为95%(切变镜头)和90%(渐变镜头),F1Score为93.9%(切变镜头)和82.4%(渐变镜头)。实验结果表明该算法综合性能优于像素帧差法等同类型算法,针对视频特征具有更好的查全率和查准率。(2)针对基于传统聚类方法提取视频关键帧需要人工调整聚类中心和聚类数量的缺陷,本文提出了基于改进K-Means的林火烟雾视频关键帧提取算法。该算法基于传统K-Means算法并引入层次聚类与K近邻算法的思想,关键帧的识别准确率为94%,召回率为87%,F1Score为90.3%。实验结果表明该算法在保证准确率和减小冗余度的同时能够完整地表达视频内容。(3)云、雾与烟的视频接近度非常高,为减少林火监测的误报率,本文依据林火监测对象的特点和林火监测的流程,使用HOG特征与支持向量机结合构建了森林火灾烟雾识别模型,即HOGSVM模型,林火烟雾识别准确率达到87.7%。该算法方便网络模型处理,能够满足边缘计算终端设备要求,减少计算量、提高训练识别效果。(4)提出了基于改进Faster R-CNN的林火烟雾视频图像目标识别模型,该模型利用CNN网络之间的特征提取的优势,提取烟雾特征。为保证构建的模型符合边缘计算终端设备的需求,使用Soft-NMS算法来改进Faster R-CNN模型,建立Impro FRCNN模型,以保证计算的快速和准确,林火烟雾目标识别的准确率达到93.1%。(5)通过分析林火监测数据的特点和设备连接模块的功能需求,设计基于Edge X Foundry的边缘计算智能网关软件系统总体设计方案;设计了基于CoAP设备通讯协议规范的设备连接模块的软件架构;设计了基于Consul服务发现框架的注册配置服务;设计访问设备的统一接口的命令控制服务组件,经由Impro FRCNN深度挖掘数据,实现对设备、数据的统一管理;设计实现了边缘智能网关设备;实现了边缘平台训练模型并下发模块,增强了系统的兼容性。综上,本文针对森林火灾视频识别技术利用边缘计算技术对传统云中心的架构进行了改进,提出基于Edge XFoundry框架的边缘计算平台总体方案,并根据方案结合嵌入式技术和识别算法,构建了终端-边缘-云结构的林火识别边缘计算系统,创新性的将林火识别算法和边缘计算相结合,充分解决了传统云在终端设备密集增长带来的故障率高、时效性差的问题,为我国森林防火的自动化、信息化提供了一种新的手段。
宋永超[9](2020)在《异源视觉道路行车场景的交通对象分类检测算法研究》文中指出随着自动驾驶和高级辅助驾驶技术的快速发展,视觉环境下道路行车场景的交通对象检测不可或缺,对提高智能交通的智能化、安全性水平,实现安全、可靠、舒适的出行任务尤为重要。广泛且充分的感知车辆周围环境信息,获得道路交通对象的检测信息,提高道路出行安全,减少交通安全事故是当前智能交通领域研究的重要内容,并已成为这一领域学者研究和关注的热点。本文在充分调研国内外研究现状的基础上,围绕道路车辆环境感知需求,针对道路行车场景中交通对象检测存在的诸多问题,重点研究了不同视觉源下道路交通三要素(道路、车辆、行人)的分类检测方法。论文的主要研究工作及成果如下:针对大多数道路检测方法对光照变化、阴影敏感,而传统光照不变道路检测方法存在相机轴标定角度难以确定、道路样本采样失真等多重问题,提出了一种基于学习光照无关图的带阴影道路在线检测算法。首先,手工标定出道路图像序列的道路块和非道路块,利用多特征融合方法训练生成道路块SVM分类器;然后,将组合道路块RGB空间转换为几何均值对数色度空间,并根据Shannon熵确定每帧图像相机轴的标定角,以获取各自帧的光照无关图;最后,通过车前安全距离区域随机采样方法提取道路样本点,建立道路置信区间分类器,将道路从背景中分离出来。使用多个视频序列评估算法的有效性,实验结果表明,此方法可以得到高质量的道路检测结果,实现检测过程的实时性。针对现实交通环境中双目视差图匹配误差大、计算复杂度高,以及车辆等交通对象检测缺少必要的深度信息等问题,提出了一种基于单目深度估计和精细化U-V视图的路上车辆检测算法。使用加入边缘增强损失函数的单目深度估计模型得到原始视差图,并通过原始视差图的水平和垂直投影来定义初始的U和V视图;提出精细化U、V视图的道路感兴趣区域检测算法获得路上车辆感兴趣区域;提出道路区域平行扫描算法确定路上车辆或行人源点,使用邻间视差相似性算法对目标区域进行补全和提取,结合长宽比、透视比和面积比等多特征融合方法对提取的目标区域精确分割,获得路上车辆检测结果。实验结果表明,此方法实现了同一检测框架下路上车辆或行人的分类检测,满足路上车辆检测的时间有效性。针对可见光图像在夜间交通对象检测尤其是行人检测中失效以及现存的夜间行人检测方法准确率和实时性矛盾的问题,提出了一种基于快速显着性和多特征融合的夜间行人检测算法。使用一种红外图像行人目标显着性模型,实现夜间行人目标区域的快速获取;提出目标区域细化分离方法,去除感兴趣区域中可能存在的非行人区域粘连干扰,获得夜间行人候选边界框;使用多特征融合的夜间行人特征提取方法,结合SVM分类算法,实现对夜间行人的分类,并使用多个视频序列评估夜间行人分类检测算法的有效性。实验结果表明,此方法可以获得高质量的夜间行人的分类检测结果,满足道路场景的实时性要求。本文的研究工作可以实现异源视觉下道路行车场景中道路、车辆和行人等交通对象的分类检测,提供了一种道路行车场景的交通环境感知新模式,对助力提高道路交通车辆的行车安全具有一定意义,为构建基于视觉信息的道路环境感知系统提供了一种有效方法。
贾岚翔[10](2020)在《计算机视觉在违章识别系统的研究与应用》文中指出随着国力的增强以及人民的富裕,私家车的数量以及私家车出行正在逐渐取代公共交通工具出行方式,交通违章问题是现代交通的核心关注点,也是保证人民财产以及人身安全的的关键。在现实中,交通执法者往往会面临天气等不可抗因素无法执行道路面对面的监督违法,需要快速及时的对车辆违章行为事件做出反应,就需要违章识别系统来辅助交通执法者对交通违章行为识别以及记录,目前市面上的一些违章拍照系统过于单一且违章拍摄的准确度有待提高,在处理干扰事件时会被一些外因影响较大,因此在违章识别问题上利用计算机视觉更加具有现实意义。首先本文针对国内外的计算机视觉方向研究动态进行阐述,以目前的计算机现有运算能力以及网络传输能力应对计算机视觉以及机器学习的问题已经可以完成,进一步对图像预处理的算法进行研究,其中包括图像的基本表示法,形态学操作以及边缘检测和直线检测等,其中最主要的是形态学操作以及边缘检测和直线检测,对后续的违章行为识别有着关键作用。然后分析日常生活中常见的违章行为比如违章停车,违章变道,违章逆行和安全带的佩戴等依次分析和选择设计监测方案,对于车辆识别算法做了多种比对,最后选取了识别效果及速度上最折中的YOLO算法对车辆进行识别,然后对识别违章的算法进行设计,但是仅仅可是识别车辆违章行为还是不够的,还需对违章的车辆进行记录,其中涉及到了车辆牌照的识别,其中又涉及到了车牌的定位,车牌字符的分割以及单个字符的识别。改进了占空比方式违章停车检测方法,并运用在违章识别系统中。使用车辆识别方法加占空比方式识别,更加精确直观的识别违章停车的车辆,从而提高了违章检测的有效性。最后收集大量车辆数据集并对数据集进行标注处理,然后练训识别权重,最后对于识别算法进行比对,验证了识别方案的有效性,同时根据实际情况开发出违章识别系统,将研究算法在系统中进行了有效的应用。
二、视频交通图像自适应阈值边缘检测(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、视频交通图像自适应阈值边缘检测(论文提纲范文)
(1)基于深度学习的智能车辆可行驶区域检测方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 可行驶区域检测技术研究现状 |
1.2.1 智能车辆车载传感器应用现状 |
1.2.2 基于经验模型的可行驶区域检测方法研究现状 |
1.2.3 基于机器学习的可行驶区域检测方法研究现状 |
1.3 研究现状总结 |
1.4 论文研究的主要内容及方法 |
第2章 图像检测与分割基础理论 |
2.1 特征向量 |
2.1.1 表征不变性 |
2.1.2 典型的特征 |
2.2 卷积神经网络 |
2.2.1 CNN基本原理 |
2.2.2 模型可解释性 |
2.2.3 模型基本框架 |
2.3 模型性能评估 |
2.4 本章小结 |
第3章 基于空域迁移注意力机制的路面分割算法 |
3.1 引言 |
3.2 注意力机制相关研究 |
3.3 注意力迁移机制及路面分割算法 |
3.3.1 骨干网络及金字塔结构 |
3.3.2 空域迁移注意力 |
3.3.3 卷积核随机失活 |
3.4 结果与讨论 |
3.4.1 实验设置 |
3.4.2 模型训练 |
3.4.3 结果分析 |
3.5 本章小结 |
第4章 基于级联AdaBoost-CNN的行人检测算法 |
4.1 引言 |
4.2 多特征联合行人检测相关研究 |
4.3 级联AdaBoost-CNN行人检测算法 |
4.3.1 网络框架 |
4.3.2 聚合通道快速特征金字塔 |
4.3.3 骨干网络 |
4.4 结果与讨论 |
4.4.1 实验设置 |
4.4.2 模型训练 |
4.4.3 结果分析 |
4.5 本章小结 |
第5章 基于空间相关特征传播的多任务联合检测算法 |
5.1 引言 |
5.2 视频检测加速的相关研究 |
5.3 空间相关特征传播及多任务网络 |
5.3.1 网络整体框架 |
5.3.2 目标检测与语义分割联合网络 |
5.3.3 相关性与帧选模块 |
5.3.4 特征传播模块 |
5.4 结果与讨论 |
5.4.1 实验设置 |
5.4.2 模型训练 |
5.4.3 结果分析 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 全文总结 |
6.2 论文创新点 |
6.3 研究展望 |
参考文献 |
作者简介及在学期间所取得的主要科研成果 |
致谢 |
(2)基于背景建模的复杂场景中运动目标检测方法研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 运动目标检测 |
1.2.2 背景建模法 |
1.3 背景建模面临的主要困难和挑战 |
1.4 本文的主要工作及结构安排 |
2 基于多特征融合的背景建模方法 |
2.1 基于多特征融合的背景建模方法 |
2.1.1 背景模型工作原理 |
2.1.2 模型的初始化 |
2.1.3 模型更新策略 |
2.2 实验与结果分析 |
2.2.1 对比实验及分析 |
2.2.2 定量分析 |
2.3 本章小结 |
3 基于改进Census变换的多特征背景建模方法 |
3.1 改进Census变换 |
3.2 基于改进Census变换的多特征背景建模方法 |
3.2.1 背景模型工作原理 |
3.2.2 模型的初始化 |
3.2.3 模型更新策略 |
3.3 实验与结果分析 |
3.3.1 光线突变场景实验及分析 |
3.3.2 动态背景和复杂背景实验及分析 |
3.4 本章小结 |
4 基于自适应复杂场景的背景建模方法 |
4.1 基于自适应复杂场景的背景建模方法 |
4.1.1 背景模型工作原理 |
4.1.2 模型的初始化 |
4.1.3 模型更新策略 |
4.2 实验及结果分析 |
4.2.1 对比实验 |
4.2.2 定量分析 |
4.3 本章小结 |
5 基于改进形态学的背景建模方法 |
5.1 改进Vi Be背景建模方法 |
5.1.1 背景模型工作原理 |
5.1.2 模型的初始化 |
5.1.3 自适应判断阈值 |
5.2 基于改进形态学的背景建模方法 |
5.2.1 形态学 |
5.2.2 改进形态学的背景图像处理 |
5.2.3 基于邻域中值鬼影区域检测与消除 |
5.2.4 模型更新策略 |
5.3 实验与结果分析 |
5.3.1 对比实验及分析 |
5.3.2 定量分析 |
5.4 本章小结 |
6 结论与展望 |
6.1 结论 |
6.2 展望 |
致谢 |
参考文献 |
攻读学位期间的研究成果 |
(3)基于图像处理的炉膛火焰监测系统研究和设计(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题背景及研究意义 |
1.2 火焰监测系统的研究现状与发展趋势 |
1.2.1 传统传感器火焰检测技术 |
1.2.2 数字图像火焰监测技术 |
1.3 研究设计理念 |
1.4 论文主要研究内容及章节安排 |
1.5 本章小结 |
第2章 图像采集监控系统总体设计 |
2.1 锅炉炉膛环境分析 |
2.1.1 炉膛火焰分析 |
2.1.2 图像采集监控系统必要性分析 |
2.2 图像采集监控系统设计 |
2.2.1 图像采集监控系统总体结构设计 |
2.2.2 图像采集监控系统中冷却子系统设计 |
2.2.3 图像采集监控系统中进给子系统设计 |
2.2.4 图像采集设备选型 |
2.3 图像采集控制系统 |
2.3.1 图像采集控制系统总体设计 |
2.3.2 图像采集控制系统控制流程和点数设计 |
2.3.3 图像采集系统安装设计 |
2.3.4 图像采集控制系统设备选型 |
2.3.5 主控制系统与图像采集系统通讯配置 |
2.4 本章小结 |
第3章 火焰图像复原处理 |
3.1 火焰视频图像分析 |
3.1.1 图像色彩空间分析 |
3.1.2 图像噪声源和噪声种类分析 |
3.1.3 图像质量评价标准 |
3.2 自适应预处理 |
3.2.1 火焰噪声图像分析 |
3.2.2 预处理必要性分析 |
3.2.3 自适应预处理方法综述 |
3.2.4 噪声图像自适应预处理 |
3.3 火焰图像滤波处理 |
3.3.1 滤波处理必要性分析 |
3.3.2 经典空域滤波算法 |
3.3.3 偏微分方程去噪 |
3.3.4 图像滤波处理总结 |
3.4 本章小结 |
第4章 火焰特征区域识别 |
4.1 火焰图像边缘检测 |
4.1.1 线段检测法 |
4.1.2 Roberts算子边缘检测法 |
4.1.3 Prewitt算子边缘检测法 |
4.1.4 Sobel算子边缘检测法 |
4.1.5 LOG算子边缘检测法 |
4.1.6 边缘检测函数检测法 |
4.2 图像特征区域分割 |
4.2.1 全局阈值分割 |
4.2.2 Otsu阈值分割 |
4.2.3 迭代阈值分割 |
4.2.4 边缘检测阈值分割法 |
4.3 图像特征区域锐化 |
4.4 本章小结 |
第5章 火焰燃烧状态判定与调节 |
5.1 火焰燃烧状态判定 |
5.1.1 火焰燃烧状态分类 |
5.1.2 火焰图像特征提取 |
5.1.3 特征量和火焰状态分析 |
5.1.4 特征量的确定 |
5.1.5 火焰燃烧状态的判定 |
5.2 火焰燃烧状态调节 |
5.2.1 组态通讯 |
5.2.2 控制系统设计 |
5.3 本章小结 |
结论与展望 |
主要研究成果与结论 |
课题展望 |
参考文献 |
致谢 |
附录 A 攻读学位期间所发表的学术论文 |
(4)道路运动目标检测和跟踪算法的改进与原型设计(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究工作的背景与意义 |
1.2 国内外研究历史与现状 |
1.2.1 运动目标检测的现状和发展 |
1.2.2 运动目标跟踪的现状和发展 |
1.3 本文的主要内容和贡献 |
1.4 本论文的结构安排 |
第二章 运动目标检测与跟踪相关技术及原理 |
2.1 特征角点检测算法 |
2.2 光流跟踪原理 |
2.2.1 光流法原理 |
2.2.2 Lucas-kanade光流法 |
2.3 图像分割 |
2.4 阈值分割算法 |
2.4.1 全局阈值分割法 |
2.4.2 直方图分割法 |
2.4.3 Otsu阈值分割 |
2.5 形态学处理 |
2.6 本章小结 |
第三章 光流场分割算法的设计与改进 |
3.1 图像预处理 |
3.1.1 图像ROI区域提取 |
3.1.2 图像灰度化和滤波处理 |
3.2 特征点检测以及光流场建立 |
3.2.1 分级特征点检测 |
3.2.2 基于金字塔LK光流法的光流场的建立 |
3.3 基于光流点特征的DBSCAN聚类分割算法改进 |
3.3.1 传统的相似性度量 |
3.3.2 改进的光流相似性度量 |
3.3.3 聚类分割算法过程 |
3.4 实验结果与分析 |
3.5 本章小结 |
第四章 道路运动目标检测跟踪算法的设计与改进 |
4.1 分块自适应阈值分割算法 |
4.1.1 图像分块 |
4.1.2 分块自适应阈值算法 |
4.2 运动三图融合 |
4.2.1 基于块内 Canny 边缘的图像分割 |
4.2.2 图像融合细节 |
4.3 基于Cam Shift和卡尔曼滤波的运动物体跟踪 |
4.3.1 经典跟踪算法 |
4.3.2 Cam Shift目标跟踪原理 |
4.3.3 卡尔曼滤波原理 |
4.3.4 卡尔曼跟踪器模型 |
4.4 实验结果与分析 |
4.4.1 实验环境配置 |
4.4.2 评估数据 |
4.4.3 系统评估指标 |
4.4.4 不同场景下的检测跟踪效果 |
4.4.5 与其他算法对比实验 |
4.5 本章小结 |
第五章 道路运动目标检测跟踪原型设计与实现 |
5.1 系统需求分析 |
5.1.1 问题描述 |
5.1.2 功能性需求 |
5.1.3 非功能性需求 |
5.2 系统设计 |
5.2.1 系统总体架构设计 |
5.2.2 系统功能模块设计 |
5.2.3 系统界面设计 |
5.3 系统实现 |
5.3.1 运动目标检测模块 |
5.3.2 运动目标跟踪模块 |
5.4 系统测试 |
5.4.1 功能测试 |
5.4.2 性能测试 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结工作 |
6.2 展望 |
致谢 |
参考文献 |
(5)交通标志检测识别算法研究与嵌入式设备应用(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究工作的背景与意义 |
1.2 道路交通标志检测识别算法研究现状 |
1.2.1 道路交通标志检测研究现状 |
1.2.2 道路交通标志识别研究现状 |
1.3 本文的主要内容与贡献 |
1.4 本文的结构安排 |
第二章 道路交通标志和相关技术概要 |
2.1 交通标志分析 |
2.2 图像处理技术介绍 |
2.2.1 颜色空间 |
2.2.2 椭圆拟合算法 |
2.2.3 区域生长算法 |
2.2.4 自适应阈值分割算法 |
2.3 卷积神经网络相关原理 |
2.3.1 局部感受野 |
2.3.2 共享权重 |
2.3.3 池化层 |
2.4 本章小结 |
第三章 基于传统图像处理的交通标志检测算法研究 |
3.1 图像区域分割和候选框提取 |
3.1.1 多色彩空间自适应联合分割算法 |
3.1.2 基于区域生长算法的消除和融合算法 |
3.1.3 斜投影下的形状检测算法 |
3.2 交通标志检测器的设计与训练 |
3.2.1 LBP特征简介 |
3.2.2 数据集的准备 |
3.2.3 基于LBP-SVM检测器的设计和训练 |
3.3 实验结果与分析 |
3.4 本章小结 |
第四章 基于轻量级CNN的交通标志识别算法研究 |
4.1 交通标志数据集 |
4.2 LB-Ghost卷积网络的设计与训练 |
4.2.1 交通标志预处理和增强 |
4.2.2 LB-Ghost网络的设计 |
4.2.3 LB-Ghost网络的训练 |
4.3 实验结果与分析 |
4.4 本章小结 |
第五章 交通标志检测识别嵌入式原型系统实现 |
5.1 系统需求分析 |
5.1.1 需求背景 |
5.1.2 功能需求 |
5.1.3 非功能需求 |
5.2 系统设计 |
5.2.1 整体框架 |
5.2.2 处理流程 |
5.2.3 检测识别模块 |
5.2.4 普通模块 |
5.3 系统实现 |
5.3.1 区域的提取 |
5.3.2 特征的提取 |
5.3.3 分类和回归 |
5.4 系统测试 |
5.4.1 功能测试 |
5.4.2 性能测试 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 全文总结 |
6.2 展望 |
致谢 |
参考文献 |
(6)基于视频图像处理的交通流实时检测系统(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景与研究意义 |
1.2 国内外研究历史与现状 |
1.2.1 国外研究历史与现状 |
1.2.2 国内研究历史与现状 |
1.3 本文结构安排 |
2 视频车辆检测系统的方案设计 |
2.1 视频车辆检测技术概述 |
2.2 视频图像处理系统 |
2.2.1 常用的视频图像处理系统 |
2.2.2 FPGA与图像处理 |
2.3 系统总体方案 |
2.3.1 系统硬件设计方案 |
2.3.2 系统软件设计方案 |
2.4 本章小结 |
3 基于视频图像处理的交通流检测算法分析与设计 |
3.1 图像预处理 |
3.1.1 中值滤波 |
3.1.2 改进的快速中值滤波 |
3.1.3 高斯滤波 |
3.2 车辆存在检测 |
3.2.1 车辆存在检测算法分析 |
3.2.2 边缘检测算法 |
3.2.5 改进的Sobel边缘检测算法 |
3.2.6 车道区域分割 |
3.3 车流量统计算法 |
3.3.1 车流量统计算法分析 |
3.3.2 改进的车流量统计算法 |
3.5 车辆排队长度检测算法 |
3.5.1 车辆排队长度检测算法分析 |
3.5.2 改进的车辆排队长度检测算法 |
3.6 实际空间长度计算 |
3.6.1 摄像机标定模型 |
3.6.2 摄像机标定方法 |
3.7 本章小结 |
4 交通流智能检测的FPGA实现 |
4.1 图像预处理的FPGA实现 |
4.1.1 灰度转换模块实现 |
4.1.2 中值滤波模块实现 |
4.1.3 高斯滤波模块实现 |
4.2 车辆存在检测的FPGA实现 |
4.2.1 改进的Sobel边缘检测模块实现 |
4.2.2 车道区域分割模块实现 |
4.3 车流量统计的FPGA实现 |
4.3.1 形态学膨胀处理模块实现 |
4.3.2 车流量统计模块Modelsim仿真结果 |
4.4 排队长度提取的FPGA实现 |
4.4.1 排队长度提取模块实现原理 |
4.4.2 排队长度提取模块Modelsim仿真结果 |
4.5 其他功能模块实现 |
4.5.1 图像采集模块实现 |
4.5.2 SDRAM控制器实现 |
4.5.3 VGA显示模块实现 |
4.6 本章小结 |
5 系统硬件设计 |
5.1 系统硬件部分 |
5.1.1 电源电路 |
5.1.2 配置电路 |
5.1.3 SDRAM电路 |
5.1.4 图像采集电路 |
5.1.5 晶振与复位电路 |
5.1.6 VGA驱动电路 |
5.2 硬件仿真结果 |
5.3 本章小结 |
6 总结与展望 |
6.1 工作总结 |
6.2 展望 |
参考文献 |
致谢 |
作者简介及读研期间主要科研成果 |
(7)基于计算机视觉的海上多目标船舶检测与跟踪关键技术研究(论文提纲范文)
创新点摘要 |
摘要 |
ABSTRACT |
1 绪论 |
1.1 研究背景及意义 |
1.2 研究现状 |
1.2.1 计算机视觉技术 |
1.2.2 目标检测技术 |
1.2.3 目标跟踪技术 |
1.3 存在的主要问题 |
1.4 本文的主要研究内容 |
1.5 本文的组织构架 |
2 海天线检测算法 |
2.1 基于惯性测量的海天线估算模型 |
2.1.1 摄像机横荡、纵荡和艏摇运动对海天线位置的影响 |
2.1.2 摄像机垂荡运动对海天线位置的影响 |
2.1.3 摄像机纵摇运动对海天线位置的影响 |
2.1.4 摄像机横摇运动对海天线位置的影响 |
2.2 定义海天线附近区域 |
2.2.1 海天线静态特征 |
2.2.2 海天线附近区域 |
2.3 基于惯性测量和图像处理的海天线精确检测模型 |
2.3.1 改进的边缘检测模型 |
2.3.2 改进的霍夫变换模型 |
2.4 试验验证 |
2.4.1 数据集及评价指标 |
2.4.2 验证海天线估算模型 |
2.4.3 验证改进的边缘检测模型 |
2.4.4 验证改进的霍夫变换模型 |
2.4.5 验证海天线精确检测模型 |
2.5 本章小结 |
3 图像序列内目标船舶运动特征建模 |
3.1 图像序列内目标船舶运动特征分析 |
3.1.1 运动分类 |
3.1.2 运动模型 |
3.1.3 运动估计 |
3.2 光流运动模型 |
3.2.1 特征点匹配 |
3.2.2 海天线匹配 |
3.2.3 特征点分类 |
3.2.4 单应矩阵计算 |
3.3 本章小结 |
4 海上目标船舶检测算法 |
4.1 基于视觉显着性的船舶检测算法 |
4.1.1 视觉显着性 |
4.1.2 改进的快速最小障碍距离变换算法 |
4.2 基于电子稳像和图像分类的船舶检测算法 |
4.2.1 特征点分类处理策略 |
4.2.2 图像分类模型 |
4.3 基于改进YOLOv3模型的船舶检测算法 |
4.3.1 分块检测模型 |
4.3.2 自适应锚框聚类模型 |
4.4 试验验证 |
4.4.1 数据集和评价指标 |
4.4.2 基于视觉显着性船舶检测算法的验证 |
4.4.3 基于电子稳像和图像分类的船舶检测算法的验证 |
4.4.4 基于改进YOLOv3模型的船舶检测算法的验证 |
4.4.5 三种船舶检测算法的对比分析 |
4.5 本章小结 |
5 海上多目标船舶跟踪算法 |
5.1 MOT工作原理 |
5.2 运动模型和外观模型 |
5.2.1 运动模型 |
5.2.2 外观模型 |
5.3 相似性度量和数据关联 |
5.3.1 相似性度量 |
5.3.2 匈牙利算法 |
5.4 MVT算法流程 |
5.5 试验验证 |
5.5.1 数据集和评价指标 |
5.5.2 验证运动模型 |
5.5.3 验证外观模型 |
5.5.4 验证MVT算法 |
5.5.5 消融分析 |
5.6 本章小结 |
6 结论与展望 |
6.1 结论 |
6.2 展望 |
参考文献 |
作者简历及攻读博士学位期间的科研成果 |
致谢 |
(8)基于边缘计算的森林火灾视频识别技术的研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 森林火灾视频识别技术研究现状 |
1.2.2 边缘计算研究现状 |
1.3 主要研究内容和方法 |
1.4 本文结构安排 |
2 视频识别相关技术 |
2.1 视频检索技术 |
2.2 视频数据特点及结构 |
2.2.1 视频数据特点 |
2.2.2 视频数据结构 |
2.3 视频检索原理及关键技术 |
2.3.1 视频检索原理 |
2.3.2 视频检索关键技术 |
2.4 本章小结 |
3 基于SURF和SIFT特征的林火烟雾镜头边界检侧 |
3.1 特征融合的方法 |
3.1.1 局部特征 |
3.1.2 特征融合 |
3.2 林火烟雾镜头边界变换的检测方法 |
3.3 林火烟雾镜头边界检测 |
3.4 结果评价指标 |
3.5 实验结果与分析 |
3.6 本章小结 |
4 基于K-Means的林火烟雾视频关键帧提取 |
4.1 关键帧提取原理 |
4.2 基于聚类的林火烟雾视频关键帧提取算法 |
4.2.1 聚类特征的提取 |
4.2.2 K-Means聚类 |
4.2.3 基于改进K-Means的关键帧提取算法 |
4.2.4 林火烟雾视频关键帧提取算法流程 |
4.3 实验结果与分析 |
4.4 本章小结 |
5 基于HOG_SVM模型的林火烟雾视频识别 |
5.1 HOG特征 |
5.2 SVM原理 |
5.3 视频图像预处理 |
5.3.1 数据预处理 |
5.3.2 数据增强 |
5.4 基于HOG_SVM林火烟雾识别模型的构建 |
5.5 实验结果与分析 |
5.5.1 实验环境 |
5.5.2 HOG特征可视化 |
5.5.3 基于HOG_SVM模型识别效果 |
5.6 本章小结 |
6 基于Faster R-CNN的林火烟雾视频识别 |
6.1 深度学习技术 |
6.1.1 深度学习特点 |
6.1.2 深度学习在视频检索中的应用 |
6.2 Faster R-CNN相关理论 |
6.2.1 卷积神经网络基本理论 |
6.2.2 Faster R-CNN模型原理 |
6.2.3 模型常用函数 |
6.3 基于Faster R-CNN林火烟雾识别模型的构建 |
6.3.1 Faster R-CNN识别模型 |
6.3.2 Faster R-CNN模型训练 |
6.3.3 改进的Faster R-CNN模型 |
6.4 实验结果与分析 |
6.4.1 实验数据集与环境 |
6.4.2 模型表现分析 |
6.4.3 与传统模型的比较 |
6.5 本章小结 |
7 森林火灾监侧边缘计算架构设计 |
7.1 典型边缘计算平台 |
7.1.1 移动边缘计算 |
7.1.2 雾计算 |
7.1.3 Edge X Foundry |
7.1.4 朵云计算平台 |
7.2 边缘计算平台的选择 |
7.3 森林火灾监测边缘设备描述 |
7.4 森林火灾监测Edge X Foundry框架设计 |
7.4.1 设备服务层设计 |
7.4.2 核心服务层设计 |
7.4.3 支持服务层设计 |
7.4.4 输出服务层设计 |
7.5 森林火灾监测边缘计算网关设计与实现 |
7.6 本章小结 |
结论 |
参考文献 |
攻读学位期间发表的学术论文 |
致谢 |
附件 |
(9)异源视觉道路行车场景的交通对象分类检测算法研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 选题背景及意义 |
1.2 国内外研究现状分析 |
1.2.1 自动驾驶技术 |
1.2.2 高级辅助驾驶技术 |
1.2.3 车载视觉技术 |
1.2.4 道路检测 |
1.2.5 车辆检测 |
1.2.6 行人检测 |
1.3 研究内容与章节安排 |
1.3.1 研究内容 |
1.3.2 章节安排 |
第二章 异源视觉道路行车场景视觉处理 |
2.1 单目视觉色度空间 |
2.1.1 RGB颜色空间 |
2.1.2 光照不变对数色度空间 |
2.2 深度视觉场景构建 |
2.2.1 深度视觉道路场景模型 |
2.2.2 U、V视图 |
2.2.3 深度视觉道路场景特性 |
2.3 红外视觉图像处理 |
2.3.1 红外视觉道路场景行人特性 |
2.3.2 红外视觉注意机制 |
2.4 本章小结 |
第三章 基于学习光照无关图的带阴影道路在线检测算法 |
3.1 引言 |
3.2 光照无关图 |
3.3 基于学习的在线?角标定 |
3.3.1 多特征融合的道路块特征提取 |
3.3.2 SVM道路块判定器 |
3.3.3 最小熵求解 |
3.4 道路检测算法 |
3.4.1 感兴趣区域提取 |
3.4.2 光照无关图获取 |
3.4.3 道路样本集 |
3.4.4 道路分类器 |
3.5 实验结果与分析 |
3.5.1 CVC公共数据集测试 |
3.5.2 自制视频序列测试 |
3.5.3 强太阳光和低对比度条件检测 |
3.5.4 时间有效性分析 |
3.6 本章小结 |
第四章 基于单目深度估计和精细化U-V视图的车辆检测算法 |
4.1 引言 |
4.2 单目深度估计模型 |
4.3 道路感兴趣区域检测算法 |
4.3.1 精细化U、V视图 |
4.3.2 地平线检测 |
4.3.3 道路区域修正 |
4.4 路上车辆检测 |
4.4.1 路上车辆源点生成 |
4.4.2 路上车辆目标检测 |
4.5 实验结果与分析 |
4.5.1 边缘增强损失视差图 |
4.5.2 道路感兴趣区域检测结果 |
4.5.3 路上车辆检测结果 |
4.5.4 时间有效性分析 |
4.6 本章小结 |
第五章 基于快速显着性和多特征融合的夜间行人检测算法 |
5.1 引言 |
5.2 夜间行人感兴趣区域生成 |
5.2.1 快速显着性图获取 |
5.2.2 目标区域细化分离 |
5.3 夜间行人结果确定 |
5.3.1 多特征融合的夜间行人特征提取 |
5.3.2 线性核SVM夜间行人分类器 |
5.4 实验结果与分析 |
5.4.1 数据集描述 |
5.4.2 夜间行人检测结果 |
5.4.3 时间有效性分析 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 研究工作总结 |
6.2 研究工作展望 |
参考文献 |
攻读博士学位期间取得的研究成果 |
致谢 |
(10)计算机视觉在违章识别系统的研究与应用(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 选题背景 |
1.2 研究意义 |
1.3 国内外研究动态 |
1.4 本文主要研究内容及难点分析 |
1.5 本章小结 |
第2章 图像预处理算法的研究 |
2.1 图像基本表示方法 |
2.1.1 二值图像 |
2.1.2 灰度图像 |
2.1.3 彩色图像 |
2.2 图像基本处理 |
2.2.1 彩色图像转灰度图像 |
2.2.2 二值图像的转化 |
2.2.3 图像去噪 |
2.3 形态学操作 |
2.3.1 腐蚀 |
2.3.2 膨胀 |
2.3.3 开运算与闭运算 |
2.4 图像的边缘检测 |
2.4.1 Canny边缘检测 |
2.4.2 Sobel算子 |
2.5 图像中直线检测 |
2.5.1 霍夫变换 |
2.5.2 概率霍夫变换 |
2.6 图像金字塔 |
2.7 本章小结 |
第3章 违章行为的分析与检测设计 |
3.1 违章停车的检测与判别 |
3.1.1 均值方差阈值方式检测违章停车 |
3.1.2 占空比方式检测违章停车 |
3.2 违章变道的检测与判别 |
3.2.1 巴氏度量车辆违章变道检测 |
3.2.2 分水岭加轨迹违章变道检测 |
3.3 违章逆行的检测与判别 |
3.3.1 质心坐标检测法 |
3.3.2 卷积神经网络的车辆逆行检测 |
3.4 安全带佩戴的检测与判别 |
3.4.1 基于霍夫变换的安全带检测 |
3.4.2 卷积神经网络的安全带识别 |
3.4.3 显着梯度图检测安全带 |
3.4.4 结合YOLO的驾驶员安全带检测 |
3.5 本章小结 |
第4章 车牌识别算法的研究 |
4.1 车牌定位算法的研究 |
4.1.1 图像二值化 |
4.1.2 边缘检测 |
4.1.3 闭运算与车牌定位 |
4.2 车辆牌照字符的分割 |
4.2.1 模板匹配法 |
4.2.2 垂直投影法 |
4.3 单个字符的识别 |
4.4 神经网络识别车牌 |
4.4.1 特征值的提取 |
4.4.2 BP神经网络的训练 |
4.5 车辆牌照分类识别 |
4.5.1 RGB图像转换HSV类型 |
4.5.2 形态统计学识别车牌颜色 |
4.6 本章小结 |
第5章 车辆识别及跟踪算法的确定 |
5.1 SVM分类法识别车辆 |
5.1.1 基于HOG特征和SVM的车辆识别 |
5.1.2 HOG特征提取 |
5.1.3 HOG特征提取的实现方法 |
5.1.4 HOG特征提取与计算步骤 |
5.1.5 SVM车辆分类器训练 |
5.2 YOLO目标检测算法 |
5.2.1 YOLOv3目标检测算法原理 |
5.2.2 对图片进行标注 |
5.2.3 Darknet-53 神经网络 |
5.2.4 YOLOv3的多尺度特征目标识别 |
5.3 SVM+HOG VS YOLOv3 |
5.4 图像标注及权重训练 |
5.4.1 增加数据集及图像信息标注 |
5.4.2 训练数据集 |
5.4.3 训练结果分析 |
5.5 车辆追踪算法确定 |
5.5.1 多目标跟踪算法 |
5.6 本章小结 |
第6章 违章识别系统的设计 |
6.1 软件需求分析 |
6.1.1 用户需求分析 |
6.1.2 界面需求分析 |
6.2 系统模块及架构设计 |
6.2.1 系统模块设计 |
6.2.2 系统架构设计 |
6.3 系统功能的实现 |
6.3.1 软件开发环境 |
6.3.2 UI设计 |
6.4 软件检测结果分析 |
6.5 本章小结 |
总结和展望 |
参考文献 |
攻读硕士学位期间发表的学术论文 |
致谢 |
四、视频交通图像自适应阈值边缘检测(论文参考文献)
- [1]基于深度学习的智能车辆可行驶区域检测方法研究[D]. 李贵远. 吉林大学, 2021(01)
- [2]基于背景建模的复杂场景中运动目标检测方法研究[D]. 郭治成. 兰州交通大学, 2021(01)
- [3]基于图像处理的炉膛火焰监测系统研究和设计[D]. 马明荣. 兰州理工大学, 2021(01)
- [4]道路运动目标检测和跟踪算法的改进与原型设计[D]. 庄漫. 电子科技大学, 2021(01)
- [5]交通标志检测识别算法研究与嵌入式设备应用[D]. 李欣芮. 电子科技大学, 2021(01)
- [6]基于视频图像处理的交通流实时检测系统[D]. 吴天友. 安徽理工大学, 2020(07)
- [7]基于计算机视觉的海上多目标船舶检测与跟踪关键技术研究[D]. 单雄飞. 大连海事大学, 2020
- [8]基于边缘计算的森林火灾视频识别技术的研究[D]. 孙晓芳. 东北林业大学, 2020(09)
- [9]异源视觉道路行车场景的交通对象分类检测算法研究[D]. 宋永超. 长安大学, 2020(06)
- [10]计算机视觉在违章识别系统的研究与应用[D]. 贾岚翔. 大连交通大学, 2020(06)