[发明专利]一种基于监控视频的交通事故自动检测方法在审
| 申请号: | 201510961047.9 | 申请日: | 2015-12-21 |
| 公开(公告)号: | CN105405297A | 公开(公告)日: | 2016-03-16 |
| 发明(设计)人: | 吴磊;武德安;陈鹏;梁帅 | 申请(专利权)人: | 电子科技大学;成都国科海博信息技术股份有限公司 |
| 主分类号: | G08G1/017 | 分类号: | G08G1/017;G06T7/20;H04N7/18 |
| 代理公司: | 北京天奇智新知识产权代理有限公司 11340 | 代理人: | 杨春 |
| 地址: | 610041 四川省成*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 监控 视频 交通事故 自动检测 方法 | ||
技术领域
本发明涉及一种交通事故自动检测方法,尤其涉及一种基于监控视频的交通事故自动检测方法。
背景技术
随着经济的发展及汽车拥有量的增加,城市交通拥堵严重,事故频发,环境恶化,为了减少和预防交通事故的发生,对道路交通的实时检测、实时监控越来越受到人们的重视,因此智能交通系统的研究成为了热点。在交通监督和控制系统中,精确的和环境自适应的交通事故检测方法的研究有着非常重要的意义,它可以迅速检测道路上发生的交通事件,减少由于交通事件所带来的人员伤亡、财产损失等影响,避免二次事件的发生,节约能源,减少污染。随着研究的深入,诸多的研究者提出了很多有效的交通事件检测的方法。
基于智能交通系统的研究迅速发展,精确的和环境自适应的交通事故检测方法的研究吸引了广泛的注意力,近几年研究者在该领域的研究中也取得了重大进展,但是这些文献中发表的检测方法要运用到实际中仍然存在很大的困难。交通事故检测方法要运用到实际中,必须要能够处理交通情况从拥堵时段到闲暇时段的转变,以及适应不同的交通条件和光照条件。
目前在交通事故检测方法上的研究表现出两个方向:轨迹分析和运动分析。但是两种方法的主要目的都是构建正常情况下的交通运动模型,而不是直接在视频中捕捉发生的交通事故。轨迹分析方法通过使用目标轨迹建立正常的车辆轨迹模型,从而来检测异常事件,虽然这个方法取得了很大的成就,但是在不好的光照环境和复杂的交通环境等条件下快速地获得精确的车辆轨迹仍然是一个很大的难题。运动分析方法主要是通过分析整个视频帧来提取时间和空间上的特征来描述特定的目标信息。与轨迹分析方法相比,运动分析方法有着更好的能力去适应不同的交通环境,在单个事件的检测上有着很好的表现。
轨迹分析方法中,重在分析十字路口场景中的左转弯等角度碰撞,该方法无法检测更多种类的交通事故,而且一些小目标和相连的目标容易产生错误的轨迹,导致该方法检测效果较差。运动分析方法并不跟踪车辆,由于只有稀疏的监视器,该检测方法只能使用本地的信息,因此这些固定的监视器会错过一些重要的光流并产生一些错误的警报。
基于交通流的交通事件检测方法对公路上车辆的交通流参数进行估计,避免了跟踪车辆轨迹的一些弊端问题,但是在对车辆事故的检测中缺少针对性,不能捕捉事故发生的区域坐标,且容易造成事故误报、漏报等情况。基于方向图的交通事故检测方法利用全局的光流场来构建整帧图像的方向图来检测交通事故,在鲁棒性上有很大的提高,但是该算法在计算耗时上有很大的负担,运行速度较缓慢,无法保证实时性运用。
总的说来,目前针对交通事故自动定位检测仍没有一种针对性强、精确性高、鲁棒性与实时性好的检测方法。
发明内容
本发明的目的就在于为了解决上述问题而提供一种针对性强、精确性高、鲁棒性与实时性好的基于监控视频的交通事故自动检测方法。
本发明通过以下技术方案来实现上述目的:
一种基于监控视频的交通事故自动检测方法,包括以下步骤:
(1)对监控视频序列的每一帧图像使用金字塔Lucas-Kanade光流法构建光流场;
(2)基于光流场,分析视频帧全局的交通流特性,根据由光流场定义的速度流、加速度流,定义描述交通流特性的描述子,其后,根据视频帧序列构建高斯模型,并设定阈值;
(3)基于光流场,分析视频帧局部的车辆运动特性,定义局部方向图的概念并计算其能量,其后,根据视频帧序列构建高斯模型,并设定阈值;
(4)构造事故检验模型,检验交通事故是否发生。
具体地,所述步骤(1)中,每一帧图像选取的角点数目在500到1000之间。
作为优选,所述步骤(2)的具体方法包括以下步骤:
①对监控视频中第k帧的交通速度流Sk的定义如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学;成都国科海博信息技术股份有限公司,未经电子科技大学;成都国科海博信息技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510961047.9/2.html,转载请声明来源钻瓜专利网。





