[发明专利]一种连续帧数据的标注系统、方法和装置有效
申请号: | 202010041206.4 | 申请日: | 2020-01-15 |
公开(公告)号: | CN113127666B | 公开(公告)日: | 2022-06-24 |
发明(设计)人: | 马贤忠;胡皓瑜;江浩;董维山;范一磊 | 申请(专利权)人: | 魔门塔(苏州)科技有限公司 |
主分类号: | G06F16/538 | 分类号: | G06F16/538;G06F16/55;G06F16/587;G06F16/58 |
代理公司: | 北京科领智诚知识产权代理事务所(普通合伙) 11782 | 代理人: | 陈士骞 |
地址: | 215100 江苏省苏州市相城区*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 连续 帧数 标注 系统 方法 装置 | ||
本发明实施例公开了一种连续帧数据的标注系统、方法和装置,该系统包括云端和标注端;其中,云端读取连续帧数据,并根据标注任务,对连续帧数据中的每一帧数据进行目标检测,得到每帧数据中待标注物体的检测结果;根据检测结果和各帧数据间的时序信息,建立各帧数据中同一个待标注物体间的关联关系作为预标注结果;将预标注结果生成可扩展的预标注文件,并将预标注文件和连续帧数据发送到标注端;标注端接收云端发送的连续帧数据及对应的预标注文件,并在接收到对预标注文件的修正指令后,按照修正指令对标注文件进行修正,得到目标标注结果。通过采用上述方案,缩短了连续帧数据标注的人工用时,提升了连续帧数据的标注效率,降低了标注成本。
技术领域
本发明涉及自动驾驶技术领域,具体涉及一种连续帧数据的标注系统、方法和装置。
背景技术
在自动驾驶领域,感知模块是以多种传感器的数据,以及高精度地图的信息作为输入,经过一系列的计算及处理,对自动驾驶车的周围的环境精确感知。自动驾驶感知算法目前主流采用深度学习方法,需要用到大量的标注数据集来训练模型,所以能够更快更高效的生成大量的标注数据,是自动驾驶感知的关键。
目前,大多数标注数据都是人工标注的,包括2D图像、3D激光雷达点云数据等,这是一个非常缓慢而低效的过程。它需要人坐在计算机屏幕前操作标注工具,逐个标记它们,极度耗费人力。对于激光雷达数据,由于其数据形态的复杂性和稀疏性,很容易标注错误或者漏标,甚至有可能给神经网络训练带来负面影响。
发明内容
本发明实施例公开一种连续帧数据的标注系统、方法和装置,极大地缩短了连续帧数据标注的人工用时,提升了连续帧数据的标注效率,降低了标注成本。
第一方面,本发明实施例公开了一种连续帧数据的标注系统,该系统包括:云端和标注端;其中,
所述云端被配置为:获取标注任务,所述标注任务中包括待标注物体的类别、位置和输出文件格式;
所述云端读取连续帧数据,并根据所述标注任务,对所述连续帧数据中的每一帧数据进行目标检测,将得到的每帧数据中待标注物体的类别和位置作为检测结果;
所述云端根据所述检测结果和各帧数据间的时序信息,建立各帧数据中同一个待标注物体间的关联关系,所述关联关系为所述连续帧数据的预标注结果;
所述云端将所述预标注结果按照所述输出文件格式生成可扩展的预标注文件,并将所述预标注文件和所述连续帧数据发送到所述标注端;
所述标注端被配置为:接收所述云端发送的连续帧数据及对应的预标注文件,并在接收到对所述预标注文件的修正指令后,按照所述修正指令对所述标注文件进行修正,并将修正后的标注结果作为所述连续帧数据的目标标注结果。
第二方面,本发明实施例还提供了一种连续帧数据的标注,应用于云端,该方法包括:
获取标注任务,所述标注任务中包括待标注物体的类别和位置;
读取连续帧数据,并根据所述标注任务,对所述连续帧数据中的每一帧数据进行目标检测,将得到的每帧数据中待标注物体的类别和位置作为检测结果;
根据所述检测结果和各帧数据间的时序信息,建立各帧数据中同一个待标注物体间的关联关系,其中,所述关联关系作为所述连续帧数据的预标注结果,用于在标注端根据修正指令进行修正,所述标注端修正后的标注结果为所述连续帧数据的目标标注结果。
可选的,所述方法还包括:
基于机器学习方法,对所述检测结果进行修正,使得同一个待标注物体具有相同的尺寸,其中,所述机器学习方法包括卡尔曼滤波算法。
可选的,所述标注任务中还包括输出文件格式;
相应的,所述方法还包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于魔门塔(苏州)科技有限公司,未经魔门塔(苏州)科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010041206.4/2.html,转载请声明来源钻瓜专利网。