[发明专利]用于实时重建3D轨迹的方法和系统有效
申请号: | 201380037611.7 | 申请日: | 2013-07-10 |
公开(公告)号: | CN104521230B | 公开(公告)日: | 2018-10-02 |
发明(设计)人: | 劳伦·德尼佐;费尔南德·阿尔卡多;罗德里格·法夫罗;西里尔·赛彼埃特 | 申请(专利权)人: | 埃吉迪姆技术公司 |
主分类号: | H04N7/18 | 分类号: | H04N7/18 |
代理公司: | 北京柏杉松知识产权代理事务所(普通合伙) 11413 | 代理人: | 王春伟;刘继富 |
地址: | 法国*** | 国省代码: | 法国;FR |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 实时 重建 轨迹 方法 系统 | ||
1.一种用于通过连接到一组摄像机并且访问来自这些摄像机的视频记录的处理服务器来重建一个场所处轨迹的方法,所述处理服务器基于以下来实施基于虚拟现实和增强现实的3D可视化应用:
-所述场所的3D表示的静态模型,和
-动态3D表示数据库,
所述3D可视化应用配置为用于:
-在时刻T0时的3D可视化中,响应于来自用户的第一指令来确定被视为已经被物主遗留在所述场所的对象的位置,
-确定用于显示所述对象的最佳定位的至少一个摄像机,
-访问来自该摄像机的视频记录以显示在T0之前的时刻t时的记录,t是响应于与所述物主遗留所述对象的时刻相对应的第二指令来确定的,
-启动用于通过来自不同摄像机的从时刻t到目前时刻的记录来追踪所述物主的方法,以确定所述物主的当前位置;每当物主离开摄像机的视场,就通过确定最佳定位的摄像机来进行用于追踪所述物主的方法,其中最佳定位的摄像机的确定如下所述地进行:
-基于在显示正在查看的记录的2D监视器上做出的点击,确定所述物主与地面的作用点的三维坐标,
-基于所述3D可视化和所述2D监视器之间的双射函数来计算在所述3D可视化中所述物主与地面的作用点的三维坐标,并且基于该三维坐标来确定最佳定位的摄像机,然后显示来自所述最佳定位的摄像机的记录以继续追踪。
2.根据权利要求1所述的方法,其特征在于,通过计算每个摄像机的d/f比来确定最佳放置的摄像机,d为所述物主与地面的作用点的三维坐标和所考虑的摄像机之间的距离,f为所考虑的摄像机的焦距。
3.根据权利要求2所述的方法,其特征在于,所述焦距和所述摄像机的位置随着时间的推移保持不变。
4.根据权利要求3所述的方法,其特征在于,所述焦距对于所有的摄像机都是相同的。
5.根据权利要求4所述的方法,其特征在于,所述处理服务器还恢复与所述焦距的动态特性和所述摄像机的方位相关的数据以计算所述d/f比。
6.根据权利要求1所述的方法,其特征在于,所述3D可视化和所述监视器集成在同一显示屏上。
7.根据权利要求6所述的方法,其特征在于,所述显示屏是触摸屏类型的。
8.根据权利要求1、6和7中任一项所述的方法,其特征在于,在追踪方法期间,以大于正常记录速度的速度读取所述记录。
9.根据权利要求1、6和7中任一项所述的方法,其特征在于,一旦确定所述物主的当前位置,就将其坐标无线传输到远程移动终端。
10.根据权利要求1、6和7中任一项所述的方法,其特征在于,所述第一指令是由光标产生的,所述光标能够由所述用户沿着在所述3D可视化中显示的时间线移动。
11.一种用于通过处理服务器重建一个场所处的轨迹的系统,所述处理服务器连接到:
-一组摄像机并且访问来自这些摄像机的视频记录,
-所述场所的3D表示的静态模型,和
-动态3D表示数据库,
所述处理服务器实施基于虚拟现实和增强现实的3D可视化应用,用于:
-在时刻T0时的3D可视化中,响应于来自用户的第一指令来确定被视为已经被物主遗留在所述场所的对象的位置,
-确定用于显示所述对象的最佳定位的至少一个摄像机,
-访问来自该摄像机的视频记录以显示在T0之前的时刻t时的记录,t是响应于与所述物主遗留所述对象的时刻相对应的第二指令来确定的,
-启动用于通过来自不同摄像机的从时刻t到目前时刻的记录来追踪所述物主的方法,以确定所述物主的当前位置;每当物主离开摄像机的视场,就通过确定最佳定位的摄像机来进行用于追踪所述物主的方法,其中最佳定位的摄像机的确定如下所述地进行:
-基于在显示正在查看的记录的2D监视器上做出的点击,确定所述物主与地面的作用点的三维坐标,
-基于所述3D可视化和所述2D监视器之间的双射函数来计算在所述3D可视化中所述物主与地面的作用点的三维坐标,并且基于该三维坐标来确定最佳定位的摄像机,然后显示来自所述最佳定位的摄像机的记录以继续追踪。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于埃吉迪姆技术公司,未经埃吉迪姆技术公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201380037611.7/1.html,转载请声明来源钻瓜专利网。