[发明专利]最大化飞行时间光学深度传感器在计算环境中的效率在审
申请号: | 201910359355.2 | 申请日: | 2019-04-30 |
公开(公告)号: | CN110557193A | 公开(公告)日: | 2019-12-10 |
发明(设计)人: | 奥哈德·梅纳什;埃雷兹·斯珀林;阿维德·扎巴塔尼;维塔利·苏拉利斯基;迈克尔·布龙斯坦;罗恩·基米尔;亚历克斯·布龙斯坦 | 申请(专利权)人: | 英特尔公司 |
主分类号: | H04B10/079 | 分类号: | H04B10/079;H04B10/524;H04B10/70;H04N17/00 |
代理公司: | 11258 北京东方亿思知识产权代理有限责任公司 | 代理人: | 宗晓斌 |
地址: | 美国加利*** | 国省代码: | 美国;US |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 光子束 深度传感器 计算环境 发送 弹回 存储器设备 效率最大化 场景 代码生成 对象返回 返回信号 相机检测 最大化 飞行 观察 捕获 存储 检测 | ||
1.一种促进飞行时间光学深度传感器的效率最大化的装置,该装置包括:
检测与观察逻辑,用于促进相机检测和观察场景以及在所述场景中的一个或多个对象;
生成、发送与接收GTR逻辑,用于基于存储在存储器设备处的发送代码生成光子束,其中,所述GTR逻辑将所述光子束发送到所述一个或多个对象,并捕获从所述一个或多个对象反弹回的光子束;以及
计算与相关逻辑,用于将所述发送代码的第一值与作为光子束从所述一个或多个对象返回的返回信号的第二值相关。
2.如权利要求1所述的装置,还包括:结果应用逻辑,用于从分别与所述发送代码和所述返回信号相对应的所述第一值和所述第二值的相关获得结果,并应用所述结果以创建所述场景的高质量的深度图像,其中,在显示设备上显示的所述深度图像是深度精确的且噪声较低的。
3.如权利要求1所述的装置,其中,所述光子束表示所述发送代码的光学版本,其中所述光子束是通过激活光子发射器来生成的,同时所述光子束通过光学系统被发送到所述一个或多个对象。
4.如权利要求1所述的装置,其中,所述GTR逻辑还通过将所述光子束转换为电子并且进一步转换为所述第二值来生成所述返回信号。
5.如权利要求2所述的装置,其中,所述结果包括与深度和距离相关联的信息,所述深度和距离是所述一个或多个对象相对于测距设备或相对于与所述测距设备相关联的一个或多个传感器的深度和距离。
6.如权利要求5所述的装置,其中,所述测距设备包括点测距仪和基于飞行时间TOF的三维3D相机中的一者或多者,并且其中,所述发送代码和所述返回信号包括二进制代码并且是基于脉冲编码调制PCM方案的。
7.如权利要求1所述的装置,其中,所述装置包括一个或多个处理器,所述处理器包括与应用处理器一同位于同一半导体封装上的图形处理器。
8.一种促进飞行时间光学深度传感器的效率最大化的方法,所述方法包括:
促进计算设备的相机检测和观察场景以及所述场景中的一个或多个对象;
基于存储在存储器设备处的发送代码生成光子束;
将所述光子束发送到所述一个或多个对象,并捕获从所述一个或多个对象反弹回的光子束;并且
将所述发送代码的第一值与作为光子束从所述一个或多个对象返回的返回信号的第二值相关。
9.如权利要求8所述的方法,还包括:
从分别与所述发送代码和所述返回信号相对应的所述第一值和所述第二值的相关获得结果;并且
应用所述结果以创建所述场景的高质量的深度图像,其中,在显示设备处显示的所述深度图像是深度精确的且噪声较低的。
10.如权利要求8所述的方法,其中,所述光子束表示所述发送代码的光学版本,其中所述光子束是通过激活光子发射器来生成的,同时所述光子束通过光学系统被发送到所述一个或多个对象。
11.如权利要求8所述的方法,还包括:通过将所述光子束转换为电子并进一步转换为所述第二值来生成所述返回信号。
12.如权利要求9所述的方法,其中,所述结果包括与深度和距离相关联的信息,所述深度和距离是所述一个或多个对象相对于测距设备或相对于与所述测距设备相关联的一个或多个传感器的深度和距离。
13.如权利要求12所述的方法,其中,所述测距装置包括点测距仪和基于飞行时间TOF的三维3D相机中的一者或多者,并且其中,所述发送代码和所述返回信号包括二进制代码并且是基于脉冲编码调制PCM方案的。
14.如权利要求8所述的方法,其中,所述计算设备包括一个或多个处理器,所述处理器包括与应用处理器一同位于同一半导体封装上的图形处理器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于英特尔公司,未经英特尔公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910359355.2/1.html,转载请声明来源钻瓜专利网。