← 返回列表

融合仿生动态视觉的空间非合作目标特征跟踪方法

申请号: CN202410227483.2
申请人: 中国科学院光电技术研究所
申请日期: 2024/2/29

摘要文本

本发明公开了一种融合仿生动态视觉的空间非合作目标特征跟踪方法,涉及航天器姿态测量技术领域,分为图像帧特征提取、事件流帧间特征跟踪两个部分,包括将传统相机获取的图像帧数据进行图像角点提取和存储,仿生动态视觉传感器获取的事件流与图像角点进行匹配,进一步根据优化策略,实现特征在帧间利用事件流实现跟踪。本发明提出了融合仿生动态视觉的空间非合作目标特征跟踪方法,通过将事件流与图像角点关联起来,实现高于传统相机帧频的特征跟踪,突破传统相机在高动态光照范围及高速运动等情况下测量劣势,提高特征跟踪的鲁棒性。

专利详细信息

项目 内容
专利名称 融合仿生动态视觉的空间非合作目标特征跟踪方法
专利类型 发明申请
申请号 CN202410227483.2
申请日 2024/2/29
公告号 CN117808847A
公开日 2024/4/2
IPC主分类号 G06T7/246
权利人 中国科学院光电技术研究所
发明人 赵汝进; 邓诗易; 龙鸿峰; 马跃博; 曹子飞; 唐雨萍
地址 四川省成都市人民南路四段九号

专利主权项内容

1.融合仿生动态视觉的空间非合作目标特征跟踪方法,其特征在于,包括以下步骤:步骤一,获取第一帧空间非合作目标图像作为初始图像帧,其中/>为图像像素点,进一步进行图像角点检测,获得只包含位置坐标的特征点,进一步选取特征点周围区域像素作为处理单元图像块;步骤二,对初始图像帧进行梯度信息提取得到梯度图/>,完成初始图像帧/>的特征初始化,包括获得角点特征的坐标、对应的处理单元图像块及其梯度信息;步骤三,等待仿生动态视觉传感器事件流数据,将时间戳信息与第一帧空间非合作目标图像的初始图像帧的时间戳信息比较,确保事件数据生成于时间窗口内,筛除不在时间窗口内的事件流;根据事件坐标信息判断接收到的事件数据是否位于某一角点的处理单元图像块之内;如在某一角点的处理单元图像块之内,则将其视为有效事件数据,并将有效事件数据的事件数据信息存储在对应的处理单元图像块内,所述事件数据信息包括事件的时间戳信息、坐标、极性;步骤四,当步骤三中的处理单元图像块内的有效事件数据达到设定的最大事件数时,将此处理单元图像块内的数据合成事件帧/>;步骤五,设定三自由度的warp参数,所述warp参数包括位移向量以及旋转角度/>,结合梯度图/>的预测亮度增量图/>,与对应的数据合成事件帧,通过最大似然估计得到特征点的warp参数;步骤六,根据warp参数计算得到新的特征点位置,完成特征跟踪,并同步更新对应的处理单元图像块的位置;步骤七,当新的图像帧到来时,通过光流算法,通过前一图像帧的角点位置得到新的图像帧的角点坐标,排除失去视野的角点,进入新一帧图像的特征跟踪。 更多数据:搜索马克数据网来源:www.macrodatas.cn