长沙理工大学梁敏获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉长沙理工大学申请的专利一种深度时空关联的视频目标跟踪方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116051601B 。
龙图腾网通过国家知识产权局官网在2026-05-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211720383.0,技术领域涉及:G06T7/246;该发明授权一种深度时空关联的视频目标跟踪方法及系统是由梁敏;桂彦;刘斌斌设计研发完成,并于2022-12-30向国家知识产权局提交的专利申请。
本一种深度时空关联的视频目标跟踪方法及系统在说明书摘要公布了:本申请公开了一种深度时空关联的视频目标跟踪方法及系统,实现逐视频序列的目标跟踪,同时保证获得精确的视频目标跟踪结果。首先设计一个时空特征提取器,提取模板序列和搜索序列的时空特征。其次,引入特征匹配模块,由分类分支和回归分支组成。将抽取的模板时空特征和搜索时空特征通过相关滤波进行相似匹配,分别获得多通道相关滤波特征。然后,部署一个目标跟踪模块,包括分类头和回归头,分别根据输入的多通道相关滤波特征计算分类得分图和回归得分图,用于预测目标位置和估计目标的尺度。最后,通过最小化定义的联合损失优化时空关联视觉跟踪模型。在目标跟踪测试中,提出置信区域估计策略,从而在视频序列中保持鲁棒和准确的目标跟踪。
本发明授权一种深度时空关联的视频目标跟踪方法及系统在权利要求书中公布了:1.一种深度时空关联的视频目标跟踪方法,其特征在于,所述方法由计算机执行,包括以下步骤: S1、构建网络架构,该网络由时空特征提取器、特征匹配子网络以及目标预测子网络组成;所述网络架构提高模型检测和定位能力,获得更准确的视频目标跟踪结果,包括: S11、基于3D孪生网络的时空特征提取器包括模板分支和搜索分支,以3D全卷积神经网络作为基础网络且权值共享,用于从输入的模板序列块和搜索序列块中提取模板时空特征和搜索时空特征; S12、特征匹配子网络由分类分支和回归分支组成,分别以模板时空特征和搜索时空特征作为输入,利用相关滤波操作进行特征相似性匹配,获得多通道相关滤波特征; S13、目标预测子网络包括分类头和回归头,以多通道相关滤波特征作为输入,通过分类头和回归头,分别得到分类得分图和回归得分图; S2、分别给定模板序列视频帧和搜索序列视频帧,并将其裁剪成模板序列块和搜索序列块,作为整个网络架构的输入; S3、构建时空特征提取器;时空特征提取器是一个3D孪生全卷积网络,包括模板分支和搜索分支,以3D全卷积网络作为基础网络且权值共享;将模板序列块和搜索序列块作为输入,时空特征提取器从其中提取模板时空特征和搜索时空特征; S4、构建特征匹配子网络,包括分类分支和回归分支;将得到的模板时空特征和搜索时空特征作为这两个分支的输入,利用相关滤波操作进行特征相似度匹配,使得分类分支和回归分支分别输出多通道相关滤波特征; S5、构建目标预测子网络,主要由分类头和回归头组成;将分类分支和回归分支输出的多通道相关滤波特征输入到对应的分类头和回归头,得到分类得分图和回归得分图; S6、根据分类得分图定位序列中每一视频帧目标的位置;根据回归得分图,对序列中每一视频帧的目标尺度进行估计,得到搜索序列中每一视频帧的目标预测框; S7、通过最小化联合损失优化网络模型,包括分类的交叉熵损失和回归的交并比损失,最终得到视频目标跟踪器模型; S8、以训练的网络模型为视觉跟踪器,对给定的视频进行逐视频序列的目标跟踪;为了保证稳定和准确的跟踪,定义置信搜索区域估计策略,根据当前视频序列中不同的目标状态裁剪下一个序列的搜索区域,减少误差累积,准确地定位搜索序列中每一视频帧的目标。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人长沙理工大学,其通讯地址为:410114 湖南省长沙市天心区万家丽路二段960号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励